JP2015231128A - Adjusting terminal, adjusting method, and computer program - Google Patents

Adjusting terminal, adjusting method, and computer program Download PDF

Info

Publication number
JP2015231128A
JP2015231128A JP2014116237A JP2014116237A JP2015231128A JP 2015231128 A JP2015231128 A JP 2015231128A JP 2014116237 A JP2014116237 A JP 2014116237A JP 2014116237 A JP2014116237 A JP 2014116237A JP 2015231128 A JP2015231128 A JP 2015231128A
Authority
JP
Japan
Prior art keywords
image
information
image sensor
space
illuminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014116237A
Other languages
Japanese (ja)
Other versions
JP6316102B2 (en
Inventor
和美 長田
Kazumi Osada
和美 長田
榎原 孝明
Takaaki Enohara
孝明 榎原
馬場 賢二
Kenji Baba
賢二 馬場
禎敏 齋藤
Sadatoshi Saitou
禎敏 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014116237A priority Critical patent/JP6316102B2/en
Publication of JP2015231128A publication Critical patent/JP2015231128A/en
Application granted granted Critical
Publication of JP6316102B2 publication Critical patent/JP6316102B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an adjusting terminal, an adjusting method and a computer program that can improve efficiency of image sensor setting work.SOLUTION: An adjusting terminal in one embodiment generates an image by imaging a prescribed space, generates setting information that is necessary for the image sensor, which obtains information on the space from the image, to obtain the information on the space, and transmits the setting information to the image sensor. The adjusting terminal includes a communication unit and a generation unit. The communication unit communicates with the image sensor. The generation unit obtains the image from the image sensor and generates the setting information on the basis of the obtained image.

Description

本発明の実施形態は、調整端末、調整方法及びコンピュータプログラムに関する。   Embodiments described herein relate generally to an adjustment terminal, an adjustment method, and a computer program.

従来、センサを用いて空間の情報を取得し、取得された空間の情報に基づいて、制御対象の機器を制御することが行われている。例えば、制御対象の機器が照明機器である場合、人の在・不在や、存在する人の人数、人の活動量などの人に関する情報と、空間の明るさに関する情報とを、空間の情報に用いることができる。例えば、人に関する情報に基づいて人物が不在であることが検知された場合、照明を消灯するように制御することが可能である。また、例えば、空間の明るさに関する情報に基づいて、空間の明るさが外光等により十分に確保されていることが検知された場合、照明の調光率を下げるように制御することも可能である。   Conventionally, space information is acquired using a sensor, and a device to be controlled is controlled based on the acquired space information. For example, if the device to be controlled is a lighting device, the information on the person such as the presence / absence of the person, the number of people present, the amount of activity of the person, and the information on the brightness of the space are converted into the space information. Can be used. For example, when it is detected that a person is absent based on information about a person, it is possible to control to turn off the illumination. In addition, for example, when it is detected that the brightness of the space is sufficiently secured by outside light or the like based on the information on the brightness of the space, it is possible to control to reduce the dimming rate of the illumination It is.

この空間の情報を取得するセンサとして画像センサがある。画像センサは、空間の画像を取得し、その画像から空間の情報を取得する。画像には多くの情報が含まれるため、画像センサは、様々な情報を空間の情報として取得することができる。そのため、画像センサを用いた制御システムでは、多様な空間の情報に基づいた機器制御を行うことができる。また、画像センサは検知範囲を広くとることができるため、センサの設置台数を削減できる利点がある。
しかしながら、画像センサを用いた制御を行う場合、利用者は、センサが空間の情報を取得するために必要となるパラメータを予めセンサに設定する必要がある。そのため、大量の画像センサの設定を人手で行う場合、多くの労力を要する場合があった。
There is an image sensor as a sensor for acquiring information on this space. The image sensor acquires an image of a space, and acquires space information from the image. Since an image includes a lot of information, the image sensor can acquire various information as space information. Therefore, in a control system using an image sensor, device control based on various space information can be performed. Further, since the image sensor can take a wide detection range, there is an advantage that the number of installed sensors can be reduced.
However, when performing control using an image sensor, the user needs to set parameters necessary for the sensor to acquire spatial information in the sensor in advance. Therefore, when a large amount of image sensors are manually set, a lot of labor may be required.

特開2011−249130号公報JP 2011-249130 A

本発明が解決しようとする課題は、画像センサの設定作業の効率を向上させることができる調整端末、調整方法及びコンピュータプログラムを提供することである。   The problem to be solved by the present invention is to provide an adjustment terminal, an adjustment method, and a computer program that can improve the efficiency of setting operation of an image sensor.

実施形態の調整端末は、所定の空間を撮像して画像を生成し、前記画像から空間の情報を取得する画像センサに対して、前記画像センサが前記空間の情報を取得するために必要となる設定情報を生成し、前記画像センサに送信する調整端末であって、通信部と、生成部と、を持つ。通信部は、前記画像センサと通信する。生成部は、前記画像センサから画像を取得し、取得した前記画像に基づいて前記設定情報を生成する。   The adjustment terminal according to the embodiment is necessary for the image sensor to acquire the space information with respect to the image sensor that captures a predetermined space and generates an image and acquires the space information from the image. An adjustment terminal that generates setting information and transmits the setting information to the image sensor, and includes a communication unit and a generation unit. The communication unit communicates with the image sensor. The generation unit acquires an image from the image sensor, and generates the setting information based on the acquired image.

画像センサが設置されたオフィスのレイアウトの具体例を示す図。The figure which shows the specific example of the layout of the office in which the image sensor was installed. 実施形態の画像センサ1を用いた制御システム4の構成を示すシステム構成図。1 is a system configuration diagram showing a configuration of a control system 4 using an image sensor 1 of an embodiment. 画像センサ1の機能構成を示す機能ブロック図。2 is a functional block diagram showing a functional configuration of the image sensor 1. FIG. 調整端末42の機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the adjustment terminal 42. FIG. 画像センサ1によって取得される画像の第1の具体例を示す図。FIG. 3 is a diagram illustrating a first specific example of an image acquired by the image sensor 1. 照度推定エリアの第1の具体例を示す図。The figure which shows the 1st specific example of an illumination intensity estimation area. 画像センサ1によって取得される画像の第2の具体例を示す図。The figure which shows the 2nd specific example of the image acquired by the image sensor. 照度推定エリアの第2の具体例を示す図。The figure which shows the 2nd specific example of an illumination intensity estimation area. 画像センサ1によって取得される画像の第3の具体例を示す図。The figure which shows the 3rd specific example of the image acquired by the image sensor. 照度推定エリアの第3の具体例を示す図。The figure which shows the 3rd specific example of an illumination intensity estimation area. 調整ツールのメニュー画面の具体例を示す図。The figure which shows the specific example of the menu screen of an adjustment tool. 実施形態の画像センサ1を用いた照明機器2の事前設定と、運用中の動作の流れを表すシーケンス図。The sequence diagram showing the preset of the illuminating device 2 using the image sensor 1 of embodiment, and the flow of operation | movement in operation.

以下、実施形態の調整端末、調整方法及びコンピュータプログラムを、図面を参照して説明する。   Hereinafter, an adjustment terminal, an adjustment method, and a computer program according to embodiments will be described with reference to the drawings.

図1は、画像センサが設置されたオフィスのレイアウトの具体例を示す図である。
図1のオフィスでは、天井に画像センサ1−1及び1−2、照明機器2−1及び2−2、及び空調機器3−1〜3−8が設置されている。画像センサ1−1及び1−2は、撮像した画像から、制御対象の機器を制御するために必要な情報(以下、「制御情報」という。)を取得するセンサ装置である。図1における制御対象の機器は、照明機器2−1及び2−2と、空調機器3−1〜3−8である。
FIG. 1 is a diagram showing a specific example of an office layout in which image sensors are installed.
In the office of FIG. 1, image sensors 1-1 and 1-2, lighting devices 2-1 and 2-2, and air conditioning devices 3-1 to 3-8 are installed on the ceiling. The image sensors 1-1 and 1-2 are sensor devices that acquire information (hereinafter referred to as “control information”) necessary for controlling a device to be controlled from a captured image. The devices to be controlled in FIG. 1 are lighting devices 2-1 and 2-2 and air conditioning devices 3-1 to 3-8.

画像センサ1−1は、照明機器2−1及び空調機器3−1〜3−4を制御するために設置されたセンサ装置である。画像センサ1−2は、照明機器2−2及び空調機器3−5〜3−8を制御するために設置されたセンサ装置である。照明機器2−1及び空調機器3−1〜3−4の動作は、画像センサ1−1が撮像した画像から取得された制御情報に基づいて制御される。照明機器2−2及び空調機器3−5〜3−8の動作は、画像センサ1−2が撮像した画像から取得された制御情報に基づいて制御される。   The image sensor 1-1 is a sensor device installed to control the lighting device 2-1 and the air conditioning devices 3-1 to 3-4. The image sensor 1-2 is a sensor device installed to control the lighting device 2-2 and the air conditioning devices 3-5 to 3-8. The operations of the lighting device 2-1 and the air conditioning devices 3-1 to 3-4 are controlled based on control information acquired from an image captured by the image sensor 1-1. The operations of the illumination device 2-2 and the air conditioning devices 3-5 to 3-8 are controlled based on control information acquired from an image captured by the image sensor 1-2.

図2は、実施形態の画像センサ1を用いた制御システム4の構成を示すシステム構成図である。
制御システム4は、画像センサ1−1〜1−3、照明機器2−1〜2−3、外部システム41、調整端末42、第1のネットワーク43、第2のネットワーク44、ゲートウェイ装置45及びHUB46を備える。
FIG. 2 is a system configuration diagram illustrating a configuration of a control system 4 using the image sensor 1 of the embodiment.
The control system 4 includes image sensors 1-1 to 1-3, lighting devices 2-1 to 2-3, an external system 41, an adjustment terminal 42, a first network 43, a second network 44, a gateway device 45, and a HUB 46. Is provided.

画像センサ1−1〜1−3は、設置された位置付近の画像を撮像し、撮像された画像から制御情報を取得するセンサ装置である。図2において、画像センサ1−1〜1−3はそれぞれ、照明機器2−1〜2−3を制御するためのセンサ装置である。図2では、1つの画像センサに1つの照明機器が対応づけられているが、1つの画像センサには複数の照明機器が対応づけられてもよい。画像センサ1−1〜1−3は、HUB46によって第2のネットワーク44に収容され、調整端末42及びゲートウェイ装置45と通信可能である。画像センサ1−1〜1−3は、ゲートウェイ装置45を介して外部システム41と通信可能である。画像センサ1−1〜1−3は、取得した制御情報を外部システム41に送信する。以下の説明では、特に区別しない限り、画像センサ1−1〜1−3を画像センサ1と記す。   The image sensors 1-1 to 1-3 are sensor devices that capture an image near the installed position and acquire control information from the captured image. In FIG. 2, image sensors 1-1 to 1-3 are sensor devices for controlling the lighting devices 2-1 to 2-3, respectively. In FIG. 2, one illumination device is associated with one image sensor, but a plurality of illumination devices may be associated with one image sensor. The image sensors 1-1 to 1-3 are accommodated in the second network 44 by the HUB 46, and can communicate with the adjustment terminal 42 and the gateway device 45. The image sensors 1-1 to 1-3 can communicate with the external system 41 via the gateway device 45. The image sensors 1-1 to 1-3 transmit the acquired control information to the external system 41. In the following description, unless otherwise specified, the image sensors 1-1 to 1-3 are referred to as an image sensor 1.

照明機器2−1〜2−3は、制御システム4によって制御される対象の照明機器である。本実施形態では、制御対象の機器が照明機器である場合について説明するが、制御対象の機器は、照明機器以外の機器であってもよい。例えば、制御対象の機器は、空調機器であってもよいし、エレベータ装置であってもよい。以下の説明では、特に区別しない限り照明機器2−1〜2−3を照明機器2と記す。   The lighting devices 2-1 to 2-3 are target lighting devices controlled by the control system 4. In the present embodiment, the case where the device to be controlled is a lighting device will be described, but the device to be controlled may be a device other than the lighting device. For example, the device to be controlled may be an air conditioner or an elevator device. In the following description, lighting devices 2-1 to 2-3 will be referred to as lighting devices 2 unless otherwise specified.

外部システム41は、制御対象の機器の制御を行う装置やシステムの集合である。例えば、外部システム41は、BEMS(Building Energy Management System)411(登録商標、以下同様)などのシステム、及び、照明制御装置412や空調制御装置413などの装置を備える。BEMSとは、ビル内の機器や設備などの運転を管理することによってエネルギー消費量の削減を図るためのビル管理システムである。外部システム41は、第1のネットワーク43に接続され、ゲートウェイ装置45を介して画像センサ1及び調整端末42と通信可能である。外部システム41は、画像センサ1から送信された制御情報に基づいて、制御対象の機器を制御する。   The external system 41 is a set of devices and systems that control devices to be controlled. For example, the external system 41 includes a system such as a BEMS (Building Energy Management System) 411 (registered trademark, hereinafter the same), and devices such as a lighting control device 412 and an air conditioning control device 413. BEMS is a building management system for reducing energy consumption by managing the operation of equipment and facilities in a building. The external system 41 is connected to the first network 43 and can communicate with the image sensor 1 and the adjustment terminal 42 via the gateway device 45. The external system 41 controls the device to be controlled based on the control information transmitted from the image sensor 1.

調整端末42は、画像センサ1の運用を開始する前に、画像センサ1の事前設定を行うための端末である。調整端末42は、画像センサ1が制御情報を取得するために必要となる設定情報を生成する。調整端末42には、PC(Personal Computer)や、スマートフォン、タブレットなどの情報機器が用いられる。調整端末42は、生成した設定情報を画像センサ1に送信する。   The adjustment terminal 42 is a terminal for performing pre-setting of the image sensor 1 before starting the operation of the image sensor 1. The adjustment terminal 42 generates setting information necessary for the image sensor 1 to acquire control information. As the adjustment terminal 42, an information device such as a PC (Personal Computer), a smartphone, or a tablet is used. The adjustment terminal 42 transmits the generated setting information to the image sensor 1.

第1のネットワーク43は、外部システム41を収容するネットワークである。例えば、第1のネットワーク43はBACnet(Building Automation and Control Networking protocol)や産業用Ethernet(登録商標、以下同様)などの規格によって規定されたプロトコルで通信するネットワークである。BACAnetは、インテリジェントビル用のネットワーク規格であり、空調機器や照明機器の制御や、アクセス制御、火気検出などに用いられる。産業用Ethernetは、主に工場等の製造現場におけるFA(Factory Automation)システムに対応したEthernet規格である。   The first network 43 is a network that accommodates the external system 41. For example, the first network 43 is a network that communicates with a protocol defined by a standard such as BACnet (Building Automation and Control Networking protocol) or industrial Ethernet (registered trademark, hereinafter the same). BACAnet is a network standard for intelligent buildings, and is used for control of air-conditioning equipment and lighting equipment, access control, fire detection, and the like. Industrial Ethernet is an Ethernet standard mainly corresponding to FA (Factory Automation) systems in manufacturing sites such as factories.

第2のネットワーク44は、画像センサ1、照明機器2及び調整端末42を収容するネットワークである。第2のネットワーク44は、ゲートウェイ装置45によって第1のネットワーク43に接続される。なお、第2のネットワーク44は、第1のネットワーク43に統合されもよい。
ゲートウェイ装置45は、第1のネットワーク43と第2のネットワーク44と間の通信を中継するゲートウェイ装置である。ゲートウェイ装置45は、第1のネットワーク43と第2のネットワーク44との間で通信プロトコルを変換する。
HUB46は、画像センサ1を第2のネットワーク44に収容するネットワークハブである。
The second network 44 is a network that accommodates the image sensor 1, the lighting device 2, and the adjustment terminal 42. The second network 44 is connected to the first network 43 by the gateway device 45. Note that the second network 44 may be integrated with the first network 43.
The gateway device 45 is a gateway device that relays communication between the first network 43 and the second network 44. The gateway device 45 converts a communication protocol between the first network 43 and the second network 44.
The HUB 46 is a network hub that accommodates the image sensor 1 in the second network 44.

図3は、画像センサ1の機能構成を示す機能ブロック図である。
画像センサ1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、センサ制御プログラムを実行する。画像センサ1は、センサ制御プログラムの実行によって、通信制御部11、記憶部12、撮像部13、環境情報取得部14、人物情報取得部15及び設定部16を備える装置として機能する。
なお、画像センサ1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。センサ制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。センサ制御プログラムは、電気通信回線を介して送信されてもよい。
FIG. 3 is a functional block diagram showing a functional configuration of the image sensor 1.
The image sensor 1 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a sensor control program. The image sensor 1 functions as a device including the communication control unit 11, the storage unit 12, the imaging unit 13, the environment information acquisition unit 14, the person information acquisition unit 15, and the setting unit 16 by executing the sensor control program.
Note that all or part of the functions of the image sensor 1 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The sensor control program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The sensor control program may be transmitted via a telecommunication line.

通信制御部11は、LAN(Local Area Network)等の通信インターフェースを用いて構成される。通信制御部11は、外部システム41及び調整端末42との間の通信を制御する。
記憶部12は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部12は、撮像情報121及び設定情報122を記憶する。撮像情報121は、撮像部13によって記録される。設定情報122は、設定部16によって記録される。撮像情報121及び設定情報122の詳細は後述する。
The communication control unit 11 is configured using a communication interface such as a LAN (Local Area Network). The communication control unit 11 controls communication between the external system 41 and the adjustment terminal 42.
The storage unit 12 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 12 stores imaging information 121 and setting information 122. The imaging information 121 is recorded by the imaging unit 13. The setting information 122 is recorded by the setting unit 16. Details of the imaging information 121 and the setting information 122 will be described later.

撮像部13は、カメラなどの撮像機能を有する装置を用いて構成される。撮像部13は、自装置が設置された位置付近の空間を撮像し、空間の画像を取得する。撮像部13は、取得した画像や、その画像を取得したときの撮像パラメータなどの情報を撮像情報121として、記憶部12に保存する。撮像パラメータとは、撮像部13の撮像動作を制御するためのパラメータである。例えば、撮像パラメータは、シャッター速度やゲイン、アイリス、焦点距離などのパラメータである。   The imaging unit 13 is configured using a device having an imaging function such as a camera. The imaging unit 13 captures a space near the position where the device is installed, and acquires an image of the space. The imaging unit 13 stores information such as the acquired image and imaging parameters when the image is acquired in the storage unit 12 as imaging information 121. The imaging parameter is a parameter for controlling the imaging operation of the imaging unit 13. For example, the imaging parameters are parameters such as shutter speed, gain, iris, focal length and the like.

環境情報取得部14は、撮像情報121に基づいて、撮像部13によって撮像された空間の環境情報を取得する。環境情報は、制御情報の1つであり、制御対象の機器を制御するために必要な情報である。環境情報は、対象の空間において人を取り巻く環境の状態を表す情報である。例えば、環境情報は、空間の明るさを表す照度や、ブラインドの状態、オフィスのレイアウトなどを表す情報である。環境情報取得部14は、取得した環境情報を通信制御部11に出力し、外部システム41に送信する。   The environment information acquisition unit 14 acquires environment information of the space imaged by the imaging unit 13 based on the imaging information 121. The environment information is one piece of control information, and is information necessary for controlling the device to be controlled. The environmental information is information representing the state of the environment surrounding the person in the target space. For example, the environment information is information representing illuminance representing the brightness of the space, the state of the blinds, the layout of the office, and the like. The environment information acquisition unit 14 outputs the acquired environment information to the communication control unit 11 and transmits it to the external system 41.

人物情報取得部15は、撮像情報121に基づいて、撮像部13によって撮像された空間の人物情報を取得する。人物情報は、制御情報の1つであり、制御対象の機器を制御するために必要な情報である。人物情報とは、対象の空間に存在する人の状態を表す情報である。例えば、人物情報は、人の在・不在、人数、活動量、行動、挙動、移動、滞留、顔の向き、位置、姿勢、性別、身長などを表す情報である。人物情報取得部15は、取得した人物情報を通信制御部11に出力し、外部システム41に送信する。   The person information acquisition unit 15 acquires the person information of the space imaged by the imaging unit 13 based on the imaging information 121. The person information is one piece of control information and is information necessary for controlling the device to be controlled. The person information is information representing the state of a person existing in the target space. For example, the person information is information representing the presence / absence of a person, the number of persons, the amount of activity, the behavior, the behavior, the movement, the stay, the face direction, the position, the posture, the sex, the height, and the like. The person information acquisition unit 15 outputs the acquired person information to the communication control unit 11 and transmits it to the external system 41.

設定部16は、調整端末42から設定情報を取得する。設定部16は、取得した設定情報を設定情報122として記憶部12に保存する。設定情報122が保存されることによって、画像センサ1に対する事前設定が完了する。事前設定の完了後、画像センサ1は、自装置に設定された設定情報122に基づいて、撮像情報121から環境情報や人物情報などの制御情報を取得するセンサとして動作することが可能になる。   The setting unit 16 acquires setting information from the adjustment terminal 42. The setting unit 16 stores the acquired setting information as setting information 122 in the storage unit 12. By saving the setting information 122, the pre-setting for the image sensor 1 is completed. After completion of the pre-setting, the image sensor 1 can operate as a sensor that acquires control information such as environment information and personal information from the imaging information 121 based on the setting information 122 set in the self-device.

次に、実施形態の調整端末42の詳細について説明する。以下の説明では、調整端末42が、照明機器の明るさの制御に用いられる画像センサ1に対して事前設定を行う場合について説明する。この場合、調整端末42が生成する画像センサ1の設定情報とは、照度推定パラメータ及び照度推定エリア情報である。以下の説明では、まず、この照度推定パラメータ及び照度推定エリア情報の内容について説明する。その説明の後、調整端末42の構成と、調整端末42がこれらの設定情報を生成する方法について説明する。   Next, details of the adjustment terminal 42 of the embodiment will be described. In the following description, a case will be described in which the adjustment terminal 42 performs presetting on the image sensor 1 used for controlling the brightness of the lighting device. In this case, the setting information of the image sensor 1 generated by the adjustment terminal 42 is an illuminance estimation parameter and illuminance estimation area information. In the following description, first, the contents of the illuminance estimation parameter and the illuminance estimation area information will be described. After the description, the configuration of the adjustment terminal 42 and the method by which the adjustment terminal 42 generates the setting information will be described.

まず、照度推定パラメータ及び照度推定エリア情報について説明する。
画像センサ1を用いた照明機器の明るさの制御では、画像センサ1は、取得した画像から空間の明るさを推定する。そして、照明制御装置412が、推定された空間の明るさに基づいて、制御対象の照明機器の調光率を制御する。具体的には、画像センサ1は、画像の輝度から空間の照度を推定する。そのため、照度の推定には、画像の輝度と照度との関係を表す照度推定モデルを用いる。
First, illuminance estimation parameters and illuminance estimation area information will be described.
In controlling the brightness of the lighting device using the image sensor 1, the image sensor 1 estimates the brightness of the space from the acquired image. Then, the lighting control device 412 controls the dimming rate of the lighting device to be controlled based on the estimated brightness of the space. Specifically, the image sensor 1 estimates the illuminance of the space from the luminance of the image. For this reason, an illuminance estimation model that represents the relationship between the luminance of the image and the illuminance is used for estimating the illuminance.

一般に、空間に供給される光量が同じであっても、空間に存在する物体の材質や色、配置などの条件によって、その空間の明るさは異なる。そのため、照度推定モデルを用いる場合、対象の空間の特徴を照度推定モデルに反映する必要がある。この空間の特徴を表すパラメータを照度推定パラメータと呼ぶ。例えば、照度推定パラメータには、対象の空間における反射率に関する情報が含まれる。反射率とは、物体が光を反射する度合いを表す値である。そのため、空間に存在する物体の反射率が大きいほど、その空間の明るさは増す。この空間に存在する物体の反射率を、対象の空間全体で総合した値を空間の反射率と呼ぶ。   In general, even if the amount of light supplied to a space is the same, the brightness of the space varies depending on conditions such as the material, color, and arrangement of an object present in the space. Therefore, when the illuminance estimation model is used, it is necessary to reflect the feature of the target space in the illuminance estimation model. A parameter representing the feature of this space is called an illuminance estimation parameter. For example, the illuminance estimation parameter includes information on the reflectance in the target space. The reflectance is a value representing the degree to which an object reflects light. Therefore, the brightness of the space increases as the reflectance of the object existing in the space increases. A value obtained by combining the reflectance of an object existing in this space over the entire target space is called a spatial reflectance.

画像センサ1は、照度推定パラメータを照度推定モデルに適用し、取得した画像から対象の空間の明るさを表す照度情報を取得する。このとき、画像センサ1が照度情報の取得に使用する画像の領域を照度推定エリアという。照度推定エリアが適切に設定されることによって、画像センサ1が取得する照度情報の精度が向上する。調整端末42は、画像センサ1によって取得された対象の空間の画像と、その画像の取得と同時に計測された対象の空間における照度の実測値(以下、「基準照度情報」という。)と、に基づいて、上記の照度推定パラメータ及び照度推定エリア情報を生成する。調整端末42は、これらの情報を設定情報として、画像センサ1に送信する。   The image sensor 1 applies the illuminance estimation parameter to the illuminance estimation model, and acquires illuminance information representing the brightness of the target space from the acquired image. At this time, the area of the image used by the image sensor 1 for acquiring illuminance information is referred to as an illuminance estimation area. By appropriately setting the illuminance estimation area, the accuracy of the illuminance information acquired by the image sensor 1 is improved. The adjustment terminal 42 includes an image of the target space acquired by the image sensor 1 and an actual illuminance value (hereinafter referred to as “reference illuminance information”) of the target space measured simultaneously with the acquisition of the image. Based on the above, the illuminance estimation parameter and the illuminance estimation area information are generated. The adjustment terminal 42 transmits these pieces of information as setting information to the image sensor 1.

図4は、調整端末42の機能構成を示す機能ブロック図である。
調整端末42は、バスで接続されたCPUやメモリなどを備え、調整プログラムを実行する。調整プログラムは、画像センサ1の設定情報を生成するプログラムである。調整プログラムは、調整端末42の利用者に、設定情報を生成する操作を入力するためのユーザインターフェース(以下、「調整ツール」という。)を提供する。調整端末42は、調整プログラムの実行によって、記憶部421、通信制御部422、入力部423及び設定情報生成部424を備える装置として機能する。
なお、調整端末42の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。調整プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。調整プログラムは、電気通信回線を介して送信されてもよい。
FIG. 4 is a functional block diagram showing a functional configuration of the adjustment terminal 42.
The adjustment terminal 42 includes a CPU and a memory connected by a bus, and executes an adjustment program. The adjustment program is a program that generates setting information of the image sensor 1. The adjustment program provides the user of the adjustment terminal 42 with a user interface (hereinafter referred to as “adjustment tool”) for inputting an operation for generating setting information. The adjustment terminal 42 functions as a device including a storage unit 421, a communication control unit 422, an input unit 423, and a setting information generation unit 424 by executing the adjustment program.
All or some of the functions of the adjustment terminal 42 may be realized using hardware such as ASIC, PLD, or FPGA. The adjustment program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The adjustment program may be transmitted via a telecommunication line.

記憶部421は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部421は、基準照度情報を予め記憶している。基準照度情報の内容は後述する。
通信制御部422は、LAN等の通信インターフェースを用いて構成される。通信制御部422は、HUB46を介して画像センサ1と通信する。
入力部423は、マウスやキーボード、タッチパネルなどの入力装置を用いて構成される。入力部423は、利用者が調整ツールに操作を入力するための入力装置である。入力部423は、利用者の入力を受け付け、入力された情報を設定情報生成部424に出力する。
The storage unit 421 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 421 stores reference illuminance information in advance. The content of the reference illuminance information will be described later.
The communication control unit 422 is configured using a communication interface such as a LAN. The communication control unit 422 communicates with the image sensor 1 via the HUB 46.
The input unit 423 is configured using an input device such as a mouse, a keyboard, or a touch panel. The input unit 423 is an input device for a user to input an operation to the adjustment tool. The input unit 423 receives user input and outputs the input information to the setting information generation unit 424.

設定情報生成部424は、画像センサ1に設定する設定情報を生成する。設定情報生成部424は、生成した設定情報を画像センサ1に送信する。画像センサ1に送信された設定情報は、設定部16によって画像センサ1に設定される。   The setting information generation unit 424 generates setting information to be set for the image sensor 1. The setting information generation unit 424 transmits the generated setting information to the image sensor 1. The setting information transmitted to the image sensor 1 is set in the image sensor 1 by the setting unit 16.

設定情報生成部424は、照度推定エリア生成部425及び照度推定パラメータ生成部426を備える。   The setting information generation unit 424 includes an illuminance estimation area generation unit 425 and an illuminance estimation parameter generation unit 426.

照度推定エリア生成部425は、照度推定エリア情報を生成する。照度推定エリア生成部425は、画像センサ1から撮像情報を取得する。照度推定エリア生成部425は、撮像情報に含まれる対象の空間の画像に画像処理を施すことによって、照度推定エリア情報を生成する。照度推定エリア生成部425は、生成した照度推定エリア情報を照度推定パラメータ生成部426に出力する。照度推定エリア生成部425が照度推定エリア情報を生成する手法の具体例については後述する。   The illuminance estimation area generation unit 425 generates illuminance estimation area information. The illuminance estimation area generation unit 425 acquires imaging information from the image sensor 1. The illuminance estimation area generation unit 425 generates illuminance estimation area information by performing image processing on the image of the target space included in the imaging information. The illuminance estimation area generation unit 425 outputs the generated illuminance estimation area information to the illuminance estimation parameter generation unit 426. A specific example of a method by which the illuminance estimation area generation unit 425 generates illuminance estimation area information will be described later.

照度推定パラメータ生成部426は、対象の空間の照度推定パラメータを生成する。照度推定パラメータ生成部426は、画像センサ1から撮像情報を取得する。照度推定パラメータ生成部426は、撮像情報に含まれる対象の空間の画像及びその画像が取得されたときの撮像パラメータと、基準照度情報と、に基づいて照度推定パラメータを決定する。なお、基準照度情報は、例えば、記憶部421から読み出される態様であってもよいし、入力部423から入力される態様であってもよい。また、基準照度情報は、例えば、フラッシュメモリやCD−ROM等の記憶媒体から読み出される態様であってもよいし、調整端末42以外の装置からネットワークを介して入力される態様であってもよい。   The illuminance estimation parameter generation unit 426 generates an illuminance estimation parameter for the target space. The illuminance estimation parameter generation unit 426 acquires imaging information from the image sensor 1. The illuminance estimation parameter generation unit 426 determines an illuminance estimation parameter based on the image of the target space included in the imaging information, the imaging parameter when the image is acquired, and the reference illuminance information. The reference illuminance information may be read from the storage unit 421 or may be input from the input unit 423, for example. The reference illuminance information may be read from a storage medium such as a flash memory or a CD-ROM, or may be input from a device other than the adjustment terminal 42 via a network. .

なお、照度推定パラメータ生成部426は、照度推定パラメータの生成に照度推定エリア生成部425から出力される照度推定エリア情報を用いてもよい。照度推定パラメータ生成部426は、照度推定パラメータの生成に、照度推定エリア情報が示す領域の画像を用いることによって、より精度の高い照度推定パラメータを生成することができる。照度推定パラメータ生成部426は、照度推定パラメータ及び照度推定エリア情報を設定情報として、画像センサ1に送信する。   The illuminance estimation parameter generation unit 426 may use the illuminance estimation area information output from the illuminance estimation area generation unit 425 to generate the illuminance estimation parameter. The illuminance estimation parameter generation unit 426 can generate an illuminance estimation parameter with higher accuracy by using an image of an area indicated by the illuminance estimation area information for generation of the illuminance estimation parameter. The illuminance estimation parameter generation unit 426 transmits the illuminance estimation parameter and the illuminance estimation area information to the image sensor 1 as setting information.

図5は、画像センサ1によって取得される画像の第1の具体例を示す図である。
図5は、1つの部屋に1つの照明機器が設置されている場合に取得される画像の具体例である。画像5は、魚眼レンズを備えた撮像部13によって、天井から撮像された部屋の画像である。符号5−1は、魚眼レンズの外周を表す。符号5−2は、撮像された部屋の床の外周を表す。符号5−3は、床に設置された机である。符号5−4は、基準照度情報を計測するために机5−3に設置された照度計を表す。
FIG. 5 is a diagram illustrating a first specific example of an image acquired by the image sensor 1.
FIG. 5 is a specific example of an image acquired when one lighting device is installed in one room. The image 5 is an image of a room imaged from the ceiling by the imaging unit 13 having a fisheye lens. Reference numeral 5-1 represents the outer periphery of the fisheye lens. Reference numeral 5-2 represents the outer periphery of the floor of the imaged room. Reference numeral 5-3 denotes a desk installed on the floor. Reference numeral 5-4 represents an illuminometer installed on the desk 5-3 for measuring the reference illuminance information.

図6は、照度推定エリアの第1の具体例を示す図である。
図6には、基準照度情報を取得した照度計の位置に基づいて設定された照度推定エリアの例が示されている。照度推定モデルは基準照度情報に基づいて設計されるため、照度推定エリアは、基準照度情報が取得された位置に対応することが望ましい。図6の例の場合、照度推定エリア生成部425は、テンプレートマッチングや形状認識などの画像処理技術を用いることによって、図5の画像5から照度計5−4を検出する。そして、検出された照度計5−4の位置に基づいて、照度推定エリア5−5を決定する。
FIG. 6 is a diagram illustrating a first specific example of the illuminance estimation area.
FIG. 6 shows an example of the illuminance estimation area set based on the position of the illuminometer that has acquired the reference illuminance information. Since the illuminance estimation model is designed based on the reference illuminance information, it is desirable that the illuminance estimation area corresponds to the position where the reference illuminance information is acquired. In the case of the example in FIG. 6, the illuminance estimation area generation unit 425 detects the illuminometer 5-4 from the image 5 in FIG. 5 by using an image processing technique such as template matching or shape recognition. Based on the detected position of the illuminometer 5-4, the illuminance estimation area 5-5 is determined.

なお、照度推定エリアの位置は、照度計5−4の位置に基づく任意の位置に設定されてよい。例えば、図6のように、照度推定エリア5−5は、画像5における照度計5−4の位置を中心とする領域に設定されてもよい。また、例えば、照度計5−4の位置を端点とする領域として設定されてもよい。また、照度推定エリア5−5の形状は、図6のように矩形に設定されてもよいし、他の形状に設定されてもよい。   The position of the illuminance estimation area may be set to an arbitrary position based on the position of the illuminometer 5-4. For example, as shown in FIG. 6, the illuminance estimation area 5-5 may be set to an area centered on the position of the illuminometer 5-4 in the image 5. Further, for example, it may be set as a region whose end point is the position of the illuminometer 5-4. Further, the shape of the illuminance estimation area 5-5 may be set to a rectangle as shown in FIG. 6, or may be set to another shape.

また、照度推定エリア5−5は、レンズの歪みに応じた形状に設定されてもよい。例えば、照度推定エリア生成部425は、円検出や円形ハフ変換などの画像処理技術を用いることによって、レンズの外周5−1の画像からレンズの中心位置を検出する。そして、照度推定エリア生成部425は、検出したレンズの中心位置からの距離に応じた歪みを持つ形状に照度推定エリアを設定する。照度推定エリアがレンズの中心位置からの距離に応じた歪みを持つことによって、照度推定エリアに対応する実空間の領域を歪みのない形状に設定することができる。   Further, the illuminance estimation area 5-5 may be set to a shape corresponding to the distortion of the lens. For example, the illuminance estimation area generation unit 425 detects the center position of the lens from the image on the outer periphery 5-1 of the lens by using an image processing technique such as circle detection or circular Hough transform. Then, the illuminance estimation area generation unit 425 sets the illuminance estimation area in a shape having a distortion corresponding to the detected distance from the center position of the lens. Since the illuminance estimation area has distortion according to the distance from the center position of the lens, the real space area corresponding to the illuminance estimation area can be set to a shape without distortion.

なお、照度推定エリアの大きさや形状などの設定には、予め用意された既定値が用いられてもよいし、調整ツールから入力された値が用いられてもよい。   Note that a preset value prepared in advance may be used for setting the size and shape of the illuminance estimation area, or a value input from the adjustment tool may be used.

図7は、画像センサ1によって取得される画像の第2の具体例を示す図である。
図7は、1つの部屋に4つの照明機器が設置されている場合の具体例である。画像6に撮像された部屋の天井の四隅には、符号6−1〜6−4が示す4つの照明機器が設置されている。そして、机6−5に設置された照度計6−6〜6−9が、それぞれ照明機器6−1〜6−4の基準照度情報を計測する。
FIG. 7 is a diagram illustrating a second specific example of an image acquired by the image sensor 1.
FIG. 7 is a specific example in a case where four lighting devices are installed in one room. Four lighting devices indicated by reference numerals 6-1 to 6-4 are installed at the four corners of the ceiling of the room captured in the image 6. The illuminance meters 6-6 to 6-9 installed on the desk 6-5 measure the reference illuminance information of the lighting devices 6-1 to 6-4, respectively.

図8は、照度推定エリアの第2の具体例を示す図である。
図8には、図6と同様の方法によって、1つの画像内に複数の照度推定エリアが設定された例が示されている。図8の例の場合、照度推定エリア生成部425は、画像6から照度計6−6〜6−9を検出する。照度推定エリア生成部425は、検出された照度計6−6〜6−9の位置に基づいて、それぞれ、照度推定エリア6−10〜6−13を決定する。なお、照度推定エリア6−10〜6−13の大きさや形状などの設定には、図6の例と同様に、予め用意された既定値が用いられてもよいし、調整ツールから入力された値が用いられてもよい。このように、設置される照明機器の数に応じた複数の照度推定エリアが設定されることによって、より正確な照明機器の制御が可能となる。
FIG. 8 is a diagram illustrating a second specific example of the illuminance estimation area.
FIG. 8 shows an example in which a plurality of illuminance estimation areas are set in one image by the same method as in FIG. In the case of the example in FIG. 8, the illuminance estimation area generation unit 425 detects the illuminance meters 6-6 to 6-9 from the image 6. The illuminance estimation area generation unit 425 determines the illuminance estimation areas 6-10 to 6-13 based on the detected positions of the illuminance meters 6-6 to 6-9, respectively. For setting the size and shape of the illuminance estimation areas 6-10 to 6-13, a default value prepared in advance may be used as in the example of FIG. 6, or input from the adjustment tool. A value may be used. Thus, by setting a plurality of illuminance estimation areas according to the number of installed lighting devices, it is possible to control lighting devices more accurately.

図9は、画像センサ1によって取得される画像の第3の具体例を示す図である。
図9は、図7に示された部屋の4つの照明機器(図9における照明機器7−1〜7−4)のうち、照明機器7−2のみが点灯された状態で撮像された画像である。そのため、画像7では、符号7−6が示す領域の輝度が高くなっている。
FIG. 9 is a diagram illustrating a third specific example of an image acquired by the image sensor 1.
FIG. 9 is an image captured in a state where only the lighting device 7-2 is turned on among the four lighting devices (lighting devices 7-1 to 7-4 in FIG. 9) in the room shown in FIG. is there. Therefore, in the image 7, the brightness of the area indicated by reference numeral 7-6 is high.

図10は、照度推定エリアの第3の具体例を示す図である。
図10には、照明機器7−2のみが点灯する状態で撮像された画像に基づいて設定された照度推定エリアの例が示されている。図10の例の場合、照度推定エリア生成部425は、画像処理によって、画像7から領域7−6を検出する。そして、検出された領域7−6に基づいて、照度推定エリア7−7を決定する。このように照明機器の点灯状態が異なる画像を取得することによって、複数の照明機器に対応する照度推定エリアの設定を行うことが可能となる。
FIG. 10 is a diagram illustrating a third specific example of the illuminance estimation area.
FIG. 10 illustrates an example of an illuminance estimation area set based on an image captured in a state where only the lighting device 7-2 is turned on. In the case of the example in FIG. 10, the illuminance estimation area generation unit 425 detects a region 7-6 from the image 7 by image processing. Based on the detected area 7-6, the illuminance estimation area 7-7 is determined. By acquiring images with different lighting states of lighting devices in this way, it is possible to set illuminance estimation areas corresponding to a plurality of lighting devices.

図11は、調整ツールのメニュー画面の具体例を示す図である。
メニュー画面8は、調整ツールが利用者に提供するメニュー画面である。利用者は、メニュー画面8を用いて調整ツールを操作することによって照度推定エリア情報を生成する。図11の例では、メニュー画面8は、図5〜図10に示した方法によって照度推定エリアを生成するメニューを表示する。
図11における入力画像81が示す画像は、例えば、照度推定エリア情報を生成するために入力された画像である。入力メニュー82は、利用者が、照度推定エリア情報を生成するためのパラメータを入力するための領域である。例えば、入力メニュー82−1は、入力画像81に撮像された部屋の天井高を入力するための領域である。天井高が入力されることによって、照度推定エリア生成部425は、画像上の距離を実空間における距離に換算することが可能となる。
FIG. 11 is a diagram illustrating a specific example of the menu screen of the adjustment tool.
The menu screen 8 is a menu screen provided to the user by the adjustment tool. The user generates illuminance estimation area information by operating the adjustment tool using the menu screen 8. In the example of FIG. 11, the menu screen 8 displays a menu for generating an illuminance estimation area by the method shown in FIGS.
The image indicated by the input image 81 in FIG. 11 is, for example, an image input to generate illuminance estimation area information. The input menu 82 is an area for the user to input parameters for generating illuminance estimation area information. For example, the input menu 82-1 is an area for inputting the ceiling height of the room captured in the input image 81. By inputting the ceiling height, the illuminance estimation area generation unit 425 can convert the distance on the image into the distance in the real space.

図11における入力メニュー82−2は、例えば、入力画像81に対して画像処理を行う対象とする範囲を入力するための領域である。対象範囲は、範囲を表すことができる任意の態様で指定されてよい。例えば、レンズの中心位置に基づく範囲が入力されてもよいし、座標によって表される範囲が入力されてもよい。また、入力される長さや位置などを示す値は、実空間における値であってもよいし、入力画像81における画像上の値であってもよい。   An input menu 82-2 in FIG. 11 is an area for inputting a range to be subjected to image processing on the input image 81, for example. The target range may be specified in any manner that can represent the range. For example, a range based on the center position of the lens may be input, or a range represented by coordinates may be input. In addition, the value indicating the input length, position, or the like may be a value in real space or a value on an image in the input image 81.

図11における入力メニュー82−3は、例えば、照度推定エリアの大きさを入力するための領域である。
なお、入力メニュー82には、入力メニュー82−1〜82−3以外のメニューが設けられても良い。例えば、照度推定エリアの形状を入力するメニューが設けられてもよい。また、入力メニュー82に入力された情報は、入力画像81の対応する領域に表示されるように構成されてもよい。また、入力メニュー82に入力される値は入力画像81上の領域が選択されることによって入力されるように構成されてもよい。
An input menu 82-3 in FIG. 11 is an area for inputting the size of the illuminance estimation area, for example.
The input menu 82 may be provided with menus other than the input menus 82-1 to 82-3. For example, a menu for inputting the shape of the illuminance estimation area may be provided. Further, the information input to the input menu 82 may be configured to be displayed in a corresponding area of the input image 81. Further, the value input to the input menu 82 may be configured to be input by selecting an area on the input image 81.

実行ボタン83は、入力画像81と、入力メニュー82によって入力されたパラメータとに基づいて、処理の実行指示を入力するための入力ボタンである。例えば、実行ボタン83−1は、入力画像81からレンズの中心位置を検出する処理の実行を入力するためのボタンである。また、例えば、実行ボタン83−2は、入力画像81から照度計を検出する処理の実行を入力するためのボタンである。また、例えば、実行ボタン83−3は、入力画像81から、照明によって輝度が高くなっている領域を検出する処理の実行を入力するためのボタンである。また、例えば、実行ボタン83−4は、実行ボタン83−1〜83−3の押下により実行された処理の結果に基づいて、照度推定エリアを生成する処理の実行を入力するためのボタンである。また、例えば、実行ボタン83−5は、生成された照度推定エリア情報を記憶部421等に保存する処理の実行を入力するためのボタンである。なお、実行ボタン83−1〜83−4によって実行された処理の結果は、入力画像81の対応する領域に表示されるように構成されてもよい。   The execution button 83 is an input button for inputting a process execution instruction based on the input image 81 and the parameters input from the input menu 82. For example, the execution button 83-1 is a button for inputting execution of processing for detecting the center position of the lens from the input image 81. In addition, for example, the execution button 83-2 is a button for inputting execution of processing for detecting an illuminometer from the input image 81. In addition, for example, the execution button 83-3 is a button for inputting execution of processing for detecting a region whose luminance is increased by illumination from the input image 81. For example, the execution button 83-4 is a button for inputting execution of a process for generating an illuminance estimation area based on the result of the process executed by pressing the execution buttons 83-1 to 83-3. . In addition, for example, the execution button 83-5 is a button for inputting execution of processing for saving the generated illuminance estimation area information in the storage unit 421 or the like. Note that the result of the processing executed by the execution buttons 83-1 to 83-4 may be displayed in a corresponding area of the input image 81.

上記のような調整ツールを用いることによって、調整端末42の利用者は、画像センサ1に設定する設定情報(照度推定パラメータ及び照度推定エリア情報)の生成をより容易に行うことが可能となる。   By using the adjustment tool as described above, the user of the adjustment terminal 42 can more easily generate setting information (illuminance estimation parameter and illuminance estimation area information) set in the image sensor 1.

図12は、実施形態の画像センサ1を用いた照明機器2の事前設定と、運用中の動作の流れを表すシーケンス図である。
初めに、画像センサ1の事前設定における処理の流れを説明する。
まず、利用者は、画像センサ1及び照度計を操作して、制御対象の照明機器2が設置された空間の画像と、その空間の基準照度情報とを同時に取得する。照度計は、利用者の操作に応じて基準照度情報を取得する(ステップS101)。画像センサ1は、利用者の操作に応じて対象の空間を撮像し、対象の空間の画像を取得する(ステップS102)。
FIG. 12 is a sequence diagram illustrating a flow of an operation in advance and operation of the lighting device 2 using the image sensor 1 of the embodiment.
First, the flow of processing in advance setting of the image sensor 1 will be described.
First, the user operates the image sensor 1 and the illuminance meter to simultaneously acquire an image of a space where the lighting device 2 to be controlled is installed and reference illuminance information of the space. The illuminometer acquires reference illuminance information according to the user's operation (step S101). The image sensor 1 captures the target space in accordance with a user operation, and acquires an image of the target space (step S102).

利用者は、取得された基準照度情報を、調整端末42が読み込み可能な態様に配置する。例えば、利用者は、持ち運びが可能な記録媒体に基準照度情報を記録して、調整端末42に読み込ませてもよい。また、例えば、利用者は、調整端末42がネットワーク経由でアクセス可能な領域に基準照度情報を配置してもよい。利用者は、上記のような態様に基準照度情報を配置した後、調整ツールを実行する。
調整ツールの実行により、調整端末42は、ステップS101において取得された基準照度情報を取得する(ステップS103)。同時に、調整端末42は、ステップS102において取得された画像を画像センサ1から取得する(ステップS104)。
The user arranges the acquired reference illuminance information in such a manner that the adjustment terminal 42 can read it. For example, the user may record the reference illuminance information on a portable recording medium and read it by the adjustment terminal 42. For example, the user may arrange the reference illuminance information in an area where the adjustment terminal 42 is accessible via the network. The user executes the adjustment tool after arranging the reference illuminance information in the above-described manner.
By executing the adjustment tool, the adjustment terminal 42 acquires the reference illuminance information acquired in step S101 (step S103). At the same time, the adjustment terminal 42 acquires the image acquired in step S102 from the image sensor 1 (step S104).

調整端末42は、取得した画像と、調整ツールによって入力されたパラメータとに基づいて照度推定エリア情報を生成する(ステップS105)。そして、調整端末42は、取得した画像及び基準照度情報と、生成した照度推定エリア情報と、に基づいて照度推定パラメータを生成する(ステップS106)。調整端末42は、照度推定パラメータと、照度推定エリア情報とを設定情報として、画像センサ1に送信する(ステップS107)。画像センサ1は、設定情報を受信し、設定情報122として記憶部12に保存する。この設定情報122の保存によって、画像センサ1は設定情報を自装置に設定する(ステップS108)。
上記のステップS101〜ステップS108の処理によって、画像センサ1に対する事前設定が完了する。
The adjustment terminal 42 generates illuminance estimation area information based on the acquired image and the parameter input by the adjustment tool (step S105). And the adjustment terminal 42 produces | generates an illumination intensity estimation parameter based on the acquired image, reference | standard illumination intensity information, and the produced | generated illumination intensity estimation area information (step S106). The adjustment terminal 42 transmits the illuminance estimation parameter and the illuminance estimation area information as setting information to the image sensor 1 (step S107). The image sensor 1 receives the setting information and stores it in the storage unit 12 as setting information 122. By storing the setting information 122, the image sensor 1 sets the setting information in its own device (step S108).
Pre-setting for the image sensor 1 is completed by the processing in steps S101 to S108 described above.

次に、画像センサ1の運用中の動作の流れを説明する。
まず、画像センサ1は、対象の空間を撮像し、対象の空間の画像を取得する(ステップS201)。画像センサ1は、取得した画像と、設定情報122(照度推定パラメータ及び照度推定エリア情報)とに基づいて、対象の空間の照度を推定し、照度情報(環境情報)を取得する(ステップS202)。画像センサ1は、取得した照度情報を照明制御装置412に送信する(ステップS203)。照明制御装置412は、受信した照度情報に基づいて、照明機器2を制御するための制御信号を生成する(ステップS204)。照明制御装置412は、生成した制御信号を照明機器2に送信する(ステップS205)。照明機器2は、受信された制御信号に基づいて、自装置の動作を制御する(ステップS206)。
Next, the flow of operation during operation of the image sensor 1 will be described.
First, the image sensor 1 captures the target space and acquires an image of the target space (step S201). The image sensor 1 estimates the illuminance of the target space based on the acquired image and the setting information 122 (illuminance estimation parameter and illuminance estimation area information), and acquires illuminance information (environment information) (step S202). . The image sensor 1 transmits the acquired illuminance information to the illumination control device 412 (step S203). The lighting control device 412 generates a control signal for controlling the lighting device 2 based on the received illuminance information (step S204). The lighting control device 412 transmits the generated control signal to the lighting device 2 (step S205). The lighting device 2 controls the operation of the device itself based on the received control signal (step S206).

具体的には、照明制御装置412は、ステップS204において、受信された照度情報が示す照度と目標とする照度とを比較する。照度情報が示す照度が目標の照度より低い場合、照明機器の調光率を下げるための制御信号を生成する。一方、照度情報が示す照度が目標の照度より高い場合、照明機器の調光率を上げるための制御信号を生成する。   Specifically, in step S204, the illumination control device 412 compares the illuminance indicated by the received illuminance information with the target illuminance. When the illuminance indicated by the illuminance information is lower than the target illuminance, a control signal for reducing the dimming rate of the lighting device is generated. On the other hand, when the illuminance indicated by the illuminance information is higher than the target illuminance, a control signal for increasing the dimming rate of the lighting device is generated.

このように構成された実施形態の画像センサ1は、制御対象の機器を制御するために必要な制御情報(環境情報及び人物情報)を自装置が取得する画像に基づいて取得する。調整端末42は、画像センサ1が制御情報を取得するために必要な設定情報を、画像センサ1が取得する画像に基づいて生成し、画像センサ1に送信する。画像センサ1は、調整端末42から送信された設定情報を自装置に設定する。そのため、利用者は、設定情報の作成と設定を手作業で行う必要がなくなり、画像センサ1の運用を開始する前の事前設定の作業効率を向上させることが可能となる。   The image sensor 1 according to the embodiment configured as described above acquires control information (environment information and person information) necessary for controlling a device to be controlled based on an image acquired by the device itself. The adjustment terminal 42 generates setting information necessary for the image sensor 1 to acquire control information based on the image acquired by the image sensor 1, and transmits the setting information to the image sensor 1. The image sensor 1 sets the setting information transmitted from the adjustment terminal 42 in its own device. Therefore, the user does not need to manually create and set the setting information, and the work efficiency of the pre-setting before starting the operation of the image sensor 1 can be improved.

以下、実施形態の変形例について説明する。
設定部16は、撮像パラメータが外部から入力される場合、入力された撮像パラメータを撮像部13に適用する機能を備えてもよい。
画像センサ1は、環境情報取得部14又は人物情報取得部15のいずれか一方を備えるように構成されてもよい。
設定情報生成部424は、画像センサ1に備えられてもよい。その場合、調整端末42は、設定情報の生成に必要な基準照度情報を画像センサ1に送信する。
画像センサ1と調整端末42との間で送受信される情報には、撮像情報121や、設定情報122などの情報の他、画像センサ1の内部情報が含まれてもよい。内部情報とは、調整端末42を用いて画像センサ1の設定を行う作業者が、画像センサ1の動作の詳細を確認するための情報である。例えば、内部情報とは、画像処理の結果や、各処理中に生成される中間データなどの情報である。送信される設定情報122や撮像パラメータ、内部情報のフォーマットは、テキストデータでもよいし、バイナリデータでもよい。また、送信される画像や映像のフォーマットは、RAWデータや各種画像フォーマット、各種映像フォーマットでもよい。また、送信されるデータは暗号化されてもよい。
Hereinafter, modifications of the embodiment will be described.
The setting unit 16 may have a function of applying the input imaging parameter to the imaging unit 13 when the imaging parameter is input from the outside.
The image sensor 1 may be configured to include either the environment information acquisition unit 14 or the person information acquisition unit 15.
The setting information generation unit 424 may be provided in the image sensor 1. In this case, the adjustment terminal 42 transmits reference illuminance information necessary for generating setting information to the image sensor 1.
Information transmitted and received between the image sensor 1 and the adjustment terminal 42 may include internal information of the image sensor 1 in addition to information such as the imaging information 121 and the setting information 122. The internal information is information for an operator who sets the image sensor 1 using the adjustment terminal 42 to confirm details of the operation of the image sensor 1. For example, the internal information is information such as the result of image processing and intermediate data generated during each processing. The format of the transmitted setting information 122, imaging parameters, and internal information may be text data or binary data. The format of the image or video to be transmitted may be RAW data, various image formats, or various video formats. Further, the data to be transmitted may be encrypted.

以上説明した少なくともひとつの実施形態によれば、実施形態の調整端末42は、画像センサ1の設定情報を画像センサ1が取得する画像に基づいて生成する設定情報生成部424を持つことにより、画像センサ1の設定作業の効率を向上させることができる。
また、画像から制御情報を取得することによって、多種多様な制御情報を取得することが可能となる。また、画像から制御情報を取得することによって、画像センサ1が検知する領域を可視化することが可能となり、画像センサ1の設定作業の効率を向上させることができる。
また、画像センサ1は、他のセンサ装置に比べて広範囲の情報を取得することができるため、設置されるセンサ装置の台数を削減することが可能となる。
According to at least one embodiment described above, the adjustment terminal 42 of the embodiment includes the setting information generation unit 424 that generates the setting information of the image sensor 1 based on the image acquired by the image sensor 1, thereby The efficiency of the setting work of the sensor 1 can be improved.
In addition, by acquiring control information from an image, it is possible to acquire a wide variety of control information. Further, by acquiring control information from the image, it is possible to visualize the area detected by the image sensor 1, and the efficiency of the setting operation of the image sensor 1 can be improved.
In addition, since the image sensor 1 can acquire a wider range of information than other sensor devices, the number of installed sensor devices can be reduced.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1、1−1〜1−3…画像センサ、11…通信制御部、12…記憶部、121…撮像情報、122…設定情報、13…撮像部、14…環境情報取得部、15…人物情報取得部、16…設定部、2、2−1〜2−3…照明機器、3、3−1〜3−8…空調機器、4…制御システム、41…外部システム、411…BEMS、412…照明制御装置、413…空調制御装置、42…調整端末、421…記憶部、422…通信制御部、423…入力部、424…設定情報生成部、425…照度推定エリア生成部、426…照度推定パラメータ生成部、43…第1のネットワーク、44…第2のネットワーク、45…ゲートウェイ装置、46…HUB、5…画像、5−1…レンズの外周、5−2…床の外周、5−3…机、5−4…照度計、5−5…照度推定エリア、6…画像、6−1〜6−4…照明機器、6−5…机、6−6〜6−9…照度計、6−10〜6−13…照度推定エリア、7…画像、7−1〜7−4…照明機器、7−5…机、7−6…画像内の領域、7−7…照度推定エリア、8…メニュー画面、81…入力画像、82、82−1〜82−3…入力メニュー、83、83−1〜83−5…実行ボタン DESCRIPTION OF SYMBOLS 1, 1-1 to 1-3 ... Image sensor, 11 ... Communication control part, 12 ... Memory | storage part, 121 ... Imaging information, 122 ... Setting information, 13 ... Imaging part, 14 ... Environment information acquisition part, 15 ... Person information Acquisition unit, 16 ... setting unit, 2, 2-1 to 2-3 ... lighting equipment, 3, 3-1 to 3-8 ... air conditioning equipment, 4 ... control system, 41 ... external system, 411 ... BEMS, 412 ... Illumination control device, 413 ... air conditioning control device, 42 ... adjustment terminal, 421 ... storage unit, 422 ... communication control unit, 423 ... input unit, 424 ... setting information generation unit, 425 ... illuminance estimation area generation unit, 426 ... illuminance estimation Parameter generating unit 43 ... first network 44 ... second network 45 ... gateway device 46 ... HUB 5 ... image 5-1 ... periphery of lens 5-2 ... outer perimeter of floor 5-3 ... desk, 5-4 ... illuminance meter, 5-5 ... light Estimated area, 6 ... image, 6-1 to 6-4 ... lighting equipment, 6-5 ... desk, 6-6 to 6-9 ... illuminance meter, 6-10 to 6-13 ... illuminance estimation area, 7 ... image 7-1 to 7-4, lighting equipment, 7-5, desk, 7-6, area in the image, 7-7, illuminance estimation area, 8 ... menu screen, 81, input image, 82, 82-1 ~ 82-3 ... input menu, 83, 83-1 to 83-5 ... execute button

Claims (9)

所定の空間を撮像して画像を生成し、前記画像から空間の情報を取得する画像センサに対して、前記画像センサが前記空間の情報を取得するために必要となる設定情報を生成し、前記画像センサに送信する調整端末であって、
前記画像センサと通信する通信部と、
前記画像センサから画像を取得し、取得した前記画像に基づいて前記設定情報を生成する生成部と、
を備える調整端末。
For an image sensor that captures a predetermined space and generates an image, and acquires space information from the image, the image sensor generates setting information necessary for acquiring the space information, and An adjustment terminal that transmits to an image sensor,
A communication unit communicating with the image sensor;
A generation unit that acquires an image from the image sensor and generates the setting information based on the acquired image;
A coordination terminal comprising:
前記設定情報が、空間の反射率に関する情報を含むとき、
前記生成部は、前記画像と、前記画像の生成と同時に前記空間において計測された照度値と、に基づいて、前記空間の反射率に関する情報を生成する、
請求項1に記載の調整端末。
When the setting information includes information on spatial reflectance,
The generation unit generates information on the reflectance of the space based on the image and the illuminance value measured in the space simultaneously with the generation of the image.
The adjustment terminal according to claim 1.
前記空間の情報の取得において、前記空間の情報を取得する対象として前記画像センサによって用いられる前記画像中の対象領域を表す情報が、前記設定情報に含まれるとき、
前記生成部は、前記画像から前記照度値を計測した照度計を検出し、前記照度計の位置に応じて、前記対象領域を決定する、
請求項2に記載の調整端末。
In the acquisition of the space information, when the setting information includes information representing a target area in the image used by the image sensor as a target for acquiring the space information,
The generation unit detects an illuminance meter that measures the illuminance value from the image, and determines the target region according to a position of the illuminance meter.
The adjustment terminal according to claim 2.
前記生成部は、前記画像からレンズの中心位置を検出し、前記レンズの中心位置に応じて、前記対象領域を決定する、
請求項3に記載の調整端末。
The generating unit detects a center position of the lens from the image, and determines the target region according to the center position of the lens;
The adjustment terminal according to claim 3.
前記生成部は、前記画像から照明機器によって明るさが増された領域を検出し、前記領域の位置に応じて、前記対象領域を決定する、
請求項3又は4に記載の調整端末。
The generation unit detects a region whose brightness is increased by a lighting device from the image, and determines the target region according to a position of the region.
The adjustment terminal according to claim 3 or 4.
前記生成部は、前記画像センサと被写体との間の距離に応じて、前記対象領域を決定する、
請求項3から5のいずれか一項に記載の調整端末。
The generation unit determines the target area according to a distance between the image sensor and a subject.
The adjustment terminal according to any one of claims 3 to 5.
前記画像センサが、前記空間における人に関する情報を前記空間の情報として取得するとき、
前記生成部は、前記人に関する情報を取得する対象として前記画像センサによって用いられる前記画像中の領域を、前記対象領域として決定する、
請求項3から6のいずれか一項に記載の調整端末。
When the image sensor acquires information about the person in the space as information on the space,
The generation unit determines, as the target region, a region in the image used by the image sensor as a target for acquiring information about the person.
The adjustment terminal as described in any one of Claim 3 to 6.
所定の空間を撮像して画像を生成し、前記画像から空間の情報を取得する画像センサに対して、前記画像センサが前記空間の情報を取得するために必要となる設定情報を生成し、前記画像センサに送信する調整端末が有する調整方法であって、
前記画像センサと通信する通信ステップと、
前記画像センサから画像を取得し、取得した前記画像に基づいて前記設定情報を生成する生成ステップと、
を有する調整方法。
For an image sensor that captures a predetermined space and generates an image, and acquires space information from the image, the image sensor generates setting information necessary for acquiring the space information, and An adjustment method of an adjustment terminal that transmits to an image sensor,
A communication step of communicating with the image sensor;
A generation step of acquiring an image from the image sensor and generating the setting information based on the acquired image;
An adjustment method comprising:
請求項1から7のいずれか一項に記載の調整端末としてコンピュータを機能させるためのコンピュータプログラム。   The computer program for functioning a computer as an adjustment terminal as described in any one of Claim 1 to 7.
JP2014116237A 2014-06-04 2014-06-04 Adjustment terminal, adjustment method, and computer program Active JP6316102B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014116237A JP6316102B2 (en) 2014-06-04 2014-06-04 Adjustment terminal, adjustment method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014116237A JP6316102B2 (en) 2014-06-04 2014-06-04 Adjustment terminal, adjustment method, and computer program

Publications (2)

Publication Number Publication Date
JP2015231128A true JP2015231128A (en) 2015-12-21
JP6316102B2 JP6316102B2 (en) 2018-04-25

Family

ID=54887710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014116237A Active JP6316102B2 (en) 2014-06-04 2014-06-04 Adjustment terminal, adjustment method, and computer program

Country Status (1)

Country Link
JP (1) JP6316102B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123274A (en) * 2016-01-07 2017-07-13 株式会社東芝 Lighting control system, lighting control method, lighting control device and computer program
JP2019029301A (en) * 2017-08-03 2019-02-21 東芝ライテック株式会社 Lighting control system
JP2019534509A (en) * 2016-10-03 2019-11-28 シグニファイ ホールディング ビー ヴィSignify Holding B.V. Lighting control configuration
EP4102939A1 (en) * 2021-06-09 2022-12-14 Siteco GmbH Guided installation of a luminaire with camera-based sensor system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162967A (en) * 1996-11-29 1998-06-19 Matsushita Electric Works Ltd Illumination controller
JP2013008461A (en) * 2011-06-22 2013-01-10 Panasonic Corp Lighting device
JP2013191310A (en) * 2012-03-12 2013-09-26 Toshiba Corp Information processing apparatus, image sensor apparatus, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162967A (en) * 1996-11-29 1998-06-19 Matsushita Electric Works Ltd Illumination controller
JP2013008461A (en) * 2011-06-22 2013-01-10 Panasonic Corp Lighting device
JP2013191310A (en) * 2012-03-12 2013-09-26 Toshiba Corp Information processing apparatus, image sensor apparatus, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123274A (en) * 2016-01-07 2017-07-13 株式会社東芝 Lighting control system, lighting control method, lighting control device and computer program
WO2017119336A1 (en) * 2016-01-07 2017-07-13 株式会社東芝 Lighting control system, lighting control method, lighting control device, and computer program
JP2019534509A (en) * 2016-10-03 2019-11-28 シグニファイ ホールディング ビー ヴィSignify Holding B.V. Lighting control configuration
JP2019029301A (en) * 2017-08-03 2019-02-21 東芝ライテック株式会社 Lighting control system
JP6992311B2 (en) 2017-08-03 2022-01-13 東芝ライテック株式会社 Lighting control system
EP4102939A1 (en) * 2021-06-09 2022-12-14 Siteco GmbH Guided installation of a luminaire with camera-based sensor system
DE102021114858A1 (en) 2021-06-09 2022-12-15 Siteco Gmbh GUIDED COMMISSIONING OF A LUMINAIRE WITH CAMERA-BASED SENSOR SYSTEM

Also Published As

Publication number Publication date
JP6316102B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
US11593999B2 (en) Smart-home device placement and installation using augmented-reality visualizations
US20230199309A1 (en) Systems and Methods for Automatic Exposure in High Dynamic Range Video Capture Systems
US9137449B2 (en) Luminance estimation model generation device, image sensor device, and computer program product
JP2016171526A (en) Image sensor, person detection method, control system, control method, and computer program
JP6316102B2 (en) Adjustment terminal, adjustment method, and computer program
EP3888344B1 (en) Methods and systems for colorizing infrared images
JP6765071B2 (en) Control systems, control methods, and control programs
US10051481B2 (en) Electronic apparatus and sensor arrangement method thereof
JP6296725B2 (en) Building equipment control system and image sensor
TWI548270B (en) Image capturing system with context control and related methods
CN106406132A (en) Device control method and system thereof
JP2014139745A (en) Equipment management system, equipment management device, equipment management method and program
JP6696687B2 (en) Lighting control system, lighting control method, lighting control device, and computer program
JP6495696B2 (en) Image collecting apparatus, image collecting method, and computer program
JP6407562B2 (en) Illumination control system, image sensor, image sensor calibration method, and computer program
JP2015152496A (en) Adjusting device and adjusting program
JP6524201B2 (en) Building equipment control system and image sensor device
JP2022117761A (en) Sensor system, image sensor, server device, sensing method, and program
JP2011187292A (en) Lighting control device, and lighting unit
US20210118441A1 (en) Voice control information output system, voice control information output method, and recording medium
JP2023023492A (en) Image sensor system, calculation device, sensing method and program
KR101434173B1 (en) Apparatus for virtual user interface of wall pad and method thereof
KR20220001903A (en) Cloud platform based apartment home smart home system
JP2015128261A (en) Image sensor
EP4302171A1 (en) Displaying an aggregation of data in dependence on a distance to a closest device in an image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170308

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170911

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180327

R150 Certificate of patent or registration of utility model

Ref document number: 6316102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150