JP2014002940A - Lighting control device - Google Patents

Lighting control device Download PDF

Info

Publication number
JP2014002940A
JP2014002940A JP2012137879A JP2012137879A JP2014002940A JP 2014002940 A JP2014002940 A JP 2014002940A JP 2012137879 A JP2012137879 A JP 2012137879A JP 2012137879 A JP2012137879 A JP 2012137879A JP 2014002940 A JP2014002940 A JP 2014002940A
Authority
JP
Japan
Prior art keywords
person
detection
point
score
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012137879A
Other languages
Japanese (ja)
Inventor
Hiroyuki Watanabe
浩之 渡邊
Tetsuo Miyamoto
哲郎 宮本
Hironari Kikuchi
宏成 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012137879A priority Critical patent/JP2014002940A/en
Publication of JP2014002940A publication Critical patent/JP2014002940A/en
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

PROBLEM TO BE SOLVED: To implement more appropriate dimmer control of lighting devices.SOLUTION: A lighting control device 20 performs dimmer control of a plurality of lighting devices 8 installed to light an area of lighting. A camera 2 images the area of lighting. Detection means 202 uses images captured by the camera 2 to detect a point in the area of lighting where a person may be present. Scoring means 204 gives a person detection score to the detection point detected by the detection means 202. Location means 206 locates a person presence point where a person is present on the basis of the value of the person detection score of each point in the area of lighting. Lighting control means 208 performs dimmer control of each individual lighting device 8 on the basis of the result of location by the location means 206. The scoring means 204 gives the person detection score to the detection point in a value based on a distance between the camera 2 and the detection point.

Description

本発明は、照明装置の点灯・消灯等を制御する照明制御装置に関する。   The present invention relates to an illumination control apparatus that controls lighting / extinction of an illumination apparatus.

従来、室内などを照明する照明装置の制御には、人感センサや照度センサなどのセンサ類やタイマーなどが用いられている。具体的には、例えば、人感センサによって検知された照明対象領域における人物の有無や、照度センサによって検知された照明対象領域の照度や、タイマーによって検知される時刻などによって、照明装置の点灯・消灯や照度の変更など(以下、「調光」という。)を行っている。   Conventionally, sensors such as a human sensor and an illuminance sensor, a timer, and the like are used to control a lighting device that illuminates a room or the like. Specifically, for example, depending on the presence or absence of a person in the illumination target area detected by the human sensor, the illuminance of the illumination target area detected by the illuminance sensor, the time detected by the timer, etc. The lights are turned off and the illuminance is changed (hereinafter referred to as “light control”).

また、近年では、カメラで撮影した画像を用いて照明装置の調光を行う技術が知られている。例えば、特許文献1では、所定の空間部に存在する人物の数を算出して、その数に基づいて照明の調光を行う技術が開示されている。また、特許文献2では、カメラで撮影した画像から照度測定をおこない、撮影領域内に人物の存在を確認するとその領域が必要な照度となるように調光する技術が開示されている。   In recent years, a technique for performing light control of an illumination device using an image taken by a camera is known. For example, Patent Document 1 discloses a technique for calculating the number of persons existing in a predetermined space and performing dimming of illumination based on the number. Japanese Patent Application Laid-Open No. 2003-228561 discloses a technique for performing illuminance measurement from an image photographed by a camera and adjusting the light so that the area has a necessary illuminance when the presence of a person is confirmed in the photographing area.

特開2006−270865号公報JP 2006-270865 A 特開2011−081982号公報JP2011-081982A

しかしながら、特許文献1にかかる技術は、人物がいない領域も含めた全体的な調光を行うものである。つまり、特許文献1にかかる技術では、例えば、人物が空間の一部に集中的に存在する場合などに、人物から離れた場所の照明装置も点灯させるので、点灯させる必要性が低い照明装置も点灯させてしまうという問題点がある。   However, the technique according to Patent Document 1 performs overall light control including a region where no person is present. That is, in the technique according to Patent Document 1, for example, when a person is concentrated in a part of the space, the lighting device in a place away from the person is also turned on. There is a problem of lighting up.

また、特許文献2にかかる技術は、人物の存在が確認された場合には人物の位置に関わらず全体的な調光を行うので、特許文献1と同様に、点灯させる必要性が低い照明装置も点灯させてしまうという問題点がある。   In addition, the technique according to Patent Document 2 performs overall light control regardless of the position of the person when the presence of the person is confirmed. There is also a problem of lighting up.

そこで、本発明は、上記した問題点に鑑みてなされたものであり、照明装置の調光の制御をより適切に行うことを課題とする。   Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to more appropriately control the light control of the lighting device.

上記した課題を解決するために、本発明にかかる照明制御装置は、照明対象領域を撮影するカメラと、前記カメラの撮影画像を用いて、人物が存在する可能性がある前記照明対象領域内の地点を検出する検出手段と、前記検出手段によって検出された検出地点に対して人物検出スコアを付与するスコア付与手段と、前記照明対象領域内の各地点における前記人物検出スコアの値に基づいて、前記人物が存在する人物存在地点を特定する特定手段と、前記特定手段による特定結果に基づいて、前記照明対象領域を照明するために設けられた複数の照明装置の調光をそれぞれ制御する照明制御手段と、を備え、前記スコア付与手段は、前記検出地点に対して前記カメラと当該検出地点との距離に基づいた値の前記人物検出スコアを付与することを特徴とする。
その他の手段については後記する。
In order to solve the above-described problem, an illumination control apparatus according to the present invention uses a camera that captures an illumination target area and a captured image of the camera, and the person within the illumination target area where there is a possibility that a person exists. On the basis of the value of the person detection score at each point in the illumination target area, detection means for detecting a point, score giving means for giving a person detection score to the detection point detected by the detection means, Illumination control for controlling a dimming of each of a plurality of illumination devices provided to illuminate the illumination target area based on a specifying unit for specifying a person location where the person exists and a specifying result by the specifying unit Means for providing the person detection score with a value based on a distance between the camera and the detection point to the detection point. And butterflies.
Other means will be described later.

本発明によれば、照明装置の調光の制御をより適切に行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, control of the light control of an illuminating device can be performed more appropriately.

実施の形態1にかかる照明システムの構成を示す説明図である。It is explanatory drawing which shows the structure of the illumination system concerning Embodiment 1. FIG. 実施の形態1にかかる照明システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the illumination system concerning Embodiment 1. FIG. 検出手段による人物検出方法の説明図である。It is explanatory drawing of the person detection method by a detection means. スコア付与手段による人物検出スコア付与方法の説明図である。It is explanatory drawing of the person detection score provision method by a score provision means. 実施の形態1にかかる照明制御処理の手順を示すフローチャートである。3 is a flowchart showing a procedure of illumination control processing according to the first exemplary embodiment; 実施の形態2にかかる照明制御処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of illumination control processing according to the second embodiment. 実施の形態3にかかる照明システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the illumination system concerning Embodiment 3. 実施の形態3にかかる照明制御処理の手順を示すフローチャートである。12 is a flowchart illustrating a procedure of illumination control processing according to the third embodiment. 実施の形態4における人物の有無の判断方法の説明図である。10 is an explanatory diagram of a method for determining the presence or absence of a person in Embodiment 4. FIG. 実施の形態4にかかる照明制御処理の手順を示すフローチャートである。14 is a flowchart illustrating a procedure of illumination control processing according to the fourth embodiment.

以下、本発明を実施するための形態について、図面を参照(言及図以外も適宜参照)して、詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings (refer to other than the drawings as appropriate).

(実施の形態1)
図1は、実施の形態1にかかる照明システムの構成を示す説明図である。照明システム10は、オフィスルーム30を照明対象領域とする複数の照明装置8a1(図1では「8a」と表記。他も同様)〜8n3(以下、複数の照明装置8a1〜8n3を総称する場合は照明装置8と表記する。)と、複数のカメラ2a〜2d、演算装置4a、画像解析装置5、制御装置6を備えて構成される。
(Embodiment 1)
FIG. 1 is an explanatory diagram of a configuration of the illumination system according to the first embodiment. The lighting system 10 includes a plurality of lighting devices 8a1 (indicated as “8a 1 ” in FIG. 1; the same applies to others) to 8n3 (hereinafter, a plurality of lighting devices 8a1 to 8n3 are collectively referred to). Is represented as a lighting device 8), and includes a plurality of cameras 2 a to 2 d, an arithmetic device 4 a, an image analysis device 5, and a control device 6.

オフィスルーム30には、多数の机11や椅子12(座席)が配置され、多数の人物が勤務できるようになっている。各座席には、パーソナルコンピュータなどの電子機器が設置されていてもよい。オフィスルーム30の入口にはドア13a,13bが設けられており、ドア13a,13bの近傍には入退室者を検知する人感センサ14a,14bが設けられている。人感センサ14a,14bは、信号ケーブル21で制御装置6に接続されている。   A large number of desks 11 and chairs 12 (seats) are arranged in the office room 30 so that a large number of persons can work. Each seat may be provided with an electronic device such as a personal computer. Doors 13a and 13b are provided at the entrance of the office room 30, and human sensors 14a and 14b for detecting persons entering and leaving the room are provided in the vicinity of the doors 13a and 13b. The human sensors 14 a and 14 b are connected to the control device 6 by a signal cable 21.

照明装置8は、具体的には、例えば蛍光灯などであり、所定の照明対象領域(本実施の形態ではオフィスルーム30)を照明するために、オフィスルーム30の天井面に複数設けられている。それぞれの照明装置8は、照明対象領域(オフィスルーム30)の局所部分を照明対象としており、複数の照明装置8a1〜8n3によって照明対象領域(オフィスルーム30)の全体が照明可能なように配置されている。本実施の形態では、照明装置8a1〜8n3は、オフィスルーム30の短辺方向に3列、長辺方向にn列、それぞれ規則的に配置されている。   Specifically, the lighting device 8 is, for example, a fluorescent lamp, and a plurality of lighting devices 8 are provided on the ceiling surface of the office room 30 in order to illuminate a predetermined illumination target region (the office room 30 in the present embodiment). . Each lighting device 8 has a local part of the lighting target area (office room 30) as a lighting target, and is arranged so that the whole lighting target area (office room 30) can be illuminated by the plurality of lighting devices 8a1 to 8n3. ing. In the present embodiment, lighting devices 8a1 to 8n3 are regularly arranged in three rows in the short side direction and n rows in the long side direction of office room 30, respectively.

カメラ2a〜2d(以下、複数のカメラ2a〜2dを総称する場合はカメラ2と表記する。)は、照明対象領域であるオフィスルーム30を撮影範囲とする。カメラ2a〜2dは、オフィスルーム30の壁面16w1〜16w4によって構成される角部の天井面16c近傍に設けられている。なお、本実施の形態では、カメラ2を複数設けることとしたが、照明対象領域全体を撮影範囲としてカバーできれば、設置するカメラは1台であってもよい。それぞれのカメラ2a〜2dは、撮像カメラネットワーク22で相互に接続されている。また、撮像カメラネットワーク22は、オフィスルーム30に隣接して設けられた画像解析装置5に接続されている。   Cameras 2a to 2d (hereinafter, a plurality of cameras 2a to 2d are collectively referred to as camera 2) have an office room 30 that is an illumination target area as a shooting range. The cameras 2 a to 2 d are provided in the vicinity of the ceiling surface 16 c at the corners constituted by the wall surfaces 16 w 1 to 16 w 4 of the office room 30. In this embodiment, a plurality of cameras 2 are provided. However, one camera may be installed as long as the entire illumination target area can be covered as a shooting range. The respective cameras 2a to 2d are connected to each other via an imaging camera network 22. The imaging camera network 22 is connected to an image analysis device 5 provided adjacent to the office room 30.

画像解析装置5は、撮像カメラネットワーク22および演算装置4aと接続され(配線の図示は一部省略。以下同様)、撮像カメラネットワーク22を介してカメラ2a〜2dで撮影された撮影画像を取得し、撮影画像の解析を行う。画像解析装置5による撮影画像の解析結果は、演算装置4aに出力される。   The image analysis device 5 is connected to the imaging camera network 22 and the arithmetic device 4a (partial illustration of wiring is omitted, the same applies hereinafter), and acquires captured images taken by the cameras 2a to 2d via the imaging camera network 22. Analyzing the captured image. The analysis result of the captured image by the image analysis device 5 is output to the arithmetic device 4a.

演算装置4aは、信号ケーブル24等を介して画像解析装置5および制御装置6に接続される。演算装置4aは、CPU(Central Processing Unit)、制御プログラムなどを格納・記憶するROM(Read Only Memory)、制御プログラムの作動領域としてのRAM(Random Access Memory)、各種データを書き換え可能に保持するEEP(Electrically Erasable Programmable)ROM、周辺回路等とのインターフェースをとるインターフェース部などを含んで構成される。演算装置4aには、キーボード4bやマウス4cなどの入力手段を介して、データや指令コマンドなどが入力される。また、演算装置4aにはディスプレイなどの表示手段4dが設けられ、入力手段を介して入力されたデータや演算装置4aからの出力データなどが表示される。   The arithmetic device 4a is connected to the image analysis device 5 and the control device 6 via a signal cable 24 or the like. The arithmetic device 4a includes a CPU (Central Processing Unit), a ROM (Read Only Memory) that stores and stores a control program, a RAM (Random Access Memory) as an operation area of the control program, and an EEP that holds various data in a rewritable manner. (Electrically Erasable Programmable) It is configured to include an interface unit for interfacing with ROM, peripheral circuits and the like. Data, command commands, and the like are input to the arithmetic device 4a via input means such as a keyboard 4b and a mouse 4c. The arithmetic device 4a is provided with display means 4d such as a display, and displays data input via the input means, output data from the arithmetic device 4a, and the like.

制御装置6は、演算装置4aと信号ケーブル24を介して接続される。制御装置6は、照明制御ケーブル23を介して各照明装置8a1〜8n3と接続されており、演算装置4aからの制御信号に基づいて各照明装置8a1〜8n3の調光を制御する。なお、本実施の形態では、演算装置4aおよび画像解析装置5をそれぞれ独立した装置としたが、これらの装置を1台の演算装置などによって実現してもよい。   The control device 6 is connected to the arithmetic device 4a via the signal cable 24. The control device 6 is connected to each of the lighting devices 8a1 to 8n3 via the lighting control cable 23, and controls dimming of each of the lighting devices 8a1 to 8n3 based on a control signal from the arithmetic device 4a. In the present embodiment, the arithmetic device 4a and the image analysis device 5 are independent devices, but these devices may be realized by a single arithmetic device or the like.

照明装置8の点灯・消灯を行うための照明スイッチ15a、15bは、制御装置6に接続されている。   The illumination switches 15 a and 15 b for turning on and off the illumination device 8 are connected to the control device 6.

次に、照明システム10の機能的構成について説明する。
図2は、実施の形態1にかかる照明システム10の機能的構成を示すブロック図である。照明システム10の機能的構成は、照明対象領域であるオフィスルーム30を照明するために設けられた複数の照明装置8と、照明装置8の調光を制御する照明制御装置20とに分けられる。
Next, a functional configuration of the lighting system 10 will be described.
FIG. 2 is a block diagram illustrating a functional configuration of the illumination system 10 according to the first embodiment. The functional configuration of the illumination system 10 is divided into a plurality of illumination devices 8 provided for illuminating the office room 30 that is the illumination target area, and an illumination control device 20 that controls dimming of the illumination device 8.

照明制御装置20は、カメラ2と、検出手段202、スコア付与手段204、特定手段206、照明制御手段208からなる処理部201と、記憶部209と、を含んで構成される。処理部201における各手段は、記憶部209と連携して各処理を行う。なお、照明制御装置20は、図1に示した複数のカメラ2a〜2d、演算装置4a、画像解析装置5、制御装置6に対応する。   The illumination control device 20 includes a camera 2, a processing unit 201 including a detection unit 202, a score assignment unit 204, a specification unit 206, and an illumination control unit 208, and a storage unit 209. Each unit in the processing unit 201 performs each process in cooperation with the storage unit 209. The illumination control device 20 corresponds to the plurality of cameras 2a to 2d, the arithmetic device 4a, the image analysis device 5, and the control device 6 shown in FIG.

カメラ2は、図1に示した複数のカメラ2a〜2dであり、照明対象領域であるオフィスルーム30を撮影範囲とする。   The camera 2 is the plurality of cameras 2a to 2d shown in FIG. 1 and uses the office room 30 that is the illumination target area as a shooting range.

検出手段202は、カメラ2の撮影画像を用いて、人物が存在する可能性がある照明対象領域内(オフィスルーム30内)の地点(以下、「検出地点」という。)を検出する。検出手段202は、例えば、所定時間ごとにカメラ2の撮影画像の画素を比較解析し、前時刻の撮影画像と異なる色情報を有する領域(以下、「変化領域」という。)を抽出する。そして、この変化領域に対応する地点を、人物がいる可能性がある検出地点として検出する。これは、通常、人物がその場所にいる場合では何らかの動きがあると考えられ、撮影画像の色情報の変化は、人物の動きによって生じたものと考えられるためである。なお、天候の変化や太陽の位置の変化等に伴う画素の色変化を考慮するようにしてもよい。   The detection means 202 detects a spot (hereinafter referred to as “detection spot”) within the illumination target area (in the office room 30) where a person may exist, using the captured image of the camera 2. For example, the detection unit 202 compares and analyzes the pixels of the captured image of the camera 2 every predetermined time, and extracts an area having color information different from that of the captured image at the previous time (hereinafter referred to as “change area”). And the point corresponding to this change area | region is detected as a detection point with a possibility that a person exists. This is because it is considered that there is usually some movement when the person is at the place, and the change in the color information of the photographed image is considered to be caused by the movement of the person. In addition, you may make it consider the color change of the pixel accompanying the change of a weather, the change of the position of the sun, etc.

図3は、検出手段202による人物検出方法を説明するための説明図である。図3(a)は時刻t0におけるカメラ2の撮影画像D1、図3(b)は時刻t0から所定時間経過後(時刻t0+α)におけるカメラ2の撮影画像D2である。各撮影画像D1,D2は、複数の領域に分割されており、各分割領域は座標(x,y)で特定することができる。例えば、左上の分割領域は座標(x1,y1)で特定することができる。   FIG. 3 is an explanatory diagram for explaining a person detection method by the detection means 202. 3A shows a photographed image D1 of the camera 2 at time t0, and FIG. 3B shows a photographed image D2 of the camera 2 after a predetermined time has elapsed from time t0 (time t0 + α). Each captured image D1, D2 is divided into a plurality of areas, and each divided area can be specified by coordinates (x, y). For example, the upper left divided area can be specified by coordinates (x1, y1).

撮影画像D1とD2を比較すると、撮影画像D1には人物が写っていないが、撮影画像D2では座標(X3,y2)、(X3,y3)、(X4,y2)、(X4,y3)、(X5,y2)、(X5,y3)、(X5,y4)、(X6,y1)、(X6,y2)、(X6,y3)(X6,y4)の色が変化している。このことから、検出手段202は、変化領域である座標(X3,y2)、(X3,y3)、(X4,y2)、(X4,y3)、(X5,y2)、(X5,y3)、(X5,y4)、(X6,y1)、(X6,y2)、(X6,y3)(X6,y4)に対応する地点に人物がいる可能性があると検出する。   When the captured images D1 and D2 are compared, no person is shown in the captured image D1, but in the captured image D2, coordinates (X3, y2), (X3, y3), (X4, y2), (X4, y3), The colors of (X5, y2), (X5, y3), (X5, y4), (X6, y1), (X6, y2), (X6, y3) (X6, y4) have changed. From this, the detection unit 202 has coordinates (X3, y2), (X3, y3), (X4, y2), (X4, y3), (X5, y2), (X5, y3), which are change areas, It is detected that there is a possibility that a person is present at a point corresponding to (X5, y4), (X6, y1), (X6, y2), (X6, y3) (X6, y4).

なお、図3は検出手段202の処理を理解しやすくするために単純化した図を用いており、実際の処理は画素単位などで行う。また、カメラ2は天井面16c近傍に設けられているため、実際の撮影画像は、図3に示した図と比較してオフィスルーム30内のより広い範囲を撮影した広角画像となる。   Note that FIG. 3 uses a simplified diagram for easy understanding of the processing of the detection means 202, and the actual processing is performed in units of pixels. In addition, since the camera 2 is provided in the vicinity of the ceiling surface 16c, the actual captured image is a wide-angle image obtained by capturing a wider range in the office room 30 as compared to the diagram illustrated in FIG.

図2の説明に戻り、スコア付与手段204は、検出手段202によって検出された検出地点に対して人物検出スコアを付与する。スコア付与手段204は、カメラ2と検出地点との距離に基づいて検出地点に付与する人物検出スコアを決定する。より詳細には、スコア付与手段204は、カメラ2と検出地点との距離が短いほど人物検出スコアを大きくする。   Returning to the description of FIG. 2, the score assigning unit 204 assigns a person detection score to the detection point detected by the detecting unit 202. The score assigning unit 204 determines a person detection score to be given to the detection point based on the distance between the camera 2 and the detection point. More specifically, the score assigning unit 204 increases the person detection score as the distance between the camera 2 and the detection point is shorter.

図4は、スコア付与手段204による人物検出スコア付与方法を説明するための説明図である。図4(a)はカメラ2の撮影画像、図4(b)は撮影画像上の位置(座標)を平面上に変換した平面図である。図4(a)に示すように、カメラ2の撮影画像は、オフィスルーム30の天井面側から床面側を見た俯瞰画像である。検出手段202では、撮影画像を所定数に分割し、人物がいる可能性がある領域(色の変化があった領域)を検出する。図4(a)では、撮影画像を横16分割、縦12分割し、計192領域に分割している。   FIG. 4 is an explanatory diagram for explaining a person detection score assignment method by the score assignment unit 204. 4A is a photographed image of the camera 2, and FIG. 4B is a plan view obtained by converting a position (coordinates) on the photographed image into a plane. As shown in FIG. 4A, the captured image of the camera 2 is a bird's-eye view image of the floor surface side viewed from the ceiling surface side of the office room 30. The detection unit 202 divides the photographed image into a predetermined number and detects an area where a person may be present (area where the color has changed). In FIG. 4A, the photographed image is divided into 16 parts in the horizontal direction and 12 parts in the vertical direction, and is divided into a total of 192 areas.

図4(a)における各領域の位置を平面上に座標変換すると、図4(b)に示すように、カメラ2から遠いエリアほど撮影画像上の1つ領域でカバーする平面上の領域は広くなる。例えば、撮影画像のうちカメラ2との距離が最も短い領域(カメラ2との垂直距離1m)では、1領域でカバーする横方向の距離は約2mを16分割した約0.125mであるのに対して、撮影画像のうちカメラ2との距離が最も長い領域(カメラ2との垂直距離17m)では、1領域でカバーする横方向の距離は約18mを16分割した約1.125mとなる。このため、カメラ2から遠い場所ほど検出誤差が大きくなり、人物の検出精度が低くなる。   When the position of each region in FIG. 4A is coordinate-transformed on a plane, as shown in FIG. 4B, the region on the plane that is covered by one region on the captured image is wider as the area is farther from the camera 2. Become. For example, in the area where the distance from the camera 2 is the shortest in the captured image (vertical distance 1 m from the camera 2), the horizontal distance covered by one area is about 0.125 m obtained by dividing about 2 m into 16 parts. On the other hand, in the area where the distance from the camera 2 is the longest in the captured image (vertical distance to the camera 2 is 17 m), the horizontal distance covered by one area is about 1.125 m, which is obtained by dividing about 18 m into 16 parts. For this reason, the detection error increases as the location is farther from the camera 2, and the detection accuracy of the person decreases.

そこで、スコア付与手段204は、人物の検出精度の低下を防ぐため、カメラ2と検出地点との距離が短いほど人物検出スコアを大きくする。具体的には、各検出地点における人物検出スコアSを、当該検出地点とカメラ2との距離に比例して小さくなる係数Aと基準スコア(例えば「1」)との積とする(人物検出スコアS=係数A×基準スコア)。すなわち、スコア付与手段204は、各検出地点に対してカメラ2との距離に基づく重みづけを行う。   Therefore, the score assigning unit 204 increases the person detection score as the distance between the camera 2 and the detection point is shorter in order to prevent a decrease in human detection accuracy. Specifically, the person detection score S at each detection point is the product of a coefficient A that decreases in proportion to the distance between the detection point and the camera 2 and a reference score (for example, “1”) (person detection score). S = coefficient A × reference score). That is, the score assignment unit 204 weights each detection point based on the distance from the camera 2.

本実施の形態では、係数Aをカメラ2からの距離に対してリニアに変更するものとする。この場合、係数Aは、検出地点とカメラ2との垂直距離yの一次関数として表わすことができる。すなわち、係数A=ay+b(a,bは定数)と表わすことができる。具体的には、例えば、撮影画像のうちカメラ2との距離が最も短い領域(カメラ2との垂直距離1m)に検出地点がある場合は係数Aを「5」、撮影画像のうちカメラ2との距離が最も長い領域(カメラ2との垂直距離17m)に検出地点がある場合は係数が「1」となるように設定する場合、任意の垂直距離yの地点における係数Aは、係数A=(−y+21)/4と示すことができる。   In the present embodiment, the coefficient A is changed linearly with respect to the distance from the camera 2. In this case, the coefficient A can be expressed as a linear function of the vertical distance y between the detection point and the camera 2. That is, it can be expressed as coefficient A = ay + b (a and b are constants). Specifically, for example, when the detection point is in an area where the distance to the camera 2 is the shortest (a vertical distance of 1 m from the camera 2) in the captured image, the coefficient A is “5”, and in the captured image, the camera 2 When the detection point is in the region with the longest distance (vertical distance 17m from the camera 2), when the coefficient is set to be “1”, the coefficient A at the point of an arbitrary vertical distance y is the coefficient A = It can be shown as (−y + 21) / 4.

なお、図4では説明の便宜上、検出地点とカメラ2との垂直距離のみを考慮して説明したが、検出地点とカメラ2との水平距離も考慮して人物検出スコアSを算出すれば、人物検出の精度をより向上させることができる。   In FIG. 4, for the sake of convenience of explanation, only the vertical distance between the detection point and the camera 2 has been described. However, if the person detection score S is calculated in consideration of the horizontal distance between the detection point and the camera 2, the person The detection accuracy can be further improved.

図2の説明に戻り、特定手段206は、照明対象領域内の各地点における人物検出スコアの値に基づいて、人物が存在する人物存在地点を特定する。具体的には、特定手段206は、人物検出スコアが所定値以上の地点を人物存在地点として特定する。前記のように、人物検出スコアは、カメラ2と検出地点との距離が短いほど大きな値が付与されるので、カメラ2との距離が短い地点ほど人物存在地点として特定されやすくなる。   Returning to the description of FIG. 2, the specifying unit 206 specifies the person presence point where the person exists based on the value of the person detection score at each point in the illumination target area. Specifically, the specifying unit 206 specifies a point where the person detection score is a predetermined value or more as a person presence point. As described above, since a greater value is assigned to the person detection score as the distance between the camera 2 and the detection point is shorter, the point where the distance from the camera 2 is shorter is more easily identified as the person presence point.

照明制御手段208は、特定手段206による特定結果に基づいて、それぞれの照明装置8の調光を制御する。照明制御手段208は、人物存在地点の周辺を照明対象とする照明装置8を点灯させるとともに、人物存在地点の周辺以外の領域を照明対象とする照明装置8を消灯または照度を低下させる。人物存在地点の周辺を照明対象とする照明装置8とは、例えば、照明装置8の天井面における位置をオフィスルーム30の床面上に投影した際に、当該投影地点の位置が人物存在地点から所定距離(例えば1m)以内にある照明装置8である。   The illumination control unit 208 controls dimming of each illumination device 8 based on the identification result by the identification unit 206. The lighting control unit 208 turns on the lighting device 8 that targets the vicinity of the person presence point as the illumination target, and turns off the illumination device 8 that targets the area other than the vicinity of the person presence point or reduces the illuminance. For example, when the position on the ceiling surface of the lighting device 8 is projected onto the floor surface of the office room 30, the position of the projection point is determined from the person presence point. The lighting device 8 is within a predetermined distance (for example, 1 m).

図5は、実施の形態1にかかる照明制御装置20による照明制御処理の手順を示すフローチャートである。図5のフローチャートにおいて、照明制御装置20は、まず、カメラ2によってオフィスルーム30を撮影する(ステップS501)。
次に、検出手段202は、撮影画像中の動きがある領域(変化領域)を特定する(ステップS502)。
FIG. 5 is a flowchart of a procedure of the illumination control process performed by the illumination control device 20 according to the first embodiment. In the flowchart of FIG. 5, the lighting control device 20 first photographs the office room 30 with the camera 2 (step S501).
Next, the detection unit 202 identifies an area (change area) where there is a motion in the captured image (step S502).

次に、検出手段202は、撮影画像を平面データに座標変換して、変化領域の平面上における位置座標を特定して検出地点として検出し(ステップS503)、検出地点の位置座標をデータベース(記憶部209)に格納する(ステップS504)。ステップS501〜S504の処理を、以下「座標検出処理」という。   Next, the detection unit 202 converts the captured image into plane data, specifies the position coordinate on the plane of the change area, detects it as a detection point (step S503), and stores the position coordinate of the detection point in a database (stored). Section 209) (step S504). The processing of steps S501 to S504 is hereinafter referred to as “coordinate detection processing”.

次に、スコア付与手段204は、各検出地点に対して、カメラ2との距離に基づいて重みづけをおこなった人物検出スコアを付与する(ステップS505)。
次に、特定手段206は、人物検出スコアが所定値以上の地点、すなわち人物存在地点を特定する(ステップS506)。
Next, the score assigning unit 204 assigns a weighted person detection score to each detection point based on the distance from the camera 2 (step S505).
Next, the specifying unit 206 specifies a point where the person detection score is a predetermined value or more, that is, a person existing point (step S506).

次に、照明制御手段208は、複数の照明装置8のうち任意の1つを選択し(ステップS507)、当該照明装置8(選択照明装置)の近傍(所定距離以内)に人物存在地点があるか否かを判断する(ステップS508)。   Next, the lighting control unit 208 selects any one of the plurality of lighting devices 8 (step S507), and there is a person presence point in the vicinity (within a predetermined distance) of the lighting device 8 (selected lighting device). Whether or not (step S508).

選択照明装置の近傍に人物存在地点がある場合(ステップS508:Yes)、照明制御手段208は、選択照明装置が所定値以上の照度で点灯しているか否かを判断する(ステップS509)。選択照明装置が所定値以上の照度で点灯している場合(ステップS509:Yes)、照明制御手段208は、そのままの点灯状態を維持させる(ステップS510)。一方、選択照明装置が所定値以上の照度で点灯していない場合(ステップS509:No)、照明制御手段208は、選択照明装置を点灯または照度を上昇させる(ステップS511)。   When there is a person presence point in the vicinity of the selected lighting device (step S508: Yes), the lighting control unit 208 determines whether or not the selected lighting device is lit with an illuminance of a predetermined value or more (step S509). When the selected lighting device is lit with an illuminance equal to or higher than a predetermined value (step S509: Yes), the lighting control unit 208 maintains the lighting state as it is (step S510). On the other hand, when the selected lighting device is not lit with an illuminance equal to or higher than the predetermined value (step S509: No), the lighting control unit 208 turns on the selected lighting device or increases the illuminance (step S511).

また、ステップS508において、選択照明装置の近傍に人物存在地点がない場合(ステップS508:No)、照明制御手段208は、選択照明装置が所定値以上の照度で点灯しているか否かを判断し(ステップS512)、所定値以上の照度で点灯している場合(ステップS512:Yes)、消灯または照度を低下させる(ステップS513)。一方、選択照明装置が所定値以上の照度で点灯していない、すなわち消灯または照度が所定値未満の場合(ステップS512:No)、照明制御手段208は、そのままの点灯状態を継続させる(ステップS514)。   In step S508, when there is no person presence point in the vicinity of the selected lighting device (step S508: No), the lighting control unit 208 determines whether the selected lighting device is lit with an illuminance equal to or higher than a predetermined value. (Step S512) When the light is illuminated with an illuminance equal to or higher than a predetermined value (Step S512: Yes), the light is turned off or the illuminance is reduced (Step S513). On the other hand, if the selected illumination device is not lit with an illuminance greater than or equal to the predetermined value, that is, the light is turned off or the illuminance is less than the predetermined value (step S512: No), the illumination control means 208 continues the lighting state as it is (step S514) ).

照明制御装置20は、オフィスルーム30に設けられた全ての照明装置8についてステップS507以降の処理を行うまでは(ステップS515:No)、ステップS507に戻り、以降の処理をくり返す。そして、全ての照明装置8についてステップS507以降の処理を行うと(ステップS515:Yes)、本フローチャートによる処理を終了する。ステップS507〜S515の処理を、以下「個別照明制御処理」という。照明制御装置20では、所定時間間隔ごとに図5に示す処理をおこない、刻々と変化するオフィスルーム30内の人物の位置に合わせて照明の調光を行う。   The lighting control device 20 returns to step S507 and repeats the subsequent processing until all the lighting devices 8 provided in the office room 30 perform the processing after step S507 (step S515: No). And if the process after step S507 is performed about all the illuminating devices 8 (step S515: Yes), the process by this flowchart will be complete | finished. The processing of steps S507 to S515 is hereinafter referred to as “individual lighting control processing”. The lighting control device 20 performs the processing shown in FIG. 5 at predetermined time intervals, and performs dimming of lighting according to the position of the person in the office room 30 that changes every moment.

以上説明したように、実施の形態1にかかる照明システム10は、カメラ2の撮影画像から人物の位置を特定する際に、カメラ2と検出地点との距離に基づく重みづけをした人物検出スコアを付与し、人物検出スコアに基づいて人物存在地点を特定する。より詳細には、スコア付与手段204は、カメラ2と検出地点との距離が短いほど人物検出スコアを大きくする。カメラ2の撮影画像から人物の位置を特定する場合、カメラ2から遠い場所ほど検出誤差が大きくなり、人物の検出精度が低くなる。カメラ2と検出地点との距離に基づく重みづけを行うことによって、特にカメラ2から離れた場所における人物の検出精度を向上させることができ、照明装置8の調光をより適切に制御することができる。   As described above, when the illumination system 10 according to the first embodiment specifies the position of a person from the captured image of the camera 2, the person detection score weighted based on the distance between the camera 2 and the detection point is used. And a person presence point is specified based on the person detection score. More specifically, the score assigning unit 204 increases the person detection score as the distance between the camera 2 and the detection point is shorter. When the position of a person is specified from the captured image of the camera 2, the detection error increases as the position is farther from the camera 2, and the detection accuracy of the person decreases. By performing weighting based on the distance between the camera 2 and the detection point, it is possible to improve the detection accuracy of a person particularly in a place away from the camera 2 and to more appropriately control the light control of the lighting device 8. it can.

(実施の形態2)
実施の形態1では、カメラ2との距離が近い検出地点ほど大きい人物検出スコアを付与することにより、人物の検出精度を向上させた。実施の形態2では、カメラ2と検出位置との距離に加えて、照明対象領域内の座席の位置を特定する座席位置情報を用いて人物の検出精度を向上させる。
(Embodiment 2)
In the first embodiment, the detection accuracy of a person is improved by assigning a larger person detection score to a detection point closer to the camera 2. In the second embodiment, in addition to the distance between the camera 2 and the detection position, the detection accuracy of a person is improved by using seat position information that specifies the position of the seat in the illumination target area.

より詳細には、図1に示すように、照明対象領域であるオフィスルーム30には、人物が着席する座席が設けられている。実施の形態2では、特定手段206が、照明対象領域内(オフィスルーム30内)の座席の位置を特定する座席位置情報を有しており、人物検出スコアが所定値以上かつ座席の位置である地点を人物存在地点として特定する。座席位置情報には、例えば、オフィスルーム30内における座席の位置座標が記録されている。なお、実施の形態2における照明システム10の構成は、実施の形態1(図1および図2参照)と同様である。   More specifically, as shown in FIG. 1, the office room 30 that is the illumination target area is provided with a seat on which a person is seated. In the second embodiment, the specifying unit 206 has seat position information for specifying the position of the seat in the illumination target area (in the office room 30), and the person detection score is a predetermined value or more and the seat position. A point is specified as a person presence point. In the seat position information, for example, the position coordinates of the seat in the office room 30 are recorded. In addition, the structure of the illumination system 10 in Embodiment 2 is the same as that of Embodiment 1 (refer FIG. 1 and FIG. 2).

図6は、実施の形態2にかかる照明制御装置20による照明制御処理の手順を示すフローチャートである。図6のフローチャートにおいて、照明制御装置20は、まず、実施の形態1と同様に、座標検出処理(図5のステップS501〜S504の処理)を行う(ステップS601)。   FIG. 6 is a flowchart of a procedure of illumination control processing performed by the illumination control device 20 according to the second embodiment. In the flowchart of FIG. 6, the illumination control device 20 first performs coordinate detection processing (processing of steps S501 to S504 in FIG. 5) as in the first embodiment (step S601).

次に、スコア付与手段204は、各検出地点に対して、カメラ2との距離に基づいて重みづけをおこなった人物検出スコアを付与する(ステップS602)。
次に、特定手段206は、人物検出スコアが所定値以上の地点を特定する(ステップS603)。
Next, the score assigning unit 204 assigns a weighted person detection score based on the distance from the camera 2 to each detection point (step S602).
Next, the specifying unit 206 specifies a point where the person detection score is equal to or greater than a predetermined value (step S603).

次に、特定手段206は、人物検出スコアが所定値以上の地点の位置座標と、座席位置情報内の位置座標とを照合して(ステップS604)、人物検出スコアが所定値以上かつ座席の位置である地点を抽出し、この地点を人物存在地点として特定する(ステップS605)。   Next, the specifying unit 206 collates the position coordinates of the point where the person detection score is a predetermined value or more with the position coordinates in the seat position information (step S604), and the person detection score is a predetermined value or more and the seat position. Is extracted, and this point is specified as a person presence point (step S605).

そして、照明制御装置20は、実施の形態1と同様に、個別照明制御処理(図5のステップS507〜S515の処理)をおこない、本フローチャートによる処理を終了する。   And the illumination control apparatus 20 performs an individual illumination control process (process of step S507-S515 of FIG. 5) similarly to Embodiment 1, and complete | finishes the process by this flowchart.

なお、図6のフローチャートでは、特定手段206において人物検出スコアが所定値以上の地点の位置座標と座席位置座標とを照合し、これらが一致する場合に、この地点を人物存在地点として特定した。これに限らず、例えば、スコア付与手段204が座席位置情報を有し、スコア付与手段204において検出地点の位置座標と座席の位置座標とを照合し、検出地点が座席の設けられている地点である場合には、検出地点が座席の設けられている地点でない場合よりも人物検出スコアを大きくするようにしてもよい。   In the flowchart of FIG. 6, the specifying unit 206 collates the position coordinates of the point where the person detection score is equal to or greater than a predetermined value and the seat position coordinates, and if they match, this point is specified as the person existing point. For example, the score assigning unit 204 has seat position information, the score assigning unit 204 collates the position coordinates of the detection point with the position coordinates of the seat, and the detection point is a point where the seat is provided. In some cases, the person detection score may be made larger than when the detection point is not a point where a seat is provided.

以上説明したように、実施の形態2にかかる照明システムは、カメラ2と検出位置との距離に加えて、照明対象領域内の座席の位置を特定する座席位置情報を用いて人物存在位置を特定する。座席が設けられている位置は、照明対象領域内でも特に人物が存在する確率が大きい地点であると考えられる。このため、人物の検出精度をより向上させることができ、照明装置8の調光をより適切に制御することができる。   As described above, the lighting system according to the second embodiment specifies the person presence position using the seat position information that specifies the position of the seat in the illumination target area in addition to the distance between the camera 2 and the detection position. To do. The position where the seat is provided is considered to be a point where the probability that a person is present is particularly large even in the illumination target area. For this reason, the detection accuracy of a person can be improved more and the light control of the illuminating device 8 can be controlled more appropriately.

(実施の形態3)
実施の形態3では、カメラ2との検出位置との距離に加えて、照明対象領域内の電子機器の稼働状態および位置を特定する電子機器情報を用いて人物の検出精度を向上させる。より詳細には、図1に示すように、照明対象領域であるオフィスルーム30には、人物が使用する電子機器が設けられている場合がある。電子機器とは、例えばパーソナルコンピュータなどである。実施の形態3では、これら電子機器の稼働状態および位置を特定する電子機器情報を取得する電子機器情報取得手段をさらに備える。電子機器情報は、記憶部209に格納されている。
(Embodiment 3)
In the third embodiment, in addition to the distance from the detection position with the camera 2, the detection accuracy of a person is improved by using electronic device information that specifies the operating state and position of the electronic device in the illumination target area. More specifically, as shown in FIG. 1, an electronic device used by a person may be provided in an office room 30 that is an illumination target area. The electronic device is, for example, a personal computer. The third embodiment further includes electronic device information acquisition means for acquiring electronic device information for specifying the operating state and position of these electronic devices. Electronic device information is stored in the storage unit 209.

図7は、実施の形態3にかかる照明システム70の機能的構成を示すブロック図である。図7において、図2に示した実施の形態1にかかる照明システム10の機能的構成と共通する部分は、図2と同じ符号を付し、詳細な説明を省略する。図7に示す照明システム70には、図2に示した照明システム10の構成に加えて、電子機器情報取得手段702が設けられている。   FIG. 7 is a block diagram of a functional configuration of the illumination system 70 according to the third embodiment. 7, parts common to the functional configuration of the illumination system 10 according to the first embodiment shown in FIG. 2 are given the same reference numerals as those in FIG. 2, and detailed descriptions thereof are omitted. In addition to the configuration of the illumination system 10 shown in FIG. 2, the illumination system 70 shown in FIG. 7 is provided with electronic device information acquisition means 702.

電子機器情報取得手段702は、オフィスルーム30内に設けられた電子機器の稼働状態および位置を特定する電子機器情報を取得する。なお、オフィスルーム30内には複数(例えばオフィスルーム30内で業務を行う人物の数)の電子機器が設けられているものと考えられ、電子機器情報にはこれら複数の電子機器全ての稼働状態や位置座標が含まれる。電子機器にはそれぞれID(IDentifier)が割り振られており、電子機器情報には電子機器を識別するID、稼働状態および位置座標が関連づけられている。   The electronic device information acquisition unit 702 acquires electronic device information that identifies the operating state and position of the electronic device provided in the office room 30. In addition, it is considered that a plurality of electronic devices (for example, the number of persons who perform business in the office room 30) are provided in the office room 30, and the electronic device information includes the operating states of all of the plurality of electronic devices. And position coordinates. Each electronic device is assigned an ID (IDentifier), and the electronic device information is associated with an ID for identifying the electronic device, an operating state, and position coordinates.

電子機器の稼働状態を特定する情報とは、例えばそれぞれの電子機器が稼働しているか否かを示す情報である。電子機器情報取得手段702は、例えばLAN(Local Area Network)などのオフィス内ネットワークを介して各電子機器のCPU稼働率を取得して、CPU稼働率が所定値以上の電子機器は稼働している、CPU稼働率が所定値未満の電子機器は稼働していない、と判断する。また、電子機器の位置を特定する情報とは、オフィスルーム30内における電子機器の設置箇所の位置座標である。なお、電子機器が無線LAN対応のノートパソコンなどである場合には、各電子機器の稼働状態とともに、当該電子機器の位置情報を取得するようにしてもよい。   The information specifying the operating state of the electronic device is information indicating whether each electronic device is operating, for example. The electronic device information acquisition unit 702 acquires the CPU operating rate of each electronic device via an intra-office network such as a LAN (Local Area Network), for example, and an electronic device having a CPU operating rate equal to or higher than a predetermined value is operating. It is determined that an electronic device having a CPU operating rate less than a predetermined value is not operating. Further, the information for specifying the position of the electronic device is a position coordinate of the place where the electronic device is installed in the office room 30. When the electronic device is a wireless LAN compatible laptop computer or the like, the position information of the electronic device may be acquired together with the operating state of each electronic device.

照明システム70では、特定手段206は、電子機器情報取得手段702から電子機器情報を取得し、人物検出スコアが所定値以上かつ稼働している電子機器の位置である地点を人物存在地点として特定する。すなわち、特定手段206は、人物検出スコアが所定値以上である地点の位置座標が、電子機器の位置座標と一致し、かつ当該電気機器が稼働している場合に、当該地点が人物存在地点であると特定する。   In the lighting system 70, the specifying unit 206 acquires electronic device information from the electronic device information acquiring unit 702, and specifies a point where the person detection score is equal to or more than a predetermined value and the position of the operating electronic device as a person presence point. . That is, when the position coordinate of the point where the person detection score is equal to or greater than the predetermined value matches the position coordinate of the electronic device and the electric device is operating, the specifying unit 206 determines that the point is the person existing point. Identifies it.

図8は、実施の形態3にかかる照明制御装置20による照明制御処理の手順を示すフローチャートである。図8のフローチャートにおいて、照明制御装置20は、まず、実施の形態1と同様に、座標検出処理(図5のステップS501〜S504の処理)を行う(ステップS801)。   FIG. 8 is a flowchart illustrating the procedure of the illumination control process performed by the illumination control apparatus 20 according to the third embodiment. In the flowchart of FIG. 8, the illumination control device 20 first performs coordinate detection processing (processing of steps S501 to S504 in FIG. 5) as in the first embodiment (step S801).

次に、スコア付与手段204は、各検出地点に対して、カメラ2との距離に基づいて重みづけをおこなった人物検出スコアを付与する(ステップS802)。
次に、特定手段206は、人物検出スコアが所定値以上の地点を特定する(ステップS803)。
Next, the score assigning unit 204 assigns a weighted person detection score to each detection point based on the distance from the camera 2 (step S802).
Next, the specifying unit 206 specifies a point where the person detection score is equal to or greater than a predetermined value (step S803).

次に、電子機器情報取得手段702は、オフィスルーム30内の電子機器の電子機器情報を取得する(ステップS804)。
次に、特定手段206は、電子機器情報内の位置情報を参照して、ステップS803で特定した人物検出スコアが所定値以上の地点の位置座標のうち、電子機器が位置する地点を抽出する(ステップS805)。
Next, the electronic device information acquisition unit 702 acquires the electronic device information of the electronic device in the office room 30 (step S804).
Next, the specifying unit 206 refers to the position information in the electronic device information, and extracts the point where the electronic device is located from the position coordinates of the point where the person detection score specified in step S803 is a predetermined value or more ( Step S805).

次に、特定手段206は、抽出した地点に位置する電子機器が稼働しているか否かを判断する(ステップS806)。抽出した地点の電子機器が稼働している場合(ステップS806:Yes)、特定手段206は、この地点を人物存在地点として特定する(ステップS807)。
一方、抽出した地点の電子機器が稼働していない場合(ステップS806:No)、特定手段206は、この地点は人物存在地点ではないものとして、ステップS808に移行する。
Next, the specifying unit 206 determines whether or not the electronic device located at the extracted point is operating (step S806). When the electronic device at the extracted point is operating (step S806: Yes), the specifying unit 206 specifies this point as a person presence point (step S807).
On the other hand, when the electronic device at the extracted point is not operating (step S806: No), the specifying unit 206 determines that this point is not a person presence point, and proceeds to step S808.

そして、照明制御装置20は、実施の形態1と同様に、個別照明制御処理(図5のステップS507〜S515の処理)をおこなって(ステップS808)、本フローチャートによる処理を終了する。   And the illumination control apparatus 20 performs an individual illumination control process (process of step S507-S515 of FIG. 5) similarly to Embodiment 1 (step S808), and complete | finishes the process by this flowchart.

なお、ステップS805〜S807の処理は、以下のように行ってもよい。まず、電子機器情報から稼働している電子機器を特定し、稼働中の電子機器の位置座標を抽出する。そして、稼働中の電子機器の位置座標と人物検出スコアが所定値以上の地点の位置座標とのうち一致する地点を抽出して、人物存在地点としてもよい。   Note that the processing in steps S805 to S807 may be performed as follows. First, the operating electronic device is identified from the electronic device information, and the position coordinates of the operating electronic device are extracted. Then, a point where the position coordinates of the electronic device in operation and the position coordinates of the point where the person detection score is greater than or equal to a predetermined value may be extracted and set as the person presence point.

また、特定手段206で電子機器情報を参照した処理を行うのではなく、スコア付与手段204が電子機器情報を取得し、検出地点が稼働中の電子機器が設置されている地点の場合(すなわち、検出地点の位置座標と稼働中の電子機器の位置座標が一致する場合)には、稼働中の電子機器が設置されている地点でない場合よりも人物検出スコアを大きくするようにしてもよい。   In addition, instead of performing processing with reference to the electronic device information by the specifying unit 206, the score assigning unit 204 acquires the electronic device information, and the detection point is a point where an operating electronic device is installed (that is, In the case where the position coordinates of the detection point coincide with the position coordinates of the electronic device in operation), the person detection score may be made larger than that in the case where the electronic device in operation is not installed.

以上説明したように、実施の形態3にかかる照明システムは、カメラ2と検出位置との距離に加えて、照明対象領域内の電子機器の稼働状態および位置を特定する電子機器情報を用いて人物存在位置を特定する。電子機器が設けられている位置は、照明対象領域内でも特に人物が存在する確率が大きい地点である。また、電子機器が稼働しているか否かによって、実際にその場所に人物がいるか否かを特定することができる。このため、人物の検出精度をより向上させることができ、照明装置8の調光をより適切に制御することができる。   As described above, the illumination system according to the third embodiment uses the electronic device information that specifies the operating state and position of the electronic device in the illumination target area in addition to the distance between the camera 2 and the detection position. Specify the location. The position where the electronic device is provided is a point where there is a particularly high probability that a person exists even in the illumination target area. Further, whether or not a person is actually present can be specified depending on whether or not the electronic device is operating. For this reason, the detection accuracy of a person can be improved more and the light control of the illuminating device 8 can be controlled more appropriately.

(実施の形態4)
実施の形態4では、カメラ2との距離に基づいて検出位置に付与する人物検出スコアを決定するとともに、現在時刻から過去所定時間前までの各時刻における検出手段202の検出結果に対して、検出結果の検出時刻と現在時刻との時間間隔に基づいた値の人物検出スコアを付与する。より詳細には、検出結果の検出時刻と現在時刻との時間間隔が小さいほど人物検出スコアを大きくし、現在時刻から過去所定時間前までの各時刻における人物検出スコアの積算値が所定値以上の地点を人物存在地点として特定する。なお、実施の形態4における照明システムの構成は、実施の形態1(図1および図2参照)と同様なので、詳細な説明を省略する。
(Embodiment 4)
In the fourth embodiment, the person detection score to be given to the detection position is determined based on the distance from the camera 2, and the detection result of the detection unit 202 at each time from the current time to the predetermined time before the detection is detected. A person detection score having a value based on the time interval between the detection time of the result and the current time is assigned. More specifically, the smaller the time interval between the detection time of the detection result and the current time is, the larger the person detection score is, and the integrated value of the person detection score at each time from the current time to the past predetermined time is greater than or equal to the predetermined value. A point is specified as a person presence point. Since the configuration of the illumination system in the fourth embodiment is the same as that in the first embodiment (see FIGS. 1 and 2), detailed description thereof is omitted.

図9は、実施の形態4における人物の有無の判断方法を示す説明図である。図9(a)〜(c)は、照明対象領域の任意の一地点(地点Eという)におけるデータを示している。図9(a)は、検出手段202による検出結果であり、縦軸は地点Eに人物がいる可能性の有無(人物がいる可能性有:1、人物がいる可能性無:0)、横軸は時刻tを示す。図9(b)は、スコア付与手段204によって付与された地点Eの人物検出スコアの積算値であり、縦軸は過去所定時間前(例えば10分前)までの人物検出スコアの積算値、横軸は時刻tを示す。図9(c)は、特定手段206による特定結果であり、縦軸は地点Eが人物存在地点として特定されているか否か(人物存在地点として特定されている:1、人物存在地点として特定されていない:0)、横軸は時刻tを示す。   FIG. 9 is an explanatory diagram showing a method for determining the presence or absence of a person in the fourth embodiment. FIGS. 9A to 9C show data at an arbitrary point (referred to as point E) in the illumination target area. FIG. 9A shows a detection result by the detection unit 202, and the vertical axis indicates whether or not there is a person at the point E (possibility that there is a person: 1, no possibility that a person exists), horizontal The axis indicates time t. FIG. 9B shows the integrated value of the person detection score at the point E given by the score assigning unit 204, and the vertical axis shows the integrated value of the person detection score up to a predetermined time before the previous time (for example, 10 minutes before). The axis indicates time t. FIG. 9C shows the identification result by the identifying unit 206. The vertical axis indicates whether or not the point E is identified as a person existence point (identified as a person existence point: 1, identified as a person existence point). Not: 0), the horizontal axis indicates time t.

検出手段202は、所定時間ごと(例えば0.1秒ごと)にカメラ2の撮影画像を読み込み、継続的に検出地点を検出している。図9(a)では、時刻t0から時刻t1までは地点Eには人物がいる可能性がないと判断されている。このため、時刻t0から時刻t1までは地点Eの人物検出スコアは0であり、図9(b)に示す人物検出スコアの積算値も0となっている。   The detection means 202 reads the captured image of the camera 2 every predetermined time (for example, every 0.1 second), and continuously detects detection points. In FIG. 9A, it is determined that there is no possibility of a person at the point E from time t0 to time t1. For this reason, from time t0 to time t1, the person detection score at the point E is 0, and the integrated value of the person detection scores shown in FIG.

次に、図9(a)において時刻t1〜t3までは断続的に人物がいる可能性があると判断されている。このため、図9(b)に示すように、時刻t1以降は地点Eの人物検出スコアの積算値が0より大きくなっている。ここで、スコア付与手段204は、現在時刻から過去所定時間前までの各時刻における検出手段の検出結果に対して、当該検出結果の検出時刻と現在時刻との時間間隔とに基づいた値の人物検出スコアを付与する。具体的には、検出結果の検出時刻と現在時刻との時間間隔が小さいほど人物検出スコアを大きくする。   Next, in FIG. 9A, it is determined that there is a possibility that there is a person intermittently from time t1 to time t3. For this reason, as shown in FIG. 9B, the integrated value of the person detection scores at the point E is greater than 0 after the time t1. Here, the score assigning means 204 is a person whose value is based on the detection time of the detection means at each time from the current time to the past predetermined time, based on the time interval between the detection time of the detection result and the current time. A detection score is given. Specifically, the person detection score is increased as the time interval between the detection time of the detection result and the current time is smaller.

例えば、過去所定時間を10分間とすると、スコア付与手段204は、10分前までの検出手段202による検出結果(図9(a))を参照して、各時刻における検出結果に対して時間間隔に基づく係数Bを掛け合わせる。係数Bは、現在時刻と検出時刻との時間間隔が小さいほど大きな値とする。   For example, if the past predetermined time is 10 minutes, the score assigning unit 204 refers to the detection results (FIG. 9A) detected by the detection unit 202 up to 10 minutes ago, and the time interval with respect to the detection results at each time. Multiply by a factor B based on The coefficient B is set to a larger value as the time interval between the current time and the detection time is smaller.

本実施の形態では、検出結果の検出時刻と現在時刻との時間間隔に対してリニアに変更するものとする。この場合、係数Bは、検出結果の検出時刻と現在時刻との時間間隔Tの一次関数として表わすことができる。すなわち、係数B=cT+d(c,dは定数)と表わすことができる。具体的には、例えば、現在時刻と検出時刻とが等しい(最も時間間隔が小さい)場合の係数Bを「3」、10分前(最も時間間隔が大きい)場合の係数Bを「1」とすると、係数B=−0.2T+3と表わすことができる。   In this embodiment, it is assumed that the time interval between the detection time of the detection result and the current time is changed linearly. In this case, the coefficient B can be expressed as a linear function of the time interval T between the detection time of the detection result and the current time. That is, it can be expressed as coefficient B = cT + d (c and d are constants). Specifically, for example, the coefficient B when the current time and the detection time are equal (the smallest time interval) is “3”, and the coefficient B when 10 minutes ago (the largest time interval) is “1”. Then, it can be expressed as a coefficient B = −0.2T + 3.

図9(b)では、時刻t1以降、人物検出スコアの積算値が増加して、時刻t2において特定手段206における人物検出スコア積算値の閾値Pを超えている。このため、図9(c)に示す特定手段206による特定結果において、時刻t2以降、地点Eは人物存在地点として特定されている。   In FIG. 9B, the integrated value of the person detection score increases after time t1, and exceeds the threshold P of the integrated value of the person detection score in the specifying unit 206 at time t2. For this reason, in the identification result by the identifying unit 206 shown in FIG. 9C, the point E is identified as a person existing point after time t2.

一方、図9(a)において時刻t3以降は、連続的に人物がいると判断されている時刻がなく、図9(b)に示す人物検出スコアの積算値も低下している。時刻t4では特定手段206における閾値を下回っているため、図9(c)に示す特定手段206による特定結果では、時刻t4以降、地点Eは人物存在地点ではないものと特定されている。   On the other hand, after time t3 in FIG. 9A, there is no time at which it is determined that there is a person continuously, and the integrated value of the person detection score shown in FIG. 9B also decreases. Since it is below the threshold value in the specifying unit 206 at time t4, in the specifying result by the specifying unit 206 shown in FIG. 9C, it is specified that the point E is not a person existing point after time t4.

この結果、人物が存在しなかった照明対象領域に人物が移動してきた場合には迅速に照明装置8が点灯されるとともに、照明対象領域から人物が退出した場合にはある程度の時間が経過してから照明装置8が消灯される。これにより、照明装置8の点灯・消灯が頻繁におこなわれることによるチラつきを防止することができる。   As a result, when the person moves to the illumination target area where no person exists, the lighting device 8 is quickly turned on, and when a person leaves the illumination target area, a certain amount of time has passed. The lighting device 8 is turned off. As a result, flickering due to frequent lighting and extinguishing of the lighting device 8 can be prevented.

図10は、実施の形態4にかかる照明制御装置20による照明制御処理の手順を示すフローチャートである。図10のフローチャートにおいて、照明制御装置20は、まず、実施の形態1と同様に、座標検出処理(図5のステップS501〜S504の処理)を行う(ステップS1001)。   FIG. 10 is a flowchart illustrating a procedure of the illumination control process performed by the illumination control apparatus 20 according to the fourth embodiment. In the flowchart of FIG. 10, the illumination control device 20 first performs coordinate detection processing (steps S501 to S504 in FIG. 5) as in the first embodiment (step S1001).

次に、スコア付与手段204は、各検出地点に対して、カメラ2との距離に基づく重みづけをおこなった人物検出スコアを付与する(ステップS1002)。
次に、スコア付与手段204は、過去所定時間分の検出結果に対して、検出時刻と現在時刻との時間間隔に基づく重みづけをおこなった人物検出スコアを付与する(ステップS1003)。
Next, the score assigning unit 204 assigns a person detection score that is weighted based on the distance to the camera 2 to each detection point (step S1002).
Next, the score assigning unit 204 assigns a person detection score that is weighted based on the time interval between the detection time and the current time to the detection results for the past predetermined time (step S1003).

次に、特定手段206は、ステップS803で過去所定時間分の検出結果に付与された人物検出スコアを積算する(ステップS1004)。
次に、特定手段206は、人物検出スコアの積算値が所定値以上の地点を人物存在地点として特定する(ステップS1005)。
Next, the specifying unit 206 integrates the person detection scores given to the detection results for the past predetermined time in step S803 (step S1004).
Next, the specifying unit 206 specifies a point where the integrated value of the person detection score is a predetermined value or more as a person presence point (step S1005).

その後、照明制御装置20は、実施の形態1と同様に、個別照明制御処理(図5のステップS507〜S515の処理)をおこなって(ステップS1006)、本フローチャートによる処理を終了する。   After that, the illumination control device 20 performs the individual illumination control process (the processes in steps S507 to S515 in FIG. 5) as in the first embodiment (step S1006), and ends the process according to this flowchart.

以上説明したように、実施の形態4にかかる照明システムは、カメラ2との距離に基づいて検出位置に付与する人物検出スコアを決定するとともに、現在時刻から過去所定時間前までの各時刻における検出手段202の検出結果に対して、検出結果の検出時刻と現在時刻との時間間隔に基づいた値の人物検出スコアを付与する。より詳細には、検出結果の検出時刻と現在時刻との時間間隔が小さいほど人物検出スコアを大きくし、現在時刻から過去所定時間前までの各時刻における人物検出スコアの積算値が所定値以上の地点を人物存在地点として特定する。この結果、人物が存在しなかった照明対象領域に人物が移動してきた場合には迅速に照明装置8を点灯するとともに、照明対象領域から人物が退出した場合にはある程度の時間が経過してから照明装置8を消灯する。これにより、照明装置8の点灯・消灯が頻繁におこなわれることによるチラつきを防止することができ、照明装置8の調光をより適切に制御することができる。   As described above, the illumination system according to the fourth embodiment determines the person detection score to be given to the detection position based on the distance to the camera 2 and detects at each time from the current time to the past predetermined time. A person detection score having a value based on the time interval between the detection time of the detection result and the current time is assigned to the detection result of the means 202. More specifically, the smaller the time interval between the detection time of the detection result and the current time is, the larger the person detection score is, and the integrated value of the person detection score at each time from the current time to the past predetermined time is greater than or equal to the predetermined value. A point is specified as a person presence point. As a result, when the person moves to the illumination target area where no person exists, the lighting device 8 is quickly turned on, and when a person leaves the illumination target area, a certain amount of time has passed. The illumination device 8 is turned off. As a result, flickering due to frequent lighting and extinguishing of the lighting device 8 can be prevented, and the light control of the lighting device 8 can be more appropriately controlled.

2(2a〜2d) カメラ
4a 演算装置
4b キーボード
4c マウス
4d 表示手段
5 画像解析装置
6 制御装置
8(8a1〜8n3) 照明装置
10,70 照明システム
20 照明制御装置
30 オフィスルーム
201 処理部
202 検出手段
204 スコア付与手段
206 特定手段
208 照明制御手段
209 記憶部
702 電子機器情報取得手段
2 (2a to 2d) Camera 4a Arithmetic device 4b Keyboard 4c Mouse 4d Display means 5 Image analysis device 6 Control device 8 (8a1 to 8n3) Illumination device 10, 70 Illumination system 20 Illumination control device 30 Office room 201 Processing unit 202 Detection means 204 score assigning means 206 identifying means 208 lighting control means 209 storage unit 702 electronic device information obtaining means

Claims (9)

照明対象領域を撮影するカメラと、
前記カメラの撮影画像を用いて、人物が存在する可能性がある前記照明対象領域内の地点を検出する検出手段と、
前記検出手段によって検出された検出地点に対して人物検出スコアを付与するスコア付与手段と、
前記照明対象領域内の各地点における前記人物検出スコアの値に基づいて、前記人物が存在する人物存在地点を特定する特定手段と、
前記特定手段による特定結果に基づいて、前記照明対象領域を照明するために設けられた複数の照明装置の調光をそれぞれ制御する照明制御手段と、を備え、
前記スコア付与手段は、前記検出地点に対して前記カメラと当該検出地点との距離に基づいた値の前記人物検出スコアを付与することを特徴とする照明制御装置。
A camera that captures the illumination area;
Detecting means for detecting a point in the illumination target area where there is a possibility that a person exists by using a photographed image of the camera;
Score giving means for giving a person detection score to the detection point detected by the detection means;
A specifying means for specifying a person presence point where the person exists based on a value of the person detection score at each point in the illumination target area;
Illumination control means for controlling dimming of each of a plurality of illumination devices provided for illuminating the illumination target area based on the identification result by the identification means,
The said score provision means provides the said person detection score of the value based on the distance of the said camera and the said detection point with respect to the said detection point, The lighting control apparatus characterized by the above-mentioned.
前記スコア付与手段は、前記カメラと前記検出地点との距離が短いほど前記人物検出スコアを大きくし、
前記特定手段は、前記人物検出スコアが所定値以上の地点を前記人物存在地点として特定することを特徴とする請求項1に記載の照明制御装置。
The score giving means increases the person detection score as the distance between the camera and the detection point is shorter,
The lighting control apparatus according to claim 1, wherein the specifying unit specifies a point where the person detection score is a predetermined value or more as the person presence point.
前記照明対象領域には、前記人物が着席する座席が設けられており、
前記特定手段は、記憶部に記憶された前記照明対象領域内の前記座席の位置の情報である座席位置情報を用いて、前記人物検出スコアが所定値以上かつ前記座席が設けられている地点を前記人物存在地点として特定することを特徴とする請求項2に記載の照明制御装置。
The illumination target area is provided with a seat on which the person is seated,
The specifying means uses the seat position information, which is information on the position of the seat in the illumination target area, stored in the storage unit, to determine a point where the person detection score is a predetermined value or more and the seat is provided. The lighting control device according to claim 2, wherein the lighting control device is specified as the person presence point.
前記照明対象領域には、前記人物によって使用される電子機器が設けられており、
前記電子機器の稼働状態情報および前記電子機器の位置情報を記憶部から取得する電子機器情報取得手段をさらに備え、
前記特定手段は、前記電子機器情報取得手段から前記稼働状態情報および前記位置情報を取得し、前記人物検出スコアが所定値以上かつ稼働中の前記電子機器が設けられている地点を前記人物存在地点として特定することを特徴とする請求項2に記載の照明制御装置。
The lighting target area is provided with an electronic device used by the person,
Further comprising electronic device information acquisition means for acquiring operating state information of the electronic device and position information of the electronic device from a storage unit;
The specifying unit acquires the operating state information and the position information from the electronic device information acquiring unit, and determines a point where the person detection score is a predetermined value or more and the operating electronic device is provided as the person presence point The lighting control device according to claim 2, characterized by:
前記照明対象領域には、前記人物が着席する座席が設けられており、
前記スコア付与手段は、記憶部に記憶された前記照明対象領域内の前記座席の位置の情報である座席位置情報を用いて、前記検出地点が前記座席の設けられている地点である場合には、前記検出地点が前記座席の設けられている地点でない場合よりも前記人物検出スコアを大きくすることを特徴とする請求項2に記載の照明制御装置。
The illumination target area is provided with a seat on which the person is seated,
When the detection point is a point where the seat is provided using the seat position information which is information on the position of the seat in the illumination target area stored in the storage unit, The lighting control device according to claim 2, wherein the person detection score is made larger than when the detection point is not a point where the seat is provided.
前記照明対象領域には、前記人物によって使用される電子機器が設けられており、
前記電子機器の稼働状態情報および前記電子機器の位置情報を記憶部から取得する電子機器情報取得手段をさらに備え、
前記スコア付与手段は、前記電子機器情報取得手段から前記電子機器情報を取得し、前記検出地点が稼働中の前記電子機器が設けられている地点の場合には、前記検出地点が稼働中の前記電子機器が設けられている地点でない場合よりも前記人物検出スコアを大きくすることを特徴とする請求項2に記載の照明制御装置。
The lighting target area is provided with an electronic device used by the person,
Further comprising electronic device information acquisition means for acquiring operating state information of the electronic device and position information of the electronic device from a storage unit;
The score granting unit acquires the electronic device information from the electronic device information acquisition unit, and in the case where the detection point is a point where the electronic device is in operation, the detection point is in operation The lighting control device according to claim 2, wherein the person detection score is made larger than that in a case where the electronic device is not provided.
前記検出手段は、所定時間ごとに継続的に前記検出地点を検出し、
前記スコア付与手段は、現在時刻から過去所定時間前までの各時刻における前記検出手段の検出結果に対して、前記検出結果の検出時刻と前記現在時刻との時間間隔とに基づいた値の前記人物検出スコアを付与し、
前記特定手段は、前記現在時刻から前記過去所定時間前までの各時刻における前記人物検出スコアの積算値を用いて前記人物存在地点を特定することを特徴とする請求項1または2に記載の照明制御装置。
The detection means continuously detects the detection point every predetermined time,
The score assigning means is a person having a value based on a time interval between the detection time of the detection result and the current time with respect to the detection result of the detection means at each time from the current time to a past predetermined time in advance. A detection score,
3. The illumination according to claim 1, wherein the specifying unit specifies the person presence point using an integrated value of the person detection score at each time from the current time to the past predetermined time. Control device.
前記スコア付与手段は、前記検出結果の検出時刻と前記現在時刻との時間間隔が小さいほど前記人物検出スコアを大きくし、
前記特定手段は、前記人物検出スコアの積算値が所定値以上の地点を前記人物存在地点として特定することを特徴とする請求項7に記載の照明制御装置。
The score giving means increases the person detection score as the time interval between the detection time of the detection result and the current time is smaller,
The lighting control apparatus according to claim 7, wherein the specifying unit specifies a point where an integrated value of the person detection scores is a predetermined value or more as the person presence point.
前記照明制御手段は、前記人物存在地点の周辺を照明対象とする前記照明装置を点灯させるとともに、前記人物存在地点の周辺以外の領域を照明対象とする前記照明装置を消灯または照度を低下させることを特徴とする請求項1〜8のいずれか一項に記載の照明制御装置。   The lighting control means turns on the lighting device whose illumination target is around the person presence point, and turns off the lighting device whose illumination target is a region other than the periphery of the person presence point or reduces the illuminance. The lighting control device according to claim 1, wherein
JP2012137879A 2012-06-19 2012-06-19 Lighting control device Pending JP2014002940A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012137879A JP2014002940A (en) 2012-06-19 2012-06-19 Lighting control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012137879A JP2014002940A (en) 2012-06-19 2012-06-19 Lighting control device

Publications (1)

Publication Number Publication Date
JP2014002940A true JP2014002940A (en) 2014-01-09

Family

ID=50035921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012137879A Pending JP2014002940A (en) 2012-06-19 2012-06-19 Lighting control device

Country Status (1)

Country Link
JP (1) JP2014002940A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177085A1 (en) * 2020-03-05 2021-09-10 ソニーセミコンダクタソリューションズ株式会社 Information processing device, and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177085A1 (en) * 2020-03-05 2021-09-10 ソニーセミコンダクタソリューションズ株式会社 Information processing device, and information processing method

Similar Documents

Publication Publication Date Title
JP7462231B2 (en) Sensing lighting system and method for characterizing a lighting space - Patents.com
US9137449B2 (en) Luminance estimation model generation device, image sensor device, and computer program product
JP6736543B2 (en) Lighting preference mediation
JP2019067778A (en) Image sensor
JP5845841B2 (en) Lighting control device
US8836505B2 (en) Illumination control system and method for controlling illumination
US9082202B2 (en) Image detection and processing for building control
JP6696422B2 (en) Abnormality detection device and abnormality detection method
JP4218368B2 (en) Human detection method and human detection device
US20140111097A1 (en) Identification device, method and computer program product
JP5277805B2 (en) Object extraction device, object extraction method, and object extraction program
JP5300694B2 (en) Detection device
JP2013096947A (en) Human sensor and load control system
JP2010123532A (en) Lighting control system
KR101534388B1 (en) Method for lighting control and lighting control system using the same
EP2536258B1 (en) Illumination control system
JP6064354B2 (en) Dimming system
JP2010123373A (en) Illumination system
JP2009223693A (en) Person counting device and person counting method
EP3529788B1 (en) Presence detection system and method
JP5594955B2 (en) Lighting system
JP2014002940A (en) Lighting control device
JP2015018823A (en) Illumination control device, human detection sensor, and illumination control method
JP6811423B2 (en) Lighting system and control method of lighting equipment
JP6709954B2 (en) Lighting control system