JP5403779B2 - Lighting system - Google Patents

Lighting system Download PDF

Info

Publication number
JP5403779B2
JP5403779B2 JP2008113271A JP2008113271A JP5403779B2 JP 5403779 B2 JP5403779 B2 JP 5403779B2 JP 2008113271 A JP2008113271 A JP 2008113271A JP 2008113271 A JP2008113271 A JP 2008113271A JP 5403779 B2 JP5403779 B2 JP 5403779B2
Authority
JP
Japan
Prior art keywords
texture data
image
person
data
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008113271A
Other languages
Japanese (ja)
Other versions
JP2009266501A (en
Inventor
忠史 村上
田中  渉
公喜 野口
学 井上
直宏 戸田
加津己 渡辺
容子 松林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008113271A priority Critical patent/JP5403779B2/en
Publication of JP2009266501A publication Critical patent/JP2009266501A/en
Application granted granted Critical
Publication of JP5403779B2 publication Critical patent/JP5403779B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、照明空間における人の存否に応じて、照明器具の点滅および調光を制御する照明システムに関する。   The present invention relates to a lighting system that controls blinking and dimming of a lighting fixture in accordance with the presence or absence of a person in a lighting space.

従来から、居室の天井などに設置された画像センサによって室内における人の存否、人の位置などを検出し、検出結果に応じて照明器具の点滅および調光を制御する照明システムが知られている。   2. Description of the Related Art Conventionally, there is known an illumination system that detects the presence or absence of a person in a room, the position of a person, etc. by an image sensor installed on the ceiling of a living room and controls blinking and dimming of a lighting fixture according to the detection result. .

画像センサによる人の検出は、例えば、図10に示すように、室内を所定の周期で撮像した2つ以上の画像を比較し、変化のある部分、即ち移動しているとみなすことのできる一定の画素の塊101を特定することによって行われる。   For example, as shown in FIG. 10, human detection by an image sensor compares two or more images captured in a room at a predetermined cycle, and can be regarded as a moving part, i.e., a fixed part. This is done by specifying the lump 101 of pixels.

また、周期的に撮像する2つ以上の画像について、まず照明を強くして第1の画像を撮像し、次いで照明を弱くして第2の画像を撮像し、両画像の差分領域を抽出することで人の存否を判定する方法が提案されている(例えば、特許文献1参照)。   In addition, for two or more images that are periodically picked up, the first image is picked up with strong illumination, then the second image is picked up with weak light, and a difference area between the two images is extracted. Thus, a method for determining the presence or absence of a person has been proposed (see, for example, Patent Document 1).

これらの方法では、人が移動した後に静止すると、人の存否を判定することができないので、以前に移動していた画素の塊が静止した場合、又は、連続して抽出できた差分領域がその後抽出できなくなった場合に、これを人であると判断するための判断回路を設ける必要がある。   In these methods, since the presence or absence of a person cannot be determined if the person stops after moving, if the block of pixels that have moved previously stops or the difference area that can be extracted continuously is When it becomes impossible to extract, it is necessary to provide a determination circuit for determining that this is a person.

しかしながら、リビングルームやダイニングルームのような室内空間において、画像センサの撮像範囲を移動するものは、人だけであるとは限らない。例えば、動き回るペットなどの小動物、首振り動作をする扇風機、移動や回転を行う機器、風によって揺れるカーテン等があると、これらを人であると誤って判断し、その結果、システムが適切に制御されないという問題がある。   However, in an indoor space such as a living room or a dining room, it is not always the person who moves the imaging range of the image sensor. For example, if there is a small animal such as a moving pet, a fan that swings, a device that moves and rotates, a curtain that shakes by the wind, etc., these are mistakenly determined to be humans, and as a result, the system controls appropriately There is a problem that it is not.

特開2001−333420号公報JP 2001-333420 A

本発明は、上記の事情に鑑みてなされたもので、照明空間における人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することの可能な照明システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an illumination system that can accurately determine the presence or absence of a person in an illumination space and can appropriately control blinking and dimming of a lighting fixture. The purpose is to do.

本発明は、照明空間における人の存否に応じて、照明器具の点滅および調光を制御する照明システムであって、前記照明空間を時系列に順次撮像して画像データを出力する撮像装置と、前記画像データに基づいて、前記照明空間における人の存否を判断する判断装置と、前記判断装置の判断結果に応じて、前記照明器具の点滅および調光を制御する照明制御装置と、を備え、前記判断装置は、前記画像データからキャンセルする第1のテクスチャデータを設定する設定部と、前記画像データ及び前記第1のテクスチャデータを記憶する記憶部と、時系列の前記画像データの差分を順次演算することにより、前記照明空間において移動する第2のテクスチャデータを抽出する演算部と、前記第1のテクスチャデータと前記第2のテクスチャデータの一致、不一致に応じて、前記照明空間における人の存否を判断する判断部と、前記撮像装置で撮像した画像を表示する表示部と、を有し、前記設定部は、前記表示部に表示した前記照明空間の画像に対して指定された、前記照明空間における人以外の移動する特定の物体を含む画像領域に基づいて、前記第1のテクスチャデータを設定するものである。 The present invention is an illumination system that controls blinking and dimming of a lighting fixture according to the presence or absence of a person in the illumination space, an imaging device that sequentially images the illumination space in time series and outputs image data; A determination device that determines the presence or absence of a person in the illumination space based on the image data, and a lighting control device that controls blinking and dimming of the lighting fixture according to a determination result of the determination device, The determination device sequentially sets a difference between the time-series image data, a setting unit that sets first texture data to be canceled from the image data, a storage unit that stores the image data and the first texture data. By calculating, a calculation unit that extracts second texture data that moves in the illumination space, the first texture data, and the second texture data A determination unit that determines the presence or absence of a person in the illumination space in accordance with a match or a mismatch, and a display unit that displays an image captured by the imaging device, and the setting unit displays on the display unit The first texture data is set based on an image area that is specified for the image in the illumination space and includes a specific object that moves in the illumination space other than a person .

この構成により、室内において移動する人以外のものを撮像した画像から第1のテクスチャデータを設定し、時系列で撮像したデータの差分を順次演算して第2のテクスチャデータを抽出し、第1及び第2のテクスチャデータの一致、不一致を判定することで、人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することが可能となる。
また、撮像装置で撮像した画像から、第1のテクスチャデータを設定するための領域を容易に指定することができる。
With this configuration, the first texture data is set from an image obtained by capturing an object other than a person moving in the room, and the second texture data is extracted by sequentially calculating the difference between the data captured in time series. By determining whether the second texture data matches or does not match, it is possible to accurately determine the presence or absence of a person, and to appropriately control blinking and dimming of the lighting fixture.
In addition, it is possible to easily specify an area for setting the first texture data from the image captured by the imaging device.

更に、本発明は、上記の照明システムにおいて、前記設定部は、前記特定の物体の異なる方向から撮像した画像から、前記第1のテクスチャデータを複数設定してグループ化するものも含む。   Furthermore, the present invention includes the above lighting system in which the setting unit sets a plurality of the first texture data and groups them from images taken from different directions of the specific object.

この構成により、撮像装置で撮像した画像から、第1のテクスチャデータを設定するための領域を容易に指定することができる。   With this configuration, it is possible to easily specify an area for setting the first texture data from the image captured by the imaging device.

また、本発明は、上記の照明システムにおいて、前記判断部は、パターン認識におけるニューラルネットワーク、ファジイアルゴリズム、重回帰分析のいずれかの手法によって、前記第1のテクスチャデータと前記第2のテクスチャデータの一致、不一致を判定するものも含む。   In the illumination system according to the present invention, the determination unit may determine whether the first texture data and the second texture data are obtained by any one of a neural network, a fuzzy algorithm, and multiple regression analysis in pattern recognition. It also includes those that determine match or mismatch.

この構成により、第1のテクスチャデータと第2のテクスチャデータが完全に一致しなくても、人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することが可能となる。   With this configuration, even if the first texture data and the second texture data do not completely match, it is possible to accurately determine the presence or absence of a person, and to appropriately control blinking and dimming of the lighting fixture. It becomes possible.

本発明によれば、照明空間における人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することの可能な照明システムを提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the presence or absence of the person in lighting space can be determined correctly, and the lighting system which can control blinking and light control of a lighting fixture appropriately can be provided.

以下、本発明の実施形態に係る照明システムについて、図面を用いて説明する。図1は、本発明の実施形態に係る照明システムの概略構成を示す図である。   Hereinafter, an illumination system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a schematic configuration of an illumination system according to an embodiment of the present invention.

図1において、本実施形態の照明システムは、室内に設置された1ないし複数の照明器具L1〜Lnと、室内を撮像する画像センサを含む撮像装置1と、撮像した画像データに基づいて、室内における人の存否を判断する判断装置2と、人の存否に応じて照明器具L1〜Lnの点灯を制御する照明制御装置3を備える構成である。   In FIG. 1, the lighting system according to the present embodiment is based on one or more lighting fixtures L1 to Ln installed in a room, an image pickup apparatus 1 including an image sensor for picking up the room, and the image data captured. It is the structure provided with the judgment apparatus 2 which judges the presence or absence of a person in, and the illumination control apparatus 3 which controls lighting of the lighting fixtures L1-Ln according to the presence or absence of a person.

撮像装置1は、CCDやCMOS等の固体撮像素子と光学レンズ、及び信号処理回路を含んで一体的に構成され、室内の天井や壁面等に設置されて室内を時系列に順次撮像し、判断装置2に画像データを送出する。光学レンズは、室内の広い範囲を撮像するために、広角レンズ又は魚眼レンズを使用することが望ましい。また,固体撮像素子はカラー用、白黒用いずれであってもよく、更に、照明消灯時にも人の入室を判断する必要があるので,赤外域までの感度を有するCCD撮像素子が好適である。   The imaging device 1 is integrally configured to include a solid-state imaging device such as a CCD or CMOS, an optical lens, and a signal processing circuit, and is installed on a ceiling or a wall surface of the room to sequentially image the room in time series for determination. Image data is sent to the device 2. As the optical lens, it is desirable to use a wide-angle lens or a fish-eye lens in order to image a wide range in the room. In addition, the solid-state imaging device may be for color or monochrome, and it is necessary to determine whether a person has entered the room even when the illumination is turned off. Therefore, a CCD imaging device having sensitivity up to the infrared region is suitable.

判断装置2は、撮像装置1によって撮像した画像データからキャンセルする第1のテクスチャデータを設定する設定部21と、撮像した画像データ及び第1のテクスチャデータを記憶する記憶部22と、撮像装置1によって撮像した画像データを順次差分演算することにより、室内において移動する第2のテクスチャデータを抽出する演算部23と、第1のテクスチャデータと第2のテクスチャデータを照合して、その一致、不一致を判定することで、室内における人の存否を判断する判断部24と、撮像装置1によって撮像した画像を表示する表示部25を有する。   The determination device 2 includes a setting unit 21 that sets first texture data to be canceled from the image data captured by the imaging device 1, a storage unit 22 that stores the captured image data and first texture data, and the imaging device 1. By sequentially calculating the difference between the image data picked up by the calculation unit 23 for extracting the second texture data moving in the room, the first texture data and the second texture data are collated, and the coincidence or mismatch By determining whether there is a person in the room, and a display unit 25 for displaying an image captured by the imaging apparatus 1.

設定部21は、不図示のテクスチャ読み込み起動スイッチの操作に伴って、撮像装置1で撮像した画像データを入力し、撮像装置1によって時系列に順次撮像した画像データからキャンセルする第1のテクスチャデータを設定する。   The setting unit 21 inputs image data captured by the imaging device 1 in accordance with an operation of a texture reading activation switch (not shown), and cancels the first texture data that is canceled from the image data sequentially captured by the imaging device 1 in time series. Set.

この第1のテクスチャデータは、室内における人以外の移動する物体を撮像した画像データであり、例えば、首振り動作を行う扇風機、室内を動き回るペット、窓から吹き込む風によって揺れるカーテン等を撮像した画像データが含まれ、移動するものであっても人ではないと判断すべきものである。   The first texture data is image data obtained by imaging a moving object other than a person in the room. For example, an image obtained by imaging a fan that swings, a pet that moves around the room, a curtain that is shaken by wind blown from a window, and the like. Even if the data is included and moves, it should be judged that it is not a person.

記憶部22は、データの書き替えが可能なRAM、EPROM、EEPROM、及びフラッシュメモリ等の半導体メモリから構成され、撮像装置1によって室内を時系列に順次撮像した画像データ、設定した第1のテクスチャデータ及びグループ化した第1のテクスチャデータ群、在室中の人の動線軌跡データ、人の在室位置や人数に対応して予め設定された照明基部L1〜Lnの調光データ等を記憶する。   The storage unit 22 includes a RAM, EPROM, EEPROM, and flash memory that can rewrite data. The storage unit 22 sequentially captures image data of the room in time series by the imaging device 1 and the first texture that has been set. Data and grouped first texture data group, flow line trajectory data of people in the room, dimming data of the lighting bases L1 to Ln set in advance corresponding to the position and number of people in the room, etc. To do.

演算部23は、マイコンシステムによって構成され、室内を撮像した画像データを記憶部22から順次読み出し、それらの差分を演算して室内で移動する第2のテクスチャデータを抽出する。   The calculation unit 23 is constituted by a microcomputer system, sequentially reads out image data obtained by imaging the room from the storage unit 22, calculates a difference between them, and extracts second texture data moving in the room.

判断部24は、演算部23と共通のマイコンシステムによって構成され、記憶部22から読み出した第1のテクスチャデータと、演算部23において抽出された第2のテクスチャデータを照合し、その一致、不一致を後述する所定のアルゴリズムに基づいて判定することにより、室内における人の存否を判断する。   The determination unit 24 is configured by a microcomputer system common to the calculation unit 23, and compares the first texture data read from the storage unit 22 with the second texture data extracted by the calculation unit 23, and matches or does not match. Is determined based on a predetermined algorithm to be described later, thereby determining the presence or absence of a person in the room.

第1のテクスチャデータと第2のテクスチャデータが一致する場合は、室内を移動するものは人ではないと判断し、一致しない場合は人であると判断する。そして、これら判断結果の人の存否、および人が居る場合の位置に基づいて、記憶部22から対応する調光データを読み出し、照明制御装置3に送出する。   If the first texture data and the second texture data match, it is determined that the person moving in the room is not a person, and if they do not match, it is determined that the person is a person. Then, based on the presence / absence of a person as a result of these determinations and the position where there is a person, the corresponding light control data is read from the storage unit 22 and sent to the illumination control device 3.

また、室内を移動するのが人であると判断した場合には、引き続いてその軌跡を追尾し、停止した際にその位置を記憶部22に記憶する。   If it is determined that a person moves in the room, the trajectory is subsequently tracked, and the position is stored in the storage unit 22 when stopped.

表示部25は、例えば、タッチパネル機能を備える液晶ディスプレイから構成され、撮像装置1によって撮像した画像を表示するとともに、表示した画像上を指またはタッチペンで圧力を加えることによって、第1のテクスチャデータを設定するためのキャンセルする画像領域を指定する。   The display unit 25 is composed of, for example, a liquid crystal display having a touch panel function. The display unit 25 displays an image captured by the imaging device 1 and applies first texture data by applying pressure on the displayed image with a finger or a touch pen. Specifies the image area to be canceled for setting.

照明制御装置3は、演算部23と共通のマイコンシステムによって構成され、判断部24から送出された調光データを入力して、照明器具L1〜Lnの点滅および明るさを制御するための調光信号を生成する。   The lighting control device 3 is configured by a microcomputer system common to the calculation unit 23, and inputs dimming data sent from the determination unit 24, and controls dimming and brightness of the lighting fixtures L1 to Ln. Generate a signal.

次に、以上のように構成された本実施形態の照明システムにおいて、判断装置2の動作について説明する。図2は、判断装置2における処理手順を説明するためのフローチャートである。   Next, the operation of the determination device 2 in the lighting system of the present embodiment configured as described above will be described. FIG. 2 is a flowchart for explaining a processing procedure in the determination apparatus 2.

まず、設定部21において、第1のテクスチャデータの設定を開始する不図示のテクスチャ読み込み起動スイッチが押されたか否かを判定する(ステップS11)。   First, the setting unit 21 determines whether or not a texture reading activation switch (not shown) for starting the setting of the first texture data has been pressed (step S11).

テクスチャ読み込みスイッチ起動スイッチが押されたと判定された場合は、ステップS12において、第1のテクスチャデータ設定処理のサブルーチンを実行する。   If it is determined that the texture read switch activation switch has been pressed, a first texture data setting process subroutine is executed in step S12.

一方、テクスチャ読み込みスイッチ起動スイッチが押されていないと判定された場合は、記憶部22に既に記憶されている第1のテクスチャデータを用いて、ステップS13以降の処理を実行する。   On the other hand, if it is determined that the texture read switch activation switch has not been pressed, the processes after step S13 are executed using the first texture data already stored in the storage unit 22.

ステップS13では、演算部23において、撮像装置1で撮像した室内の画像データを記憶部22から順次読み出し、それらの差分を演算して室内で移動する第2のテクスチャデータかが抽出されたか否かを判定する。   In step S <b> 13, whether or not the second texture data moving in the room is extracted by sequentially calculating the indoor image data captured by the imaging device 1 from the storage unit 22 and calculating the difference between them. Determine.

判定の結果、第2のテクスチャデータが抽出された場合は、次のステップS14において、移動するものが人であるか否かを判断する処理のサブルーチンを実行する。   If the second texture data is extracted as a result of the determination, a subroutine of a process for determining whether or not the moving object is a person is executed in the next step S14.

一方、ステップS13の手順で第2のテクスチャデータが抽出されなかった場合は、ステップS17の手順で一定時間ディレイした後、ステップS11の手順に戻る。   On the other hand, if the second texture data is not extracted in the procedure of step S13, the procedure returns to the procedure of step S11 after a predetermined time delay in the procedure of step S17.

ステップS15では、ステップS14のサブルーチンを実行した結果により、室内において移動するものが人であるか否かを判断する。   In step S15, based on the result of executing the subroutine of step S14, it is determined whether or not the person moving in the room is a person.

判定の結果、移動するものが人である場合は、次のステップS16において、室内の人数、人の居る位置などに応じて、照明器具L1〜Lnの点滅、調光等の照明制御を行うサブルーチンを実行する。   As a result of the determination, if the moving object is a person, in the next step S16, a subroutine for performing lighting control such as blinking and dimming of the lighting fixtures L1 to Ln according to the number of people in the room, the position of the person, etc. Execute.

一方、ステップS15の手順で移動するものが人でなかった場合は、ステップS17の手順で一定時間ディレイした後、ステップS11の手順に戻る。   On the other hand, if the person who moves in the procedure of step S15 is not a person, the procedure returns to the procedure of step S11 after a predetermined time delay in the procedure of step S17.

次に、第1のテクスチャデータ設定処理について説明する。図3は、図2に示した第1のテクスチャデータ設定処理サブルーチンの処理手順を説明するためのフローチャートである。   Next, the first texture data setting process will be described. FIG. 3 is a flowchart for explaining the processing procedure of the first texture data setting processing subroutine shown in FIG.

まず、設定部21において、室内を撮像した画像からキャンセルする画像領域を指定して入力する(ステップS131)。キャンセルする画像領域とは、移動するものであっても人ではない特定の物体、例えば、動き回るペットなどの小動物、首振り動作をする扇風機、移動や回転を行う機器、風によって揺れるカーテン等である。   First, the setting unit 21 designates and inputs an image area to be canceled from an image captured in the room (step S131). The image area to be canceled is a specific object that is moving but not human, such as a small animal such as a moving pet, a fan that swings, a device that moves and rotates, a curtain that is swayed by the wind, etc. .

ここで、室内を撮像した画像からキャンセルする画像領域を指定する方法について説明する。図4〜図6は、室内を撮像した画像からキャンセルする画像領域を指定する方法を説明するための説明図である。   Here, a method for designating an image area to be canceled from an image captured in a room will be described. 4 to 6 are explanatory diagrams for describing a method for designating an image area to be canceled from an image obtained by capturing an image of the room.

扇風機やペット、カーテン等は、その形態や大きさ、模様などがそれぞれ異なるので,第1のテクスチャデータとして別々に設定する必要があり、そのためキャンセルする画像領域も個別に指定する。   Fans, pets, curtains, and the like have different forms, sizes, patterns, and the like, and therefore need to be set separately as the first texture data. Therefore, the image area to be canceled is individually designated.

図4は、判断装置2の一部をなす表示部25に表示された室内の撮像画像を用いて、第1のテクスチャデータを設定するためのキャンセルする画像領域を指定する方法を示す図である。   FIG. 4 is a diagram illustrating a method of designating an image area to be canceled for setting the first texture data, using the indoor captured image displayed on the display unit 25 that forms part of the determination device 2. .

図4において、テクスチャ読み込み起動スイッチ26を押下した後、キャンセルする画像領域、例えば、扇風機Fのファン部分を指、またはタッチペン27でなぞって圧力を加えることにより、当該領域の画像をキャンセルする画像領域として設定部21に取り込み、第1のテクスチャデータを設定する。   In FIG. 4, after pressing the texture reading start switch 26, an image area to be canceled, for example, an image area in which the image of the area is canceled by applying pressure by tracing the fan portion of the fan F with a finger or the touch pen 27. To the setting unit 21 to set the first texture data.

図5及び図6は、キャンセルする領域を指定する他の方法を示す図であり、レーザポインタを用いてキャンセルする画像領域の対象物を直接指定する。   5 and 6 are diagrams showing another method of designating an area to be canceled, and an object of an image area to be canceled is directly designated using a laser pointer.

図5において、不図示のテクスチャ読み込み起動スイッチを押下した後に、対象物である扇風機Fのファン部分の周りにレーザポインタLPを用いて閉曲線を描き、これを撮像装置1で撮像してその画像データを設定部21に取り込み、第1のテクスチャデータとして設定する。   In FIG. 5, after pressing a texture reading start switch (not shown), a closed curve is drawn around the fan portion of the fan F, which is the object, using the laser pointer LP, and this is imaged by the imaging device 1 and its image data. Is set in the setting unit 21 and set as first texture data.

同様に、図6において、キャンセルする領域である対象物のカーテンC上にレーザポインタLPで閉曲線を描き、これを撮像装置1で撮像し、判断装置2の設定部21で認識することによって第1のテクスチャデータを設定する。   Similarly, in FIG. 6, a closed curve is drawn with the laser pointer LP on the curtain C of the target object, which is an area to be canceled, and this is captured by the imaging device 1 and recognized by the setting unit 21 of the determination device 2. Set the texture data.

対象物の範囲を指示するレーザポインタの指示ポイントは点であるが、連続する画像上では点が連なった閉曲線となるので、閉曲線で囲まれた画像領域を演算によって抽出することは容易に可能である。   The point indicated by the laser pointer that indicates the range of the object is a point, but on a continuous image, it is a closed curve with a series of points, so it is possible to easily extract the image area surrounded by the closed curve by calculation. is there.

上記したこのような方法により、室内においてその形態や大きさ、模様などが異なる扇風機やペット、カーテン等を第1のテクスチャデータを設定するためのキャンセル画像領域として容易に指定することができる。   By such a method as described above, a fan, a pet, a curtain, or the like having a different shape, size, pattern, or the like in the room can be easily designated as a cancel image area for setting the first texture data.

なお、レーザポインタLPは、判断装置2の子機,又は照明制御装置3のリモコンと一体化して構成してもよい。   The laser pointer LP may be integrated with the slave unit of the determination device 2 or the remote control of the illumination control device 3.

図3に戻って、指定したキャンセルする画像領域を撮像装置1で追尾して撮像しながら、一定の時間間隔でキャンセル画像i(i=1〜n)を取得し(ステップS132)、取得した画像iからデータXij(j=1〜m)を計算する(ステップS133)。   Returning to FIG. 3, cancel images i (i = 1 to n) are acquired at regular time intervals while the specified image area to be canceled is tracked and imaged by the imaging device 1 (step S <b> 132). Data Xij (j = 1 to m) is calculated from i (step S133).

次いで、ステップS134において、キャンセル領域外の画像h(h=!〜k)を取得し、取得した画像hからデータXkj(j=1〜m)を計算する(ステップS135)。   Next, in step S134, an image h (h =! To k) outside the cancel region is acquired, and data Xkj (j = 1 to m) is calculated from the acquired image h (step S135).

これらのデータから次の式を連立させ、重回帰分析によりAsを求める(ステップS136)。   From these data, the following equation is made simultaneous and As is obtained by multiple regression analysis (step S136).

1=A1Xij+A2Xij+A3Xij+・・・+AmXij
1=A1Xij+A2Xij+A3Xij+・・・+AmXij
1=A1Xij+A2Xij+A3Xij+・・・+AmXij
・・・
1=A1Xkj+A2Xkj+A3Xkj+・・・+AmXkj
1=A1Xkj+A2Xkj+A3Xkj+・・・+AmXkj
1=A1Xkj+A2Xkj+A3Xkj+・・・+AmXkj
・・・
但し、i=1〜n、j=1〜m、k=1〜nである。
1 = A1Xij + A2Xij + A3Xij + ... + AmXij
1 = A1Xij + A2Xij + A3Xij + ... + AmXij
1 = A1Xij + A2Xij + A3Xij + ... + AmXij
...
1 = A1Xkj + A2Xkj + A3Xkj + ... + AmXkj
1 = A1Xkj + A2Xkj + A3Xkj + ... + AmXkj
1 = A1Xkj + A2Xkj + A3Xkj + ... + AmXkj
...
However, i = 1 to n, j = 1 to m, and k = 1 to n.

扇風機やペット、カーテン等、第1のテクスチャデータとして設定するための対象物は、その位置や状態によって撮像装置1で撮像する画像が変化するので、記憶部22に記憶された第1のテクスチャデータと完全には一致しない。従って、ニューラルネットワーク、ファジイアルゴリズム、重回帰分析などの手法を用いてパターン認識することで、一致の判定処理を行う必要がある。   The object to be set as the first texture data, such as an electric fan, a pet, or a curtain, changes the image picked up by the image pickup device 1 depending on its position and state, so the first texture data stored in the storage unit 22 And not exactly match. Accordingly, it is necessary to perform a matching determination process by recognizing a pattern using a technique such as a neural network, a fuzzy algorithm, or multiple regression analysis.

また、第1のテクスチャデータは、画像をキャンセルする対象物の一つに対して、異なる角度から撮像して設定したものを複数用意しておいた方が、パターン認識の精度が上がる。例えば、扇風機の首を振るファンや動き回るペットなどを時系列に順次撮像し、得られた個々の画像から第1のテクスチャデータを複数設定してグループ化する。そして、このグループ化した複数の第1のテクスチャデータを記憶部22に記憶する。   In addition, the accuracy of pattern recognition is improved by preparing a plurality of first texture data prepared by imaging from different angles for one of the objects whose images are to be canceled. For example, a fan that shakes the fan's head, a moving pet, and the like are sequentially imaged in time series, and a plurality of first texture data are set and grouped from the obtained individual images. The grouped first texture data is stored in the storage unit 22.

図7は、扇風機を首振り角度が異なる3つの状態で撮像して、グループ化する3つの第1のテクスチャデータを設定する場合を示す説明図である。なお、U、Vは、画像データにおける直交座標である。   FIG. 7 is an explanatory diagram showing a case where three first texture data to be grouped are set by imaging the fan in three states with different swing angles. U and V are orthogonal coordinates in the image data.

図7に示す3つの画像群から、演算によっていくつかのパラメータを取り出す。取り出すパラメータとしては、例えば、次のようなものがある。   Several parameters are extracted from the three image groups shown in FIG. Examples of parameters to be extracted include the following.

X1:U方向の空間周波数ピーク値
X2:V方向の空間周波数ピーク値
X3:エッジ抽出した最外周に含まれる画素面積
X4:X3の領域内の赤色の面積
X5:X3の領域内の青色の面積
X1: Spatial frequency peak value in the U direction X2: Spatial frequency peak value in the V direction X3: Pixel area included in the outermost periphery extracted from the edge X4: Red area in the region of X3 X5: Blue area in the region of X3

同様に、キャンセル画像ではない画像からもパラメータX’1〜X’5を抽出する。   Similarly, the parameters X′1 to X′5 are extracted from an image that is not a cancel image.

多変量解析で判定する場合は、以下の式(1)にX1〜X5を代入した際に、Y=1(キャンセル画像である)、X’1〜X’5を代入した時に、Y=0(人である)という式を立て、これを解くことによって判定する。   When determining by multivariate analysis, when X1 to X5 are substituted into the following equation (1), Y = 1 (is a cancel image), and when X′1 to X′5 are substituted, Y = 0 Judgment is made by formulating (it is a person) and solving this.

Y=AX1+BX2+CX3+DX4+EX5・・・(1)   Y = AX1 + BX2 + CX3 + DX4 + EX5 (1)

次に、人の判断処理について説明する。図8は、図2に示した人の判断処理サブルーチンの処理手順を説明するためのフローチャートである。   Next, human judgment processing will be described. FIG. 8 is a flowchart for explaining the processing procedure of the human judgment processing subroutine shown in FIG.

まず、ステップS151において、撮像装置1で撮像した画像の移動する物体から、式(1)によって求められた画像データYを取得する。   First, in step S151, the image data Y obtained by Expression (1) is acquired from the moving object of the image captured by the imaging device 1.

次いで、取得した画像YからデータZj(j=1〜k)を計算する(ステップS152)。   Next, data Zj (j = 1 to k) is calculated from the acquired image Y (step S152).

ステップS203では、次式(2)を計算する。
P=Zj+A2Zj+A3Zj+A4Zj+・・・+AmZj・・・(2)
但し、j=1〜mである。
In step S203, the following equation (2) is calculated.
P = Zj + A2Zj + A3Zj + A4Zj + ... + AmZj (2)
However, j = 1 to m.

続いて、式(2)で計算したPの値が、0.5より大きいか否かを判定する(ステップS154)。その結果、0.5より大きい場合は、撮像装置1で撮像した画像の移動する物体は人であると判断する(ステップS155)。   Subsequently, it is determined whether or not the value of P calculated by Expression (2) is larger than 0.5 (step S154). If the result is greater than 0.5, it is determined that the moving object of the image captured by the imaging device 1 is a person (step S155).

一方、ステップS154の手順でPの値が0.5より小さい場合は、撮像した画像の移動するものは人ではないと判断する(ステップS156)。   On the other hand, if the value of P is smaller than 0.5 in the procedure of step S154, it is determined that the captured image is not a person (step S156).

次に、ニューラルネットワークを用いて、第1のテクスチャデータの一致を判断する例について説明する。図9は、パターン認識回路を形成するニューラルネットワークを示す図である。   Next, an example of determining the coincidence of the first texture data using a neural network will be described. FIG. 9 is a diagram showing a neural network forming a pattern recognition circuit.

図9において、X1〜X5にキャンセルすべきテクスチャ群と、キャンセルすべき画像でないテクスチャからのパラメータを入れることによって、パターン一致判定のアルゴリズムが確立する。   In FIG. 9, a pattern matching determination algorithm is established by inputting a texture group to be canceled in X1 to X5 and parameters from a texture that is not an image to be canceled.

以上説明したように、このような本発明の実施形態に係る照明システムによれば、室内における人の存否を正確に判断することができ、人がいると判断された場合、その人数と位置に応じて、照明器具の点滅および調光を適切に制御することが可能となる。   As described above, according to the lighting system according to the embodiment of the present invention, it is possible to accurately determine the presence / absence of a person in a room, and when it is determined that there is a person, the number and position of the person are determined. Accordingly, it is possible to appropriately control blinking and dimming of the lighting fixture.

本発明の照明システムは、照明空間における人の存否を正確に判断することができ、照明器具の点滅および調光を適切に制御することが可能である効果を有し、住宅や店舗における照明システム等に有用である。   The lighting system of the present invention can accurately determine the presence or absence of a person in the lighting space, and has the effect of being able to appropriately control the blinking and dimming of the lighting fixture. Etc. are useful.

本発明の実施形態に係る照明システムの概略構成を示す図The figure which shows schematic structure of the illumination system which concerns on embodiment of this invention. 本発明の実施形態に係る照明システムにおいて、判断装置の処理手順を説明するためのフローチャートThe flowchart for demonstrating the process sequence of a judgment apparatus in the illumination system which concerns on embodiment of this invention. 本発明の実施形態に係る照明システムにおいて、図2に示した第1のテクスチャデータ入力処理サブルーチンの処理手順を示すフローチャートThe flowchart which shows the process sequence of the 1st texture data input process subroutine shown in FIG. 2 in the illumination system which concerns on embodiment of this invention. 本発明の実施形態に係る照明システムにおいて、室内を撮像した画像からキャンセルする領域を表示部に表示された画像上で指定する方法を説明するための説明図Explanatory drawing for demonstrating the method to designate the area | region to cancel from the image which imaged the room on the image displayed on the display part in the illumination system which concerns on embodiment of this invention. 本発明の実施形態に係る照明システムにおいて、室内を撮像した画像からキャンセルする領域をレーザポインタを用いて指定する方法を説明するための説明図Explanatory drawing for demonstrating the method to designate the area | region canceled from the image which imaged the room | chamber interior using the laser pointer in the illumination system which concerns on embodiment of this invention. 本発明の実施形態に係る照明システムにおいて、室内を撮像した画像からキャンセルする領域をレーザポインタを用いて指定する方法を説明するための説明図Explanatory drawing for demonstrating the method to designate the area | region canceled from the image which imaged the room | chamber interior using the laser pointer in the illumination system which concerns on embodiment of this invention. 本発明の実施形態に係る照明システムにおいて、扇風機を首振り角度が異なる3つの状態で撮像して、グループ化する3つの第1のテクスチャデータを設定する場合を示す説明図In the lighting system which concerns on embodiment of this invention, explanatory drawing which shows the case where a fan is imaged in three states from which a head swing angle differs, and the 3rd 1st texture data set to group is set. 本発明の実施形態に係る照明システムにおいて、図2に示した人の判断処理サブルーチンの処理手順を説明するためのフローチャートThe flowchart for demonstrating the process sequence of the human judgment process subroutine shown in FIG. 2 in the illumination system which concerns on embodiment of this invention. 本発明の実施形態に係る照明システムにおいて、ニューラルネットワークを用いてパターン認識回路を形成する模式図The schematic diagram which forms a pattern recognition circuit using a neural network in the illumination system which concerns on embodiment of this invention 照明システムにおいて、人を検知する従来の方法を示す図The figure which shows the conventional method of detecting a person in a lighting system

符号の説明Explanation of symbols

1 撮像装置(画像センサ)
2 判断装置
21 設定部
22 記憶部
23 演算部
24 判断部
25 表示部
3 照明制御装置
L1〜Ln 照明器具
1 Imaging device (image sensor)
2 Judgment device 21 Setting unit 22 Storage unit 23 Calculation unit 24 Judgment unit 25 Display unit 3 Lighting control device L1 to Ln

Claims (3)

照明空間における人の存否に応じて、照明器具の点滅および調光を制御する照明システムであって、
前記照明空間を時系列に順次撮像して画像データを出力する撮像装置と、
前記画像データに基づいて、前記照明空間における人の存否を判断する判断装置と、
前記判断装置の判断結果に応じて、前記照明器具の点滅および調光を制御する照明制御装置とを備え、
前記判断装置は、
前記画像データからキャンセルする第1のテクスチャデータを設定する設定部と、
前記画像データ及び前記第1のテクスチャデータを記憶する記憶部と、
時系列の前記画像データの差分を順次演算することにより、前記照明空間において移動する第2のテクスチャデータを抽出する演算部と、
前記第1のテクスチャデータと前記第2のテクスチャデータの一致、不一致に応じて、前記照明空間における人の存否を判断する判断部と、
前記撮像装置で撮像した画像を表示する表示部と、を有し、
前記設定部は、
前記表示部に表示した前記照明空間の画像に対して指定された、前記照明空間における人以外の移動する特定の物体を含む画像領域に基づいて、前記第1のテクスチャデータを設定する照明システム。
A lighting system that controls blinking and dimming of a lighting fixture according to the presence or absence of a person in a lighting space,
An imaging device that sequentially images the illumination space in time series and outputs image data;
A determination device for determining presence or absence of a person in the illumination space based on the image data;
A lighting control device that controls blinking and dimming of the lighting fixture according to a determination result of the determination device;
The determination device includes:
A setting unit for setting first texture data to be canceled from the image data;
A storage unit for storing the image data and the first texture data;
A calculation unit for extracting second texture data moving in the illumination space by sequentially calculating a difference between the image data in time series;
A determination unit for determining presence or absence of a person in the illumination space in accordance with a match or mismatch between the first texture data and the second texture data;
A display unit that displays an image captured by the imaging device,
The setting unit
An illumination system that sets the first texture data based on an image region that is specified for an image of the illumination space displayed on the display unit and includes a specific object that moves in the illumination space other than a person .
請求項に記載の照明システムであって、
前記設定部は、
前記特定の物体の異なる方向から撮像した画像から、前記第1のテクスチャデータを複数設定してグループ化する照明システム。
The lighting system according to claim 1 ,
The setting unit
An illumination system that sets and groups a plurality of the first texture data from images taken from different directions of the specific object.
請求項1又は2に記載の照明システムであって、
前記判断部は、
パターン認識におけるニューラルネットワーク、ファジイアルゴリズム、重回帰分析のいずれかの手法によって、前記第1のテクスチャデータと前記第2のテクスチャデータの一致、不一致を判定する照明システム。
The illumination system according to claim 1 or 2 ,
The determination unit
An illumination system that determines a match or mismatch between the first texture data and the second texture data by any one of a neural network, a fuzzy algorithm, and multiple regression analysis in pattern recognition.
JP2008113271A 2008-04-24 2008-04-24 Lighting system Active JP5403779B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008113271A JP5403779B2 (en) 2008-04-24 2008-04-24 Lighting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008113271A JP5403779B2 (en) 2008-04-24 2008-04-24 Lighting system

Publications (2)

Publication Number Publication Date
JP2009266501A JP2009266501A (en) 2009-11-12
JP5403779B2 true JP5403779B2 (en) 2014-01-29

Family

ID=41392091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008113271A Active JP5403779B2 (en) 2008-04-24 2008-04-24 Lighting system

Country Status (1)

Country Link
JP (1) JP5403779B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012155918A (en) * 2011-01-25 2012-08-16 Panasonic Corp Lighting control system
JP5709697B2 (en) * 2011-09-02 2015-04-30 三菱電機株式会社 Air conditioner indoor unit
JP5845841B2 (en) 2011-11-18 2016-01-20 東芝ライテック株式会社 Lighting control device
JP6194187B2 (en) * 2013-05-07 2017-09-06 株式会社アクト Indoor environment control system
JP6375407B2 (en) * 2017-03-31 2018-08-15 株式会社アクト Indoor environment control system
KR102327395B1 (en) * 2019-12-20 2021-11-17 국민대학교산학협력단 Apparatus and method for controlling indoor lighting

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296653A (en) * 1998-04-06 1999-10-29 Sanyo Electric Co Ltd Image processor and human body detector using the same
JP2000172827A (en) * 1998-12-03 2000-06-23 Sharp Corp Human body detector and air conditioner using it
JP2004157754A (en) * 2002-11-06 2004-06-03 Canon Inc Pattern recognition device
JP2005056406A (en) * 2003-07-24 2005-03-03 Victor Co Of Japan Ltd Image movement detection apparatus and computer program
JP4505616B2 (en) * 2004-12-08 2010-07-21 株式会社国際電気通信基礎技術研究所 Eigenspace learning device, eigenspace learning method, and eigenspace program
JP2006323769A (en) * 2005-05-20 2006-11-30 Tokai Univ Facing input device
JP4836633B2 (en) * 2006-03-31 2011-12-14 株式会社東芝 Face authentication device, face authentication method, and entrance / exit management device

Also Published As

Publication number Publication date
JP2009266501A (en) 2009-11-12

Similar Documents

Publication Publication Date Title
JP5403779B2 (en) Lighting system
KR100328648B1 (en) Hand Pointing Device
CN105979134B (en) Image processing apparatus, image processing method, and image processing system
CN109557099B (en) Inspection device and inspection system
JP4895797B2 (en) Wrinkle detection device, wrinkle detection method and program
KR101533686B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
CN102196220B (en) Messaging device and information processing method
US20130222564A1 (en) Apparatus for recognizing face based on environment adaptation
JP6547013B2 (en) Biological information analysis apparatus and method thereof
KR101998639B1 (en) Intelligent system for ignition point surveillance using composite image of thermal camera and color camera
US10596707B2 (en) Article transfer device
TW201641071A (en) Method and system for recognizing multiple instruments during minimally invasive surgery
US9571740B2 (en) Image recognition device that recognizes specific object area, method of controlling the device, and storage medium, as well as image pickup apparatus, and display device
CN109427075A (en) Biological information analytical equipment and its eye shadow analysis method
CN106933343A (en) Apparatus and method for recognizing the gesture in virtual reality head-wearing device
JP2000175176A (en) Supervisory method for mobile object and image supervisory device
CN109427078A (en) Biological information analytical equipment and its lip adornment analysis method
JP2014086149A (en) Identification device, identification method, and program
JP2015194901A (en) Track device and tracking system
US20140117855A1 (en) Led light illuminating control system and method
CN109712065A (en) Biological information analytical equipment and its shape of face analogy method
JP5561361B2 (en) Biometric authentication device, biometric authentication program and method
KR20180092033A (en) Component registration device
CN110596115B (en) Image inspection system and control method thereof
JP6465197B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110222

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131028

R150 Certificate of patent or registration of utility model

Ref document number: 5403779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150