JPWO2019107060A1 - Lighting control system and lighting control method - Google Patents

Lighting control system and lighting control method Download PDF

Info

Publication number
JPWO2019107060A1
JPWO2019107060A1 JP2019557086A JP2019557086A JPWO2019107060A1 JP WO2019107060 A1 JPWO2019107060 A1 JP WO2019107060A1 JP 2019557086 A JP2019557086 A JP 2019557086A JP 2019557086 A JP2019557086 A JP 2019557086A JP WO2019107060 A1 JPWO2019107060 A1 JP WO2019107060A1
Authority
JP
Japan
Prior art keywords
unit
visible image
visible
brightness
visual field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019557086A
Other languages
Japanese (ja)
Other versions
JP6863475B2 (en
Inventor
由佳 津田
由佳 津田
旭洋 山田
旭洋 山田
覚 岡垣
覚 岡垣
智子 三木
智子 三木
宗晴 桑田
宗晴 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019107060A1 publication Critical patent/JPWO2019107060A1/en
Application granted granted Critical
Publication of JP6863475B2 publication Critical patent/JP6863475B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

可視画像を取得する可視画像取得部(1)と、人の視野領域が入力され、可視画像取得部(1)が取得した可視画像を人の視野領域における人視点の可視画像に画像変換する視点変換部(4)と、視点変換部(4)が画像変換した人視点の可視画像に基づいて人の視野領域の輝度分布を算出する輝度分布算出部(5)と、輝度分布算出部(5)が算出した人の視野領域の輝度分布に基づいて照明器具の調光を制御する調光制御部(7)とを備える。A visual image acquisition unit (1) for acquiring a visual image and a viewpoint for inputting a visual field of a person, and converting the visible image acquired by the visual image acquisition unit (1) into a visual image of a human visual point in the visual field of the person. A conversion unit (4), a brightness distribution calculation unit (5) that calculates a brightness distribution of a human visual field based on a visible image of a human viewpoint that is converted by the viewpoint conversion unit (4), and a brightness distribution calculation unit (5). ), And a dimming control section (7) for controlling dimming of the luminaire based on the calculated luminance distribution of the human visual field.

Description

本発明は、カメラで撮影した可視画像から人の位置と人の向きとを検出し、人の視野領域の照明環境を適切にする照明制御システムに関する。   The present invention relates to a lighting control system that detects a position of a person and a direction of the person from a visible image captured by a camera to appropriately adjust a lighting environment of a human visual field area.

複数の人が利用する室内空間において、照明環境を最適にするため、従来は、照度センサで測定した室内の照度や、カメラで撮影した室内空間の画像から算出した輝度分布に基づいて、照明器具の調光を制御していた。   In order to optimize the lighting environment in an indoor space used by multiple people, conventionally, lighting equipment is based on the indoor illuminance measured by an illuminance sensor and the brightness distribution calculated from the image of the indoor space taken by a camera. Was controlling the dimming.

例えば、照明空間内で互いに異なる方向から人の視野内の画像を撮像する複数のカメラを設置し、複数のカメラが撮像した範囲内の輝度分布を測定し、複数のカメラが撮像した画像内に存在する人の視野方向を検出し、検出された人の視野方向を撮像した画像内の輝度分布に基づいて照明器具を調光制御し、在室者である人の感覚に適合した照明制御を行っていた(例えば、特許文献1参照)。   For example, installing multiple cameras that capture images within the field of view of a person from different directions in the illumination space, measuring the luminance distribution within the range captured by the multiple cameras, and measuring the brightness distribution within the images captured by the multiple cameras. Detects the visual field direction of an existing person, controls the lighting fixtures based on the brightness distribution in the image of the detected visual field direction of the person, and performs lighting control that matches the sense of the person who is in the room. (For example, see Patent Document 1).

特開2010−9874号公報(第10−11頁、第1図)JP, 2010-9874, A (page 10-11, Drawing 1).

しかしながら、上述した特許文献1に記載の技術では、人の視野方向を検知するために画像から人の顔を検出しなければならず、人の顔が映るようにあらゆる方向に複数のカメラを設置する必要があった。また、調光制御に使用する輝度分布は、複数のカメラにより撮像された画像のうち、人の視野方向を撮像した画像を選択して算出している。このため、カメラで撮像された画像はカメラ設置位置を視点とした画像であり、人の視点から人が見ている視野の画像ではないので、人の視野領域の照明環境を正確にセンシングすることができず、カメラ設置位置を視点とした画像から作成された輝度分布に基づいて照明器具を制御して作られた照明環境は、在室者である人にとって必ずしも快適ではないという問題があった。   However, in the technique described in Patent Document 1 described above, a human face must be detected from an image in order to detect the visual field direction of the human, and a plurality of cameras are installed in all directions so that the human face can be seen. Had to do. In addition, the brightness distribution used for dimming control is calculated by selecting an image in which the visual field direction of a person is taken from images taken by a plurality of cameras. Therefore, the image captured by the camera is an image with the camera installation position as the viewpoint, not the image of the field of view seen by the person from the viewpoint of the person. Therefore, it is necessary to accurately sense the lighting environment of the field of view of the person. However, there was a problem that the lighting environment created by controlling the lighting equipment based on the brightness distribution created from the image with the camera installation position as the viewpoint was not always comfortable for the person in the room. .

この発明は、上記の問題を解消するためになされたもので、カメラで撮影した可視画像を人の視点に合わせた可視画像に画像変換し、画像変換後の可視画像の輝度分布を算出し、この輝度分布から照明器具を制御することによって、あらゆる方向に複数のカメラを設置する必要がなく、人にとって快適な照明空間が得られる照明制御ができる照明制御システムを提供することを目的とする。   This invention has been made to solve the above problems, and converts a visible image captured by a camera into a visible image that matches a human viewpoint, and calculates the luminance distribution of the visible image after the image conversion, An object of the present invention is to provide a lighting control system capable of controlling lighting by controlling lighting equipment based on this brightness distribution, without the need to install a plurality of cameras in all directions and obtaining a lighting space comfortable for humans.

この発明に係る照明制御システムは、可視画像を取得する可視画像取得部と、人の視野領域が入力され、可視画像取得部が取得した可視画像を視野領域における人視点の可視画像に画像変換する視点変換部と、人視点の可視画像に基づいて視野領域の輝度分布を算出する輝度分布算出部と、輝度分布に基づいて照明器具の調光を制御する調光制御部とを備えたことを特徴とする。   An illumination control system according to the present invention is input with a visible image acquisition unit that acquires a visible image and a visual field of a person, and converts the visible image acquired by the visible image acquisition unit into a visible image of a human viewpoint in the visual field. A viewpoint conversion unit, a brightness distribution calculation unit that calculates a brightness distribution of a visual field region based on a visible image of a human viewpoint, and a dimming control unit that controls dimming of a lighting device based on the brightness distribution are provided. Characterize.

本発明によれば、室内空間の天井または壁面に設置された可視カメラで撮影した可視画像を人の視点に合わせた画像に画像変換し、画像変換後の可視画像の輝度分布を算出し、この輝度分布から照明器具を制御するため、あらゆる方向に複数のカメラを設置する必要がなく、人にとって快適な照明空間が得られる照明制御ができる。   According to the present invention, a visible image captured by a visible camera installed on a ceiling or a wall surface of an indoor space is converted into an image that matches a human viewpoint, and a luminance distribution of the visible image after the image conversion is calculated. Since the lighting fixture is controlled based on the brightness distribution, it is not necessary to install a plurality of cameras in all directions, and lighting control that can provide a comfortable lighting space for humans can be performed.

本発明の実施の形態1に係る照明制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the illumination control system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る照明制御システムの動作を説明するフローチャートである。3 is a flowchart illustrating an operation of the lighting control system according to the first embodiment of the present invention. 人の向きと人の作業領域と人の視野領域との関係を示す図である。It is a figure which shows the relationship of a person's direction, a person's work area, and a person's visual field. 本発明の実施の形態1に係る照明制御システムの視点変換部が行う画像変換処理の概念図である。It is a conceptual diagram of the image conversion process which the viewpoint conversion part of the illumination control system which concerns on Embodiment 1 of this invention performs. 散乱特性を説明する説明図である。It is explanatory drawing explaining a scattering characteristic. 本発明の実施の形態1に係る照明制御システムの輝度分布の補正方法の説明図である。It is explanatory drawing of the correction method of the luminance distribution of the illumination control system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る照明制御システムの別の例の構成を示すブロック図である。It is a block diagram which shows the structure of another example of the illumination control system which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る照明制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the illumination control system which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る照明制御システムの別の例の構成を示すブロック図である。It is a block diagram which shows the structure of another example of the illumination control system which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る照明制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the illumination control system which concerns on Embodiment 3 of this invention. 異なる対象面における散乱特性を説明する説明図である。It is explanatory drawing explaining the scattering characteristic in a different target surface. 本発明の実施の形態3に係る照明制御システムの別の例の構成を示すブロック図である。It is a block diagram which shows the structure of another example of the illumination control system which concerns on Embodiment 3 of this invention. 本発明の実施の形態4に係る照明制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the illumination control system which concerns on Embodiment 4 of this invention. 本発明の実施の形態5に係る照明制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the illumination control system which concerns on Embodiment 5 of this invention. 本発明の実施の形態5に係る照明制御システムの別の例の構成を示すブロック図である。It is a block diagram which shows the structure of another example of the illumination control system which concerns on Embodiment 5 of this invention. 本発明の実施の形態5に係る照明制御システムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the illumination control system which concerns on Embodiment 5 of this invention. 本発明の実施の形態5に係る照明制御システムにおけるパーティション位置推定部の動作を説明する説明図である。It is explanatory drawing explaining the operation | movement of the partition position estimation part in the lighting control system which concerns on Embodiment 5 of this invention.

実施の形態1.
図1は、本発明を実施するための実施の形態1に係る照明制御システムの構成を示すブロック図である。本実施の形態に係る照明制御システム100は、可視画像取得部1と、視点変換部4と、輝度分布算出部5と、調光制御部7とを備えている。
Embodiment 1.
1 is a block diagram showing a configuration of an illumination control system according to a first embodiment for implementing the present invention. The illumination control system 100 according to the present embodiment includes a visible image acquisition unit 1, a viewpoint conversion unit 4, a brightness distribution calculation unit 5, and a dimming control unit 7.

まず、本実施の形態に係る照明制御システムの構成について説明する。室内空間を俯瞰できる位置、例えば、天井、柱、または壁に室内空間の可視画像を撮影する可視カメラ(図示しない)を設置する。可視カメラは、室内空間を撮影し、撮影した可視画像を撮影時刻(撮影日時)とともに可視画像取得部1に出力する。可視画像取得部1は、取得したカメラ視点可視画像を撮影時刻とともに視点変換部4へ出力する。可視画像取得部1が取得する可視画像は、可視カメラが設置される位置を視点とした可視画像(以下、カメラ視点可視画像と称す)である。また、視点変換部4が出力する可視画像は、撮影視点がカメラ設置位置の視点から人の視点になるように、カメラ視点可視画像を視点変換した可視画像(以下、人視点可視画像と称す)である。   First, the configuration of the lighting control system according to the present embodiment will be described. A visible camera (not shown) for taking a visible image of the indoor space is installed at a position where the indoor space can be overlooked, for example, a ceiling, a pillar, or a wall. The visible camera photographs the interior space and outputs the photographed visible image to the visible image acquisition unit 1 together with the photographing time (imaging date and time). The visible image acquisition unit 1 outputs the acquired camera viewpoint visible image to the viewpoint conversion unit 4 together with the shooting time. The visible image acquired by the visible image acquisition unit 1 is a visible image whose viewpoint is the position where the visible camera is installed (hereinafter, referred to as camera viewpoint visible image). In addition, the visible image output by the viewpoint converting unit 4 is a visible image obtained by converting the viewpoint of the camera viewpoint visible image (hereinafter referred to as a human viewpoint visible image) so that the shooting viewpoint becomes the viewpoint of the person from the camera installation position. Is.

視点変換部4は、可視画像取得部1からカメラ視点可視画像を入力し、外部から在室者である人の視野領域を入力する。人が見ている領域、つまり人の視野に入る領域を人の視野領域とする。視点変換部4は、カメラ視点可視画像の全領域のうち人の視野領域に相当する領域の可視画像を抽出するとともに、撮影視点がカメラ設置位置の視点から人の視点になるように、人の視野領域に相当する領域のカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、画像変換する。つまり、視点変換部4は、カメラ視点可視画像を人の視野領域における人視点可視画像に画像変換する。視点変換部4は、画像変換後の人視点可視画像を輝度分布算出部5に出力する。   The viewpoint conversion unit 4 inputs the camera viewpoint visible image from the visible image acquisition unit 1 and inputs the visual field region of a person who is a room occupant from the outside. An area that a person is looking at, that is, an area that is within the visual field of a person is defined as a visual field area of the person. The viewpoint conversion unit 4 extracts the visible image of the area corresponding to the human visual field from the entire area of the camera visual image, and changes the human visual point from the visual point of the camera installation position to the human visual point. Image conversion is performed by performing viewpoint conversion processing from the camera viewpoint visible image in the area corresponding to the visual field area to the human viewpoint visible image. That is, the viewpoint conversion unit 4 performs image conversion of the camera viewpoint visible image into the human viewpoint visible image in the human visual field. The viewpoint conversion unit 4 outputs the human viewpoint visible image after the image conversion to the brightness distribution calculation unit 5.

輝度分布算出部5は、視点変換部4から入力された人視点可視画像に基づいて視野領域内の輝度分布を算出する。そして、輝度分布算出部5は、外部から入力された人視点可視画像を構成する部分領域毎の光の散乱特性(以下、散乱特性と称す)と視点変換部4から入力された人視点可視画像内の部分領域毎の人の視点方向とに基づいて視野領域内の輝度分布を補正する。輝度分布算出部5は、補正後の視野領域内の輝度分布を調光制御部7へ出力する。調光制御部7は、輝度分布算出部5から入力された輝度分布に基づいて照明器具の調光を制御する。   The brightness distribution calculation unit 5 calculates the brightness distribution in the visual field region based on the human viewpoint visible image input from the viewpoint conversion unit 4. Then, the brightness distribution calculation unit 5 calculates the light scattering characteristics (hereinafter, referred to as scattering characteristics) of the partial regions forming the human viewpoint visible image input from the outside and the human viewpoint visible image input from the viewpoint conversion unit 4. The luminance distribution in the visual field region is corrected based on the direction of the human eye for each partial region inside. The brightness distribution calculation unit 5 outputs the brightness distribution in the corrected visual field area to the dimming control unit 7. The dimming control unit 7 controls dimming of the lighting fixture based on the brightness distribution input from the brightness distribution calculating unit 5.

次に、動作について説明する。図2は、本発明の実施の形態1に係る照明制御システムの動作を説明するフローチャートである。可視カメラによって現在のカメラ視点可視画像が撮影される。可視画像取得部1は、可視カメラによって撮影されたカメラ視点可視画像を取得する(ステップS1)。可視カメラには、一般的に魚眼レンズといわれる画角180度以上のレンズを搭載した画角の広い魚眼可視カメラを用いる。ただし、広範囲領域の画像情報を取得するために画角は180度以上あることが好ましいが、180度以下でもかまわない。   Next, the operation will be described. FIG. 2 is a flowchart illustrating the operation of the lighting control system according to the first embodiment of the present invention. The visible camera captures a current camera viewpoint visible image. The visible image acquisition unit 1 acquires a camera viewpoint visible image captured by a visible camera (step S1). As the visible camera, a fish-eye visible camera having a wide angle of view, which is equipped with a lens having a field angle of 180 degrees or more, which is generally called a fish-eye lens, is used. However, it is preferable that the angle of view is 180 degrees or more in order to acquire image information of a wide range, but it may be 180 degrees or less.

魚眼可視カメラを用いた場合、取得画像の周辺領域は中央部に比べて光量が不足するため、輝度が小さく算出される。そのため、不足分を補正した方がより正確に輝度分布を算出することが可能である。補正量は、カメラのレンズと受光素子の特性とに依存する。このため、部分領域毎の補正量が記載された補正データをカメラ毎に準備しておくと良い。補正データの算出方法は次のとおりである。魚眼可視カメラで撮影した魚眼可視画像から輝度分布を作成する。照明測定用に使用される輝度計または分光放射輝度計を用いて、魚眼可視画像に映し出された被写体の実測輝度を部分領域毎に測定する。補正データは、輝度分布と実測輝度との補正係数から算出することができる。   When a fish-eye visible camera is used, the amount of light in the peripheral region of the acquired image is less than that in the central region, so the brightness is calculated to be small. Therefore, it is possible to calculate the luminance distribution more accurately by correcting the shortage. The correction amount depends on the characteristics of the camera lens and the light receiving element. Therefore, it is preferable to prepare the correction data in which the correction amount for each partial area is described for each camera. The method of calculating the correction data is as follows. A luminance distribution is created from a fisheye visible image taken by a fisheye visible camera. Using a luminance meter or a spectral radiance meter used for illumination measurement, the actually measured luminance of the subject displayed in the fisheye visible image is measured for each partial area. The correction data can be calculated from the correction coefficient of the brightness distribution and the actually measured brightness.

図3は、人の向きと人の作業領域と人の視野領域との関係を示す図であり、天井に設置した可視カメラが撮影するカメラ視点可視画像の一部である。図3において、d1はカメラ視点可視画像に映った人を示し、d2で示す領域は人の作業領域、d3で示す領域は人の視野領域を示し、d4の矢印は人の向きを示す。人の作業領域としては、例えば、机上面などがある。d1の黒い円形の領域は人の頭を示し、黒い円形の周辺のハッチングした領域が人の上半身、おもに腕を示す。   FIG. 3 is a diagram showing a relationship between a person's orientation, a person's work area, and a person's visual field, which is a part of a camera viewpoint visible image captured by a visible camera installed on a ceiling. In FIG. 3, d1 indicates a person reflected in a visible image from a camera viewpoint, a region indicated by d2 indicates a work area of the person, a region indicated by d3 indicates a visual field of the person, and an arrow d4 indicates a direction of the person. The work area of a person is, for example, a desk top surface. The black circular area of d1 shows the person's head, and the hatched area around the black circle shows the upper body of the person, mainly the arms.

次に、視点変換部4は、外部より人の視野領域を入力する(ステップS2)。例えば、室内空間に設置される机や椅子などの配置に基づいて人の位置と人の向きとを推定し、人の位置と人の向きとに基づいて人の視野領域を予め推定しておいてもよい。また、同じ空間を赤外線カメラなどで撮影した熱画像から人の位置を検出し、人の位置の情報に基づいて人の視野領域を推定してもよい。   Next, the viewpoint conversion unit 4 inputs a human visual field from the outside (step S2). For example, the position of a person and the direction of the person are estimated based on the arrangement of a desk or a chair installed in the indoor space, and the visual field area of the person is estimated in advance based on the position of the person and the direction of the person. You may stay. Alternatively, the position of a person may be detected from a thermal image of the same space captured by an infrared camera or the like, and the visual field area of the person may be estimated based on the information on the position of the person.

次に、視点変換部4は、カメラ視点可視画像の全領域のうち人の視野領域に相当する領域の可視画像を抽出する。そして、視点変換部4は、撮影視点がカメラ設置位置の視点から人の視点になるように、人の視野領域に相当する領域のカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、画像変換する(ステップS3)。   Next, the viewpoint conversion unit 4 extracts the visible image of the area corresponding to the human visual field from the entire area of the camera visual image. Then, the viewpoint conversion unit 4 performs viewpoint conversion processing from the camera viewpoint visible image in the area corresponding to the human visual field to the human viewpoint visible image so that the shooting viewpoint becomes the human viewpoint from the camera installation position viewpoint, Image conversion is performed (step S3).

図4は、視点変換部4が行う画像変換処理の概念図である。図4(a)は、画角180度の場合のカメラ視点可視画像であり、撮影視点をカメラ設置位置の視点として撮影したカメラ視点可視画像である。図4(a)において、d3で示す領域が図3で示した人の視野領域d3に対応する。図4(b)は、撮影視点がカメラ設置位置の視点から人の視点になるようにカメラ視点可視画像を画像変換した人視点可視画像である。図4(a)のd3で示す人の視野領域が、図4(b)の全領域に相当する。視点変換部4は、カメラ視点可視画像からd3に相当する領域を切り出し、その後、撮影視点がカメラ設置位置から人の視点になるように、切り出した画像に座標変換処理を施す。座標変換処理によって、人の視野領域に相当する領域のカメラ視点可視画像から人視点可視画像へ視点変換処理を施すことができる。   FIG. 4 is a conceptual diagram of image conversion processing performed by the viewpoint conversion unit 4. FIG. 4A is a camera viewpoint visible image when the angle of view is 180 degrees, and is a camera viewpoint visible image captured with the shooting viewpoint as the viewpoint of the camera installation position. In FIG. 4A, the area indicated by d3 corresponds to the human visual field area d3 shown in FIG. FIG. 4B is a human-view visible image obtained by image-converting the camera-view visible image so that the shooting viewpoint becomes the human's viewpoint from the viewpoint of the camera installation position. The human visual field shown by d3 in FIG. 4A corresponds to the entire area of FIG. 4B. The viewpoint conversion unit 4 cuts out a region corresponding to d3 from the camera viewpoint visible image, and then performs coordinate conversion processing on the cut image so that the shooting viewpoint becomes the human viewpoint from the camera installation position. By the coordinate conversion processing, the viewpoint conversion processing can be performed from the camera viewpoint visible image in the area corresponding to the human visual field to the human viewpoint visible image.

カメラ視点可視画像を構成する複数の部分領域毎に座標変換テーブルを予め保持しておき、座標変換テーブルを用いて座標変換処理は施しても良い。また、視野領域が矩形になるように視野領域の中心から周辺部にかけて滑らかに変形させて座標変換処理は施しても良い。なお、可視カメラ設置位置に奥行き情報を取得できるセンサを設置し、奥行き情報を用いて座標変換テーブルを作成してもよい。   A coordinate conversion table may be held in advance for each of a plurality of partial areas forming the camera viewpoint visible image, and the coordinate conversion processing may be performed using the coordinate conversion table. Alternatively, the coordinate conversion process may be performed by smoothly deforming the visual field region from the center to the peripheral portion so that the visual field region becomes rectangular. A sensor that can acquire depth information may be installed at the visible camera installation position, and the coordinate conversion table may be created using the depth information.

視点変換部4で画像変換された人視点可視画像は、輝度分布算出部5に入力される。輝度分布算出部5は、視点変換部4で画像変換された人視点可視画像と外部から入力される人視点可視画像を構成する部分領域毎の散乱特性とに基づいて視野領域内の輝度分布を算出する(ステップS4)。   The human viewpoint visible image image-converted by the viewpoint converting unit 4 is input to the brightness distribution calculating unit 5. The luminance distribution calculation unit 5 calculates the luminance distribution in the visual field region based on the human visual point visible image image-converted by the visual point conversion unit 4 and the scattering characteristics of each partial region forming the human visual point visible image input from the outside. Calculate (step S4).

ここで、散乱特性について説明する。図5は、散乱特性を説明する説明図である。散乱特性には対象面(反射面)の特性に対応して三つの主要なタイプがある。一つ目は、図5(a)に示す全方向に均等に拡散する均等拡散反射面である。いずれの方向から見ても対象面の輝度は一定である。二つ目は、図5(b)に示す鏡面である。対象面への入射角と同じ角度の反射角方向、すなわち、正反射方向から対象面を見た場合のみ光源と同じ輝度の光が入る。それ以外の方向から対象面を見ても光は入らない。三つ目は、図5(c)に示す散乱面である。散乱面は均等拡散反射面と鏡面の両方の性質を持ち、正反射方向は輝度が高く、それ以外は均等拡散反射面に近い強度分布になる。   Here, the scattering characteristics will be described. FIG. 5 is an explanatory diagram illustrating the scattering characteristics. There are three main types of scattering characteristics corresponding to the characteristics of the target surface (reflection surface). The first is a uniform diffuse reflection surface that diffuses uniformly in all directions shown in FIG. The brightness of the target surface is constant when viewed from any direction. The second is the mirror surface shown in FIG. Light having the same brightness as the light source enters only when the target surface is viewed from the reflection angle direction having the same angle as the incident angle to the target surface, that is, the regular reflection direction. No light enters even if the target surface is viewed from other directions. The third is the scattering surface shown in FIG. The scattering surface has the properties of both a uniform diffuse reflection surface and a mirror surface, with high brightness in the regular reflection direction, and an intensity distribution close to that of a uniform diffusion reflection surface in other cases.

次に、輝度分布を算出について説明する。可視画像の各画素はR(Red)、G(Green)、B(Blue)の各信号の値を有している。まず、R、G、Bの各値から各画素の輝度を算出した輝度画像を生成する。輝度Yは、式(1)を用いて算出する。
Y=0.257R+0.504G+0.098B+16 ・・・(1)
なお、人視点可視画像の部分領域毎の平均輝度を算出して輝度分布としてもよい。
Next, the calculation of the brightness distribution will be described. Each pixel of the visible image has the value of each signal of R (Red), G (Green), and B (Blue). First, a brightness image in which the brightness of each pixel is calculated from the R, G, and B values is generated. The brightness Y is calculated using the equation (1).
Y = 0.257R + 0.504G + 0.098B + 16 (1)
Note that the average luminance of each partial area of the human visual point visible image may be calculated and used as the luminance distribution.

続いて、散乱特性に基づき輝度を補正する。図6は、輝度分布の補正方法の説明図である。図6では、対象面の散乱特性と可視カメラと人の視点との関係を示している。図6の破線矢印は散乱特性の強度分布を示す。予め取得している対象面の散乱特性、または可視カメラにより測定し、推定した散乱特性を用いる。任意の視点Pからの輝度分布に変換する場合、散乱特性に基づいて可視カメラ方向の輝度Aと視点方向の輝度Bとの比率である輝度比率B/Aを算出し、補正係数として輝度比率を人視点可視画像から算出した部分領域毎の輝度に乗じることにより、より正確な任意の視点Pからの輝度分布を算出することができる。なお、カメラ視点可視画像の全領域を均等拡散反射として、輝度分布算出部5に散乱特性を出力する際は、補正係数(輝度比率)が1となる。   Then, the brightness is corrected based on the scattering characteristic. FIG. 6 is an explanatory diagram of a method of correcting the brightness distribution. FIG. 6 shows the relationship between the scattering characteristics of the target surface and the visible camera and the viewpoint of the person. The broken line arrow in FIG. 6 indicates the intensity distribution of the scattering characteristic. The scattering characteristic of the target surface that has been acquired in advance or the scattering characteristic estimated by measuring with a visible camera is used. When converting to a luminance distribution from an arbitrary viewpoint P, a luminance ratio B / A, which is a ratio between the luminance A in the visible camera direction and the luminance B in the viewpoint direction, is calculated based on the scattering characteristic, and the luminance ratio is used as a correction coefficient. By multiplying the brightness for each partial area calculated from the human viewpoint visible image, a more accurate brightness distribution from an arbitrary viewpoint P can be calculated. When the scattering characteristic is output to the brightness distribution calculation unit 5 with the entire area of the camera viewpoint visible image as uniform diffuse reflection, the correction coefficient (brightness ratio) is 1.

可視カメラで撮影できる画像は、撮影時の露出の設定により、取得可能な輝度の範囲が限定される。また、各画素のR、G、B値の階調も256階調などに限定されているため、輝度を正しく測定するためには、露出の異なる可視画像を複数枚撮影し、合成することが必要である。この場合、可視画像取得部1は、可視カメラが異なる露出設定で撮影した複数枚の可視画像を取得する。視点変換部4は、各可視画像に対して視点変換の処理を施す。そして、輝度分布算出部5は、視点変換された各可視画像に対して輝度分布の算出と、散乱特性による補正とを施し、補正後の各輝度分布を足し合わせたものを視野領域内の輝度分布として調光制御部7へ出力する。   An image that can be captured by a visible camera has a limited range of luminance that can be acquired depending on the exposure setting during capturing. Further, since the gradations of R, G, and B values of each pixel are limited to 256 gradations and the like, in order to measure the luminance correctly, it is necessary to take a plurality of visible images with different exposures and combine them. is necessary. In this case, the visible image acquisition unit 1 acquires a plurality of visible images captured by the visible camera with different exposure settings. The viewpoint conversion unit 4 performs a viewpoint conversion process on each visible image. Then, the luminance distribution calculation unit 5 calculates the luminance distribution and corrects the scattering characteristics for each view-converted visible image, and adds up the corrected luminance distributions to obtain the luminance in the visual field region. The distribution is output to the dimming control unit 7.

調光制御部7は、輝度分布算出部5で算出された輝度分布に基づいて人の視野領域において人が快適と感じる照明空間が得られるように、室内空間の調光制御を行う。調光制御部7は、調光制御を行うにあたり、室内空間の天井、壁、柱などに設置された照明器具のうち調光する照明器具を特定する(ステップS5)。そして、調光制御部7は、特定された各照明器具の照度を個別に調整して、調光制御を行う(ステップS6)。   The dimming control unit 7 performs the dimming control of the indoor space based on the brightness distribution calculated by the brightness distribution calculating unit 5 so that an illumination space that a person feels comfortable in the human visual field can be obtained. When performing the dimming control, the dimming control unit 7 identifies the lighting fixture to be dimmed among the lighting fixtures installed on the ceiling, the wall, the pillar, etc. of the indoor space (step S5). Then, the dimming control unit 7 individually adjusts the illuminance of each of the identified lighting fixtures to perform dimming control (step S6).

図7は、本発明の実施の形態1に係る照明制御システムの別の例の構成を示すブロック図である。図7に示す照明制御システム110では、視野領域の輝度分布に基づいて調光制御を行うのではなく、視野領域の輝度分布に基づいて視野領域の明るさを推定し、視野領域の明るさに基づいて調光制御を行う構成となっている。   FIG. 7 is a block diagram showing the configuration of another example of the lighting control system according to Embodiment 1 of the present invention. In the illumination control system 110 shown in FIG. 7, the brightness of the visual field area is estimated based on the luminance distribution of the visual field area instead of performing the dimming control based on the luminance distribution of the visual field area. It is configured to perform dimming control based on the above.

図7において、明るさ推定部6は、輝度分布算出部5から入力された視野領域内の輝度分布に基づいて、室内空間の明るさを推定する。明るさ推定部6では、輝度分布から明るさを人視点可視画像の部分領域毎の輝度または人視点可視画像の全領域の輝度分布に対して算出する。明るさを示す指標は、例えば、平均輝度、平均照度、明るさ感などがある。明るさ感は、周辺輝度との対比が人の感じ方に及ぼす影響を考慮した明るさの指標であり、輝度分布に基づいて明るさを推定する方法は公知の技術を用いる。明るさ推定部6は、推定した明るさを調光制御部7に出力する。   In FIG. 7, the brightness estimation unit 6 estimates the brightness of the indoor space based on the brightness distribution in the visual field area input from the brightness distribution calculation unit 5. The brightness estimation unit 6 calculates the brightness from the brightness distribution with respect to the brightness of each partial area of the human-view visible image or the brightness distribution of the entire human-view visible image. The index indicating brightness includes, for example, average brightness, average illuminance, and sense of brightness. The sense of brightness is an index of brightness that considers the effect of the comparison with the ambient brightness on how people feel, and a known technique is used for estimating the brightness based on the brightness distribution. The brightness estimation unit 6 outputs the estimated brightness to the dimming control unit 7.

調光制御部7は、明るさ推定部6で算出された明るさに基づいて人の視野領域において人が快適と感じる照明空間が得られるように、室内空間の調光制御を行う。調光制御部7は、調光制御を行うにあたり、室内空間の天井、壁、柱などに設置された照明器具のうち調光する照明器具を特定する。そして、調光制御部7は、特定された各照明器具の照度を個別に調整して、調光制御を行う   The dimming control unit 7 performs the dimming control of the indoor space based on the brightness calculated by the brightness estimating unit 6 so that an illumination space that a person feels comfortable in the visual field of the person can be obtained. When performing the dimming control, the dimming control unit 7 identifies a lighting fixture to be dimmed among the lighting fixtures installed on the ceiling, the wall, the pillar, etc. of the indoor space. Then, the dimming control unit 7 individually adjusts the illuminance of each specified lighting fixture to perform dimming control.

例えば、調光制御部7は、平均照度を用いて明るさを制御する場合には、人の視野領域に存在する、または、人の視野領域の周辺に存在する照明器具を制御対象とし、平均照度が所望の値に近づくように照明器具を調光する。そして、照明制御システム110において、明るさ推定部6が推定する明るさが所望の値になるまで、可視画像取得部1における可視画像の取得から調光制御部7における調光制御までの動作を繰り返す。所望の値は、例えば、作業領域が500ルクス、作業領域以外の視野領域が300ルクスなどである。作業領域がオフィスの机上面など、特定できる場合、JIS(Japanese Industrial Standards)照度基準を満たす照明環境を本発明の照明制御システムで提供することが可能である。   For example, when the brightness is controlled using the average illuminance, the dimming control unit 7 sets a lighting device existing in the visual field area of the person or around the visual field area of the person as a control target and averaging. Dimming the luminaire so that the illuminance approaches the desired value. Then, in the illumination control system 110, the operations from the acquisition of the visible image by the visible image acquisition unit 1 to the dimming control by the dimming control unit 7 are performed until the brightness estimated by the brightness estimating unit 6 reaches a desired value. repeat. The desired value is, for example, 500 lux for the work area and 300 lux for the visual field area other than the work area. When the work area can be specified such as the desk top surface of an office, it is possible to provide a lighting environment satisfying the JIS (Japan Industrial Standards) illuminance standard with the lighting control system of the present invention.

なお、可視カメラは魚眼可視カメラでなく、通常の可視カメラでもよい。また、可視画像取得部1は複数台の可視カメラで取得した可視画像を合成し、より広い空間を撮像した可視画像を作成してもよい。   The visible camera may be a normal visible camera instead of the fisheye visible camera. The visible image acquisition unit 1 may combine visible images acquired by a plurality of visible cameras to create a visible image of a wider space.

また、可視カメラが撮影し出力する可視画像はカメラ内で画像処理された後の画像であることがあり、画像処理により輝度を著しく補正した場合には、正しく輝度を推定できないという問題がある。可視カメラを設置する前に、照明測定用に使用される輝度計あるいは分光放射輝度計を用いて被写体の輝度値を複数ポイントで測定し、可視カメラの画像処理特性を推定して、可視画像取得後に測定した輝度値を用いて、画像処理特性を逆補正して可視画像取得部1から出力してもよい。   In addition, the visible image captured and output by the visible camera may be an image that has been subjected to image processing in the camera, and if the luminance is significantly corrected by the image processing, there is a problem that the luminance cannot be correctly estimated. Before installing a visible camera, measure the brightness value of the subject at multiple points using a luminance meter or spectral radiance meter used for lighting measurement, estimate the image processing characteristics of the visible camera, and obtain a visible image. The image processing characteristic may be inversely corrected and output from the visible image acquisition unit 1 using the brightness value measured later.

このように構成された本実施の形態に係る照明制御システムでは、カメラ視点可視画像から人視点可視画像へ画像変換し、この人視点可視画像に基づいて輝度分布や明るさを推定するため、照度センサを用いて室内空間の明るさを推定するよりも、少ないセンサで室内空間の明るさを推定できる。そして、現在の明るさに基づいて調光制御を行うことで、人にとって快適な照明空間を提供できるという効果が得られる。また、昼光が室内空間内に入射した場合に関しても、同様に現在の明るさに基づき照明を調光することで、指定した照明環境を提供できるという効果が得られる。   In the illumination control system according to the present embodiment configured as described above, the image conversion from the camera viewpoint visible image to the human viewpoint visible image, and the luminance distribution and the brightness are estimated based on the human viewpoint visible image. It is possible to estimate the brightness of the indoor space with a smaller number of sensors than to estimate the brightness of the indoor space using the sensor. Then, by performing the dimming control based on the current brightness, it is possible to provide an effect that a lighting space that is comfortable for a person can be provided. Even when daylight enters the indoor space, the effect of being able to provide the designated illumination environment can be obtained by similarly adjusting the light intensity based on the current brightness.

実施の形態2.
図8は、本発明を実施するための実施の形態2に係る照明制御システムの構成を示すブロック図である。本実施の形態に係る照明制御システム200は、可視画像取得部1と、人位置・向き検出部2と、視野領域推定部3と、視点変換部4と、輝度分布算出部5と、調光制御部7とを備えている。本実施の形態では、人位置・向き検出部2と、視野領域推定部3とを備え、可視画像取得部1が取得する可視画像から人の視野領域を推定し、推定した人の視野領域を視点変換部4へ入力する点が実施の形態1と異なる。
Embodiment 2.
FIG. 8 is a block diagram showing the configuration of the illumination control system according to the second embodiment for implementing the present invention. Illumination control system 200 according to the present embodiment includes visible image acquisition unit 1, person position / orientation detection unit 2, visual field region estimation unit 3, viewpoint conversion unit 4, brightness distribution calculation unit 5, and dimming control. And a control unit 7. In the present embodiment, the human position / orientation detection unit 2 and the visual field region estimation unit 3 are provided, the visual field region of the person is estimated from the visible image acquired by the visible image acquisition unit 1, and the estimated human visual field region is calculated. It differs from the first embodiment in that it is input to the viewpoint conversion unit 4.

まず、本実施の形態に係る照明制御システムの構成について説明する。実施の形態1と同様に、室内空間を俯瞰できる位置、例えば、天井、柱、または壁に室内空間の可視画像を撮影する可視カメラ(図示しない)を設置する。可視カメラは、室内空間を撮影し、撮影した可視画像を撮影時刻とともに可視画像取得部1に出力する。可視画像取得部1は、取得したカメラ視点可視画像を撮影時刻とともに人位置・向き検出部2と視点変換部4とへ出力する。   First, the configuration of the lighting control system according to the present embodiment will be described. Similar to the first embodiment, a visible camera (not shown) for taking a visible image of the indoor space is installed at a position where the indoor space can be overlooked, for example, a ceiling, a pillar, or a wall. The visible camera photographs the interior space and outputs the photographed visible image to the visible image acquisition unit 1 together with the photographing time. The visible image acquisition unit 1 outputs the acquired camera viewpoint visible image to the person position / orientation detection unit 2 and the viewpoint conversion unit 4 together with the shooting time.

人位置・向き検出部2は、可視画像取得部1からカメラ視点可視画像が入力され、カメラ視点可視画像から、室内空間に在室している人の位置と人の向きとを検出する。   The human position / orientation detection unit 2 receives the camera viewpoint visible image from the visible image acquisition unit 1 and detects the position and orientation of the person present in the indoor space from the camera viewpoint visible image.

視野領域推定部3は、人位置・向き検出部2から入力されたカメラ視点可視画像と、人位置・向き検出部2が検出した人の位置と人の向きとに基づいて人の視野領域を推定し、カメラ視点可視画像における視野領域を視点変換部4へ出力する。   The visual field estimation unit 3 determines the visual field of a person based on the camera viewpoint visible image input from the human position / orientation detecting unit 2 and the position and orientation of the person detected by the human position / orientation detecting unit 2. It estimates and outputs the visual field area in the camera visual point visible image to the visual point conversion unit 4.

視点変換部4は、可視画像取得部1からカメラ視点可視画像を入力し、視野領域推定部3から在室者である人の視野領域を入力する。視点変換部4は、カメラ視点可視画像の全領域のうち人の視野領域に相当する領域の可視画像を抽出するとともに、撮影視点がカメラ設置位置の視点から人の視点になるように、人の視野領域に相当する領域のカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、画像変換する。つまり、視点変換部4は、カメラ視点可視画像を人の視野領域における人視点可視画像に画像変換する。視点変換部4は、画像変換後の人視点可視画像を輝度分布算出部5に出力する。   The viewpoint conversion unit 4 inputs the camera viewpoint visible image from the visible image acquisition unit 1, and inputs the visual field region of the person who is the occupant from the visual field region estimation unit 3. The viewpoint conversion unit 4 extracts the visible image of the area corresponding to the human visual field from the entire area of the camera visual image, and changes the human visual point from the visual point of the camera installation position to the human visual point. Image conversion is performed by performing viewpoint conversion processing from the camera viewpoint visible image in the area corresponding to the visual field area to the human viewpoint visible image. That is, the viewpoint conversion unit 4 performs image conversion of the camera viewpoint visible image into the human viewpoint visible image in the human visual field. The viewpoint conversion unit 4 outputs the human viewpoint visible image after the image conversion to the brightness distribution calculation unit 5.

輝度分布算出部5は、視点変換部4から入力された人視点可視画像に基づいて視野領域内の輝度分布を算出し、外部から入力された人視点可視画像を構成する部分領域毎の散乱特性と視点変換部4から入力された人視点可視画像内の部分領域毎の視点方向とに基づいて視野領域内の輝度分布を補正する。輝度分布算出部5は、補正後の視野領域内の輝度分布を調光制御部7へ出力する。調光制御部7は、輝度分布算出部5から入力された輝度分布に基づいて照明器具の調光を制御する。   The luminance distribution calculation unit 5 calculates the luminance distribution in the visual field region based on the human visual point visible image input from the visual point conversion unit 4, and scatter characteristics for each partial region forming the human visual point image input from the outside. And the luminance distribution in the visual field region based on the visual point direction for each partial region in the human visual point visible image input from the visual point conversion unit 4. The brightness distribution calculation unit 5 outputs the brightness distribution in the corrected visual field area to the dimming control unit 7. The dimming control unit 7 controls dimming of the lighting fixture based on the brightness distribution input from the brightness distribution calculating unit 5.

次に、動作について説明する。可視カメラによって現在のカメラ視点可視画像が撮影される。可視画像取得部1は、可視カメラによって撮影されたカメラ視点可視画像を取得する。まず、カメラ視点可視画像は人位置・向き検出部2に入力される。人位置・向き検出部2は、カメラ視点可視画像に基づいて人を検出する。画像から人を検出する方法は公知の技術を用いる。例えば、人の形状のパターン画像をデータベースとして保持しておき、パターンマッチングすることで画像から人を検出することは可能である。ただし、可視カメラは室内空間を俯瞰できる位置に設置されているため、可視画像に人が映っていても、その人の顔が認識できる解像度で映っている場合は少ない。そのため、頭と体の上半身を柱もしくは壁の高い位置(人の身長よりも高い位置)または天井から見た場合の形状をパターン画像として使用する。人位置・向き検出部2は、カメラ視点可視画像から人を検出されると、検出した人が映っている領域に含まれる一点の座標を人の位置として検出する。例えば、頭の中心の座標を人の位置として検出する。可視カメラには、一般的に魚眼レンズといわれる画角180度以上のレンズを搭載した画角の広い魚眼可視カメラを用いる。ただし、広範囲領域の画像情報を取得するために画角は180度以上あることが好ましいが、180度以下でもかまわない。   Next, the operation will be described. The visible camera captures a current camera viewpoint visible image. The visible image acquisition unit 1 acquires a camera viewpoint visible image captured by a visible camera. First, the camera viewpoint visible image is input to the person position / orientation detecting unit 2. The person position / orientation detection unit 2 detects a person based on a camera viewpoint visible image. A known technique is used as a method for detecting a person from an image. For example, it is possible to detect a person from an image by holding a pattern image of the shape of a person as a database and performing pattern matching. However, since the visible camera is installed at a position where the interior space can be overlooked, even when a person is shown in the visible image, it is rare that the face of the person is seen at a resolution that can be recognized. Therefore, the shape of the upper body of the head and body when viewed from a high position of a pillar or a wall (higher than the height of a person) or from the ceiling is used as a pattern image. When the person is detected from the camera viewpoint visible image, the person position / orientation detecting unit 2 detects the coordinates of one point included in the area where the detected person is shown as the person's position. For example, the coordinates of the center of the head are detected as the position of the person. As the visible camera, a fish-eye visible camera having a wide angle of view, which is equipped with a lens having a field angle of 180 degrees or more, which is generally called a fish-eye lens, is used. However, it is preferable that the angle of view is 180 degrees or more in order to acquire image information of a wide range, but it may be 180 degrees or less.

続いて、人位置・向き検出部2で人の向きを検出する。カメラ視点可視画像に映った人d1、人の作業領域d2、人の視野領域d3、人の向きd4については図3に示したとおりである。人は手を使って作業をするとき、頭より前に腕があるため、頭と腕の位置関係より人の向きを特定できる。これを利用して人位置・向き検出部2は人の向きであるd4を検出する。人の向きは、人の位置の座標からのベクトルで表現する。人位置・向き検出部2で検出された人の位置と人の向きと、可視画像取得部1から人位置・向き検出部2に入力されたカメラ視点可視画像とが視野領域推定部3に入力される。   Then, the person position / orientation detecting unit 2 detects the orientation of the person. The person d1, the person's work area d2, the person's visual field area d3, and the person's direction d4 reflected in the camera viewpoint visible image are as shown in FIG. When a person uses his / her hands to work, his / her arm is in front of the head, so that the orientation of the person can be identified by the positional relationship between the head and the arm. Using this, the person position / orientation detection unit 2 detects d4, which is the orientation of the person. The direction of a person is represented by a vector from the coordinates of the person's position. The position and orientation of the person detected by the person position / orientation detection unit 2 and the camera viewpoint visible image input from the visible image acquisition unit 1 to the person position / orientation detection unit 2 are input to the visual field region estimation unit 3. To be done.

視野領域推定部3は、カメラ視点可視画像から図3のd3に示す人の視野領域を推定する。人が見ている領域、つまり人の視野に入る領域を人の視野領域とする。人の視野領域は、人が向いている方向であるd4を中心とした水平方向に約180度の領域である。人の視野領域は、人の視界を遮る高さのパーティションや棚などの障害物がない限り、人の位置から人が向いている方向のカメラ視点可視画像に映っている領域が視野領域に含まれる。また、カメラ視点可視画像における人の位置によっては、人の位置を視点とした場合に視野領域が半円状になるような画像変換を施してもよい。   The visual field region estimation unit 3 estimates the visual field region of the person shown in d3 of FIG. 3 from the camera visual point visible image. An area that a person is looking at, that is, an area that is within the visual field of a person is defined as a visual field area of the person. The visual field of the person is an area of about 180 degrees in the horizontal direction centered on d4, which is the direction in which the person is facing. The field of view of a person includes the area shown in the visible image from the camera's viewpoint in the direction in which the person is facing from the position of the person, unless there are obstacles such as partitions and shelves that are high enough to block the view of the person. Be done. Further, depending on the position of the person in the camera viewpoint visible image, image conversion may be performed so that the field of view becomes semicircular when the position of the person is taken as the viewpoint.

視野領域推定部3で推定された人の視野領域は、視点変換部4に入力される。視点変換部4に入力される視野領域は、カメラ視点可視画像における人の視野領域に相当する領域である。視点変換部4では、まず、可視画像取得部1が取得したカメラ視点可視画像の全領域のうち人の視野領域に相当する領域の可視画像を抽出する。次に、撮影視点がカメラ設置位置の視点から人の視点になるように、人の視野領域に相当する領域のカメラ視点可視画像から人視点可視画像へ画像変換する。   The human visual field estimated by the visual field estimation unit 3 is input to the viewpoint conversion unit 4. The visual field area input to the visual point conversion unit 4 is an area corresponding to the visual field area of a person in the camera visual point visible image. The viewpoint conversion unit 4 first extracts a visible image of a region corresponding to a human visual field from all regions of the camera viewpoint visible image acquired by the visible image acquisition unit 1. Next, the camera viewpoint visible image in the area corresponding to the human visual field is converted into the human viewpoint visible image so that the photographing viewpoint becomes the human viewpoint from the camera installation position.

実施の形態1において説明した図3に示したd3が、視野領域推定部3が推定した人の視野領域を示す。視点変換部4は、カメラ視点可視画像からd3に相当する領域を切り出し、その後、撮影視点がカメラ設置位置から人の視点になるように、切り出した画像に座標変換処理を施す。座標変換処理によって、人の視野領域に相当する領域のカメラ視点可視画像から人視点可視画像へ視点変換処理を施すことができる。   The d3 shown in FIG. 3 described in the first embodiment is the human visual field estimated by the visual field estimation unit 3. The viewpoint conversion unit 4 cuts out a region corresponding to d3 from the camera viewpoint visible image, and then performs coordinate conversion processing on the cut image so that the shooting viewpoint becomes the human viewpoint from the camera installation position. By the coordinate conversion processing, the viewpoint conversion processing can be performed from the camera viewpoint visible image in the area corresponding to the human visual field to the human viewpoint visible image.

カメラ視点可視画像を構成する複数の部分領域毎に座標変換テーブルを予め保持しておき、座標変換テーブルを用いて座標変換処理は施しても良い。また、視野領域が矩形になるように視野領域の中心から周辺部にかけて滑らかに変形させて座標変換処理は施しても良い。なお、可視カメラ設置位置に奥行き情報を取得できるセンサを設置し、奥行き情報を用いて座標変換テーブルを作成してもよい。   A coordinate conversion table may be held in advance for each of a plurality of partial areas forming the camera viewpoint visible image, and the coordinate conversion processing may be performed using the coordinate conversion table. Alternatively, the coordinate conversion process may be performed by smoothly deforming the visual field region from the center to the peripheral portion so that the visual field region becomes rectangular. A sensor that can acquire depth information may be installed at the visible camera installation position, and the coordinate conversion table may be created using the depth information.

視点変換部4で画像変換された人視点可視画像は、輝度分布算出部5に入力される。輝度分布算出部5は、視点変換部4で画像変換された人視点可視画像から視野領域内の輝度分布を算出する。具体的には、可視画像の各画素はR、G、Bの各信号の値を有し、R、G、Bの各値から各画素の輝度を算出した輝度画像を生成する。   The human viewpoint visible image image-converted by the viewpoint converting unit 4 is input to the brightness distribution calculating unit 5. The brightness distribution calculation unit 5 calculates the brightness distribution in the visual field region from the human visual point visible image image-converted by the visual point conversion unit 4. Specifically, each pixel of the visible image has a value of each signal of R, G, and B, and the luminance of each pixel is calculated from each value of R, G, B to generate a luminance image.

輝度分布算出部5は、視点変換部4で画像変換された人視点可視画像と外部から入力される人視点可視画像を構成する部分領域毎の散乱特性とに基づいて視野領域内の輝度分布を算出する。輝度分布の算出方法については、実施の形態1で説明した内容と同じである。輝度分布算出部5は、視野領域内の輝度分布を調光制御部7へ出力する。   The luminance distribution calculation unit 5 calculates the luminance distribution in the visual field region based on the human visual point visible image image-converted by the visual point conversion unit 4 and the scattering characteristics of each partial region forming the human visual point visible image input from the outside. calculate. The method of calculating the luminance distribution is the same as that described in the first embodiment. The brightness distribution calculator 5 outputs the brightness distribution in the visual field area to the dimming controller 7.

調光制御部7は、輝度分布算出部5で算出された輝度分布に基づいて人の視野領域において人が快適と感じる照明空間が得られるように、室内空間の調光制御を行う。調光制御部7は、調光制御を行うにあたり、室内空間の天井、壁、柱などに設置された照明器具のうち調光する照明器具を特定する。そして、調光制御部7は、特定された各照明器具の照度を個別に調整して、調光制御を行う。   The dimming control unit 7 performs the dimming control of the indoor space based on the brightness distribution calculated by the brightness distribution calculating unit 5 so that an illumination space that a person feels comfortable in the human visual field can be obtained. When performing the dimming control, the dimming control unit 7 identifies a lighting fixture to be dimmed among the lighting fixtures installed on the ceiling, the wall, the pillar, etc. of the indoor space. Then, the dimming control unit 7 individually adjusts the illuminance of each of the identified lighting fixtures to perform dimming control.

図9は、本発明の実施の形態2に係る照明制御システムの別の例の構成を示すブロック図である。図9に示す照明制御システム210では、視野領域の輝度分布に基づいて調光制御を行うのではなく、視野領域の輝度分布に基づいて視野領域の明るさを推定し、視野領域の明るさに基づいて調光制御を行う構成となっている。   FIG. 9 is a block diagram showing the configuration of another example of the illumination control system according to the second embodiment of the present invention. In the illumination control system 210 shown in FIG. 9, the brightness of the visual field is estimated based on the luminance distribution of the visual field, instead of performing the dimming control based on the luminance distribution of the visual field. It is configured to perform dimming control based on the above.

図9において、明るさ推定部6は、輝度分布算出部5から入力された視野領域内の輝度分布に基づいて、室内空間の明るさを推定する。明るさ推定部6では、輝度分布から明るさを人視点可視画像の部分領域毎の輝度または人視点可視画像の全領域の輝度分布に対して算出する。明るさを示す指標は、例えば、平均輝度、平均照度、明るさ感などがある。明るさ感は、周辺輝度との対比が人の感じ方に及ぼす影響を考慮した明るさの指標であり、輝度分布に基づいて明るさを推定する方法は公知の技術を用いる。この場合、異なる露出設定で撮影された複数の輝度分布が必要になるため、可視カメラで可視画像を撮影する際に、撮影時の露出を変えておくとよい。明るさ推定部6は、推定した明るさを調光制御部7に出力する。   In FIG. 9, the brightness estimating unit 6 estimates the brightness of the indoor space based on the brightness distribution in the visual field area input from the brightness distribution calculating unit 5. The brightness estimation unit 6 calculates the brightness from the brightness distribution with respect to the brightness of each partial area of the human-view visible image or the brightness distribution of the entire human-view visible image. The index indicating brightness includes, for example, average brightness, average illuminance, and sense of brightness. The sense of brightness is an index of brightness that considers the effect of the comparison with the ambient brightness on how people feel, and a known technique is used for estimating the brightness based on the brightness distribution. In this case, since a plurality of brightness distributions taken with different exposure settings are required, it is preferable to change the exposure at the time of shooting a visible image with the visible camera. The brightness estimation unit 6 outputs the estimated brightness to the dimming control unit 7.

調光制御部7は、明るさ推定部6で算出された明るさに基づいて人の視野領域において人が快適と感じる照明空間が得られるように、室内空間の調光制御を行う。調光制御部7は、調光制御を行うにあたり、室内空間の天井、壁、柱などに設置された照明器具のうち調光する照明器具を特定する。そして、調光制御部7は、特定された各照明器具の照度を個別に調整して、調光制御を行う   The dimming control unit 7 performs the dimming control of the indoor space based on the brightness calculated by the brightness estimating unit 6 so that an illumination space that a person feels comfortable in the visual field of the person can be obtained. When performing the dimming control, the dimming control unit 7 identifies a lighting fixture to be dimmed among the lighting fixtures installed on the ceiling, the wall, the pillar, etc. of the indoor space. Then, the dimming control unit 7 individually adjusts the illuminance of each specified lighting fixture to perform dimming control.

例えば、調光制御部7は、平均照度を用いて明るさを制御する場合には、人の視野領域に存在する、または、人の視野領域の周辺に存在する照明器具を制御対象とし、平均照度が所望の値に近づくように照明器具を調光する。そして、照明制御システム210において、明るさ推定部6が推定する明るさが所望の値になるまで、可視画像取得部1における可視画像の取得から調光制御部7における調光制御までの動作を繰り返す。所望の値は、例えば、作業領域が500ルクス、作業領域以外の視野領域が300ルクスなどである。作業領域がオフィスの机上面など、特定できる場合、JIS照度基準を満たす照明環境を本発明の照明制御システムで提供することが可能である。   For example, when the brightness is controlled using the average illuminance, the dimming control unit 7 sets a lighting device existing in the visual field area of the person or around the visual field area of the person as a control target and averaging. Dimming the luminaire so that the illuminance approaches the desired value. Then, in the illumination control system 210, the operations from the acquisition of the visible image by the visible image acquisition unit 1 to the dimming control by the dimming control unit 7 are performed until the brightness estimated by the brightness estimating unit 6 reaches a desired value. repeat. The desired value is, for example, 500 lux for the work area and 300 lux for the visual field area other than the work area. When the work area can be specified such as the desk top surface of an office, it is possible to provide a lighting environment satisfying the JIS illuminance standard with the lighting control system of the present invention.

なお、可視カメラは魚眼可視カメラでなく、通常の可視カメラでもよい。また、可視画像取得部1は複数台の可視カメラで取得した可視画像を合成し、より広い空間を撮像した可視画像を作成してもよい。   The visible camera may be a normal visible camera instead of the fisheye visible camera. The visible image acquisition unit 1 may combine visible images acquired by a plurality of visible cameras to create a visible image of a wider space.

また、可視カメラが撮影し、出力する可視画像はカメラ内で画像処理された後の画像であることがあり、画像処理により輝度を著しく補正した場合には、正しく輝度を推定できないという問題がある。可視カメラを設置する前に、照明測定用に使用される輝度計あるいは分光放射輝度計を用いて被写体の輝度値を複数ポイントで測定し、可視カメラの画像処理特性を推定して、可視画像取得後に測定した輝度値を用いて、画像処理特性を逆補正して可視画像取得部1から出力してもよい。   In addition, the visible image captured and output by the visible camera may be an image that has been subjected to image processing in the camera, and if the luminance is significantly corrected by the image processing, the luminance cannot be correctly estimated. . Before installing a visible camera, measure the brightness value of the subject at multiple points using a luminance meter or spectral radiance meter used for lighting measurement, estimate the image processing characteristics of the visible camera, and obtain a visible image. The image processing characteristic may be inversely corrected and output from the visible image acquisition unit 1 using the brightness value measured later.

このように構成された本実施の形態に係る照明制御システムでは、カメラ視点可視画像から人視点可視画像に画像変換し、この人視点可視画像に基づいて輝度分布や明るさを推定するため、照度センサを用いて室内空間の明るさを推定するよりも、少ないセンサで室内空間の明るさを推定できる。そして、現在の明るさに基づいて調光制御を行うことで、人にとって快適な照明空間を提供できるという効果が得られる。また、昼光が室内空間内に入射した場合に関しても、同様に現在の明るさに基づき照明を調光することで、指定した照明環境を提供できるという効果が得られる。   In the illumination control system according to the present embodiment configured as described above, image conversion is performed from a camera viewpoint visible image to a human viewpoint visible image, and the luminance distribution and brightness are estimated based on the human viewpoint visible image. It is possible to estimate the brightness of the indoor space with a smaller number of sensors than to estimate the brightness of the indoor space using the sensor. Then, by performing the dimming control based on the current brightness, it is possible to provide an effect that a lighting space that is comfortable for a person can be provided. Even when daylight enters the indoor space, the effect of being able to provide the designated illumination environment can be obtained by similarly adjusting the light intensity based on the current brightness.

また、可視画像から人の位置と人の向きとを検出するため、人の視野領域が推定できる。また、可視カメラ設置位置視点の画像を人視点の画像に変換してから輝度分布や明るさを推定するため、人が感じている明るさをより正確に推定できるとともに、室内空間に在室している人が感じる明るさに基づいて調光制御を行うことで、人にとって快適な照明空間を提供できるという効果が得られる。また、昼光が室内空間内に入射した場合に関しても、現在在室している人が感じる明るさに基づいて照明を調光することで、所望の照明環境を提供できるという効果が得られる。   Further, since the position of the person and the direction of the person are detected from the visible image, the visual field area of the person can be estimated. Also, since the brightness distribution and brightness are estimated after converting the image of the visible camera installation position viewpoint image to the human viewpoint image, it is possible to more accurately estimate the brightness felt by a person, and By performing the dimming control based on the brightness that a person feels, an effect that a comfortable illumination space for a person can be provided can be obtained. Further, even when daylight enters the indoor space, a desired lighting environment can be provided by adjusting the lighting based on the brightness felt by the person currently in the room.

実施の形態3.
図10は、本発明を実施するための実施の形態3に係る照明制御システムの構成を示すブロック図である。本実施の形態に係る照明制御システム300は、可視画像取得部1と、人位置・向き検出部2aと、視野領域推定部3、視点変換部4と、輝度分布算出部5と、調光制御部7と、画像蓄積部8と、散乱特性推定部9と、第二視点変換部14とを備えている。画像蓄積部8と散乱特性推定部9と第二視点変換部14とを備える点が実施の形態2と異なる。
Embodiment 3.
FIG. 10 is a block diagram showing the configuration of the illumination control system according to the third embodiment for implementing the present invention. Illumination control system 300 according to the present embodiment includes visible image acquisition unit 1, person position / orientation detection unit 2a, visual field region estimation unit 3, viewpoint conversion unit 4, brightness distribution calculation unit 5, and dimming control. A unit 7, an image storage unit 8, a scattering characteristic estimation unit 9, and a second viewpoint conversion unit 14 are provided. The difference from the second embodiment is that the image storage unit 8, the scattering characteristic estimation unit 9, and the second viewpoint conversion unit 14 are provided.

まず、本実施の形態に係る照明制御システムの構成について説明する。室内空間を俯瞰できる位置、例えば、天井、柱、または壁に室内空間の可視画像を撮影する可視カメラ(図示しない)を設置する。可視カメラは、室内空間を撮影し、撮影した可視画像を撮影時刻とともに可視画像取得部1に出力する。可視画像取得部1は、取得したカメラ視点可視画像を撮影時刻とともに人位置・向き検出部2aと視点変換部4と画像蓄積部8と散乱特性推定部9とへ出力する。   First, the configuration of the lighting control system according to the present embodiment will be described. A visible camera (not shown) for taking a visible image of the indoor space is installed at a position where the indoor space can be overlooked, for example, a ceiling, a pillar, or a wall. The visible camera photographs the interior space and outputs the photographed visible image to the visible image acquisition unit 1 together with the photographing time. The visible image acquisition unit 1 outputs the acquired camera viewpoint visible image to the person position / orientation detection unit 2a, the viewpoint conversion unit 4, the image storage unit 8, and the scattering characteristic estimation unit 9 together with the shooting time.

画像蓄積部8は、可視画像取得部1が取得したカメラ視点可視画像とそのカメラ視点可視画像の撮影時刻とを蓄積する。画像蓄積部8は、人位置・向き検出部2aが指定した撮影時刻のカメラ視点可視画像を人位置・向き検出部2aへ出力する。また、画像蓄積部8は、散乱特性推定部9が指定した撮影時刻のカメラ視点可視画像を散乱特性推定部9へ出力する。   The image storage unit 8 stores the camera viewpoint visible image acquired by the visible image acquisition unit 1 and the shooting time of the camera viewpoint visible image. The image storage unit 8 outputs the camera viewpoint visible image at the photographing time designated by the person position / orientation detection unit 2a to the person position / orientation detection unit 2a. Further, the image storage unit 8 outputs the camera viewpoint visible image at the photographing time designated by the scattering characteristic estimating unit 9 to the scattering characteristic estimating unit 9.

人位置・向き検出部2aは、可視画像取得部1が取得したカメラ視点可視画像と、画像蓄積部8に蓄積されたカメラ視点可視画像とから、室内空間に在室している人の位置と人の向きとを検出する。可視画像取得部1が取得したカメラ視点可視画像と、在室者である人の位置と人の向きとを視野領域推定部3へ出力する。   The human position / orientation detection unit 2a determines the position of a person present in the indoor space from the camera viewpoint visible image acquired by the visible image acquisition unit 1 and the camera viewpoint visible image stored in the image storage unit 8. Detects the direction of a person. The visible image from the camera obtained by the visible image acquisition unit 1 and the position and orientation of the person who is in the room are output to the visual field region estimation unit 3.

視野領域推定部3は、人位置・向き検出部2aから入力されたカメラ視点可視画像と、人位置・向き検出部2aが検出したカメラ視点可視画像における人の位置と人の向きとに基づいて人の視野領域を推定し、カメラ視点可視画像における視野領域を視点変換部4へ出力する。   The visual field region estimation unit 3 is based on the camera viewpoint visible image input from the person position / orientation detection unit 2a and the position and orientation of the person in the camera viewpoint visible image detected by the person position / orientation detection unit 2a. The visual field area of the person is estimated and the visual field area in the camera visual point visible image is output to the visual point conversion unit 4.

視点変換部4は、可視画像取得部1からカメラ視点可視画像を入力し、視野領域推定部3から在室者である人の視野領域を入力する。視点変換部4は、カメラ視点可視画像の全領域のうち人の視野領域に相当する領域の可視画像を抽出するとともに、撮影視点がカメラ設置位置の視点から人の視点になるように、人の視野領域に相当する領域のカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、画像変換する。つまり、視点変換部4は、カメラ視点可視画像を人の視野領域における人視点可視画像に画像変換する。視点変換部4は、画像変換後の人視点可視画像を輝度分布算出部5に出力する。   The viewpoint conversion unit 4 inputs the camera viewpoint visible image from the visible image acquisition unit 1, and inputs the visual field region of the person who is the occupant from the visual field region estimation unit 3. The viewpoint conversion unit 4 extracts the visible image of the area corresponding to the human visual field from the entire area of the camera visual image, and changes the human visual point from the visual point of the camera installation position to the human visual point. Image conversion is performed by performing viewpoint conversion processing from the camera viewpoint visible image in the area corresponding to the visual field area to the human viewpoint visible image. That is, the viewpoint conversion unit 4 performs image conversion of the camera viewpoint visible image into the human viewpoint visible image in the human visual field. The viewpoint conversion unit 4 outputs the human viewpoint visible image after the image conversion to the brightness distribution calculation unit 5.

散乱特性推定部9は、可視画像取得部1が取得したカメラ視点可視画像と、画像蓄積部8に蓄積されたカメラ視点可視画像との中から撮影時刻が異なる複数のカメラ視点可視画像を抽出し、可視画像取得部1が取得したカメラ視点可視画像を構成する複数の部分領域毎に散乱特性を推定する。そして、第二視点変換部14にてカメラ視点可視画像から人視点可視画像へ視点変換処理を施した散乱特性を、輝度分布算出部5へ出力する。   The scattering characteristic estimation unit 9 extracts a plurality of camera viewpoint visible images having different photographing times from the camera viewpoint visible images acquired by the visible image acquisition unit 1 and the camera viewpoint visible images stored in the image storage unit 8. A scattering characteristic is estimated for each of a plurality of partial areas forming the camera viewpoint visible image acquired by the visible image acquisition unit 1. Then, the second viewpoint conversion unit 14 outputs the scattering characteristics obtained by performing the viewpoint conversion processing from the camera viewpoint visible image to the human viewpoint visible image to the luminance distribution calculation unit 5.

輝度分布算出部5は、視点変換部4から入力された人視点可視画像に基づいて視野領域内の輝度分布を算出し、第二視点変換部14から入力された人視点可視画像を構成する部分領域毎の散乱特性と視点変換部4から入力された人視点可視画像内の部分領域毎の視点方向とに基づいて視野領域内の輝度分布を補正する。補正後の視野領域内の輝度分布を調光制御部7へ出力する。調光制御部7は、輝度分布算出部5から入力された輝度分布に基づいて照明器具の調光を制御する。   The luminance distribution calculation unit 5 calculates the luminance distribution in the visual field region based on the human viewpoint visible image input from the viewpoint conversion unit 4, and constitutes the human viewpoint visible image input from the second viewpoint conversion unit 14. The brightness distribution in the visual field area is corrected based on the scattering characteristics for each area and the visual point direction for each partial area in the human visual point visible image input from the visual point conversion unit 4. The corrected luminance distribution in the visual field area is output to the dimming control unit 7. The dimming control unit 7 controls dimming of the lighting fixture based on the brightness distribution input from the brightness distribution calculating unit 5.

次に、動作について説明する。本実施の形態における構成要素のうち、実施の形態2と同じ符号を付した可視画像取得部1と、視野領域推定部3と、視点変換部4と、輝度分布算出部5と、調光制御部7は、それぞれ実施の形態2と同様の動作をするため、本実施の形態では説明を省略する。   Next, the operation will be described. Among the constituent elements in the present embodiment, the visible image acquisition unit 1, the visual field region estimation unit 3, the viewpoint conversion unit 4, the brightness distribution calculation unit 5, and the dimming control, which are assigned the same reference numerals as those in the second embodiment. Since the unit 7 operates in the same manner as in the second embodiment, the description thereof will be omitted in the present embodiment.

可視カメラによって現在のカメラ視点可視画像が撮影される。可視画像取得部1は、可視カメラによって撮影されたカメラ視点可視画像を取得する。可視画像取得部1が取得したカメラ視点可視画像は撮影時刻とともに画像蓄積部8に入力される。画像蓄積部8は、カメラ視点可視画像と撮影時刻とを蓄積する。画像蓄積部8は、人位置・向き検出部2aから、人位置・向き検出部2aが指定した撮影時刻のカメラ視点可視画像の出力要求を受けた場合、該当する撮影時刻のカメラ視点可視画像を位置・向き検出部2aへ出力する。また、画像蓄積部8は、散乱特性推定部9から、散乱特性推定部9が指定した撮影時刻のカメラ視点可視画像の出力要求を受けた場合、該当する撮影時刻のカメラ視点可視画像を散乱特性推定部9へ出力する。   The visible camera captures a current camera viewpoint visible image. The visible image acquisition unit 1 acquires a camera viewpoint visible image captured by a visible camera. The camera viewpoint visible image acquired by the visible image acquisition unit 1 is input to the image storage unit 8 together with the shooting time. The image storage unit 8 stores the camera viewpoint visible image and the shooting time. When the image storage unit 8 receives a request from the human position / orientation detection unit 2a to output a camera viewpoint visible image at the shooting time designated by the human position / orientation detection unit 2a, it outputs the camera viewpoint visible image at the corresponding shooting time. It is output to the position / direction detector 2a. Further, when the image storage unit 8 receives a request from the scattering characteristic estimating unit 9 to output a camera viewpoint visible image at the photographing time designated by the scattering characteristic estimating unit 9, the image accumulation unit 8 scatters the camera viewpoint visible image at the corresponding photographing time. Output to the estimation unit 9.

人位置・向き検出部2aは、可視画像取得部1が取得したカメラ視点可視画像と、画像蓄積部8に蓄積されたカメラ視点可視画像とに基づいて、在室している人の位置と人の向きとを検出する。人位置・向き検出部2aは、画像蓄積部8に対して、可視画像取得部1が取得した撮影時刻より数分ないし数十分前が撮影時刻であるカメラ視点可視画像の出力を要求する。人位置・向き検出部2aは、2枚のカメラ視点可視画像の差分値を算出する。差分値が周辺画素より大きい領域を人として検出し、その領域内の一点の座標を人の位置とする。人の向きの検出方法は、実施の形態2の人位置・向き検出部2が行う検出方法と同様の方法を用いる。また、視野領域を推定方法についても、実施の形態2の視野領域推定部3が行う推定方法と同様の方法を用いる。   The person position / orientation detection unit 2a uses the camera viewpoint visible image acquired by the visible image acquisition unit 1 and the camera viewpoint visible image stored in the image storage unit 8 to detect the position and the person of the person in the room. To detect the direction of. The person position / orientation detection unit 2a requests the image storage unit 8 to output a camera viewpoint visible image whose shooting time is several minutes to several tens of minutes before the shooting time acquired by the visible image acquisition unit 1. The person position / orientation detection unit 2a calculates a difference value between two camera viewpoint visible images. An area in which the difference value is larger than the peripheral pixels is detected as a person, and the coordinates of one point in the area are set as the person's position. As a method for detecting the orientation of the person, the same method as the detection method performed by the person position / orientation detecting unit 2 of the second embodiment is used. Further, as the method of estimating the visual field region, the same method as the estimation method performed by the visual field region estimation unit 3 of the second embodiment is used.

散乱特性推定部9は、撮影時刻が異なる複数枚のカメラ視点可視画像を用いて、カメラ視点可視画像を構成する部分領域毎に、映し出された被写体の散乱特性を推定する。まず、散乱特性推定部9は、画像蓄積部8に対して光源の位置が異なる撮影時刻のカメラ視点可視画像の出力を要求する。光源の位置が異なる撮影時刻とは、例えば、光源を昼光とする場合には、日の出時刻から日没時刻までの一定時間毎の時刻である。また、室内に設置された照明器具を光源とする場合には、被写体に当たる光の角度が異なる照明器具の点灯時刻である。なお、カメラ視点可視画像の枚数は多い方がより正確に散乱特性を推定することが可能である。   The scattering characteristic estimation unit 9 estimates the scattering characteristic of the projected subject for each partial region forming the camera viewpoint visible image using a plurality of camera viewpoint visible images at different photographing times. First, the scattering characteristic estimation unit 9 requests the image storage unit 8 to output a camera viewpoint visible image at a shooting time when the position of the light source is different. The photographing times at which the positions of the light sources are different are, for example, when the light source is daylight, the times at fixed time intervals from the sunrise time to the sunset time. In addition, when a light source installed in a room is used as the light source, it is the lighting time of the light source where the angle of the light hitting the subject is different. Note that the scattering characteristics can be more accurately estimated when the number of visible images from the camera viewpoint is large.

図11に異なる対象面における散乱特性を説明する説明図を示す。図11を用いて、散乱特性の推定方法を説明する。図11の各図は、対象面で反射した光源からの光を可視カメラで撮影した場合、可視カメラに入る光の輝度を示している。図の破線矢印は散乱特性の強度分布を表す。図11の(a1)と(a2)と(a3)、(b1)と(b2)と(b3)、(c1)と(c2)と(c3)はそれぞれ、同じ対象面である。   FIG. 11 is an explanatory diagram illustrating the scattering characteristics on different target surfaces. A method for estimating the scattering characteristic will be described with reference to FIG. Each drawing of FIG. 11 shows the brightness of the light entering the visible camera when the light from the light source reflected by the target surface is photographed by the visible camera. The dashed arrows in the figure represent the intensity distribution of the scattering characteristics. In FIG. 11, (a1), (a2) and (a3), (b1), (b2) and (b3), (c1), (c2) and (c3) are the same target surface.

図11の(a1)と(a2)と(a3)の対象面は、光源の位置に依存せず、可視カメラに入る輝度は一定である。このとき、対象面の散乱特性は均等拡散反射面であると推定する。図11の(b1)と(b2)と(b3)の対象面は、(b2)の場合のみ可視カメラに光が入る。このとき、対象面の散乱特性は、ある特定の方向のみに光を反射する鏡面であると推定し、正反射する方向とともに散乱特性として散乱特性推定部9内に記憶する。図11の(c1)と(c2)と(c3)の対象面は、光源の位置により、可視カメラが捕らえる輝度が異なる。このとき、対象面は散乱面と推定し、光源の入射方向と可視カメラの取得される輝度に基づいて、対象面の反射特性(光を反射する方向と反射光の強度分布)を生成し、散乱特性として散乱特性推定部9内に記憶する。   The target surfaces of (a1), (a2), and (a3) of FIG. 11 do not depend on the position of the light source, and the brightness entering the visible camera is constant. At this time, the scattering characteristic of the target surface is estimated to be a uniform diffuse reflection surface. In the target surfaces of (b1), (b2), and (b3) of FIG. 11, light enters the visible camera only in the case of (b2). At this time, the scattering characteristic of the target surface is estimated to be a mirror surface that reflects light only in a specific direction, and is stored in the scattering characteristic estimation unit 9 as the scattering characteristic together with the direction of specular reflection. In the target surfaces of (c1), (c2), and (c3) of FIG. 11, the brightness captured by the visible camera differs depending on the position of the light source. At this time, the target surface is estimated to be a scattering surface, and based on the incident direction of the light source and the brightness obtained by the visible camera, the reflection characteristics of the target surface (the direction in which light is reflected and the intensity distribution of reflected light) are generated, The scattering characteristic is stored in the scattering characteristic estimation unit 9.

なお、散乱特性推定部9は、散乱特性を推定せずに、カメラ視点可視画像の全領域を均等拡散反射面として、輝度分布算出部5に散乱特性を出力しても良い。   The scattering characteristic estimating unit 9 may output the scattering characteristic to the luminance distribution calculating unit 5 without estimating the scattering characteristic, using the entire region of the camera-view visible image as a uniform diffuse reflection surface.

なお、散乱特性は物体の材質により決定されるものであるため、散乱特性推定部9は、可視カメラが撮影する室内空間に設置された物品が変化しない場合には、散乱特性は変化しない。そのため、散乱特性推定部9は、一旦、カメラ視点可視画像の全領域の散乱特性を推定し、これを蓄積しておくことによって、可視画像取得部1からカメラ視点画像が入力される度に散乱特性を推定する必要はない。なお、カメラ視点可視画像の全領域を均等拡散反射として、輝度分布算出部5に散乱特性を出力する際は、補正係数(輝度比率)が1となる。   Since the scattering characteristic is determined by the material of the object, the scattering characteristic estimating unit 9 does not change the scattering characteristic when the article installed in the indoor space photographed by the visible camera does not change. Therefore, the scattering characteristic estimation unit 9 temporarily estimates the scattering characteristic of the entire area of the camera viewpoint visible image and accumulates the scattering characteristics, so that the scattering characteristics are calculated every time the camera viewpoint image is input from the visible image acquisition unit 1. It is not necessary to estimate the characteristics. When the scattering characteristic is output to the brightness distribution calculation unit 5 with the entire area of the camera viewpoint visible image as uniform diffuse reflection, the correction coefficient (brightness ratio) is 1.

なお、散乱特性推定部9は、カメラ視点可視画像の全領域について、部分領域毎に散乱特性を推定しているが、これに限らず、視野領域推定部3より視野領域を取得し、視野領域についてのみ散乱特性を推定してもよい。ただし、この場合、可視画像取得部1からカメラ視点可視画像が入力される度に毎回散乱特性を推定する必要がある。散乱特性推定部9で推定した散乱特性は、第二視点変換部14にてカメラ視点可視画像から人視点可視画像へ視点変換処理を施して、輝度分布算出部5へ出力される。第二視点変換部14における視点変換処理については、視点変換部4と同じである。   Note that the scattering property estimation unit 9 estimates the scattering property for each partial region for the entire region of the camera viewpoint visible image, but the invention is not limited to this, and the visual field region is acquired from the visual field region estimation unit 3 to obtain the visual field region. The scattering characteristics may be estimated only for. However, in this case, it is necessary to estimate the scattering characteristic each time a visible image from the camera viewpoint is input from the visible image acquisition unit 1. The scattering characteristic estimated by the scattering characteristic estimating unit 9 is subjected to the viewpoint converting process from the camera viewpoint visible image to the human viewpoint visible image in the second viewpoint converting unit 14, and is output to the luminance distribution calculating unit 5. The viewpoint conversion processing in the second viewpoint conversion unit 14 is the same as that of the viewpoint conversion unit 4.

また、散乱特性推定部9は、室内空間に複数箇所に設置された照明器具の配光、光束量をデータベース化した上で、調光制御部7に指令して各照明器具を個別点灯させることにより、各照明器具と対象面から反射した光の強度を取得する。そして、散乱特性推定部9は、照明器具、対象面、および可視画像取得部1の位置関係から、対象面に入射する角度および出射角度を推定し、図6に示すような散乱特性を推定することもできる。その際には、照明器具から出射される光束量の精度を高めるため、光センサを配置しているとさらに好ましい。ここで、対象面は例えば机上面である。   Further, the scattering characteristic estimation unit 9 creates a database of the light distribution and luminous flux amount of the lighting fixtures installed at a plurality of locations in the indoor space, and then instructs the dimming control unit 7 to individually light each lighting fixture. In this way, the intensity of the light reflected from each lighting fixture and the target surface is acquired. Then, the scattering characteristic estimation unit 9 estimates the angle of incidence and the angle of emission from the target surface from the positional relationship among the lighting fixture, the target surface, and the visible image acquisition unit 1, and estimates the scattering characteristic as shown in FIG. You can also In that case, in order to improve the accuracy of the luminous flux emitted from the lighting fixture, it is more preferable to dispose an optical sensor. Here, the target surface is, for example, a desk top surface.

輝度分布算出部5は、視点変換部4から入力された人視点可視画像と散乱特性推定部9から入力された人視点可視画像を構成する部分領域毎の散乱特性とに基づいて視野領域内の輝度分布を算出し、調光制御部7へ出力する。調光制御部7は、輝度分布算出部5から入力された輝度分布に基づいて照明器具の調光を制御する。   The brightness distribution calculation unit 5 calculates the human visual point view image input from the visual point conversion unit 4 and the scattering characteristic of each partial area forming the human visual point visible image input from the scattering characteristic estimation unit 9 within the visual field area. The brightness distribution is calculated and output to the dimming control unit 7. The dimming control unit 7 controls dimming of the lighting fixture based on the brightness distribution input from the brightness distribution calculating unit 5.

図12は、本発明の実施の形態3に係る照明制御システムの別の例の構成を示すブロック図である。図12に示す照明制御システム310では、視野領域の輝度分布に基づいて調光制御を行うのではなく、視野領域の輝度分布に基づいて視野領域の明るさを推定し、視野領域の明るさに基づいて調光制御を行う構成となっている。明るさ推定部6を追加し、散乱特性推定部9を散乱特性・反射率推定部19を変更する構成となっている。   FIG. 12 is a block diagram showing the configuration of another example of the lighting control system according to Embodiment 3 of the present invention. The illumination control system 310 shown in FIG. 12 does not perform the dimming control based on the luminance distribution of the visual field area, but estimates the brightness of the visual field area based on the luminance distribution of the visual field area and determines the brightness of the visual field area. It is configured to perform dimming control based on the above. The brightness estimating unit 6 is added, and the scattering characteristic estimating unit 9 is changed to the scattering characteristic / reflectance estimating unit 19.

散乱特性・反射率推定部19は、可視画像取得部1が取得したカメラ視点可視画像と、画像蓄積部8に蓄積されたカメラ視点可視画像との中から撮影時刻が異なる複数のカメラ視点可視画像を抽出し、可視画像取得部1が取得したカメラ視点可視画像を構成する複数の部分領域毎に散乱特性および反射率を推定する。そして、第二視点変換部14は、散乱特性に対してカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、視点変換処理を施した散乱特性を輝度分布算出部5へ出力する。また、第二視点変換部14は、反射率に対してカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、視点変換処理を施した反射率を明るさ推定部6へ出力する。   The scattering characteristic / reflectance estimation unit 19 uses the camera viewpoint visible images acquired by the visible image acquisition unit 1 and the camera viewpoint visible images accumulated in the image accumulating unit 8 to obtain a plurality of camera viewpoint visible images having different photographing times. And the scattering characteristic and the reflectance are estimated for each of the plurality of partial regions forming the camera viewpoint visible image acquired by the visible image acquiring unit 1. Then, the second viewpoint conversion unit 14 performs viewpoint conversion processing from the camera viewpoint visible image to the human viewpoint visible image with respect to the scattering characteristics, and outputs the scattering characteristics subjected to the viewpoint conversion processing to the luminance distribution calculation unit 5. Further, the second viewpoint conversion unit 14 performs viewpoint conversion processing on the reflectance from the camera viewpoint visible image to the human viewpoint visible image, and outputs the reflectance subjected to the viewpoint conversion processing to the brightness estimation unit 6.

図12において、明るさ推定部6は、輝度分布算出部5から入力された視野領域内の輝度分布に基づいて、室内空間の明るさを推定する。明るさ推定部6では、輝度分布から明るさを人視点可視画像の部分領域毎の輝度または人視点可視画像の全領域の輝度分布に対して算出する。明るさを示す指標は、例えば、平均輝度、平均照度、明るさ感などがある。明るさ感は、周辺輝度との対比が人の感じ方に及ぼす影響を考慮した明るさの指標であり、輝度分布に基づいて明るさを推定する方法は公知の技術を用いる。明るさ推定部6は、推定した明るさを調光制御部7に出力する。   In FIG. 12, the brightness estimating unit 6 estimates the brightness of the indoor space based on the brightness distribution in the visual field area input from the brightness distribution calculating unit 5. The brightness estimation unit 6 calculates the brightness from the brightness distribution with respect to the brightness of each partial area of the human-view visible image or the brightness distribution of the entire human-view visible image. The index indicating brightness includes, for example, average brightness, average illuminance, and sense of brightness. The sense of brightness is an index of brightness that considers the effect of the comparison with the ambient brightness on how people feel, and a known technique is used for estimating the brightness based on the brightness distribution. The brightness estimation unit 6 outputs the estimated brightness to the dimming control unit 7.

調光制御部7は、明るさ推定部6で算出された明るさに基づいて人の視野領域において人が快適と感じる照明空間が得られるように、室内空間の調光制御を行う。調光制御部7は、調光制御を行うにあたり、室内空間の天井、壁、柱などに設置された照明器具のうち調光する照明器具を特定する。そして、調光制御部7は、特定された各照明器具の照度を個別に調整して、調光制御を行う。   The dimming control unit 7 performs the dimming control of the indoor space based on the brightness calculated by the brightness estimating unit 6 so that an illumination space that a person feels comfortable in the visual field of the person can be obtained. When performing the dimming control, the dimming control unit 7 identifies a lighting fixture to be dimmed among the lighting fixtures installed on the ceiling, the wall, the pillar, etc. of the indoor space. Then, the dimming control unit 7 individually adjusts the illuminance of each of the identified lighting fixtures to perform dimming control.

なお、本実施の形態においては、人位置・向き検出部2aと視野領域推定部3とによって、人の視野領域を推定しているが、実施の形態1と同様に、外部から在室者である人の視野領域を入力してもよい。   In the present embodiment, the human position / orientation detection unit 2a and the visual field region estimation unit 3 estimate the human visual field region. You may input the visual field area of a person.

このように構成された実施の形態に係る照明制御システムでは、可視画像を蓄積する画像蓄積部8を備えるため、撮影時刻が異なる複数枚のカメラ視点可視画像を用いて部分領域毎の散乱特性を推定することが可能になる。このため、予め室内空間の部分領域毎の散乱特性を計測しデータベースとして保持したり、室内空間に設置される机、棚等の備品が変更になる度に散乱特性を計測し直したりする必要がなくなるという効果が得られる。   In the illumination control system according to the embodiment configured as described above, since the image storage unit 8 that stores the visible image is provided, the scattering characteristic for each partial area is determined by using a plurality of camera viewpoint visible images at different photographing times. It is possible to estimate. For this reason, it is necessary to measure the scattering characteristics for each partial area of the indoor space in advance and store it as a database, or to re-measure the scattering characteristics every time the equipment such as desks and shelves installed in the indoor space is changed. The effect of disappearing is obtained.

また、散乱特性・反射率推定部19は、室内空間に複数箇所に設置された照明器具の配光、光束量をデータベース化した上で、調光制御部7に指令して各照明器具を個別点灯させることにより、各照明器具と対象面から反射した光の強度を取得する。そして、散乱特性・反射率推定部19は、照明器具、対象面、および可視画像取得部1の位置関係から、対象面に入射する角度および出射角度を推定し、図6に示すような散乱特性を推定することができる。この結果、予め空間の部分領域毎の散乱特性と反射率を計測しデータベースとして保持する必要がなくなる効果が得られる。さらに、深夜等の人が居ない時間帯に散乱特性と反射率とを推定することにより、効率的に補正を行うことが可能となる。   In addition, the scattering characteristic / reflectance estimation unit 19 creates a database of light distributions and luminous flux amounts of the lighting fixtures installed at a plurality of locations in the indoor space, and then instructs the dimming control unit 7 to individually control each lighting fixture. By turning on the light, the intensity of light reflected from each lighting fixture and the target surface is acquired. Then, the scattering characteristic / reflectance estimation unit 19 estimates the angle of incidence and the angle of exit from the target surface from the positional relationship among the lighting fixture, the target surface, and the visible image acquisition unit 1, and the scattering characteristic as shown in FIG. Can be estimated. As a result, it is possible to obtain the effect that it is not necessary to measure the scattering characteristic and the reflectance for each partial area of the space in advance and store them as a database. Furthermore, by estimating the scattering characteristic and the reflectance in a time zone such as midnight when there is no person, it becomes possible to perform the correction efficiently.

また、実施の形態に係る照明制御システムでは、複数枚の可視画像を用いて人の位置または人の向きをより正確に検出できるという効果が得られる。   In addition, the illumination control system according to the embodiment has an effect of more accurately detecting the position of a person or the direction of a person using a plurality of visible images.

実施の形態4.
図13は、本発明を実施するための実施の形態4に係る照明制御システムの構成を示すブロック図である。本実施の形態に係る照明制御システム400は、可視画像取得部1と、視点変更部24と、輝度分布算出部5aと、明るさ推定部6aと、調光制御部7と、画像蓄積部8と、反射率推定部29とを備えている。本実施の形態は、明るさ推定部6aを備えた点、人位置・向き検出部2aと視野領域推定部3と第二視点変更部24とを備えない点が、視点変換部4の代わりに視点変更部24に置き換え、散乱特性9の代わりに反射率推定部29に置き換えた点が実施の形態3と異なる。
Fourth Embodiment
FIG. 13 is a block diagram showing the configuration of the illumination control system according to the fourth embodiment for implementing the present invention. Illumination control system 400 according to the present embodiment includes visible image acquisition unit 1, viewpoint changing unit 24, brightness distribution calculation unit 5a, brightness estimation unit 6a, dimming control unit 7, and image storage unit 8. And a reflectance estimation unit 29. The present embodiment is different from the viewpoint conversion unit 4 in that it includes the brightness estimation unit 6a and does not include the person position / orientation detection unit 2a, the visual field region estimation unit 3, and the second viewpoint change unit 24. The third embodiment is different from the third embodiment in that the viewpoint changing unit 24 is used and the reflectance estimating unit 29 is used instead of the scattering characteristic 9.

まず、本実施の形態に係る照明制御システムの構成について説明する。室内空間を俯瞰できる位置、例えば、天井、柱、または壁に室内空間の可視画像を撮影する可視カメラ(図示しない)を設置する。可視カメラは、室内空間を撮影し、撮影した可視画像を撮影時刻とともに可視画像取得部1に出力する。可視画像取得部1は、取得したカメラ視点可視画像を撮影時刻とともに視点変更部24と画像蓄積部8とに送る。画像蓄積部8は、可視画像取得部1が取得したカメラ視点可視画像とそのカメラ視点可視画像の撮影時刻とを蓄積する。画像蓄積部8は、反射率推定部29が指定した撮影時刻のカメラ視点可視画像を反射率推定部29に出力する。   First, the configuration of the lighting control system according to the present embodiment will be described. A visible camera (not shown) for taking a visible image of the indoor space is installed at a position where the indoor space can be overlooked, for example, a ceiling, a pillar, or a wall. The visible camera photographs the interior space and outputs the photographed visible image to the visible image acquisition unit 1 together with the photographing time. The visible image acquisition unit 1 sends the acquired camera viewpoint visible image to the viewpoint changing unit 24 and the image storage unit 8 together with the shooting time. The image storage unit 8 stores the camera viewpoint visible image acquired by the visible image acquisition unit 1 and the shooting time of the camera viewpoint visible image. The image storage unit 8 outputs the camera viewpoint visible image at the shooting time designated by the reflectance estimation unit 29 to the reflectance estimation unit 29.

視点変更部24は、可視画像取得部1からカメラ視点可視画像を入力し、カメラ視点可視画像における作業領域を外部入力する。視点変更部24は、可視画像取得部1が取得したカメラ視点可視画像から、外部入力されたカメラ視点可視画像における作業領域に相当する領域(図3のd2に対応する領域)の可視画像を抽出する。この可視画像は、カメラ視点可視画像から人の視野内の作業領域に対応する領域の画像を切り出した画像(以下、作業領域可視画像と称す)である。視点変更部24は抽出後の作業領域可視画像を輝度分布算出部5aに出力する。   The viewpoint changing unit 24 inputs the camera viewpoint visible image from the visible image acquiring unit 1 and externally inputs the work area in the camera viewpoint visible image. The viewpoint changing unit 24 extracts a visible image of a region (a region corresponding to d2 in FIG. 3) corresponding to a work region in the externally input camera viewpoint visible image from the camera viewpoint visible image acquired by the visible image acquiring unit 1. To do. This visible image is an image (hereinafter referred to as a work area visible image) obtained by cutting out an image of an area corresponding to the work area in the visual field of a person from the camera viewpoint visible image. The viewpoint changing unit 24 outputs the extracted work area visible image to the brightness distribution calculating unit 5a.

輝度分布算出部5aは、視点変更部24から入力された作業領域可視画像に基づいて作業領域内の輝度分布を算出し、算出した輝度分布を明るさ推定部6aに出力する。   The brightness distribution calculation unit 5a calculates the brightness distribution in the work area based on the work area visible image input from the viewpoint changing unit 24, and outputs the calculated brightness distribution to the brightness estimation unit 6a.

反射率推定部29は、可視画像取得部1が取得したカメラ視点可視画像と、画像蓄積部8に蓄積されたカメラ視点可視画像との中から撮影時刻が異なる複数のカメラ視点可視画像を抽出し、可視画像取得部1が取得したカメラ視点可視画像を構成する複数の部分領域毎に反射率を推定する。   The reflectance estimation unit 29 extracts a plurality of camera viewpoint visible images having different photographing times from the camera viewpoint visible images acquired by the visible image acquisition unit 1 and the camera viewpoint visible images stored in the image storage unit 8. The reflectance is estimated for each of a plurality of partial regions forming the camera viewpoint visible image acquired by the visible image acquiring unit 1.

明るさ推定部6aは、輝度分布算出部5aから入力された作業領域内の輝度分布と、反射率推定部29から入力されたカメラ視点可視画像を構成する部分領域毎の反射率とに基づいて、室内空間の明るさを推定し、推定した明るさを調光制御部7に出力する。調光制御部7は、明るさ推定部6aから入力された明るさに基づいて照明器具の調光を制御する。   The brightness estimation unit 6a is based on the brightness distribution in the work area input from the brightness distribution calculation unit 5a and the reflectance of each partial area forming the camera viewpoint visible image input from the reflectance estimation unit 29. , Estimates the brightness of the indoor space, and outputs the estimated brightness to the dimming control unit 7. The dimming control unit 7 controls the dimming of the lighting fixture based on the brightness input from the brightness estimating unit 6a.

次に、動作について説明する。本実施の形態における構成要素のうち、実施の形態3と同じ符号を付した可視画像取得部1と、調光制御部7と、画像蓄積部8とは、それぞれ実施の形態3と同様の動作をするため、本実施の形態では説明を省略する。本実施の形態における視点変更部24は、実施の形態3における視点変換部4のように、視点変換処理は行わず、外部から入力された作業領域の抽出処理のみを実施する。   Next, the operation will be described. Among the constituent elements in the present embodiment, the visible image acquisition unit 1, the dimming control unit 7, and the image storage unit 8, which have the same reference numerals as those in the third embodiment, operate in the same manner as in the third embodiment. Therefore, the description is omitted in this embodiment. The viewpoint changing unit 24 in the present embodiment does not perform the viewpoint converting process like the viewpoint converting unit 4 in the third embodiment, but only performs the extracting process of the work area input from the outside.

本実施の形態における輝度分布算出部5aは、散乱特性が入力されない点が実施の形態3における輝度分布算出部5と異なる。このため、輝度分布算出部5aは、実施の形態3における輝度分布算出部5が行う算出方法と同様の方法で、視点変更部24から入力された作業領域可視画像から輝度分布を算出するが、散乱特性による輝度分布の補正処理は行わない。   The brightness distribution calculation unit 5a in the present embodiment differs from the brightness distribution calculation unit 5 in Embodiment 3 in that the scattering characteristic is not input. Therefore, the brightness distribution calculation unit 5a calculates the brightness distribution from the work area visible image input from the viewpoint changing unit 24 by the same method as the calculation method performed by the brightness distribution calculation unit 5 in the third embodiment. The correction processing of the luminance distribution based on the scattering characteristic is not performed.

反射率推定部29は、散乱特性ではなく、カメラ視点可視画像内の部分領域毎の反射率を推定する。反射率は、光源の輝度に対する可視カメラの受光輝度である。可視カメラの受光輝度は、可視画像取得部1が取得したカメラ視点可視画像の各画素値の輝度であり、輝度分布算出部5aが行う算出方法と同様の方法を用いて算出する。一方、光源の輝度は、光源の輝度を測定する輝度センサを別途設けて測定する必要があり、この測定値を光源の輝度として反射率の算出に使用する。算出されたカメラ視点可視画像の反射率は明るさ推定部6aに入力される。   The reflectance estimation unit 29 estimates the reflectance for each partial area in the camera viewpoint visible image, not the scattering characteristic. The reflectance is the light-receiving luminance of the visible camera with respect to the luminance of the light source. The light reception brightness of the visible camera is the brightness of each pixel value of the camera viewpoint visible image acquired by the visible image acquisition unit 1, and is calculated using the same method as the calculation method performed by the brightness distribution calculation unit 5a. On the other hand, the brightness of the light source needs to be measured by separately providing a brightness sensor for measuring the brightness of the light source, and this measured value is used as the brightness of the light source for calculating the reflectance. The calculated reflectance of the camera viewpoint visible image is input to the brightness estimation unit 6a.

明るさ推定部6aは、輝度分布算出部5aで算出された輝度分布と反射率推定部29で推定された反射率から、明るさとしての照度を推定する。反射率推定部29から出力される反射率はカメラ視点可視画像の全領域の反射率であり、輝度分布算出部5aから入力される輝度分布はカメラ視点可視画像のうち作業領域に相当する領域のカメラ視点可視画像であるため、対象領域が異なる。このため、明るさ推定部6aにおいて照度を算出する際は、対象領域を同じにする必要がある。したがって、反射率推定部29から出力されたカメラ視点可視画像の反射率分布から作業領域に相当する領域を抽出してから、照度を算出する。照度Eは、反射率をρ、輝度をLとして、式(2)を用いて算出できる。
E=π/ρ×L ・・・(2)
The brightness estimation unit 6a estimates the illuminance as brightness from the brightness distribution calculated by the brightness distribution calculation unit 5a and the reflectance estimated by the reflectance estimation unit 29. The reflectance output from the reflectance estimation unit 29 is the reflectance of the entire area of the camera viewpoint visible image, and the luminance distribution input from the luminance distribution calculation unit 5a is of the area corresponding to the work area of the camera viewpoint visible image. Since the images are visible from the camera viewpoint, the target area is different. Therefore, when the illuminance is calculated by the brightness estimation unit 6a, the target areas need to be the same. Therefore, the illuminance is calculated after extracting a region corresponding to the work region from the reflectance distribution of the camera viewpoint visible image output from the reflectance estimation unit 29. The illuminance E can be calculated using equation (2), where ρ is the reflectance and L is the brightness.
E = π / ρ × L (2)

明るさ推定部6aで算出された照度は調光制御部7に入力される。調光制御部7は、人の視野領域において人が快適と感じる照明空間が得られるように、明るさ推定部6で算出された照度が所望の値になるよう照明器具の調光を制御する。調光制御部7は、調光制御を行うにあたり、室内空間の天井、壁、柱などに設置された照明器具のうち調光する照明器具を特定する。そして、調光制御部7は、特定された各照明器具の照度を個別に調整して、調光制御を行う   The illuminance calculated by the brightness estimation unit 6a is input to the dimming control unit 7. The dimming control unit 7 controls the dimming of the luminaire so that the illuminance calculated by the brightness estimating unit 6 has a desired value so that an illumination space that a person feels comfortable in the visual field of the person can be obtained. . When performing the dimming control, the dimming control unit 7 identifies a lighting fixture to be dimmed among the lighting fixtures installed on the ceiling, the wall, the pillar, etc. of the indoor space. Then, the dimming control unit 7 individually adjusts the illuminance of each specified lighting fixture to perform dimming control.

なお、視点変更部24に入力される作業領域は、在室している人の作業領域、例えば、作業机の領域であってもよい。この場合、本実施の形態に係る照明制御システムによって、机上面を所望の照明環境に出来るという効果が得られる。在室者の明るさの感じ方に関わらず、JIS規格で定められた照度基準があり、明るさ推定部6aで輝度分布から推定する明るさを平均照度すると、机上面を照度基準以上の照明環境に保つ照明制御システムを提供できる。   The work area input to the viewpoint changing unit 24 may be a work area of a person in the room, for example, a work desk area. In this case, the lighting control system according to the present embodiment has an effect that the desk top surface can be set to a desired lighting environment. Regardless of how the brightness of the person in the room is perceived, there is an illuminance standard defined by the JIS standard, and if the average brightness of the brightness estimated from the brightness distribution in the brightness estimating unit 6a is equal to or higher than the illuminance standard. It is possible to provide a lighting control system that keeps the environment.

このように構成された実施の形態に係る照明制御システムでは、可視画像を蓄積する画像蓄積部8を備えるため、撮影時刻が異なる複数枚のカメラ視点可視画像を用いて部分領域毎反射率を推定することが可能になる。このため、予め室内空間の部分領域毎の反射率を計測しデータベースとして保持したり、室内空間に設置される机、棚等の備品が変更になる度に反射率を計測し直したりする必要がなくなるという効果が得られる。   The illumination control system according to the embodiment configured as described above includes the image storage unit 8 that stores a visible image, and thus the reflectance for each partial region is estimated using a plurality of camera viewpoint visible images at different shooting times. It becomes possible to do. Therefore, it is necessary to measure the reflectance for each partial area of the indoor space in advance and store it as a database, or to re-measure the reflectance every time the equipment such as a desk or a shelf installed in the indoor space is changed. The effect of disappearing is obtained.

実施の形態5.
図14は、この発明を実施するための実施の形態5に係る照明制御システムの構成を示すブロック図である。本実施の形態に係る照明制御システム500は、可視画像取得部1と、人位置・向き検出部2aと、視野領域推定部3aと、視点変換部4と、輝度分布算出部5と、明るさ推定部6aと、調光制御部7と、画像蓄積部8と、散乱特性・反射率推定部19と、パーティション位置推定部10とを備えている。パーティション位置推定部10を備える点が実施の形態3の別の例と異なる。
Embodiment 5.
FIG. 14 is a block diagram showing the configuration of the illumination control system according to the fifth embodiment for carrying out the present invention. Illumination control system 500 according to the present embodiment includes visible image acquisition unit 1, person position / orientation detection unit 2a, visual field region estimation unit 3a, viewpoint conversion unit 4, brightness distribution calculation unit 5, and brightness. The estimation unit 6a, the dimming control unit 7, the image storage unit 8, the scattering characteristic / reflectance estimation unit 19, and the partition position estimation unit 10 are provided. The difference from the other example of the third embodiment is that the partition position estimation unit 10 is provided.

まず、本実施の形態に係る照明制御システムの構成について説明する。室内空間を俯瞰できる位置、例えば、天井、柱、または壁に室内空間の可視画像を撮影する可視カメラ(図示しない)を設置する。可視カメラは、室内空間を撮影し、撮影した可視画像を撮影時刻とともに可視画像取得部1に出力する。可視画像取得部1は、取得したカメラ視点可視画像を撮影時刻とともに人位置・向き検出部2aと視点変換部4と画像蓄積部8と散乱特性・反射率推定部19とパーティション位置推定部10とへ出力する。   First, the configuration of the lighting control system according to the present embodiment will be described. A visible camera (not shown) for taking a visible image of the indoor space is installed at a position where the indoor space can be overlooked, for example, a ceiling, a pillar, or a wall. The visible camera photographs the interior space and outputs the photographed visible image to the visible image acquisition unit 1 together with the photographing time. The visible image acquisition unit 1 includes a human position / orientation detection unit 2a, a viewpoint conversion unit 4, an image storage unit 8, a scattering characteristic / reflectance estimation unit 19, and a partition position estimation unit 10 together with the captured camera visual point visual image. Output to.

画像蓄積部8は、可視画像取得部1が取得したカメラ視点可視画像とそのカメラ視点可視画像の撮影時刻とを蓄積する。画像蓄積部8は、人位置・向き検出部2が指定した撮影時刻のカメラ視点可視画像を人位置・向き検出部2aへ出力する。また、画像蓄積部8は、散乱特性・反射率推定部19が指定した撮影時刻のカメラ視点可視画像を散乱特性・反射率推定部19へ出力する。また、画像蓄積部8は、パーティション位置推定部10が指定した撮影時刻のカメラ視点可視画像をパーティション位置推定部10へ出力する。   The image storage unit 8 stores the camera viewpoint visible image acquired by the visible image acquisition unit 1 and the shooting time of the camera viewpoint visible image. The image storage unit 8 outputs the camera viewpoint visible image at the photographing time designated by the person position / orientation detection unit 2 to the person position / orientation detection unit 2a. Further, the image storage unit 8 outputs the camera viewpoint visible image at the photographing time designated by the scattering characteristic / reflectance estimating unit 19 to the scattering characteristic / reflectance estimating unit 19. Further, the image storage unit 8 outputs the camera viewpoint visible image at the shooting time designated by the partition position estimation unit 10 to the partition position estimation unit 10.

人位置・向き検出部2aは、可視画像取得部1が取得したカメラ視点可視画像と、画像蓄積部8に蓄積されたカメラ視点可視画像とから、室内空間に在室している人の位置と人の向きとを検出する。可視画像取得部1が取得したカメラ視点可視画像と、在室者である人の位置と人の向きとを視野領域推定部3aへ出力する。   The human position / orientation detection unit 2a determines the position of a person present in the indoor space from the camera viewpoint visible image acquired by the visible image acquisition unit 1 and the camera viewpoint visible image stored in the image storage unit 8. Detects the direction of a person. The camera viewpoint visible image acquired by the visible image acquisition unit 1 and the position and direction of the person who is in the room are output to the visual field region estimation unit 3a.

パーティション位置推定部10は、可視画像取得部1が取得したカメラ視点可視画像と、画像蓄積部8に蓄積されたカメラ視点可視画像との中から撮影時刻が異なる複数のカメラ視点可視画像を抽出し、撮影時刻が異なる複数のカメラ視点可視画像に基づいて室内に配置されるパーティションの位置を推定し、視野領域推定部3aに出力する。   The partition position estimation unit 10 extracts a plurality of camera viewpoint visible images having different shooting times from the camera viewpoint visible images acquired by the visible image acquisition unit 1 and the camera viewpoint visible images stored in the image storage unit 8. The position of the partition arranged in the room is estimated based on a plurality of camera viewpoint visible images at different photographing times, and is output to the visual field region estimation unit 3a.

視野領域推定部3aは、人位置・向き検出部2aから入力されたカメラ視点可視画像と、位置・向き検出部2aが検出したカメラ視点可視画像における人の位置と人の向きと、パーティション位置推定部10から入力されたパーティションの位置とに基づいて人の視野領域を推定し、カメラ視点可視画像における視野領域を視点変換部4へ出力する。   The visual field region estimation unit 3a estimates the camera viewpoint visible image input from the human position / orientation detection unit 2a, the position and orientation of the person in the camera viewpoint visible image detected by the position / orientation detection unit 2a, and partition position estimation. The visual field area of the person is estimated based on the position of the partition input from the unit 10, and the visual field area in the camera visual point visible image is output to the visual point conversion unit 4.

視点変換部4は、可視画像取得部1からカメラ視点可視画像を入力し、視野領域推定部3から在室者である人の視野領域を入力する。視点変換部4は、カメラ視点可視画像の全領域のうち人の視野領域に相当する領域の可視画像を抽出するとともに、撮影視点がカメラ設置位置の視点から人の視点になるように、人の視野領域に相当する領域のカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、画像変換する。つまり、視点変換部4は、カメラ視点可視画像を人の視野領域における人視点可視画像に画像変換する。視点変換部4は、画像変換後の人視点可視画像を輝度分布算出部5に出力する。   The viewpoint conversion unit 4 inputs the camera viewpoint visible image from the visible image acquisition unit 1, and inputs the visual field region of the person who is the occupant from the visual field region estimation unit 3. The viewpoint conversion unit 4 extracts the visible image of the area corresponding to the human visual field from the entire area of the camera visual image, and changes the human visual point from the visual point of the camera installation position to the human visual point. Image conversion is performed by performing viewpoint conversion processing from the camera viewpoint visible image in the area corresponding to the visual field area to the human viewpoint visible image. That is, the viewpoint conversion unit 4 performs image conversion of the camera viewpoint visible image into the human viewpoint visible image in the human visual field. The viewpoint conversion unit 4 outputs the human viewpoint visible image after the image conversion to the brightness distribution calculation unit 5.

散乱特性・反射率推定部19は、可視画像取得部1が取得したカメラ視点可視画像と、画像蓄積部8に蓄積されたカメラ視点可視画像との中から撮影時刻が異なる複数のカメラ視点可視画像を抽出し、可視画像取得部1が取得したカメラ視点可視画像を構成する複数の部分領域毎に散乱特性および反射率を推定する。そして、第二視点変換部14は、散乱特性に対してカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、視点変換処理を施した散乱特性を輝度分布算出部5へ出力する。また、第二視点変換部14は、反射率に対してカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、視点変換処理を施した反射率を明るさ推定部6aへ出力する。   The scattering characteristic / reflectance estimation unit 19 uses the camera viewpoint visible images acquired by the visible image acquisition unit 1 and the camera viewpoint visible images accumulated in the image accumulating unit 8 to obtain a plurality of camera viewpoint visible images having different photographing times. And the scattering characteristic and the reflectance are estimated for each of the plurality of partial regions forming the camera viewpoint visible image acquired by the visible image acquiring unit 1. Then, the second viewpoint conversion unit 14 performs viewpoint conversion processing from the camera viewpoint visible image to the human viewpoint visible image with respect to the scattering characteristics, and outputs the scattering characteristics subjected to the viewpoint conversion processing to the luminance distribution calculation unit 5. Further, the second viewpoint conversion unit 14 performs viewpoint conversion processing on the reflectance from the camera viewpoint visible image to the human viewpoint visible image, and outputs the reflectance subjected to the viewpoint conversion processing to the brightness estimation unit 6a.

輝度分布算出部5は、視点変換部4から入力された人視点可視画像に基づいて視野領域内の輝度分布を算出し、第二視点変換部14から入力された人視点可視画像を構成する部分領域毎の散乱特性と視点変換部4から入力された人視点可視画像内の部分領域毎の視点方向とに基づいて視野領域内の輝度分布を補正する。補正後の視野領域内の輝度分布を明るさ推定部6aへ出力する。   The luminance distribution calculation unit 5 calculates the luminance distribution in the visual field region based on the human viewpoint visible image input from the viewpoint conversion unit 4, and constitutes the human viewpoint visible image input from the second viewpoint conversion unit 14. The brightness distribution in the visual field area is corrected based on the scattering characteristics for each area and the visual point direction for each partial area in the human visual point visible image input from the visual point conversion unit 4. The corrected luminance distribution in the visual field area is output to the brightness estimation unit 6a.

明るさ推定部6aは、輝度分布算出部5から入力された視野領域内の輝度分布と、第二視点変換部14から入力された人視点可視画像における部分領域毎の反射率とに基づいて空間の明るさを推定し、推定した明るさを調光制御部7に出力する。調光制御部7は、明るさ推定部6aから入力された明るさに基づいて照明器具の調光を制御する。   The brightness estimation unit 6a calculates the space based on the brightness distribution in the visual field region input from the brightness distribution calculation unit 5 and the reflectance of each partial region in the human-view visible image input from the second viewpoint conversion unit 14. Brightness is estimated, and the estimated brightness is output to the dimming control unit 7. The dimming control unit 7 controls the dimming of the lighting fixture based on the brightness input from the brightness estimating unit 6a.

なお、図15に示す照明制御システム510のように、明るさ推定部6aを使用せず、輝度分布算出部5で算出された視野領域内の輝度分布を調光制御部7に出力してもよい。この場合、調光制御部7は、輝度分布算出部5から入力された輝度分布に基づいて照明器具の調光を制御する。   Note that, unlike the illumination control system 510 shown in FIG. 15, even if the brightness distribution in the visual field calculated by the brightness distribution calculation unit 5 is output to the dimming control unit 7 without using the brightness estimation unit 6a. Good. In this case, the dimming control unit 7 controls the dimming of the luminaire based on the brightness distribution input from the brightness distribution calculating unit 5.

次に、動作について説明する。図16は、本発明の実施の形態5に係る照明制御システムの動作を説明するフローチャートである。まず、可視カメラによって現在のカメラ視点可視画像が撮影される。可視画像取得部1は、可視カメラによって撮影されたカメラ視点可視画像を取得する。可視画像取得部1から現在のカメラ視点可視画像が、パーティション位置推定部10に入力される(ステップS11)。パーティション位置推定部10では、ステップS12からステップS15までの処理が行われる。   Next, the operation will be described. FIG. 16 is a flowchart illustrating an operation of the lighting control system according to the fifth embodiment of the present invention. First, a visible image of the current camera viewpoint is captured by the visible camera. The visible image acquisition unit 1 acquires a camera viewpoint visible image captured by a visible camera. The current visible image of the camera viewpoint is input from the visible image acquisition unit 1 to the partition position estimation unit 10 (step S11). The partition position estimation unit 10 performs the processing from step S12 to step S15.

現在のカメラ視点可視画像と別日同時刻のカメラ視点可視画像とを用いて、各画像のエッジを抽出する(ステップS12)。次に、パーティションの位置に変更があったか否かを判断する(ステップS13)。2つの画像のエッジの差分値が所定の閾値を上回った場合、可視カメラが撮影した物体が大きく移動した、すなわち、室内空間のレイアウトが変更され、パーティションの位置に変更があったと判断して、ステップS14に進む。一方、エッジの差分値が所定の閾値以下であった場合、パーティションの位置に変更はなかったと判断してステップS16に進む。   An edge of each image is extracted using the current camera viewpoint visible image and the camera viewpoint visible image at the same time on another day (step S12). Next, it is determined whether or not the position of the partition has been changed (step S13). When the difference value between the edges of the two images exceeds a predetermined threshold value, it is determined that the object photographed by the visible camera has moved significantly, that is, the layout of the indoor space has been changed and the position of the partition has been changed. It proceeds to step S14. On the other hand, when the edge difference value is less than or equal to the predetermined threshold value, it is determined that the partition position has not been changed, and the process proceeds to step S16.

カメラ視点可視画像におけるパーティションの位置を推定する(ステップS14)。パーティションの位置の推定方法については、後で説明する。ステップS14で推定したパーティションの位置を保存し(ステップS15)、ステップS16に進む。   The position of the partition in the camera viewpoint visible image is estimated (step S14). The method of estimating the position of the partition will be described later. The position of the partition estimated in step S14 is saved (step S15), and the process proceeds to step S16.

散乱特性・反射率推定部19では、ステップS16からステップS19までの処理が行われる。現在のカメラ視点可視画像と同日の別時間帯に撮影された部分領域毎のカメラ視点可視画像の差分を算出する(ステップS16)。そして、ステップS16で算出した部分領域毎のカメラ視点可視画像の差分の傾向を見て、散乱特性と反射率とに変更があるか否かを判定する(ステップS17)。特定の領域だけ極端に差分が大きい場合に、ステップS18に進み、散乱特性と反射率とに変更があったと推定し(ステップS18)、推定した散乱特性と反射率とを保存する(ステップS19)。ステップS17で散乱特性と反射率とに変更がないと判定した場合には、ステップS20に進む、なお、散乱特性と反射率との変更は、カメラ可視画像の差分値を用いて判定する例を説明したが、ステップS13と同様にエッジの差分値を用いて判定してもいい。   The scattering characteristic / reflectance estimation unit 19 performs the processing from step S16 to step S19. The difference between the current camera viewpoint visible image and the camera viewpoint visible image for each partial area captured in another time zone on the same day is calculated (step S16). Then, it is determined whether or not there is a change in the scattering characteristic and the reflectance by looking at the tendency of the difference between the camera viewpoint visible images for each partial area calculated in step S16 (step S17). When the difference is extremely large only in the specific region, the process proceeds to step S18, it is estimated that the scattering characteristic and the reflectance are changed (step S18), and the estimated scattering characteristic and the reflectance are stored (step S19). . If it is determined in step S17 that there is no change in the scattering characteristic and the reflectance, the process proceeds to step S20. Note that the change in the scattering characteristic and the reflectance is determined using the difference value of the camera visible image. Although described, the determination may be performed using the edge difference value as in step S13.

人位置・向き検出部2aでは、現時刻のカメラ視点可視画像と数分または数十分前のカメラ視点可視画像とから、人の位置と人の向きとを検出する(ステップS20)。視野領域推定部3aでは、人の視野領域を推定する(ステップS21)。なお、パーティションの位置が人の視野領域内にある場合には、パーティションの高さに応じて、視野領域を補正する。例えば、パーティションが人の目線より高いと推定される場合には、パーティションの向こう側は人から見えないため、人の視野領域のうち、パーティションを隔てて人の位置の反対側は人の視野領域から除外する。パーティションが人の目線より低い場合であっても、人の視野領域のうち、パーティションを隔てて人の位置の反対側の領域は、カメラ視点と人視点とで見え方が異なることがあるため、信憑性の指標を新たに設け、同領域の信憑性をパーティションの高さに応じて設定してもよい。   The person position / orientation detecting unit 2a detects the person's position and the person's orientation from the camera viewpoint visible image at the current time and the camera viewpoint visible image several minutes or tens of minutes ago (step S20). The visual field estimation unit 3a estimates the visual field of a person (step S21). If the position of the partition is within the visual field of the person, the visual field is corrected according to the height of the partition. For example, if the partition is estimated to be higher than the person's line of sight, the other side of the partition is not visible to the person, and the other side of the person's visual field across the partition is the person's visual field. Exclude from. Even if the partition is lower than the person's line of sight, the area on the opposite side of the person's position across the partition in the human visual field may look different between the camera viewpoint and the human viewpoint. A credibility index may be newly provided and credibility of the same area may be set according to the height of the partition.

視点変換部4では、カメラ視点可視画像の全領域のうち人の視野領域に相当する領域の可視画像を抽出するとともに、撮影視点がカメラ設置位置の視点から人の視点になるように、人の視野領域に相当する領域のカメラ視点可視画像から人視点可視画像へ視点変換処理を施し、画像変換する(ステップS22)。輝度分布算出部5では、人視点可視画像と散乱特性とに基づいて視野領域内の輝度分布を算出する(ステップS23)。明るさ推定部6aでは、視野領域内の輝度分布と反射率とに基づいて明るさを推定する(ステップS24)。反射率は明るさとして照度を算出する際に用いる。調光制御部7では、調光する照明器具を特定し(ステップS25)、最後に照明器具の調光を制御する(ステップS26)。   The viewpoint conversion unit 4 extracts the visible image of the area corresponding to the human visual field from the entire area of the camera visual image, and changes the human visual point from the visual point of the camera installation position to the human visual point. Viewpoint conversion processing is performed from the camera viewpoint visible image in the area corresponding to the visual field area to the human viewpoint visible image to perform image conversion (step S22). The brightness distribution calculation unit 5 calculates the brightness distribution in the visual field based on the human-view visible image and the scattering characteristics (step S23). The brightness estimation unit 6a estimates the brightness based on the brightness distribution and the reflectance within the visual field area (step S24). The reflectance is used when calculating the illuminance as the brightness. The dimming control unit 7 identifies the lighting fixture to be dimmed (step S25), and finally controls the dimming of the lighting fixture (step S26).

図17は、本発明の実施の形態5に係る照明制御システムにおけるパーティション位置推定部10の動作を説明する説明図である。図17の(a1)と(a2)を用いて、パーティションの位置検出方法を説明する。図17の(a1)と(a2)は同一のパーティションに異なる角度から光が当たった様子を示している。パーティションがある場合、光源の位置によりパーティション周辺に影が出来る。可視カメラが撮影した可視画像において、影は周辺より低輝度に映し出され、光源の位置によって影の向きが変化する。これを利用してパーティションの位置を推定する。   FIG. 17 is an explanatory diagram illustrating an operation of the partition position estimation unit 10 in the lighting control system according to the fifth embodiment of the present invention. A partition position detection method will be described with reference to (a1) and (a2) of FIG. 17 (a1) and (a2) show how the same partition is irradiated with light from different angles. If there is a partition, a shadow will appear around the partition depending on the position of the light source. In the visible image captured by the visible camera, the shadow is projected with lower brightness than the surroundings, and the direction of the shadow changes depending on the position of the light source. This is used to estimate the position of the partition.

また、図17の(b1)と(b2)を用いて、パーティションの高さ推定方法を説明する。図17の(b1)と(b2)は、高さの異なるパーティションに同じ方向から光が当たった様子を表している。パーティションの位置を推定した後、一つの可視画像に着目し、影の長さの比率からパーティションの高さ度合を推定する。なお、パーティション位置推定部10が位置を推定する対象は、パーティションに限らず、棚やディスプレイなど、人の視野を遮る物であれば何でもよい。   Further, a partition height estimation method will be described with reference to (b1) and (b2) of FIG. (B1) and (b2) of FIG. 17 show a state in which the partitions having different heights are irradiated with light from the same direction. After estimating the position of the partition, we focus on one visible image and estimate the height of the partition from the ratio of shadow lengths. The target for which the partition position estimation unit 10 estimates the position is not limited to the partition, and may be any object such as a shelf or a display as long as it blocks the view of a person.

なお、可視カメラが撮影する空間のレイアウトに変更がない場合、パーティションの位置も変化しない。このため、パーティション位置推定部10は、一度カメラ視点可視画像の全領域のパーティション位置を推定し、これを蓄積しておけば、可視画像取得部1からカメラ視点画像が入力される度にパーティション位置を推定する必要はない。   If there is no change in the layout of the space taken by the visible camera, the position of the partition does not change. For this reason, the partition position estimation unit 10 estimates the partition positions of the entire area of the camera viewpoint visible image once, and accumulates the partition positions, and the partition position is estimated every time the camera viewpoint image is input from the visible image acquisition unit 1. Need not be estimated.

このように構成された実施の形態に係る照明制御システムでは、照度環境は天候や照明器具、レイアウトの影響で変化するが、複数枚の可視画像から部分領域毎の輝度変化を用いてパーティションの位置が推定可能であり、人の視野領域をより正確に推定できるため、人の視野ではない領域も特定でき、不要な照明を消灯する制御ができるという効果が得られる。   In the lighting control system according to the embodiment configured as described above, the illuminance environment changes due to the influence of weather, lighting equipment, and layout, but the position of the partition is changed using the brightness change for each partial area from a plurality of visible images. Can be estimated and the human visual field can be estimated more accurately, so that an area that is not the human visual field can be specified, and the effect of turning off unnecessary illumination can be obtained.

1 可視画像取得部、2,2a 人位置・向き検出部、3,3a 視野領域推定部、4 視点変換部、5,5a 輝度分布算出部、6,6a 明るさ推定部、7 調光制御部、8 画像蓄積部、9 散乱特性推定部、10 パーティション位置推定部、14 第二視点変換部、19 散乱特性・反射率推定部、24 視点変更部、29 反射率推定部、100,110,200,210,300,310,400,500、510 照明制御システム。 1 visible image acquisition unit, 2, 2a human position / orientation detection unit, 3, 3a visual field region estimation unit, 4 viewpoint conversion unit, 5, 5a luminance distribution calculation unit, 6, 6a brightness estimation unit, 7 dimming control unit , 8 image storage unit, 9 scattering characteristic estimating unit, 10 partition position estimating unit, 14 second viewpoint converting unit, 19 scattering characteristic / reflectance estimating unit, 24 viewpoint changing unit, 29 reflectance estimating unit, 100, 110, 200 , 210, 300, 310, 400, 500, 510 Lighting control system.

この発明に係る照明制御システムは、可視画像を取得する可視画像取得部と、人の視野
領域が入力され、可視画像取得部が取得した可視画像を視野領域における人視点の可視画
像に画像変換する視点変換部と、人視点の可視画像に基づいて視野領域の輝度分布を算出
する輝度分布算出部と、輝度分布に基づいて照明器具の調光を制御する調光制御部と
可視画像取得部が取得した可視画像を撮影時刻と共に蓄積する画像蓄積部とを備えたこと
を特徴とする。
An illumination control system according to the present invention is input with a visible image acquisition unit that acquires a visible image and a visual field of a person, and converts the visible image acquired by the visible image acquisition unit into a visible image of a human viewpoint in the visual field. A viewpoint conversion unit, a brightness distribution calculation unit that calculates a brightness distribution of a visual field region based on a visible image of a human viewpoint, a dimming control unit that controls dimming of a lighting device based on the brightness distribution ,
An image storage unit that stores the visible image acquired by the visible image acquisition unit together with the shooting time .

Claims (13)

可視画像を取得する可視画像取得部と、
人の視野領域が入力され、前記可視画像取得部が取得した前記可視画像を前記視野領域における人視点の可視画像に画像変換する視点変換部と、
前記人視点の可視画像に基づいて前記視野領域の輝度分布を算出する輝度分布算出部と、
前記輝度分布に基づいて照明器具の調光を制御する調光制御部とを備えることを特徴とする照明制御システム。
A visible image acquisition unit that acquires a visible image,
A visual field region of a person is input, and a viewpoint conversion unit that converts the visible image acquired by the visible image acquisition unit into a visible image of a human viewpoint in the visual field region,
A luminance distribution calculation unit that calculates the luminance distribution of the visual field region based on the visible image of the human viewpoint;
An illumination control system comprising: a dimming control unit that controls dimming of a lighting fixture based on the brightness distribution.
前記輝度分布に基づいて前記視野領域の明るさを推定する明るさ推定部を備え、
前記調光制御部は、前記輝度分布に基づいて推定された前記視野領域の明るさに基づいて前記照明器具の調光を制御することを特徴とする請求項1に記載の照明制御システム。
A brightness estimation unit that estimates the brightness of the visual field region based on the brightness distribution,
The lighting control system according to claim 1, wherein the dimming control unit controls dimming of the lighting fixture based on the brightness of the visual field region estimated based on the luminance distribution.
前記可視画像取得部が取得した前記可視画像を撮影時刻と共に蓄積する画像蓄積部と、
前記可視画像取得部が取得した前記可視画像と前記画像蓄積部に蓄積された前記可視画像との中から前記撮影時刻が異なる複数の前記可視画像を抽出し、前記撮影時刻が異なる複数の前記可視画像に基づいて前記可視画像取得部が取得した前記可視画像を構成する複数の部分領域毎に散乱特性および反射率を推定する散乱特性・反射率推定部とを備え、
前記輝度分布算出部は、前記散乱特性に基づいて前記輝度分布を補正し、
前記明るさ推定部は、前記補正された輝度分布と前記反射率とに基づいて前記視野領域の明るさを推定することを特徴とする請求項2に記載の照明制御システム。
An image storage unit that stores the visible image acquired by the visible image acquisition unit together with a shooting time,
A plurality of visible images having different photographing times are extracted from the visible images acquired by the visible image acquisition unit and the visible images accumulated in the image accumulating unit, and the visible images having different photographing times are extracted. A scattering characteristic / reflectance estimating unit for estimating a scattering characteristic and a reflectance for each of a plurality of partial regions forming the visible image acquired by the visible image acquiring unit based on an image,
The brightness distribution calculation unit corrects the brightness distribution based on the scattering characteristic,
The illumination control system according to claim 2, wherein the brightness estimation unit estimates the brightness of the visual field region based on the corrected luminance distribution and the reflectance.
前記可視画像取得部が取得した前記可視画像を撮影時刻と共に蓄積する画像蓄積部と、
前記可視画像取得部が取得した前記可視画像と前記画像蓄積部に蓄積された前記可視画像との中から前記撮影時刻が異なる複数の前記可視画像を抽出し、前記撮影時刻が異なる複数の前記可視画像に基づいて前記可視画像取得部が取得した前記可視画像を構成する複数の部分領域毎に散乱特性を推定する散乱特性推定部と備え、
前記輝度分布算出部は、前記散乱特性に基づいて前記輝度分布を補正することを特徴とする請求項1に記載の照明制御システム。
An image storage unit that stores the visible image acquired by the visible image acquisition unit together with a shooting time,
A plurality of visible images having different photographing times are extracted from the visible images acquired by the visible image acquisition unit and the visible images accumulated in the image accumulating unit, and the visible images having different photographing times are extracted. A visible light image acquisition unit based on an image and a scattering characteristic estimating unit for estimating a scattering characteristic for each of a plurality of partial regions constituting the visible image,
The illumination control system according to claim 1, wherein the brightness distribution calculation unit corrects the brightness distribution based on the scattering characteristic.
前記可視画像取得部が取得した前記可視画像が入力され、当該可視画像から人の位置と人の向きとを検出する人位置・向き検出部と、
前記人位置・向き検出部が検出した前記人の位置と前記人の向きとに基づいて前記視野領域を推定し、当該視野領域を前記視点変換部へ出力する視野領域推定部とを備えることを特徴とする請求項1に記載の照明制御システム。
The visible image acquired by the visible image acquisition unit is input, and a human position / orientation detection unit that detects a position of a person and a direction of the person from the visible image,
A human visual field estimation unit that estimates the visual field based on the human position and the human orientation detected by the human position / orientation detection unit, and outputs the visual field region to the visual point conversion unit. The lighting control system according to claim 1, wherein the lighting control system is a lighting control system.
前記輝度分布に基づいて前記視野領域の明るさを推定する明るさ推定部を備え、
前記調光制御部は、前記輝度分布に基づいて推定された前記視野領域の明るさに基づいて前記照明器具の調光を制御することを特徴とする請求項5に記載の照明制御システム。
A brightness estimation unit that estimates the brightness of the visual field region based on the brightness distribution,
The illumination control system according to claim 5, wherein the dimming control unit controls dimming of the lighting fixture based on the brightness of the visual field region estimated based on the brightness distribution.
前記可視画像取得部が取得した前記可視画像を撮影時刻と共に蓄積する画像蓄積部と、
前記可視画像取得部が取得した前記可視画像と前記画像蓄積部に蓄積された前記可視画像との中から前記撮影時刻が異なる複数の前記可視画像を抽出し、前記撮影時刻が異なる複数の前記可視画像に基づいて前記可視画像取得部が取得した前記可視画像を構成する複数の部分領域毎に散乱特性および反射率を推定する散乱特性・反射率推定部とを備え、
前記輝度分布算出部は、前記散乱特性に基づいて前記輝度分布を補正し、
前記明るさ推定部は、前記補正された輝度分布と前記反射率とに基づいて前記視野領域の明るさを推定することを特徴とする請求項6に記載の照明制御システム。
An image storage unit that stores the visible image acquired by the visible image acquisition unit together with a shooting time,
A plurality of the visible images with different photographing times are extracted from the visible images acquired by the visible image acquisition unit and the visible images accumulated in the image accumulating unit, and the visible images with different photographing times are extracted. A scattering characteristic / reflectance estimating unit for estimating a scattering characteristic and a reflectance for each of a plurality of partial regions forming the visible image acquired by the visible image acquiring unit based on an image,
The brightness distribution calculation unit corrects the brightness distribution based on the scattering characteristic,
The illumination control system according to claim 6, wherein the brightness estimating unit estimates the brightness of the visual field region based on the corrected luminance distribution and the reflectance.
前記可視画像取得部が取得した前記可視画像を撮影時刻と共に蓄積する画像蓄積部と、
前記可視画像取得部が取得した前記可視画像と前記画像蓄積部に蓄積された前記可視画像との中から前記撮影時刻が異なる複数の前記可視画像を抽出し、前記撮影時刻が異なる複数の前記可視画像に基づいて前記可視画像取得部が取得した前記可視画像を構成する複数の部分領域毎に散乱特性を推定する散乱特性推定部と備え、
前記輝度分布算出部は、前記散乱特性に基づいて前記輝度分布を補正することを特徴とする請求項5に記載の照明制御システム。
An image storage unit that stores the visible image acquired by the visible image acquisition unit together with a shooting time,
A plurality of visible images having different photographing times are extracted from the visible images acquired by the visible image acquisition unit and the visible images accumulated in the image accumulating unit, and the visible images having different photographing times are extracted. A visible light image acquisition unit based on an image and a scattering characteristic estimating unit for estimating a scattering characteristic for each of a plurality of partial regions constituting the visible image,
The illumination control system according to claim 5, wherein the brightness distribution calculation unit corrects the brightness distribution based on the scattering characteristic.
前記可視画像取得部が取得した前記可視画像を撮影時刻と共に蓄積する画像蓄積部と、
前記可視画像取得部が取得した前記可視画像と前記画像蓄積部に蓄積された前記可視画像との中から前記撮影時刻が異なる複数の前記可視画像を抽出し、前記撮影時刻が異なる複数の前記可視画像に基づいて前記可視画像取得部が取得した前記可視画像を構成する複数の部分領域毎に散乱特性を推定する散乱特性推定部と、
前記撮影時刻が異なる複数の前記可視画像に基づいて室内に配置されるパーティションの位置を推定するパーティション位置推定部とを備え、
前記視野領域推定部は、前記人の位置と前記人の向きと前記パーティションの位置とに基づいて前記視野領域を推定し、当該視野領域を前記視点変換部へ出力し、
前記輝度分布算出部は、前記散乱特性に基づいて前記輝度分布を補正することを特徴とする請求項5に記載の照明制御システム。
An image storage unit that stores the visible image acquired by the visible image acquisition unit together with a shooting time,
A plurality of visible images having different photographing times are extracted from the visible images acquired by the visible image acquisition unit and the visible images accumulated in the image accumulating unit, and the visible images having different photographing times are extracted. A scattering characteristic estimation unit that estimates the scattering characteristic for each of a plurality of partial regions forming the visible image acquired by the visible image acquisition unit based on an image,
A partition position estimation unit that estimates the position of a partition arranged in the room based on the plurality of visible images with different shooting times,
The visual field region estimation unit estimates the visual field region based on the position of the person, the direction of the person, and the position of the partition, and outputs the visual field region to the viewpoint conversion unit,
The illumination control system according to claim 5, wherein the brightness distribution calculation unit corrects the brightness distribution based on the scattering characteristic.
前記可視画像取得部が取得した前記可視画像を撮影時刻と共に蓄積する画像蓄積部と、
前記可視画像取得部が取得した前記可視画像と前記画像蓄積部に蓄積された前記可視画像との中から前記撮影時刻が異なる複数の前記可視画像を抽出し、前記撮影時刻が異なる複数の前記可視画像に基づいて前記可視画像取得部が取得した前記可視画像を構成する複数の部分領域毎に散乱特性および反射率を推定する散乱特性・反射率推定部と、
前記撮影時刻が異なる複数の前記可視画像に基づいて室内に配置されるパーティションの位置を推定するパーティション位置推定部と、
前記輝度分布に基づいて前記視野領域の明るさを推定する明るさ推定部をと備え、
前記視野領域推定部は、前記人の位置と前記人の向きと前記パーティションの位置とに基づいて前記視野領域を推定し、当該視野領域を前記視点変換部へ出力し、
前記輝度分布算出部は、前記散乱特性に基づいて前記輝度分布を補正し、
前記明るさ推定部は、前記補正された輝度分布と前記反射率とに基づいて前記視野領域の明るさを推定することを特徴とする請求項5に記載の照明制御システム。
An image storage unit that stores the visible image acquired by the visible image acquisition unit together with a shooting time,
A plurality of visible images having different photographing times are extracted from the visible images acquired by the visible image acquisition unit and the visible images accumulated in the image accumulating unit, and the visible images having different photographing times are extracted. A scattering characteristic / reflectance estimating unit that estimates a scattering characteristic and a reflectance for each of a plurality of partial regions forming the visible image acquired by the visible image acquiring unit based on an image,
A partition position estimation unit that estimates the position of the partition arranged in the room based on the plurality of visible images with different shooting times;
And a brightness estimation unit that estimates the brightness of the visual field region based on the brightness distribution,
The visual field region estimation unit estimates the visual field region based on the position of the person, the direction of the person, and the position of the partition, and outputs the visual field region to the viewpoint conversion unit,
The brightness distribution calculation unit corrects the brightness distribution based on the scattering characteristic,
The illumination control system according to claim 5, wherein the brightness estimating unit estimates the brightness of the visual field region based on the corrected luminance distribution and the reflectance.
前記人位置・向き検出部は、前記可視画像取得部が取得した前記可視画像と前記画像蓄積部に蓄積された前記可視画像との中から前記撮影時刻が異なる複数の前記可視画像を抽出し、前記撮影時刻が異なる複数の前記可視画像に基づいて前記人の位置と前記人の向きとを検出することを特徴とする請求項7から請求項10のいずれか1項に記載の照明制御システム。   The human position / orientation detection unit extracts a plurality of the visible images with different shooting times from the visible images acquired by the visible image acquisition unit and the visible images stored in the image storage unit, 11. The illumination control system according to claim 7, wherein the position and the direction of the person are detected based on the plurality of visible images at different photographing times. 可視画像を取得する可視画像取得部と、
作業領域が入力され、前記可視画像取得部が取得した前記可視画像から前記作業領域に対応する領域の可視画像を抽出する視点変更部と、
前記作業領域に対応する領域の可視画像に基づいて前記作業領域の輝度分布を算出する輝度分布算出部と、
前記可視画像取得部が取得した前記可視画像を撮影時刻と共に蓄積する画像蓄積部と、
前記可視画像取得部が取得した前記可視画像と前記画像蓄積部に蓄積された前記可視画像との中から前記撮影時刻が異なる複数の前記可視画像を抽出し、前記撮影時刻が異なる複数の前記可視画像に基づいて前記可視画像取得部が取得した前記可視画像を構成する複数の部分領域毎に反射率を推定する反射率推定部と、
前記輝度分布算出部が算出した前記作業領域の輝度分布と前記反射率とに基づいて前記作業領域の明るさを推定する明るさ推定部と、
前記作業領域の明るさに基づいて照明器具の調光を制御する調光制御部とを備えることを特徴とする照明制御システム。
A visible image acquisition unit that acquires a visible image,
A work area is input, and a viewpoint changing unit that extracts a visible image of a region corresponding to the working region from the visible image acquired by the visible image acquiring unit,
A brightness distribution calculating unit that calculates a brightness distribution of the work area based on a visible image of an area corresponding to the work area;
An image storage unit that stores the visible image acquired by the visible image acquisition unit together with a shooting time,
A plurality of the visible images with different photographing times are extracted from the visible images acquired by the visible image acquisition unit and the visible images accumulated in the image accumulating unit, and the visible images with different photographing times are extracted. A reflectance estimation unit that estimates the reflectance for each of a plurality of partial regions forming the visible image acquired by the visible image acquisition unit based on an image,
A brightness estimation unit that estimates the brightness of the work area based on the brightness distribution and the reflectance of the work area calculated by the brightness distribution calculation unit,
An illumination control system, comprising: a dimming control unit that controls dimming of a lighting fixture based on the brightness of the work area.
可視画像を取得する可視画像取得ステップと、
人の視野領域が入力され、前記可視画像取得ステップで取得した前記可視画像を前記視野領域における人視点の可視画像に画像変換する視点変換ステップと、
前記人視点の可視画像に基づいて前記視野領域の輝度分布を算出する輝度分布算出ステップと、
前記輝度分布に基づいて照明器具の調光を制御する調光制御ステップとを備えることを特徴とする照明制御方法。
A visible image acquisition step of acquiring a visible image,
A viewpoint conversion step of inputting a visual field of a person and converting the visible image acquired in the visible image acquisition step into a visible image of a human viewpoint in the visual area,
A luminance distribution calculating step of calculating a luminance distribution of the visual field region based on the visible image of the human viewpoint;
A dimming control step of controlling dimming of a lighting fixture based on the brightness distribution.
JP2019557086A 2017-11-30 2018-11-01 Lighting control system and lighting control method Active JP6863475B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017230330 2017-11-30
JP2017230330 2017-11-30
PCT/JP2018/040698 WO2019107060A1 (en) 2017-11-30 2018-11-01 Illumination control system and illumination control method

Publications (2)

Publication Number Publication Date
JPWO2019107060A1 true JPWO2019107060A1 (en) 2020-04-23
JP6863475B2 JP6863475B2 (en) 2021-04-21

Family

ID=66664853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019557086A Active JP6863475B2 (en) 2017-11-30 2018-11-01 Lighting control system and lighting control method

Country Status (2)

Country Link
JP (1) JP6863475B2 (en)
WO (1) WO2019107060A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114165907A (en) * 2021-10-27 2022-03-11 珠海视熙科技有限公司 Desktop equipment control method and device and storage medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3764745A1 (en) * 2019-07-12 2021-01-13 BrainLit AB A light exposure monitoring system
JP2022540391A (en) 2019-07-12 2022-09-15 ブレインリット・アーベー Exposure monitoring system
CN111970495B (en) * 2020-08-21 2021-12-21 湖南工学院 Remote automatic light control system
DE102021213256A1 (en) * 2021-11-25 2023-05-25 Continental Automotive Technologies GmbH Display unit in a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146760A (en) * 2004-11-24 2006-06-08 Aisin Seiki Co Ltd Image transformation method and image transformation system
WO2012157573A1 (en) * 2011-05-13 2012-11-22 株式会社 東芝 Energy management system
JP2014007123A (en) * 2012-06-27 2014-01-16 Panasonic Corp Illumination system
JP2014127291A (en) * 2012-12-26 2014-07-07 Mitsubishi Electric Corp Illuminance calculation device, illumination control device and illumination control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146760A (en) * 2004-11-24 2006-06-08 Aisin Seiki Co Ltd Image transformation method and image transformation system
WO2012157573A1 (en) * 2011-05-13 2012-11-22 株式会社 東芝 Energy management system
JP2014007123A (en) * 2012-06-27 2014-01-16 Panasonic Corp Illumination system
JP2014127291A (en) * 2012-12-26 2014-07-07 Mitsubishi Electric Corp Illuminance calculation device, illumination control device and illumination control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114165907A (en) * 2021-10-27 2022-03-11 珠海视熙科技有限公司 Desktop equipment control method and device and storage medium

Also Published As

Publication number Publication date
WO2019107060A1 (en) 2019-06-06
JP6863475B2 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
JP6863475B2 (en) Lighting control system and lighting control method
JP5726792B2 (en) Information processing apparatus, image sensor apparatus, and program
US9613433B2 (en) Method of characterizing a light source and a mobile device
Jakubiec et al. Accurate measurement of daylit interior scenes using high dynamic range photography
Borisuit et al. Visual discomfort and glare rating assessment of integrated daylighting and electric lighting systems using HDR imaging techniques
US20150317516A1 (en) Method and system for remote controlling
JP6064354B2 (en) Dimming system
JP2010009874A (en) Lighting control system
Kruisselbrink et al. Feasibility of ceiling-based luminance distribution measurements
JP2014086420A (en) Lighting control system and method for led lights
JP6593753B2 (en) Illuminance acquisition device, lighting control system and program
US11558940B2 (en) Intelligent lighting control system
US10346959B2 (en) Processing apparatus, processing system, image pickup apparatus, processing method, and non-transitory computer-readable storage medium
JP6862114B2 (en) Processing equipment, processing systems, imaging equipment, processing methods, programs, and recording media
JP2014002943A (en) Lighting control device
Kim et al. A new control framework for the visual environment based on low-cost HDR luminance acquisition
JP6070173B2 (en) Lighting control apparatus and lighting control method
US10270964B2 (en) Camera and illumination system
JP6709954B2 (en) Lighting control system
WO2024043037A1 (en) Illuminance estimation method, illuminance control method, illuminance estimation program, control device, and illuminance control system
US20240062510A1 (en) Apparatus and method for determining the lighting characteristics of a lighting fixture
KR102525680B1 (en) Back light compensation apparatus and method for image of cctv
WO2024043036A1 (en) Estimation method, illumination control method, estimation program, control device, and illumination control system
KR102379892B1 (en) Control system for blind and control method therefor
JP2018010116A (en) Processor, processing system, imaging apparatus, processing method, program, and record medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R151 Written notification of patent or utility model registration

Ref document number: 6863475

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151