KR20200089072A - Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space - Google Patents

Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space Download PDF

Info

Publication number
KR20200089072A
KR20200089072A KR1020190005704A KR20190005704A KR20200089072A KR 20200089072 A KR20200089072 A KR 20200089072A KR 1020190005704 A KR1020190005704 A KR 1020190005704A KR 20190005704 A KR20190005704 A KR 20190005704A KR 20200089072 A KR20200089072 A KR 20200089072A
Authority
KR
South Korea
Prior art keywords
information
space
lighting
image
ceiling
Prior art date
Application number
KR1020190005704A
Other languages
Korean (ko)
Other versions
KR102242327B1 (en
Inventor
김회민
전성국
이동길
박종복
Original Assignee
한국광기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국광기술원 filed Critical 한국광기술원
Priority to KR1020190005704A priority Critical patent/KR102242327B1/en
Publication of KR20200089072A publication Critical patent/KR20200089072A/en
Application granted granted Critical
Publication of KR102242327B1 publication Critical patent/KR102242327B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225

Abstract

The present invention relates to an apparatus and a method for acquiring illumination spatial information and a method for evaluating illumination environment of a target space. Specifically, the present invention relates to the apparatus for acquiring illumination spatial information comprising: a camera module installed in a surface facing at least one illumination installed in a ceiling surface to acquire an image of a ceiling space of the target space; a distance measurement module emitting a light source with straightness between the ceiling surface and a floor surface to measure height information of the target space; and a calculation module acquiring shape information of the ceiling surface based on the image of the ceiling space, then calculating a stereoscopic space information on the target space by using the shape information of the ceiling surface and the height information of the target space, and calculating an illumination position and an illumination intensity by using the image of the ceiling space to form illumination space information based on the stereoscopic space information.

Description

조명 공간 정보 획득 장치 및 그 방법과 대상 공간의 조명 환경 평가 방법 {Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space}Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space}

본 발명은 대상 공간 내에 존재하는 조명정보를 분석하여 조명 공간 정보를 자동으로 재구성할 수 있는 조명 공간 정보 획득 장치 및 그 방법과 대상 공간의 조명 환경 평가 방법에 관한 것이다.The present invention relates to an apparatus for acquiring illumination space information capable of automatically reconstructing illumination space information by analyzing illumination information existing in the target space, and a method for evaluating the lighting environment of the target space.

최근 실제 화면(real scene)에 대한 3 차원(3-Dimensional, 3D) 모델을 생성하고, 생성된 3차원 모델 내에 가상의 오브젝트를 포함시켜 결과 영상을 렌더링하고자 하는 연구가 진행되고 있다.Recently, a research has been conducted to generate a 3-dimensional (3-Dimensional, 3D) model of a real scene and to render a result image by including a virtual object in the generated 3D model.

이러한 연구 분야의 응용에는 영화나 게임에서 실제 촬영한 화면의 공간 내에 가상의 합성 캐릭터를 삽입함으로써 실사 영상의 사실성과 컴퓨터 그래픽 영상의 자유도의 장점을 모두 살리는 기술 등이 포함된다. 이러한 기술을 혼합 렌더링(Mixed rendering)으로 지칭하기도 한다.Applications in this field of research include technologies that take advantage of both the realism of photorealistic images and the freedom of computer graphics images by inserting virtual synthetic characters into the space of the screen actually shot in a movie or game. This technique is also referred to as mixed rendering.

그런데 실제 촬영한 공간의 조명 환경을 변화시키거나 왜곡 없는 렌더링을 하기 위해 실제 촬영한 공간 내의 오브젝트에 영향을 주는 조명 환경(Light environment) 정보를 획득하는 것이 요구된다.However, in order to change the lighting environment of the actual photographed space or to perform distortion-free rendering, it is required to obtain light environment information that affects objects in the actual photographed space.

종래에는 전방위 거울(Omni-directional mirror)나 미러 볼(Mirrored ball)을 이용하여 오브젝트 환경에 영향을 미치는 광원(Light source)의 위치, 방향 및 광원의 세기 등에 관한 정보를 획득하였다.In the related art, information on the position, direction, and intensity of a light source affecting an object environment is obtained using an omni-directional mirror or a mirrored ball.

도 1은 종래 기술의 일 실시예에 따른 미러 볼을 이용한 조명 환경 분석 방법을 설명하는 예시도이다.1 is an exemplary view for explaining a lighting environment analysis method using a mirror ball according to an embodiment of the prior art.

도 1을 참조하면, 미러 볼을 이용한 조명 환경 분석 방법은 다수의 카메라를 장착하는 방식 대신에 측정 간소화를 위해 정밀하게 가공된 미러볼의 이미지를 카메라로 촬영한 후 촬영된 미러 볼의 이미지를 이용하여 주변 조명 환경 정보를 획득한다.Referring to FIG. 1, in the lighting environment analysis method using a mirror ball, instead of a method of mounting a plurality of cameras, an image of a precisely processed mirror ball is photographed with a camera to simplify measurement, and then an image of the mirror ball is used. Acquire ambient lighting environment information.

이러한 종래 기술은 360도 조명 환경 분석을 위해 대상 장면의 모든 방향에서 입사되는 조명 정보를 취득하기 위해 미러볼(mirror ball)을 사용하여 실제 공간으로부터 반사된 조명을 3D 모델에 맵핑해서 조명기반(light-based) 모델을 구성한다.This prior art uses a mirror ball to map the light reflected from the real space to a 3D model to obtain illumination information incident from all directions of the target scene for a 360-degree lighting environment analysis. based) model.

그러나 일반적으로 대상 공간 내에 존재하는 조명들의 위치와 밝기를 결정하는 작업은 상당히 많은 시간과 노력이 필요하며, 그럼에도 불구하고 사실적인 장면을 얻기는 매우 어렵다. 이는 광원(light source)들에 의한 직접 및 간접 조명, 그림자, 반사, 굴절 등의 실 세계에 존재하는 복잡한 조명의 영향 들을 충분히 고려하기 어렵기 때문이다. However, in general, determining the position and brightness of the lights existing in the target space requires a considerable amount of time and effort, and yet it is very difficult to obtain a realistic scene. This is because it is difficult to sufficiently consider the effects of complex lighting existing in the real world, such as direct and indirect lighting by light sources, shadows, reflections, and refractions.

종래에는 광원과 물체가 움직이지 않는 정적인 상황에서 조명 환경을 구성하는 것으로 제한되고 있지만, 실제로 대상 공간 내에 여러 광원이 존재하기 때문에 카메라의 위치에 따라 장면의 래디언스(radiance) 분포가 다르게 취득되므로, 대상 공간에서 움직이는 가상 물체에 대한 다양한 장면을 표현하기 위해 전체 공간의 조명 환경을 재구성해야 할 필요가 있다. .In the related art, the lighting environment is limited to constructing an illumination environment in a static situation where the light source and the object do not move, but since several light sources exist in the target space, the radiance distribution of the scene is acquired differently depending on the position of the camera. In order to express various scenes of a virtual object moving in the target space, it is necessary to reconstruct the lighting environment of the entire space. .

본 발명은 전술한 문제점을 해결하기 위하여, 본 발명의 일 실시예에 따라 대상 공간을 사실적으로 표현하기 위해 천장 공간 영상과 배광 정보를 활용하여 입체적인 조명 환경 정보를 취득하도록 하는 것에 목적이 있다.In order to solve the above-mentioned problems, the present invention has an object to acquire three-dimensional lighting environment information by using ceiling space images and light distribution information to realistically represent a target space according to an embodiment of the present invention.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서 본 발명의 일 실시예에 따른 조명 공간 정보 획득 장치는, 천장 면에 설치된 적어도 하나 이상의 조명과 대향되는 면에 설치되어 대상 공간의 천장 공간 영상을 획득하는 카메라 모듈; 상기 천장 면과 바닥면 사이에 직진성 광원을 조사하여 상기 대상 공간의 높이 정보를 측정하는 거리 측정 모듈; 및 상기 천장 공간 영상에 기초하여 천장면의 형상 정보를 획득한 후 상기 천장면의 형상 정보, 상기 대상 공간의 높이 정보를 이용하여 대상 공간에 대한 입체 공간 정보를 산출하고, 상기 천장 공간 영상을 이용하여 조명 위치와 조명 강도를 산출하여 상기 입체 공간 정보에 기초하여 조명 공간 정보를 구성하는 연산 모듈을 포함하는 것을 특징으로 한다. A lighting space information acquisition device according to an embodiment of the present invention as a technical means for achieving the above-described technical problem is installed on a surface facing at least one or more lights installed on the ceiling surface to obtain a ceiling space image of the target space Camera module; A distance measurement module measuring height information of the target space by irradiating a straight light source between the ceiling surface and the floor surface; And obtaining the shape information of the ceiling surface based on the ceiling space image, calculating stereoscopic space information for the target space using the shape information of the ceiling surface and the height information of the target space, and using the ceiling space image. It is characterized in that it comprises a calculation module for calculating the lighting position and the lighting intensity to configure the lighting space information based on the three-dimensional spatial information.

본 발명의 일 실시예에 따른 조명 공간 정보 획득 장치는, 복수 개의 조명에 대한 배광 특성과 광 연출 패턴을 포함한 광학적 데이터에 대한 배광 정보를 수집하여 저장하는 조명 배광 데이터베이스를 포함하고, 상기 연산 모듈은 상기 천장 공간 영상을 통해 추정된 조명 강도와 상기 조명 배광 데이터베이스에서 저장된 조명의 기본 배광 정보를 결합하여 3차원 조명 환경 정보를 제공하는 것을 특징으로 한다.An apparatus for acquiring lighting space information according to an embodiment of the present invention includes a lighting distribution database for collecting and storing light distribution information for optical data including light distribution characteristics and light directing patterns for a plurality of lights, and the calculation module It is characterized by providing 3D lighting environment information by combining the estimated light intensity through the ceiling space image with basic light distribution information of the light stored in the light distribution database.

상기 카메라 모듈은 HDR(High Dynamic Range) 영상, LDR(Low Dynamic Range) 영상, 360도(360 degree) 영상, 150도 이상의 화각을 가지는 광각 영상을 촬영하는 적어도 1대 이상의 카메라로 구성되는 것을 특징으로 한다.The camera module is characterized in that it consists of at least one camera that captures a wide angle image with a high dynamic range (HDR) image, a low dynamic range (LDR) image, a 360 degree (360 degree) image, and an angle of view of 150 degrees or more. do.

상기 거리 측정 모듈은, 라인 레이저 센서, 깊이 센서, 변위 센서를 포함한 비접촉식 센서 중 어느 하나를 이용하는 것을 특징으로 한다.The distance measurement module is characterized by using any one of a non-contact sensor including a line laser sensor, a depth sensor, and a displacement sensor.

본 발명의 다른 일 실시예에 따른 조명 공간 정보 획득 방법은, 대상 공간에 대해 조명 환경 정보를 획득하기 위한 조명 공간 정보 획득 장치에 의해 수행되는 조명 공간 정보 획득 방법에 있어서, a) 천장 면에 설치된 적어도 하나 이상의 조명과 대향되는 면에 설치된 카메라 모듈을 이용하여 대상 공간의 천장 공간 영상을 획득하는 단계; b) 비접촉식 거리 측정 방식을 이용하여 상기 천장 면과 바닥면 사이의 거리를 측정하여 상기 대상 공간의 높이 정보를 산출하는 단계; c) 상기 천장 공간 영상에 기초하여 천장면의 형상 정보를 획득한 후 상기 천장면의 형상 정보와 상기 대상 공간의 높이 정보를 이용하여 입체 공간 정보를 산출하는 단계; 및 d) 상기 천장 공간 영상을 이용하여 조명 위치와 조명 강도를 산출하여 상기 입체 공간 정보에 기초하여 조명 공간 정보를 구성하는 단계를 포함하는 것을 특징으로 한다. A method for acquiring lighting space information according to another embodiment of the present invention includes: a) a method for acquiring lighting space information performed by a lighting space information obtaining device for obtaining lighting environment information for a target space, a) installed on a ceiling surface Obtaining a ceiling space image of the target space using a camera module installed on a surface facing at least one light; b) calculating height information of the target space by measuring a distance between the ceiling surface and the floor surface using a non-contact distance measurement method; c) acquiring shape information of the ceiling surface based on the ceiling space image and calculating stereoscopic space information using the shape information of the ceiling surface and the height information of the target space; And d) calculating lighting position and lighting intensity using the ceiling space image and constructing lighting space information based on the three-dimensional spatial information.

조명 공간 정보 획득 방법은, e) 상기 입체 공간 정보와 조명 공간 정보에 대해 렌더링 작업을 수행하여 3차원 조명 환경 정보를 제공하는 단계를 더 포함하는 것을 특징으로 한다.The method for acquiring lighting space information may further include e) rendering the stereoscopic space information and lighting space information to provide 3D lighting environment information.

조명 공간 정보 획득 방법은, f) 복수 개의 조명에 대한 배광 특성과 광 연출 패턴을 포함한 광학적 데이터에 대한 배광 정보를 수집하여 조명 배광 데이터베이스에 저장하는 단계를 더 포함하고, 상기 d) 단계는, 상기 천장 공간 영상을 통해 추정된 조명 강도와 상기 조명 배광 데이터베이스에서 저장된 조명의 기본 배광 정보를 결합하여 조명 환경 공간을 재구성하는 것을 특징으로 한다.The method for acquiring lighting space information further includes f) collecting light distribution information for optical data including light distribution characteristics and light directing patterns for a plurality of lights and storing the light distribution information in a light distribution database, wherein the step d) comprises: It is characterized in that the lighting environment space is reconstructed by combining the estimated light intensity through the ceiling space image and the basic light distribution information of the light stored in the light distribution database.

상기 카메라 모듈은 HDR(High Dynamic Range) 영상 또는 360도(360 degree) 영상을 촬영하는 적어도 1대 이상의 카메라로 구성되는 경우, 상기 d) 단계는, 상기 천장 공간 영상에 대한 HDR 영상을 통해 대상 공간상의 조명 강도, 조명 위치, 조명 개수를 산출하는 것을 특징으로 한다.When the camera module is composed of at least one camera that shoots a high dynamic range (HDR) image or a 360 degree (360 degree) image, step d) may include a target space through the HDR image for the ceiling space image. It is characterized by calculating the light intensity, the position of the light, and the number of lights.

상기 d) 단계는, 상기 HDR 영상의 픽셀값에 대응되는 조명의 밝기값을 통해 조명 강도를 산출하는 것을 특징으로 한다The step d) is characterized in that the illumination intensity is calculated through the brightness value of the light corresponding to the pixel value of the HDR image.

상기 d) 단계는 상기 천장 공간 영상을 노출 값을 기설정된 저수준 임계값으로 조정하여 조명 위치를 산출하는 것을 특징으로 한다.In step d), the lighting position is calculated by adjusting the exposure value of the ceiling space to a preset low-level threshold.

상기 b) 단계는 직선 형태, 십자 형태 또는 다수의 점 형태 중 어느 하나의 형태를 가지는 직진성 광원을 사용하여 천장면에 직진성 광원을 조사하고, 상기 직진성 광원과 천장면의 거리에 따라 달라지는 직진성 광원의 크기 정보를 이용하여 높이 정보를 산출하는 것을 특징으로 한다. In step b), a straight light source is irradiated to the ceiling surface using a straight light source having any one of a straight form, a cross shape, or a plurality of dot forms, and the straight light source varies depending on the distance between the straight light source and the ceiling surface. It is characterized in that the height information is calculated using the size information.

본 발명의 또 다른 일 실시예에 따른 대상 공간의 조명 환경 평가 방법은, 대상 공간에 대해 조명 환경 정보를 획득하기 위한 조명 공간 정보 획득 장치에 의해 수행되는 대상 공간의 조명 환경 평가 방법에 있어서, a) 천장 면에 설치된 적어도 하나 이상의 조명과 대향되는 면에 설치된 카메라 모듈을 이용하여 대상 공간의 천장 공간 영상을 획득하는 단계; b) 비접촉식 거리 측정 방식을 이용하여 상기 천장 면과 바닥면 사이의 거리를 측정하여 상기 대상 공간의 높이 정보를 산출하는 단계; c) 상기 천장 공간 영상에 기초하여 천장면의 형상 정보를 획득한 후 상기 천장면의 형상 정보와 상기 대상 공간의 높이 정보를 이용하여 입체 공간 정보를 산출하는 단계; d) 상기 천장 공간 영상을 이용하여 조명 위치와 조명 강도를 산출하여 상기 입체 공간 정보에 기초하여 조명 공간 정보를 구성하는 단계; 및 e) 상기 조명 공간 정보에 기초하여 상기 대상 공간에 대한 조명 에너지를 평가하는 단계를 포함하는 것을 특징으로 한다.According to another embodiment of the present invention, a method for evaluating a lighting environment in a target space includes: a method for evaluating a lighting environment in a target space performed by a lighting space information obtaining apparatus for obtaining lighting environment information for a target space, a ) Obtaining a ceiling space image of the target space using at least one light installed on the ceiling surface and a camera module installed on the opposite surface; b) calculating height information of the target space by measuring a distance between the ceiling surface and the floor surface using a non-contact distance measurement method; c) acquiring shape information of the ceiling surface based on the ceiling space image and calculating stereoscopic space information using the shape information of the ceiling surface and the height information of the target space; d) calculating lighting position and lighting intensity using the ceiling space image and constructing lighting space information based on the three-dimensional spatial information; And e) evaluating lighting energy for the target space based on the lighting space information.

상기 e) 단계는, 복수 개의 조명에 대한 배광 특성과 광 연출 패턴을 포함한 광학적 데이터에 대한 배광 정보, 출력, 조명기구의 가격 정보를 포함하는 조명 배광 데이터베이스와 연계하여, 상기 조명 위치, 조명 개수, 조명 강도를 포함한 조명 정보를 통해 대상 공간의 전체 밝기 또는 전력 사용량을 산출하는 것을 특징으로 한다.In step e), in connection with a light distribution database including light distribution information for a plurality of lights and light distribution information for optical data including a light directing pattern, output, and price information of a lighting device, the lighting position, the number of lights, It is characterized by calculating the total brightness or power consumption of the target space through the lighting information including the light intensity.

전술한 본 발명의 과제 해결 수단에 의하면, 대상 공간을 사실적으로 표현하기 위해 HDR 영상인 천장 공간 영상과 배광 정보를 활용하여 조명 환경 모델링을 용이하게 수행할 수 있고, 그로 인해 사실적인 가상현실을 위한 3차원 조명 환경 정보를 제공함으로써 캐릭터의 위치에 따른 조명 영향도를 반영하여 사실적으로 표현할 수 있고, 캐릭터와 배경 장면의 이질감을 해소할 수 있다.According to the above-described problem solving means of the present invention, in order to realistically represent the target space, the lighting environment modeling can be easily performed using the ceiling space image and the light distribution information, which are HDR images, thereby making it possible for realistic virtual reality. By providing 3D lighting environment information, it is possible to realistically express the influence of lighting according to the position of the character, and to solve the heterogeneity between the character and the background scene.

게다가, 본 발명은 카메라에 대한 사전 교정 작업 없이 카메라 및 조명 위치, 조명 강도 등을 추정하는 조명 공간 정보 획득 기술을 통해 조명 공간을 자동으로 재구성할 수 있고, 조명 환경에 대한 에너지 평가 및 리모델링할 수 있다.In addition, the present invention can automatically reconstruct the lighting space through the lighting space information acquisition technology for estimating the camera and lighting position, lighting intensity, etc. without pre-calibrating the camera, and can evaluate and remodel energy for the lighting environment. have.

도 1은 종래 기술의 일 실시예에 따른 미러 볼을 이용한 조명 환경 분석 방법을 설명하는 예시도이다.
도 2는 본 발명의 일 실시예에 따른 조명 공간 정보 획득 장치의 구성을 설명하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 조명 공간 정보 획득 장치를 통한 3차원 조명 환경 정보를 설명하는 예시도이다.
도 4는 본 발명의 일 실시예에 따른 배광 정보 중 평균 빔 각도를 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 IES의 3차원 조명 배광을 기술하기 위한 데이터 포맷을 설명하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 조명 공간 정보 획득 방법을 설명하는 순서도이다
도 7은 도 6의 천장 공간 영상 재매개 변수화 과정을 설명하는 예시도이다.
도 8은 본 발명의 다른 실시예에 따른 대상 공간의 조명 환경 평가 방법을 설명하는 순서도이다.
1 is an exemplary view for explaining a lighting environment analysis method using a mirror ball according to an embodiment of the prior art.
2 is a view for explaining the configuration of the lighting space information acquisition device according to an embodiment of the present invention.
3 is an exemplary view for explaining 3D lighting environment information through a lighting space information acquisition device according to an embodiment of the present invention.
4 is a view illustrating an average beam angle among light distribution information according to an embodiment of the present invention.
5 is a view for explaining a data format for describing 3D illumination distribution of IES according to an embodiment of the present invention.
6 is a flowchart illustrating a method for obtaining illumination space information according to an embodiment of the present invention
FIG. 7 is an exemplary diagram illustrating a process of reparameterizing the ceiling space image of FIG. 6.
8 is a flowchart illustrating a method for evaluating a lighting environment in a target space according to another embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with other elements in between. . Also, when a part is said to “include” a certain component, it means that the component may further include other components, not exclude other components, unless specifically stated otherwise. However, it should be understood that the existence or addition possibilities of numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.

이하의 실시예는 본 발명의 이해를 돕기 위한 상세한 설명이며, 본 발명의 권리 범위를 제한하는 것이 아니다. 따라서 본 발명과 동일한 기능을 수행하는 동일 범위의 발명 역시 본 발명의 권리 범위에 속할 것이다.The following examples are detailed descriptions to aid the understanding of the present invention, and do not limit the scope of the present invention. Therefore, the same scope of the invention performing the same function as the present invention will also belong to the scope of the present invention.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 일 실시예에 따른 조명 공간 정보 획득 장치의 구성을 설명하는 도면이고, 도 3은 본 발명의 일 실시예에 따른 조명 공간 정보 획득 장치를 통한 3차원 조명 환경 정보를 설명하는 예시도이며, 도 4는 본 발명의 일 실시예에 따른 배광 정보 중 평균 빔 각도를 설명하는 도면이고, 도 5는 본 발명의 일 실시예에 따른 IES의 3차원 조명 배광을 기술하기 위한 데이터 포맷을 설명하는 도면이다. 2 is a view for explaining the configuration of the lighting space information acquisition device according to an embodiment of the present invention, Figure 3 is a three-dimensional lighting environment information through the lighting space information acquisition device according to an embodiment of the present invention An exemplary view, FIG. 4 is a diagram illustrating an average beam angle among light distribution information according to an embodiment of the present invention, and FIG. 5 is a data format for describing 3D lighting distribution of IES according to an embodiment of the present invention It is a figure explaining.

도 2 내지 도 5를 참조하면, 조명 공간 정보 획득 장치(100)는, 카메라 모듈(110), 거리 측정 모듈(120), 연산 모듈(130) 및 조명 배광 데이터베이스(140)를 포함하지만 이에 한정되지는 않는다. 2 to 5, the lighting space information acquisition device 100 includes, but is not limited to, a camera module 110, a distance measurement module 120, a calculation module 130, and a lighting distribution database 140. Does not.

카메라 모듈(110)은 천장 면에 설치된 적어도 하나 이상의 조명(10)과 대향되는 면에 설치되어 대상 공간의 천장 공간 영상을 획득한다. 이때, 천장 공간 영상은 천장을 포함한 공간의 영상으로서 360도 영상일 수 있다. The camera module 110 is installed on a surface facing at least one of the lights 10 installed on the ceiling surface to acquire an image of the ceiling space of the target space. In this case, the ceiling space image may be a 360-degree image as an image of a space including a ceiling.

이러한 카메라 모듈(110)은 HDR(High Dynamic Range) 영상, LDR(Low Dynamic Range) 영상, 360도(360 degree) 영상, 150도 이상의 화각을 가지는 광각 영상을 촬영하는 적어도 1대 이상의 카메라로 구성될 수 있다. 150도 이상의 화각을 가지는 광각 영상은 180도 화각의 광각 카메라를 사용하여 촬영할 수 있다. The camera module 110 may be composed of at least one camera that captures a high dynamic range (HDR) image, a low dynamic range (LDR) image, a 360 degree (360 degree) image, and a wide angle image with an angle of view of 150 degrees or more. Can. A wide-angle image having an angle of view of 150 degrees or more can be photographed using a wide-angle camera having a 180-degree angle of view.

카메라 모듈(110)이 360도 HDR 카메라인 경우 각 조명의 디밍, 즉 조명 강도에 대한 정밀한 측정이 가능하다. 카메라 모듈(110)이 360도 LDR 카메라인 경우, 서로 다른 노출 시간을 갖는 복수 개의 LDR 영상을 취득한 후 복수 개의 LDR 영상을 병합하여 하나의 HDR 영상으로 병합하여 사용할 수 있다. When the camera module 110 is a 360-degree HDR camera, it is possible to accurately measure the dimming of each light, that is, the light intensity. When the camera module 110 is a 360-degree LDR camera, after obtaining a plurality of LDR images having different exposure times, a plurality of LDR images may be merged and merged into one HDR image.

거리 측정 모듈(120)은 천장 면과 바닥면 사이에 직진성 광원을 조사하여 대상 공간의 높이 정보를 측정하는 것으로서, 라인 레이저 센서, 깊이 센서, 변위 센서를 포함한 비접촉식 센서 중 어느 하나를 이용할 수 있다. 이러한 거리 측정 모듈(120)은 직진성 광원과 천장면의 거리에 따라 천장면에 조사된 직진성 광원의 크기 또는 형태가 달라지므로 이 크기 정보를 이용하여 천장의 높이를 파악할 수 있다. 이때, 거리 측정 모듈(120)은 천장면의 형상이나 길이에 따라 직진성 광원을 직선 형태, 십자 형태, 길이가 서로 다른 이방성 형태 또는 다수의 점 형태로 사용할 수 있다. The distance measurement module 120 measures height information of the target space by irradiating a straight light source between the ceiling surface and the floor surface, and may use any one of a non-contact sensor including a line laser sensor, a depth sensor, and a displacement sensor. The distance measurement module 120 may determine the height of the ceiling using this size information because the size or shape of the straight light source irradiated to the ceiling surface varies depending on the distance between the straight light source and the ceiling surface. At this time, the distance measurement module 120 may use a straight light source in a straight line, a cross shape, an anisotropic form having different lengths, or a plurality of dot forms depending on the shape or length of the ceiling surface.

연산 모듈(130)은 천장 공간 영상을 이용하여 조명 위치와 조명 강도를 산출하여 조명 공간 정보(302)를 구성하고, 천장 공간 영상에 기초하여 천장면의 형상 정보(301)를 획득한 후 천장면의 형상 정보(301), 대상 공간의 높이 정보, 조명 공간 정보(302)에 대해 렌더링 작업을 수행하여 3차원 조명 환경 정보(303)를 제공한다. 이와 같이, 연산 모듈(130)은 조명 공간 정보 획득 방법을 제공하는 전체 과정을 제어한다. 연산 모듈(130)이 수행하는 각 단계에 대해서는 도 5를 참조하여 후술하기로 한다.The calculation module 130 configures the lighting space information 302 by calculating the lighting position and the light intensity using the ceiling space image, and after obtaining the shape information 301 of the ceiling surface based on the ceiling space image, the ceiling surface 3D lighting environment information 303 is provided by performing a rendering operation on the shape information 301, the height information of the target space, and the lighting space information 302. As such, the calculation module 130 controls the entire process of providing the lighting space information acquisition method. Each step performed by the calculation module 130 will be described later with reference to FIG. 5.

여기서, 연산 모듈(130)은 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Here, the operation module 130 may include all kinds of devices capable of processing data, such as a processor. Here, the'processor (processor)', for example, may mean a data processing device embedded in hardware having physically structured circuits to perform functions represented by codes or instructions included in a program. As an example of such a data processing device embedded in hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, and an application-specific integrated ASIC circuit, a field programmable gate array (FPGA), and the like, but the scope of the present invention is not limited thereto.

조명 배광 데이터베이스(140)는 복수 개의 조명에 대한 배광 특성과 광 연출 패턴을 포함한 광학적 데이터에 대한 배광 정보(예를 들어, IES 파일)를 수집하여 저장한다. 조명 배광 데이터베이스(140)는 조명의 배광, 출력, 효율, 광속도, 조명기구의 가격 정보를 포함한다. The light distribution database 140 collects and stores light distribution information (for example, an IES file) for optical data including light distribution characteristics and light directing patterns for a plurality of lights. The lighting distribution database 140 includes light distribution, output, efficiency, light speed, and price information of lighting equipment.

도 4 및 도 5에 도시된 바와 같이, 배광 정보는 IES(Illuminating Engineering Society)에서 3차원 조명 배광을 기술하기 위한 데이터 포맷인 IES 파일을 배광 정보로 사용할 수 있다. As illustrated in FIGS. 4 and 5, the light distribution information may use an IES file, which is a data format for describing 3D light distribution in the IES (Illuminating Engineering Society), as light distribution information.

따라서, 연산 모듈(130)은 조명 배광 데이터베이스(140)와 연동하여 조명 공간 정보에 대응되는 배광 정보를 매핑하여 조명 공간 정보를 재구성할 수 있다. Accordingly, the calculation module 130 may reconstruct the lighting space information by mapping the light distribution information corresponding to the lighting space information in cooperation with the lighting distribution database 140.

또한, 조명 공간 정보 획득 장치(100)는 통신 모듈(150) 및 메모리(160)를 더 포함할 수 있다. In addition, the lighting space information acquisition device 100 may further include a communication module 150 and a memory 160.

이때, 통신 모듈(150)은 통신망을 통해 외부 단말에 3차원 조명 환경 정보를 전송하고, 카메라 모듈(110), 거리 측정 모듈(120) 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공한다. 또한, 통신 모듈(150)은 외부 단말로부터 제어 명령을 수신하고, 이에 대한 응답으로서 데이터를 송신하는 역할을 수행할 수 있다. At this time, the communication module 150 transmits three-dimensional lighting environment information to an external terminal through a communication network, and provides a communication interface necessary to provide transmission and reception signals between the camera module 110 and the distance measurement module 120 in the form of packet data. to provide. In addition, the communication module 150 may serve to receive a control command from an external terminal and transmit data in response thereto.

여기서, 통신 모듈(150)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.Here, the communication module 150 may be a device including hardware and software necessary for transmitting and receiving a signal such as a control signal or a data signal through a wired or wireless connection with another network device.

메모리(160)는 조명 공간 정보 획득 방법을 수행하기 위한 프로그램이 기록된다. 또한, 연산 모듈(130)이 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 메모리(160)는 휘발성 저장 매체(volatile storage media) 또는 비휘발성 저장 매체(non-volatile storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.In the memory 160, a program for performing a method for obtaining illumination space information is recorded. In addition, it performs a function of temporarily or permanently storing data processed by the operation module 130. Here, the memory 160 may include volatile storage media or non-volatile storage media, but the scope of the present invention is not limited thereto.

도 6은 본 발명의 일 실시예에 따른 조명 공간 정보 획득 방법을 설명하는 순서도이고, 도 7은 도 6의 천장 공간 영상 재매개 변수화 과정을 설명하는 예시도이다.6 is a flowchart illustrating a method for acquiring lighting space information according to an embodiment of the present invention, and FIG. 7 is an exemplary diagram illustrating a process of re-parameterizing a ceiling space image of FIG. 6.

도 6을 참조하면, 조명 공간 정보 획득 방법은, 천장 면에 설치된 적어도 하나 이상의 조명과 대향되는 면에 설치된 카메라 모듈을 이용하여 대상 공간의 천장 공간 영상을 획득한다(S11). Referring to FIG. 6, in the method for acquiring lighting space information, an image of a ceiling space in a target space is obtained using a camera module installed on a surface opposite to at least one light installed on the ceiling surface (S11 ).

그리고 연산 모듈은 거리 측정 모듈을 이용하여 천장 면과 바닥면 사이의 거리를 측정함으로써 대상 공간의 높이 정보를 산출한다(S12).And the calculation module calculates the height information of the target space by measuring the distance between the ceiling surface and the floor surface using a distance measurement module (S12).

연산 모듈은 천장 공간 영상에 기초하여 천장면의 형상 정보를 획득한 후 천장면의 형상 정보와 대상 공간의 높이 정보를 이용하여 입체 공간 정보를 산출한다(S13, S14).After calculating the shape information of the ceiling surface based on the ceiling space image, the calculation module calculates the three-dimensional space information using the shape information of the ceiling surface and the height information of the target space (S13, S14).

연산 모듈은 천장 공간 영상에 기초하여 천장면의 엣지를 추출하여 형상 정보를 산출하고, 천장 공간 영상에 대해 360도 왜곡된 영상을 보정하기 위해 재매개 변수화 과정을 수행한다(S15).The calculation module extracts the edge of the ceiling surface based on the ceiling space image to calculate shape information, and performs a reparameterization process to correct the 360-degree distortion image for the ceiling space image (S15).

연산 모듈은 천장 공간 영상을 이용하여 조명 위치, 조명 개수 및 조명 강도를 산출한 후 입체 공간 정보에 기초하여 조명 공간 정보를 구성한다(S16). 연산 모듈은 천장 공간 영상이 전방향(omni-directional, 360도) LDR의 다중 노출 영상일 경우, 여러 장의 천장 공간 영상을 이용하여 HDR 이미지를 생성한다. 이때, 카메라 모듈이 노출 시간 다른 여러 영상을 동시에 취득할 수 있는 장치일 경우, 연산 모듈은 카메라 모듈로부터 여러 장의 전방향 다중 노출 영상을 전송받아 방향 벡터 또는 노출값 조정을 통해 조명 위치를 파악할 수 있다.The calculation module calculates the lighting position, the number of lights, and the light intensity using the ceiling space image, and then configures the lighting space information based on the three-dimensional spatial information (S16). When the ceiling spatial image is an omni-directional (360-degree) LDR multiple exposure image, the arithmetic module generates an HDR image using multiple ceiling spatial images. At this time, when the camera module is a device capable of simultaneously acquiring multiple images with different exposure times, the calculation module may receive multiple omni-directional multiple exposure images from the camera module and grasp the illumination position by adjusting the direction vector or exposure value.

이때, 연산 모듈은 천장면을 미리 정의된 형상 정보(예를 들어, 사각형태)로 세팅할 경우, 미리 정의된 형상 정보를 이용하여 조명 위치를 손쉽게 결정할 수 있다.At this time, when the calculation module sets the ceiling surface with predefined shape information (for example, a rectangular shape), the lighting location can be easily determined using the predefined shape information.

연산 모듈은 천장 공간 영상에 대한 HDR 영상을 통해 대상 공간상의 조명 강도, 조명 위치, 조명 개수를 산출한다. 만일 천장 공간 영상이 LDR 영상인 경우, 연산 모듈은 서로 다른 노출 시간을 갖는 복수 개의 LDR 영상을 취득한 후 복수 개의 LDR 영상을 병합하여 하나의 HDR 영상으로 생성한 후 HDR 영상을 통해 대상 공간상의 조명 강도, 조명 위치, 조명 개수를 산출할 수 있다. The calculation module calculates the light intensity, the lighting position, and the number of lights in the target space through the HDR image of the ceiling space image. If the ceiling space image is an LDR image, the operation module acquires a plurality of LDR images having different exposure times, merges the plurality of LDR images into a single HDR image, and then generates the intensity of illumination in the target space through the HDR image. , Lighting position and number of lights can be calculated.

또한, 연산 모듈은 천장 공간 영상에 대한 노출 값을 점차적으로 낮춰 기설정된 저수준 임계값까지 하향 조정한 후 해당 영상에 남아있는 빛의 세기 영상을 이용하여 조명 위치를 산출하고, 천장 공간 영상천장 공간 영상에 대한 노출값을 점차적으로 높여 기설정된 고수준 임계값까지 상향 조정한 후 해당 영상에 남아 있는 빛의 세기 영상을 이용하여 조명 강도를 측정할 수 있다. In addition, the calculation module gradually lowers the exposure value for the ceiling space image to a predetermined low level threshold and calculates the lighting position using the intensity image of the light remaining in the image, and the ceiling space image ceiling space image After gradually increasing the exposure value for, and upwardly adjusting to a predetermined high level threshold, the intensity of the light can be measured by using the light intensity image remaining in the corresponding image.

연산 모듈은 HDR 카메라로 획득한 HDR 영상 또는 노출값이 다른 여러 LDR 영상을 하나의 HDR 영상으로 병합한 영상 중 어느 하나를 이용하여 조명의 밝기를 산출하되, 조명의 밝기는 HDR 영상의 픽셀값에 대응되는 조명의 밝기값을 통해 산출할 수 있다.The calculation module calculates the brightness of the light using any one of the HDR image obtained by the HDR camera or the image obtained by combining multiple LDR images with different exposure values into one HDR image, but the brightness of the light corresponds to the pixel value of the HDR image. It can be calculated through the brightness value of the illumination.

연산 모듈은 조명 배광 데이터베이스로부터 조명 공간 정보에 대응되는 배광 정보를 매핑하여 조명 공간 정보를 재구성하는데(S17, S18), 조명 공간을 좌표화하여서 각 조명이 위치하는 좌표의 빛 세기를 이용해 조명의 배광정보를 연산할 수 있다. 한편, 연산 모듈은 일반적으로 실내 공간에서 많이 사용하는 조명 기구에 대한 배광 정보별로 우선순위를 설정하고, 설정된 우선순위에 따라 조명 공간 정보에 우선순위별로 IES 파일을 대응시켜 조명 공간 정보를 재구성할 수도 있다.The calculation module reconstructs the lighting space information by mapping the light distribution information corresponding to the lighting space information from the lighting distribution database (S17, S18), and coordinates the lighting space to distribute the light using the light intensity of the coordinates where each light is located. Information can be computed. On the other hand, the calculation module may set the priority for each light distribution information for a lighting fixture that is commonly used in the indoor space, and may reconfigure the lighting space information by matching the lighting space information with the IES file for each priority according to the set priority. have.

연산 모듈은 HDR 영상을 통해 추정된 조명의 강도, 즉 빛의 세기와 조명 배광 데이터베이스에서 저장된 조명의 기본 배광 정보를 결합하여 조명 환경 공간을 구성할 수 있다. 이때, 조명 배광 데이터베이스는 천장 공간 영상을 통해 조명 형태가 평면 형태인 경우 평판 조명의 대표 배광 정보를 매핑하고, 천장 공간 영상의 조명 형태가 원 형태인 경우에 다운라이트 조명의 대표 배광 정보를 매핑하여 조명 환경 공간을 구성한다. The calculation module may configure the lighting environment space by combining the intensity of light estimated through the HDR image, that is, the intensity of light and basic light distribution information of the light stored in the light distribution database. At this time, the lighting distribution database maps representative light distribution information of flat panel lighting when the lighting form is flat through the ceiling space image, and maps representative light distribution information of downlight lighting when the lighting form of the ceiling space image is circular. Make up the lighting environment space.

또한, 연산 모듈은 대상 공간 내 많은 영향을 미치는 전역 조명과 일부 지역에 국한되어 영향을 주는 방향성을 갖는 지역 조명으로 분류하여 조명 공간 정보를 재구성한다.In addition, the operation module reconstructs the lighting space information by classifying it into global lighting having a large influence in the target space and local lighting having a directional effect that is limited to some areas.

연산 모듈은 입체 공간 정보와 조명 공간 정보에 대해 렌더링 작업을 수행하여 3차원 조명 환경 정보를 제공할 수 있고, 이 3차원 조명 환경 정보를 조명 시뮬레이션, AR 캐릭터 합성 등에 이용하도록 함으로써 캐릭터의 위치에 따른 조명 영향도를 반영하여 사실적으로 표현할 수 있고, 캐릭터와 배경 장면의 이질감을 해소할 수 있다. The arithmetic module may provide 3D lighting environment information by performing rendering work on the 3D spatial information and the lighting space information, and use the 3D lighting environment information according to the position of the character by using the lighting simulation, AR character synthesis, etc. It can be expressed realistically by reflecting the influence of lighting, and it can solve the heterogeneity between the character and the background scene.

한편, 도 7의 단계 S11 내지 S18은 본 발명의 구현예에 따라서 추가적인 단계들로 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계간의 순서가 변경될 수도 있다.Meanwhile, steps S11 to S18 of FIG. 7 may be divided into additional steps or combined into fewer steps according to an embodiment of the present invention. In addition, some steps may be omitted if necessary, and the order between the steps may be changed.

도 8은 본 발명의 다른 실시예에 따른 대상 공간의 조명 환경 평가 방법을 설명하는 순서도이다.8 is a flowchart illustrating a method for evaluating a lighting environment in a target space according to another embodiment of the present invention.

도 8을 참조하면, 대상 공간의 조명환경 평가 방법은 연산 모듈이 도 6에 도시된 조명 공간 정보 획득 방법을 통해 대상 공간에 대한 조명 공간 정보를 구성하여 저장한 경우, 이 조명 공간 정보를 읽어와 대상 공간에 조명의 좌표값, 각 조명의 강도, 조명 개수, 배광 정보를 포함한 대상 공간에 대한 조명 정보를 산출하고, 이 조명 정보를 이용하여 복수 개의 조명에 대한 배광 특성과 광 연출 패턴을 포함한 광학적 데이터에 대한 배광 정보, 출력, 조명기구의 가격 정보를 포함하는 조명 배광 데이터베이스와 연계하여, 대상 공간의 전체 밝기와 전력 사용량을 산출할 수 있다(S21, S22).Referring to FIG. 8, in the lighting environment evaluation method of the target space, when the calculation module configures and stores the lighting space information for the target space through the lighting space information acquisition method shown in FIG. 6, read the lighting space information Calculate the lighting information for the target space including the coordinate values of the light in the target space, the intensity of each light, the number of lights, and the light distribution information, and use the lighting information to optically include the light distribution characteristics and the light directing pattern for a plurality of lights In connection with a light distribution database including light distribution information for data, output, and price information of a lighting fixture, it is possible to calculate the total brightness and power consumption of the target space (S21, S22).

따라서, 사용자는 대상 공간의 전체 밝기와 전력 사용량에 대한 조명 에너지를 평가하여, 조명 제어, 에너지 절감 등을 수행할 수 있다(S23). Therefore, the user can evaluate the lighting energy for the total brightness and power consumption of the target space, and perform lighting control, energy saving, etc. (S23).

이상에서 설명한 본 발명의 실시예에 따른 조명 공간 정보 획득 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 이러한 기록 매체는 컴퓨터 판독 가능 매체를 포함하며, 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함하며, 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.The method for acquiring lighting space information according to an embodiment of the present invention described above may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Such recording media include computer readable media, which can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer readable media includes computer storage media, which are volatile and nonvolatile implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. , Removable and non-removable media.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration only, and those skilled in the art to which the present invention pertains can understand that the present invention can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be interpreted that all changes or modified forms derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. do.

100: 조명 공간 정보 획득장치
110: 카메라 모듈
120: 거리 측정 모듈
130: 연산 모듈
140: 조명 배광 데이터베이스
150 : 통신 모듈
160: 메모리
100: lighting space information acquisition device
110: camera module
120: distance measurement module
130: operation module
140: lighting distribution database
150: communication module
160: memory

Claims (13)

천장 면에 설치된 적어도 하나 이상의 조명과 대향되는 면에 설치되어 대상 공간의 천장 공간 영상을 획득하는 카메라 모듈;
상기 천장 면과 바닥면 사이에 직진성 광원을 조사하여 상기 대상 공간의 높이 정보를 측정하는 거리 측정 모듈; 및
상기 천장 공간 영상에 기초하여 천장면의 형상 정보를 획득한 후 상기 천장면의 형상 정보, 상기 대상 공간의 높이 정보를 이용하여 대상 공간에 대한 입체 공간 정보를 산출하고, 상기 천장 공간 영상을 이용하여 조명 위치와 조명 강도를 산출하여 상기 입체 공간 정보에 기초하여 조명 공간 정보를 구성하는 연산 모듈을 포함하는 것을 특징으로 하는 조명 공간 정보 획득 장치.
A camera module installed on a surface opposite to at least one light installed on a ceiling surface to acquire a ceiling space image of a target space;
A distance measurement module measuring height information of the target space by irradiating a straight light source between the ceiling surface and the floor surface; And
After obtaining the shape information of the ceiling surface based on the ceiling space image, three-dimensional space information for the target space is calculated using the shape information of the ceiling surface and the height information of the target space, and the ceiling space image is used. And a calculation module configured to calculate illumination position and illumination intensity and configure illumination space information based on the three-dimensional spatial information.
제 1 항에 있어서,
복수 개의 조명에 대한 배광 특성과 광 연출 패턴을 포함한 광학적 데이터에 대한 배광 정보를 수집하여 저장하는 조명 배광 데이터베이스를 포함하고,
상기 연산 모듈은 상기 천장 공간 영상을 통해 추정된 조명 강도와 상기 조명 배광 데이터베이스에서 저장된 조명의 기본 배광 정보를 결합하여 3차원 조명 환경 정보를 제공하는 것을 특징으로 하는 조명 공간 정보 획득 장치.
According to claim 1,
It includes a light distribution database that collects and stores light distribution information for optical data including light distribution characteristics and light directing patterns for a plurality of lights,
The calculation module is a lighting space information acquisition apparatus characterized in that it combines the light intensity estimated through the ceiling space image and the basic light distribution information of the light stored in the light distribution database to provide 3D lighting environment information.
제 1 항에 있어서,
상기 카메라 모듈은 HDR(High Dynamic Range) 영상, LDR(Low Dynamic Range) 영상, 360도(360 degree) 영상, 150도 이상의 화각을 가지는 광각 영상을 촬영하는 적어도 1대 이상의 카메라로 구성되는 것을 특징으로 하는 조명 공간 정보 획득 장치.
According to claim 1,
The camera module is characterized by consisting of at least one camera that captures a high dynamic range (HDR) image, a low dynamic range (LDR) image, a 360 degree (360 degree) image, and a wide angle image with an angle of view of 150 degrees or more. Lighting space information acquisition device.
제 1 항에 있어서,
상기 거리 측정 모듈은, 라인 레이저 센서, 깊이 센서, 변위 센서를 포함한 비접촉식 센서 중 어느 하나를 이용하는 것을 특징으로 하는 조명 공간 정보 획득 장치.
According to claim 1,
The distance measurement module, lighting space information acquisition device, characterized in that using any one of a non-contact sensor including a line laser sensor, a depth sensor, a displacement sensor.
대상 공간에 대해 조명 환경 정보를 획득하기 위한 조명 공간 정보 획득 장치에 의해 수행되는 조명 공간 정보 획득 방법에 있어서,
a) 천장 면에 설치된 적어도 하나 이상의 조명과 대향되는 면에 설치된 카메라 모듈을 이용하여 대상 공간의 천장 공간 영상을 획득하는 단계;
b) 비접촉식 거리 측정 방식을 이용하여 상기 천장 면과 바닥면 사이의 거리를 측정하여 상기 대상 공간의 높이 정보를 산출하는 단계;
c) 상기 천장 공간 영상에 기초하여 천장면의 형상 정보를 획득한 후 상기 천장면의 형상 정보와 상기 대상 공간의 높이 정보를 이용하여 입체 공간 정보를 산출하는 단계; 및
d) 상기 천장 공간 영상을 이용하여 조명 위치와 조명 강도를 산출하여 상기 입체 공간 정보에 기초하여 조명 공간 정보를 구성하는 단계를 포함하는 것을 특징으로 하는 조명 공간 정보 획득 방법.
In the lighting space information acquisition method performed by the lighting space information acquisition device for obtaining the lighting environment information for the target space,
a) acquiring a ceiling space image of a target space by using at least one light installed on a ceiling surface and a camera module installed on a surface facing the surface;
b) calculating height information of the target space by measuring a distance between the ceiling surface and the floor surface using a non-contact distance measurement method;
c) acquiring shape information of the ceiling surface based on the ceiling space image and calculating stereoscopic space information using the shape information of the ceiling surface and the height information of the target space; And
d) calculating lighting position and lighting intensity using the ceiling space image and constructing lighting space information based on the three-dimensional spatial information.
제 5 항에 있어서,
e) 상기 입체 공간 정보와 조명 공간 정보에 대해 렌더링 작업을 수행하여 3차원 조명 환경 정보를 제공하는 단계를 더 포함하는 것을 특징으로 하는 조명 공간 정보 획득 방법.
The method of claim 5,
e) a method of obtaining lighting space information, further comprising rendering 3D spatial information and lighting space information to provide 3D lighting environment information.
제 5 항에 있어서,
f) 복수 개의 조명에 대한 배광 특성과 광 연출 패턴을 포함한 광학적 데이터에 대한 배광 정보를 수집하여 조명 배광 데이터베이스에 저장하는 단계를 더 포함하고,
상기 d) 단계는, 상기 천장 공간 영상을 통해 추정된 조명 강도와 상기 조명 배광 데이터베이스에서 저장된 조명의 기본 배광 정보를 결합하여 조명 환경 공간을 재구성하는 것을 특징으로 하는 조명 공간 정보 획득 방법.
The method of claim 5,
f) further comprising collecting light distribution information for optical data including light distribution characteristics and light directing patterns for a plurality of lights and storing the light distribution information in a light distribution database,
In the step d), the lighting space information acquisition method is characterized in that the lighting environment estimated by the ceiling space image is combined with the basic light distribution information of the light stored in the lighting distribution database to reconstruct the lighting environment space.
제 5 항에 있어서,
상기 카메라 모듈은 HDR(High Dynamic Range) 영상 또는 360도(360 degree) 영상을 촬영하는 적어도 1대 이상의 카메라로 구성되는 경우,
상기 d) 단계는, 상기 천장 공간 영상에 대한 HDR 영상을 통해 대상 공간상의 조명 강도, 조명 위치, 조명 개수를 산출하는 것을 특징으로 하는 조명 공간 정보 획득 방법.
The method of claim 5,
When the camera module is composed of at least one camera that shoots a high dynamic range (HDR) image or a 360 degree (360 degree) image,
In the step d), the lighting space information acquisition method is characterized in that the lighting intensity on the target space, the lighting position, and the number of lights are calculated through the HDR image of the ceiling space image.
제 8 항에 있어서,
상기 d) 단계는, 상기 HDR 영상의 픽셀값에 대응되는 조명의 밝기값을 통해 조명 강도를 산출하는 것을 특징으로 하는 조명 공간 정보 획득 방법.
The method of claim 8,
The step d), the illumination space information acquisition method characterized in that the illumination intensity is calculated through the brightness value of the light corresponding to the pixel value of the HDR image.
제 5 항에 있어서,
상기 d) 단계는 상기 천장 공간 영상을 노출 값을 기설정된 저수준 임계값으로 조정하여 조명 위치를 산출하는 것을 특징으로 하는 조명 공간 정보 획득 방법.
The method of claim 5,
In step d), lighting space information is obtained by adjusting the exposure value of the ceiling space image to a predetermined low level threshold to calculate the lighting position.
제 5 항에 있어서,
상기 b) 단계는 직선 형태, 십자 형태 또는 다수의 점 형태 중 어느 하나의 형태를 가지는 직진성 광원을 사용하여 천장면에 직진성 광원을 조사하고, 상기 직진성 광원과 천장면의 거리에 따라 달라지는 직진성 광원의 크기 정보를 이용하여 높이 정보를 산출하는 것을 특징으로 조명 공간 정보 획득 방법.
The method of claim 5,
In step b), a straight light source is irradiated to the ceiling surface using a straight light source having any one of a straight line shape, a cross shape, or a plurality of dot shapes. A method of obtaining lighting space information, characterized in that height information is calculated using size information.
대상 공간에 대해 조명 환경 정보를 획득하기 위한 조명 공간 정보 획득 장치에 의해 수행되는 대상 공간의 조명 환경 평가 방법에 있어서,
a) 천장 면에 설치된 적어도 하나 이상의 조명과 대향되는 면에 설치된 카메라 모듈을 이용하여 대상 공간의 천장 공간 영상을 획득하는 단계;
b) 비접촉식 거리 측정 방식을 이용하여 상기 천장 면과 바닥면 사이의 거리를 측정하여 상기 대상 공간의 높이 정보를 산출하는 단계;
c) 상기 천장 공간 영상에 기초하여 천장면의 형상 정보를 획득한 후 상기 천장면의 형상 정보와 상기 대상 공간의 높이 정보를 이용하여 입체 공간 정보를 산출하는 단계;
d) 상기 천장 공간 영상을 이용하여 조명 위치와 조명 강도를 산출하여 상기 입체 공간 정보에 기초하여 조명 공간 정보를 구성하는 단계; 및
e) 상기 조명 공간 정보에 기초하여 상기 대상 공간에 대한 조명 에너지를 평가하는 단계를 포함하는 것을 특징으로 하는 대상 공간의 조명 환경 평가 방법.
In the lighting environment evaluation method of the target space performed by the lighting space information acquisition device for obtaining the lighting environment information for the target space,
a) acquiring a ceiling space image of a target space by using at least one light installed on a ceiling surface and a camera module installed on a surface facing the surface;
b) calculating height information of the target space by measuring a distance between the ceiling surface and the floor surface using a non-contact distance measurement method;
c) acquiring shape information of the ceiling surface based on the ceiling space image and calculating stereoscopic space information using the shape information of the ceiling surface and the height information of the target space;
d) calculating lighting position and lighting intensity using the ceiling space image and constructing lighting space information based on the three-dimensional spatial information; And
e) evaluating a lighting environment for the target space based on the lighting space information.
제 12 항에 있어서,
상기 e) 단계는,
복수 개의 조명에 대한 배광 특성과 광 연출 패턴을 포함한 광학적 데이터에 대한 조명의 배광, 출력, 효율, 광속도, 조명기구의 가격 정보를 포함하는 조명 배광 데이터베이스와 연계하여, 상기 조명 위치, 조명 개수, 조명 강도를 포함한 조명 정보를 통해 대상 공간의 전체 밝기 또는 전력 사용량을 산출하는 것을 특징으로 하는 대상 공간의 조명 환경 평가 방법.
The method of claim 12,
Step e),
The lighting position, number of lights, and lighting in connection with a light distribution database including light distribution, output, efficiency, light speed, and price information of a lighting device for optical data including light distribution characteristics and light directing patterns for a plurality of lights A method for evaluating a lighting environment in a target space, wherein the total brightness or power consumption of the target space is calculated through lighting information including intensity.
KR1020190005704A 2019-01-16 2019-01-16 Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space KR102242327B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190005704A KR102242327B1 (en) 2019-01-16 2019-01-16 Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190005704A KR102242327B1 (en) 2019-01-16 2019-01-16 Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space

Publications (2)

Publication Number Publication Date
KR20200089072A true KR20200089072A (en) 2020-07-24
KR102242327B1 KR102242327B1 (en) 2021-04-20

Family

ID=71892710

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190005704A KR102242327B1 (en) 2019-01-16 2019-01-16 Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space

Country Status (1)

Country Link
KR (1) KR102242327B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058889A1 (en) * 2021-10-05 2023-04-13 엘지전자 주식회사 Light capture device and light capture system including same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090000729A (en) * 2007-03-27 2009-01-08 경북대학교 산학협력단 System and method for web based cyber model house
KR20130060158A (en) * 2011-11-29 2013-06-07 삼성전자주식회사 Image processing apparatus and method
KR20160064784A (en) * 2014-11-28 2016-06-08 주식회사 어반베이스 Method and program for modeling 3-dimension structure by 2-dimension floor plan
JP2017068764A (en) * 2015-10-01 2017-04-06 日本放送協会 Illumination information acquisition device, illumination restoration device, and program of them

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090000729A (en) * 2007-03-27 2009-01-08 경북대학교 산학협력단 System and method for web based cyber model house
KR20130060158A (en) * 2011-11-29 2013-06-07 삼성전자주식회사 Image processing apparatus and method
KR20160064784A (en) * 2014-11-28 2016-06-08 주식회사 어반베이스 Method and program for modeling 3-dimension structure by 2-dimension floor plan
JP2017068764A (en) * 2015-10-01 2017-04-06 日本放送協会 Illumination information acquisition device, illumination restoration device, and program of them

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058889A1 (en) * 2021-10-05 2023-04-13 엘지전자 주식회사 Light capture device and light capture system including same

Also Published As

Publication number Publication date
KR102242327B1 (en) 2021-04-20

Similar Documents

Publication Publication Date Title
US11869139B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
CN104634276B (en) Three-dimension measuring system, capture apparatus and method, depth computing method and equipment
US9430700B2 (en) System and method for optimizing tracker system
Landau et al. Simulating kinect infrared and depth images
CN112529022B (en) Training sample generation method and device
CN107966155A (en) Object positioning method, object positioning system and electronic equipment
CN104634277A (en) Photographing device, photographing method, three-dimensional measuring system, depth calculation method and depth calculation device
KR20080045392A (en) Method for light environment reconstruction for image synthesis and storage medium storing program therefor
Logothetis et al. A cnn based approach for the point-light photometric stereo problem
Sommer et al. Scan methods and tools for reconstruction of built environments as basis for digital twins
Angelopoulou et al. Evaluating the effect of diffuse light on photometric stereo reconstruction
KR102242327B1 (en) Apparatus and Method for Acquiring Illumination Spatial Information and Method for Evaluating Illumination Environment of Target Space
EP3794910B1 (en) A method of measuring illumination, corresponding system, computer program product and use
JP5441752B2 (en) Method and apparatus for estimating a 3D pose of a 3D object in an environment
EP2779102A1 (en) Method of generating an animated video sequence
US11574449B1 (en) Methods and systems for off-device image frame rendering in augmented reality applications
Iske et al. A ray-tracing approach for simulating recognition abilities of active infrared sensor arrays
Rossi et al. Vostok: 3D scanner simulation for industrial robot environments
CN114139249A (en) Automatic light distribution method and device based on illusion engine and electronic equipment
CN114139250A (en) Automatic light distribution method, device, equipment and storage medium based on illusion engine
CN207622767U (en) Object positioning system
US20230090732A1 (en) System and method for real-time ray tracing in a 3d environment
Smith et al. Automatic Sub-pixel Projector Calibration Supporting Improved Calibration for Projected Environments
CN113658318A (en) Data processing method and system, training data generation method and electronic equipment
Zamłyńska et al. Study on AR Application Efficiency of Selected iOS and Android OS Mobile Devices

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant