KR101512141B1 - Smart lighting control device and method based direction of human motion - Google Patents

Smart lighting control device and method based direction of human motion Download PDF

Info

Publication number
KR101512141B1
KR101512141B1 KR1020130074945A KR20130074945A KR101512141B1 KR 101512141 B1 KR101512141 B1 KR 101512141B1 KR 1020130074945 A KR1020130074945 A KR 1020130074945A KR 20130074945 A KR20130074945 A KR 20130074945A KR 101512141 B1 KR101512141 B1 KR 101512141B1
Authority
KR
South Korea
Prior art keywords
illumination
human
image
lighting
region
Prior art date
Application number
KR1020130074945A
Other languages
Korean (ko)
Other versions
KR20150001541A (en
Inventor
이찬수
천성용
Original Assignee
영남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020130074945A priority Critical patent/KR101512141B1/en
Publication of KR20150001541A publication Critical patent/KR20150001541A/en
Application granted granted Critical
Publication of KR101512141B1 publication Critical patent/KR101512141B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • F21V23/0471Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

본 발명의 일 측면에 따르면,
사람 움직임 방향을 고려한 조명 제어 방법에 있어서, 조명 제어 장치의 영상 획득 수단이 깊이 영상을 획득하는 영상 획득 단계; 상기 조명제어장치의 사람위치 검출 수단이 상기 획득된 깊이 영상으로부터 사람 영상 영역을 검출하는 사람 영역 검출 단계; 상기 사람위치 검출 수단이 상기 사람 영상 영역의 사각형 꼭짓점의 좌표를 실제 공간 크기와 비례하여 지도 이미지 공간을 생성하고 상기 지도 이미지 공간에서 상기 사람 영상 영역의 중심 좌표를 추출하는 사람 위치 추출 단계; 상기 조명제어장치의 조명 위치 설정 수단이 상기 지도 이미지 공간에서 조명장치의 위치를 설정하는 조명 위치 설정 단계; 상기 조명제어장치의 조명 거리 계산 수단이 상기 사람 영상 영역의 중심 좌표와 상기 조명장치의 위치 좌표를 기반으로 조명 거리를 계산하는 조명 거리 계산 단계; 상기 조명제어장치의 이동 방향 검출 수단이 이전 사람 영상 영역의 중심 좌표로부터 현재 상기 사람 영상 영역의 중심 좌표를 차감하여 이동 방향을 구하는 이동 방향 검출 단계; 상기 이동 방향 검출 수단이 상기 사람 영상 영역의 중심 좌표를 기준으로 어깨 라인을 검출하고 상기 이동 방향을 바탕으로 바라보는 방향을 검출하는 바라보는 방향 검출 단계; 상기 조명제어장치의 조명 제어신호 생성 수단이 상기 조명 거리와 바라보는 방향을 포함하여 조명연출 패턴에 따른 조명 연출 제어 범위와 조명 연출 제어 신호를 생성하는 조명 제어신호 생성 단계; 및 상기 조명제어장치의 조명제어수단이 상기 조명 연출 제어 신호를 전송받아 상기 조명장치에 조명을 제어하는 신호를 발생하는 조명장치 제어 단계를 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법이 제공된다.
According to an aspect of the present invention,
A lighting control method considering a human motion direction, comprising: an image acquiring step of acquiring a depth image by an image acquiring unit of an illumination control apparatus; A human region detection step of detecting a human image region from the acquired depth image by human position detection means of the illumination control apparatus; A human position extraction step of the human position detection means generating a map image space in proportion to the actual space size of the coordinates of the rectangle corner of the human image region and extracting the center coordinates of the human image region in the map image space; A lighting position setting step of the lighting control device setting a position of the lighting device in the map image space; An illumination distance calculation step of the illumination control device calculating the illumination distance based on the center coordinates of the human image area and the position coordinates of the illumination device; A moving direction detection step of detecting a moving direction by subtracting a center coordinate of a current human image area from a center coordinate of a previous person image area; The moving direction detecting means detects a shoulder line based on a center coordinate of the human image region and detects a direction in which the line of sight is viewed based on the moving direction; An illumination control signal generation step of generating an illumination illumination control range and an illumination illumination control signal in accordance with an illumination illumination pattern including a direction in which the illumination control signal generation means of the illumination control device looks at the illumination distance; And a lighting device controlling step of generating a signal for controlling the lighting device by receiving the lighting direction control signal from the lighting control device of the lighting control device. / RTI >

Description

사람 움직임 방향을 고려한 스마트 조명 제어 장치 및 방법 {SMART LIGHTING CONTROL DEVICE AND METHOD BASED DIRECTION OF HUMAN MOTION}TECHNICAL FIELD [0001] The present invention relates to a smart lighting control apparatus and a smart lighting control apparatus,

본 발명은 사람의 움직이는 방향을 고려하여 조명을 제어하는 스마트 조명제어 장치 및 그 방법에 관한 것이다.The present invention relates to a smart lighting control apparatus and method for controlling lighting in consideration of a moving direction of a person.

기존의 조명들과 다르게 LED는 전력 소비가 적고 제어가 용이하기 때문에 에너지 절감을 위해 많은 연구가 진행되고 있다. Unlike conventional lighting, LEDs have low power consumption and are easy to control.

조명장치는 외부로부터 공급되는 전원에 의해 전기를 빛으로 변환하는 장치로써, 일반적으로 실내 또는 실외의 일정 위치에 설치되어 어두운 영역을 밝히기 위해 사용되는 장치를 의미한다.An illumination device is an apparatus for converting electricity into light by a power source supplied from the outside, and generally means a device installed at a certain position in the room or outdoor to illuminate a dark area.

최근에는 산업사회의 발전과 소득 향상으로 인해 이러한 조명장치가 어두운 영역을 밝히는 단순한 기능만을 수행하는 것이 아니라, 특정 영역을 장식하기 위한 장치로도 많이 사용되고 있다.In recent years, due to the development of the industrial society and the improvement of income, such a lighting apparatus is used not only as a simple function of illuminating a dark area but also as a device for decorating a specific area.

최근에는 복수의 조명장치를 일정한 규칙에 따라 온-오프 시키거나 사람의 감성이나 주변 분위기에 따라 조도나 색상이 변화될 수 있는 조명장치 제어 시스템도 보급되고 있다. 2. Description of the Related Art [0002] In recent years, a lighting apparatus control system has been popular in which a plurality of lighting apparatuses are turned on and off according to a certain rule, and illuminance or color can be changed according to human emotion or surrounding atmosphere.

그러나 일반적인 조명장치 제어 시스템의 경우, 특정 공간 내에서 많은 태양광의 양으로 인해 조도가 높은 창 측 영역에 설치된 조명장치와 상대적으로 작은 태양광의 양으로 인해 조도가 낮은 내측 영역에 설치된 조명장치의 조도를 동일하게 설정하였기 때문에, 조명장치가 설치되어 있는 공간의 조도가 전체적으로 불균일하게 됨은 물론, 불필요한 전력소비가 발생할 수 있다는 문제점이 있다.However, in the case of a general lighting device control system, the illuminance of a lighting device installed in a high-illuminated window area due to a large amount of sunlight in a specific space and the illumination device installed in a low- There is a problem that unnecessary power consumption may occur as well as the illuminance of the space in which the lighting device is installed may be uneven as a whole.

대한민국 공개 특허 공보 10-2013-0045069호에서는 상술한 문제점을 해결하기 위한 수단으로 복수 개의 조명장치가 설치되어 있는 특정공간의 각 경계선과 상기 조명장치의 위치정보를 이용하여 2차원의 격자모델을 구성하는 모델링부; 및 상기 격자모델 상에 존재하는 복수 개의 격자점에 매핑되는 각 조명장치들의 조도 값을 상기 각 경계선에서의 조도 값에 따라 상이하게 설정하여 조명장치들이 설치되어 있는 공간의 조도를 균일하게 제어할 수 있는 조명장치의 제어시스템 및 방법에 대해 개시되고 있다.In Korean Patent Laid-Open Publication No. 10-2013-0045069, as a means for solving the above-mentioned problem, a two-dimensional lattice model is constructed using each boundary line of a specific space in which a plurality of illuminating devices are installed, ; And illuminance values of respective illumination devices mapped to a plurality of grid points existing on the grid model are set differently according to illumination values at the respective boundary lines to uniformly control the illuminance of the space in which the illumination devices are installed A control system and method for a lighting device having a plurality of light sources are disclosed.

위와 같은 제어시스템은 조명장치가 설치된 공간 내에서 외부 밝기의 변화에 따라 해당 공간에 설치되어 있는 조명장치들의 조도분포를 적응적으로 제어함으로써 해당 공간의 조도 균일성을 향상시킬 수 있게 된다.In the control system, the illuminance uniformity of the corresponding space can be improved by adaptively controlling the illumination distribution of the illumination devices installed in the space in accordance with the change of the external brightness in the space where the illumination device is installed.

그러나 무대장치에서 사람 위주로 국부 조명을 할 경우에는, 사람이 바라보는 방향에 맞추어 제어 패턴 및 제어영역 범위를 다양하게 설정할 필요성이 제기되며, 조명의 위치와 조명 거리를 바탕으로 제어영역 범위를 효율적으로 제어할 수 있는 조명 제어 방법이 필요하다.However, it is necessary to set the control pattern and the control range in various ways according to the direction in which the person looks, and it is necessary to efficiently set the control range range based on the position of the illumination and the illumination distance A controllable lighting control method is needed.

대한민국 공개 특허 공보 10-2013-0045069호 (조명장치의 제어 시스템 및 방법 )Korean Patent Laid-Open Publication No. 10-2013-0045069 (Lighting system control system and method)

본 발명은 사람의 움직임 방향을 고려하여 제어 패턴에 따른 제어영역 범위를 설정하고 조명장치의 위치와 조명 거리를 바탕으로 조명을 제어하는 스마트 조명제어장치 및 방법을 제공하는 것에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a smart lighting control apparatus and method for controlling a lighting based on a position and an illumination distance of a lighting apparatus by setting a control range according to a control pattern in consideration of a movement direction of a person.

본 발명의 일 측면에 따르면,According to an aspect of the present invention,

깊이 영상을 획득할 수 있는 영상 획득부; 상기 깊이 영상으로부터 사람 영역과 위치를 검출하는 사람 위치 검출부; 지도 이미지상에 조명장치의 위치를 입력하여 조명장치의 위치를 설정하는 조명 위치 설정부; 상기 사람 위치 검출부에서 검출된 사람 위치와 상기 조명장치의 위치를 기반으로 조명 거리를 계산하는 조명 거리 계산부; 상기 사람 위치 검출부에서 검출된 사람 위치의 좌표와 이전 좌표를 바탕으로 이동 방향을 검출하고 상기 사람 영역으로부터 어깨선을 검출하며, 상기 이동 방향을 고려하여 바라보는 방향을 검출하는 이동 방향 검출부; 상기 조명 거리 계산부와 이동 방향 검출부에서 검출된 각 조명장치와의 거리와 각도를 바탕으로 조명연출 패턴에 따른 조명 연출 제어 신호를 생성하는 조명 제어 신호 생성부; 및 상기 조명 연출 제어 신호를 전송받아 상기 조명장치에 조명을 제어하는 신호를 발생하는 조명 제어부; 를 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 장치가 제공된다.
An image acquiring unit capable of acquiring a depth image; A human position detector for detecting a human region and a position from the depth image; An illumination position setting unit for setting the position of the illumination device by inputting the position of the illumination device on the map image; An illumination distance calculation unit for calculating an illumination distance based on the human position detected by the human position detection unit and the position of the illumination device; A movement direction detection unit for detecting a movement direction on the basis of coordinates of a person position detected by the human position detection unit and a previous coordinate, detecting a shoulder line from the human region, and detecting a direction in which the shoulder line is considered in consideration of the movement direction; An illumination control signal generating unit for generating an illumination directing control signal according to an illumination directing pattern on the basis of a distance and an angle between each of the illumination devices detected by the illumination distance calculating unit and the moving direction detecting unit; And an illumination control unit receiving the illumination direction control signal and generating a signal for controlling illumination of the illumination device; The smart lighting control device considers the human movement direction.

또한, 본 발명의 다른 측면에 따르면, 사람 움직임 방향을 고려한 조명 제어 방법에 있어서, 조명 제어 장치의 영상 획득 수단이 깊이 영상을 획득하는 영상 획득 단계; 상기 조명제어장치의 사람위치 검출 수단이 상기 획득된 깊이 영상으로부터 사람 영상 영역을 검출하는 사람 영역 검출 단계; 상기 사람위치 검출 수단이 상기 사람 영상 영역의 사각형 꼭짓점의 좌표를 실제 공간 크기와 비례하여 지도 이미지 공간을 생성하고 상기 지도 이미지 공간상에서 상기 사람 영상 영역의 중심 좌표를 추출하는 사람 위치 추출 단계; 상기 조명제어장치의 조명 위치 설정 수단이 상기 지도 이미지 공간에서 조명장치의 위치를 설정하는 조명 위치 설정 단계; 상기 조명제어장치의 조명 거리 계산 수단이 상기 사람 영상 영역의 중심 좌표와 상기 조명장치의 위치 좌표를 기반으로 조명 거리를 계산하는 조명 거리 계산 단계; 상기 조명제어장치의 이동 방향 검출 수단이 이전 사람 영상 영역의 중심 좌표로부터 현재 상기 사람 영상 영역의 중심 좌표를 차감하여 이동 방향을 구하는 이동 방향 검출 단계; 상기 이동 방향 검출 수단이 상기 사람 영상 영역의 중심 좌표를 기준으로 어깨 라인을 검출하고 상기 이동 방향을 바탕으로 바라보는 방향을 검출하는 바라보는 방향 검출 단계; 상기 조명제어장치의 조명 제어신호 생성 수단이 상기 조명 거리와 바라보는 방향을 포함하여 조명연출 패턴에 따른 조명 연출 제어 범위와 조명 연출 제어 신호를 생성하는 조명 제어신호 생성 단계; 및 상기 조명제어장치의 조명제어수단이 상기 조명 연출 제어 신호를 전송받아 상기 조명장치에 조명을 제어하는 신호를 발생하는 조명장치 제어 단계를 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법이 제공된다.
According to another aspect of the present invention, there is provided an illumination control method considering a human motion direction, comprising: an image acquiring step of acquiring a depth image by an image acquiring unit of the illumination control apparatus; A human region detection step of detecting a human image region from the acquired depth image by human position detection means of the illumination control apparatus; Wherein the human position detection means generates a map image space in proportion to the actual space size of the coordinates of the rectangle corner of the human image region and extracts the center coordinates of the human image region on the map image space; A lighting position setting step of the lighting control device setting a position of the lighting device in the map image space; An illumination distance calculation step of the illumination control device calculating the illumination distance based on the center coordinates of the human image area and the position coordinates of the illumination device; A moving direction detection step of detecting a moving direction by subtracting a center coordinate of a current human image area from a center coordinate of a previous person image area; The moving direction detecting means detects a shoulder line based on a center coordinate of the human image region and detects a direction in which the line of sight is viewed based on the moving direction; An illumination control signal generation step of generating an illumination illumination control range and an illumination illumination control signal in accordance with an illumination illumination pattern including a direction in which the illumination control signal generation means of the illumination control device looks at the illumination distance; And a lighting device controlling step of generating a signal for controlling the lighting device by receiving the lighting direction control signal from the lighting control device of the lighting control device. / RTI >

본 발명의 일 실시 예에 따르면, 사람의 바라보는 방향에 맞추어 원형 패턴 및 타원형 패턴 등 다양한 조명 제어 패턴을 설정할 수 있으며, 조명의 거리에 따라 적합한 조명 환경을 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, various lighting control patterns such as a circular pattern and an elliptical pattern can be set in accordance with the direction of the viewer, and an appropriate lighting environment can be provided according to the distance of the illumination.

본 발명의 또 다른 측면에 따르면, 사람의 바라보는 방향 및 이동 방향에 따라 적합한 국부 조명을 하게 되므로 자동으로 쾌적한 조명을 제공하면서 또한 불필요한 조명을 줄임으로써, 에너지를 절감할 수 있는 효과가 있다.
According to another aspect of the present invention, there is provided an effect of reducing unnecessary light while saving energy because the local illumination is appropriately performed according to the viewing direction and the moving direction of a person, thereby providing pleasant lighting automatically.

도 1은 본 발명의 일실시 예에 따른 사람의 움직임 방향을 고려한 스마트 조명 제어 장치에 관한 블록 선도이다.
도 2는 본 발명의 일실시 예에 따른 사람 후보 영역에 대한 영상 깊이 값의 히스토그램을 도시한 것이다.
도 3은 본 발명의 일실시 예에 따른 위치 설정부에서 지도 이미지 공간상에 조명의 위치를 설정한 것을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시 예에 따른 지도 이미지에서 사람의 이동에 따른 각도를 구하는 방법을 도시한 것이다.
도 5는 본 발명의 일실시 예에 따른 어깨선을 검출하기 위해 사람의 영역으로부터 어깨선을 추정하기 위한 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일실시 예에 따라 지도 이미지상에서 검출된 어깨선을 도시한 것이다.
도 7은 본 발명의 일실시 예에 따른 검출된 어깨선에 대한 각도를 설명하기 위한 도면이다.
도 8은 본 발명의 일실시 예에 따라 바라보는 방향을 검출하기 위한 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일실시 예에 따른 조명 제어 영역을 설명하기 위한 도면이다.
FIG. 1 is a block diagram of a smart lighting control apparatus considering a movement direction of a person according to an embodiment of the present invention.
FIG. 2 shows a histogram of image depth values for a human candidate region according to an embodiment of the present invention.
FIG. 3 is a view for explaining that a position of an illumination is set on a map image space in a position setting unit according to an embodiment of the present invention.
FIG. 4 illustrates a method of obtaining an angle according to a person's movement in a map image according to an embodiment of the present invention.
5 is a diagram for explaining a method for estimating a shoulder line from a region of a person to detect a shoulder line according to an embodiment of the present invention.
6 illustrates a shoulder line detected on a map image according to an embodiment of the present invention.
7 is a view for explaining an angle with respect to a detected shoulder line according to an embodiment of the present invention.
8 is a diagram for explaining a method for detecting a viewing direction according to an embodiment of the present invention.
9 is a view for explaining a light control area according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. It should be understood, however, that there is no intention to limit the invention to the particular embodiments described, and that all changes, equivalents, and alternatives falling within the spirit and scope of the invention

것으로 이해되어야 한다..

또한, 본 명세서에서, 일 구성요소가 다른 구성요소를 신호를 전송한다로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되어 신호를 전송할 수 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 신호를 전송할 수도 있다고 이해되어야 할 것이다.Further, in this specification, when an element is referred to as transmitting a signal to another element, the one element may be directly connected to the other element to transmit a signal, but in the absence of a specially contradictory description It should be understood that the signal may be transmitted through another component in the middle.

본 발명의 일 실시 예에 따르면 사람의 움직임 방향을 고려하여 원형 또는 타원형 등으로 조명의 제어영역 범위를 설정하고 조명의 위치와 조명 거리를 바탕으로 효과적으로 조명을 제어하는 장치 및 방법을 제안한다.According to an embodiment of the present invention, an apparatus and method for efficiently controlling illumination based on the position and illumination distance of an illumination are set up in a circular or elliptical shape in consideration of a movement direction of a person.

즉, 본 발명의 일 실시 예에 따르면, 사람의 바라보는 방향을 검출하여 사람의 바라보는 방향을 중심으로 조명의 영역을 포함하는 조명의 제어범위 영역을 설한 다음, 조명의 거리에 따라 적합한 조명 제어를 함으로써, 쾌적한 조명 환경을 제공하면서 또한 불필요한 조명을 줄여서 에너지를 절감할 수 있는 효과가 있다.That is, according to an embodiment of the present invention, a direction of a person's gaze is detected, and a control range region of an illumination including an area of illumination is centered on a direction in which a person looks, So that it is possible to reduce the unnecessary light and save energy while providing a pleasant lighting environment.

이하 첨부되는 도면을 참고하여 본 발명의 실시 예들에 대하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시 예에 따른 사람의 움직임 방향을 고려한 스마트 조명 제어 장치에 관한 블록도이다.FIG. 1 is a block diagram of a smart lighting control apparatus considering a moving direction of a person according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시 예에 따른 스마트 조명 제어 장치는 깊이 영상 또는 열 영상 등으로 조명의 변화와 관계없이 일정한 영상을 얻을 수 있는 카메라를 포함하는 영상 획득부(100), 영상 획득부(100)에서 획득한 영상을 바탕으로 사람의 위치를 추정하는 사람 위치 검출부(200), 조명의 위치를 설정할 수 있는 조명 위치 설정부(300), 사람의 위치와 조명의 위치를 바탕으로 거리를 계산할 수 있는 조명 거리 계산부(400), 사람의 이전 위치와 현재 위치를 통해 이동 방향과 어깨선을 바탕으로 바라보는 방향을 검출할 수 있는 이동 방향 검출부(500), 조명 거리 계산부(400)에서 계산된 거리와 이동 방향 검출부(500)에서 검출된 이동방향을 바탕으로 조명 신호를 생성하는 조명 신호 생성부(600) 및 상기 조명 신호 생성부(600)에서 생성된 조명 신호에 의해 조명장치를 제어하는 조명 제어부(700)를 포함한다.Referring to FIG. 1, the smart lighting control apparatus according to an exemplary embodiment of the present invention includes an image acquisition unit 100 including a camera capable of obtaining a constant image regardless of a change in illumination, such as a depth image or a thermal image, A human position detecting unit 200 for estimating the position of a person based on the image acquired by the imaging unit 100, an illumination position setting unit 300 for setting the illumination position, A moving direction detecting unit 500 capable of detecting a direction of looking at a moving direction and a shoulder line through a previous position and a current position of a person, an illumination distance calculating unit 400, (600) for generating an illumination signal on the basis of the distance calculated in the movement direction detecting unit (500) and the movement direction detected by the movement direction detecting unit (500) It comprises a light controller 700 that controls the lighting device.

먼저, 사람 움직임 방향 기반의 조명 제어 장치가 조명장치를 제어하는 방법은 깊이 영상을 획득하는 단계를 수행하게 된다.First, a method of controlling a lighting device based on a human motion direction based on a lighting control device performs a step of acquiring a depth image.

상술한 실시 예에서 영상 획득부(100)는 거리 또는 깊이(depth), 열 영상을 획득할 수 있는 장치로 스테레오 카메라를 이용한 disparity 영상을 획득하는 장치 또는 TOF(Time of Flight) 방식을 이용한 시간 차이를 측정해서 깊이 영상을 획득하는 장치, 특정한 빛 패턴(Light Structure)을 방사하여 왜곡된 빛 패턴을 계산하여 깊이 영상을 획득하는 장치 등을 포함한다. 이러한 깊이 측정 카메라는 이미 개발된 키넥트(Kinect), bumblebee 등이 사용될 수 있다. 열 영상을 획득하는 장치로는 원거리에서 온도측정에 사용될 수 있는 서모파일(thermopile)을 어레이(Arrary)로 사용하여 카메라의 CMOS 센서와 유사하게 동작할 수 있는 서모파일 어레이를 사용하여 열 영상을 획득하는 장치가 포함될 수 있다.In the above-described embodiment, the image acquisition unit 100 may acquire a disparity image using a stereo camera as a device capable of acquiring a distance, a depth, a thermal image, or a device that acquires a disparity image using a stereo camera or a time difference And a device for acquiring a depth image by calculating a distorted light pattern by radiating a specific light pattern. Such a depth measuring camera may be a developed Kinect, bumblebee, or the like. As a device for obtaining a thermal image, a thermopile, which can be used for temperature measurement at a remote place, is used as an array and a thermal image is acquired using a thermopile array which can operate similar to a CMOS sensor of a camera May be included.

본 발명에서는 disparity 영상, depth 영상, 거리 영상, 깊이 영상에 대한 용어를 깊이 영상으로 통일하여 정의한다. 또한, 열 영상을 획득하는 장치를 열 영상 카메라로 정의한다.In the present invention, the terms for disparity image, depth image, distance image, and depth image are defined as unified depth images. Also, a device for acquiring a thermal image is defined as a thermal imaging camera.

본 발명의 일 실시 예에 따르면, 영상 획득부(100)에서는 깊이 영상 카메라 또는 열 영상 카메라를 통하여 깊이 영상을 획득하여 사람 위치 검출부(200)로 전송한다. According to an embodiment of the present invention, the image acquisition unit 100 acquires a depth image through a depth image camera or a thermal image camera and transmits the depth image to the human position detector 200.

본 발명의 일 실시 예에 따른 사람움직임 방향을 고려한 스마트 조명 제어 장치가 조명장치를 제어하는 방법은 깊이 영상을 획득하는 단계 이후에 획득된 깊이 영상으로부터 사람 영상 영역을 검출하는 단계를 수행하게 된다.A method of controlling a lighting device according to an embodiment of the present invention includes a step of detecting a human image region from a depth image obtained after acquiring a depth image.

상술한 사람 위치 검출부(200)는 영상 획득부(100)에서 전송된 깊이 영상으로부터 사람의 영역과 사람의 위치를 검출한다. The above-described human-position detecting unit 200 detects a human's region and a person's position from the depth image transmitted from the image obtaining unit 100.

본 발명의 일 실시 예에 따르면, 깊이 영상 값은 거리 값(mm) 또는 그레이 픽셀 값으로 표시될 수 있다. According to an embodiment of the present invention, the depth image value may be represented by a distance value (mm) or a gray pixel value.

여기서 그레이 값은 깊이 영상 카메라가 측정할 수 있는 최솟값과 최댓값을 바탕으로 255 범위로 계산되거나, 사용자가 측정할 범위를 지정하여 그 범위를 255 범위 내에서 갖도록 할 수 있다. 가령, 깊이 영상 카메라가 측정할 수 있는 거리가 1mm ~ 5000mm 라고 하고 영상 내의 한 점(Point)이 500mm이라면 이 점의 그레이 값은 다음과 같이 구할 수 있다. Here, the gray value may be calculated as 255 based on the minimum value and the maximum value that can be measured by the depth image camera, or the range to be measured by the user may be specified to have the range within the 255 range. For example, if the distance that the depth camera can measure is 1mm ~ 5000mm and one point in the image is 500mm, the gray value of this point can be obtained as follows.

Figure 112013057961006-pat00001
Figure 112013057961006-pat00001

여기서 그레이 값은 설정에 따라 소수점이 반올림 되거나 올림, 버림 될 수 있다.Here, the gray value may be rounded up or rounded up or down depending on the setting.

또 다른 일 실시 예에서는 사용자가 측정할 범위를 지정하기 위해 천장에 설치된 깊이 영상 카메라에서 획득한 깊이 영상을 바탕으로 최대 깊이 값은 바닥면으로 설정하고 나머지 범위를 정규화하여 그레이 값으로 사용할 수 있다.In another embodiment, the maximum depth value may be set as the bottom surface and the remaining range may be normalized to be used as a gray value based on the depth image acquired from the depth image camera installed on the ceiling in order to specify the range to be measured by the user.

깊이 영상을 바탕으로 사람 위치를 검출하기 위해 먼저 배경 영역을 제거한다. Based on the depth image, we first remove the background area to detect the human position.

본 발명의 일실시 예에서는 최대 깊이 값과 최대 깊이 값을 기준으로 일정 범위의 값까지를 배경으로 설정하여 입력된 깊이 영상에서 배경 영역을 제거하는 단계를 수행한다. In an exemplary embodiment of the present invention, a background area is removed from an input depth image by setting a range up to a certain range based on a maximum depth value and a maximum depth value.

본 발명의 일 실시 예에 따르면, 사람 위치 검출부(200)는 깊이 영상으로부터 사람을 검출하기 위해 최대 깊이 값과 상기 최대 깊이 값으로부터 일정 범위의 값까지를 배경으로 설정하여 상기 깊이 영상의 배경 영역 제거하며, 상기 제거된 배경 영역으로부터 나머지 영역들의 크기가 일정 크기 이상이면 물체 영역으로 설정하게 되며, 상기 물체 영역의 중심 좌표, 바운더리, 깊이 중 어느 하나 이상을 바탕으로 사람 영역의 정보를 검출하여 사람 영역으로 설정하는 수단을 포함하게 된다.   According to an embodiment of the present invention, the human position detection unit 200 sets a background from a maximum depth value to a certain range value from the maximum depth value to detect a person from a depth image, And if the size of the remaining area from the removed background area is equal to or larger than a predetermined size, the object area is set as the object area, and information of the human area is detected based on at least one of the center coordinates, the boundary, and the depth of the object area, As shown in FIG.

본 발명의 일 실시 예에서, FOV(field of view)를 50° 가지는 깊이 영상 카메라가 3000mm 높이에 바닥면과 평행하게 설치되어 바닥면을 수직으로 관찰하고 있다고 가정하면, 깊이 영상 카메라가 측정할 수 있는 최대 거리는 25°의 꼭지각을 갖는 두 개의 직각 삼각형의 빗변에 해당된다. (FOV는 카메라를 정면에서 봤을 때의 각도이므로, 실제로 한쪽 평면에서는 θ/2만 적용되게 된다) 그리고 cosθ 에 의해 최대거리 x를 구할 수 있다.In one embodiment of the present invention, assuming that a depth image camera with a field of view (FOV) of 50 ° is installed parallel to the floor at a height of 3000 mm and observes the floor vertically, The maximum distance corresponds to the hypotenuse of two right triangles with an apex angle of 25 °. (Since FOV is the angle when the camera is viewed from the front, only θ / 2 is actually applied in one plane), and the maximum distance x can be obtained by cosθ.

따라서 빗변을 따라 도달하는 카메라의 최대 측정 거리는 다음과 같이 구할 수 있다. Therefore, the maximum measuring distance of the camera reaching along the hypotenuse can be obtained as follows.

Figure 112013057961006-pat00002
,
Figure 112013057961006-pat00003
Figure 112013057961006-pat00002
,
Figure 112013057961006-pat00003

배경을 제거하기 위한 문턱치를 th라고 한다면, 문턱치는

Figure 112013057961006-pat00004
와 같은 범위를 가져야한다. 일반적으로 (유아가 아닌) 사람은 카메라의 수직 아래에서 1000mm 이상의 키를 가지므로 2000mm에 해당하는 픽셀 값을 기준으로 문턱치(thresholding)를 주어 배경을 제거할 수 있으며, FOV를 고려하여 2,200mm을 최종 th로 설정할 수 있다. If the threshold for removing the background is I th , then the threshold is
Figure 112013057961006-pat00004
Should be in the same range. Generally, a person (not an infant) has a key of more than 1000mm below the vertical of the camera. Therefore, the background can be removed by thresholding based on the pixel value of 2000mm, and the background can be removed by considering the FOV. I th .

또 다른 실시 예에서는, 열영상 카메라의 픽셀 값은 온도 값으로 표시되며, 카메라 설정에 의하여 특정 온도 범위에 대해서만 측정하도록 할 수 있다. 가령 사람은 보통 36도의 체온을 가지나 옷, 머리카락에 의해서 감소된 열만을 측정이 가능하다. 따라서 측정 범위를 27° ~ 35°의 범위로 설정하면 사람의 열 영상을 획득할 수 있다. 열 영상은 실제로 온도 값을 가지기 때문에 이를 그레이 값으로 변환하여 사용한다. 실제로 열 영상은 노이즈에 의해 정확한 사람에 대한 영상이 아닌 노이즈를 포함한 영상을 획득하기 때문에 노이즈 제거를 위해 30°에 해당하는 픽셀 값을 바탕으로 문턱치를 설정하여 노이즈를 제거할 수 있다.In another embodiment, the pixel values of the thermal imaging camera are represented by temperature values and can be measured only for a specific temperature range by camera setup. For example, a person usually has a body temperature of 36 degrees, but only the heat reduced by clothes and hair can be measured. Therefore, if the measurement range is set to a range of 27 ° to 35 °, a human thermal image can be obtained. Since the thermal image actually has a temperature value, it is converted into a gray value and used. Actually, since the thermal image acquires the image including the noise, not the image for the accurate person due to the noise, noise can be removed by setting the threshold value based on the pixel value corresponding to 30 ° in order to remove the noise.

깊이 영상 또는 열 영상에서 배경 영역을 제거한 후, 검출된 영역에 대해 각 영역의 크기가 일정 크기 이상이 되는 영상을 추출하며 추출된 영상을 판단하여 사람 후보 영역으로 선정을 한다. 여기서 일정 크기 이하의 검출된 영역은 노이즈 성분으로 간주하여 제거되도록 하기 위함이다. After removing the background region from the depth image or the thermal image, an image having a size larger than a predetermined size is extracted for the detected region, and the extracted image is judged to be a human candidate region. Here, the detected region of a certain size or less is regarded as a noise component so as to be removed.

본 발명의 일실시 예에 따르면, 다양한 실험치에 의하여 각 물체가 가지는 영상의 픽셀의 수에서, 이 픽셀 수가 카메라 해상도의 0.5% 미만인 영상에 대하여는 대부분 노이즈 성분인 것을 알 수 있었다.According to an embodiment of the present invention, it is found that the number of pixels of an image possessed by each object is mostly a noise component for an image having a pixel resolution of less than 0.5% of the camera resolution by various experimental values.

따라서, 본 발명의 일 실시 예에서는 각 물체가 가지는 영상의 픽셀의 수에서, 이 픽셀 수가 카메라 해상도의 0.5% 미만인 영상에 노이즈 성분으로 간주하고 제거하게 된다.Therefore, in an embodiment of the present invention, the number of pixels of each image has an image number less than 0.5% of the camera resolution, which is considered as a noise component, and is removed.

예를 들면, 카메라의 해상도가 640×480일 때, 이에 0.5%에 해당하는 크기는 640×480×0.005=1536이며, 이보다 작은 크기를 가지는 영역에 대해서는 사람 위치 검출부(200)에서 노이즈로 간주하여 제거하게 된다.For example, when the resolution of the camera is 640x480, the size corresponding to 0.5% is 640x480x0.005 = 1536, and the area having a smaller size is regarded as noise in the human-position detecting unit 200 .

본 발명의 일 실시 예에서는 사람 후보 영역은 영역의 좌측 상단의 픽셀 좌표와 우측 하단의 픽셀 좌표의 위치를 바탕으로 바운더리(boundary)를 구하며, 바운더리의 중심을 중심점으로 사용한다.In one embodiment of the present invention, the human candidate region is determined based on the pixel coordinates of the upper left corner and the pixel coordinates of the lower right corner of the region, and the center of the boundary is used as the center point.

또 다른 실시 예에서는 깊이 영상 카메라를 사용할 경우에는 사람 후보의 영역의 중심은 머리 영역을 검출하고 머리 영역의 중심점을 사용할 수 있다. In another embodiment, when a depth image camera is used, the center of a human candidate region may be detected as a head region and the center point of the head region may be used.

본 발명의 일 실시 예인 도 2는 본 발명의 일실시 예에 따른 사람 후보 영역의 영상 깊이 값의 히스토그램을 도시한 것이다.FIG. 2 illustrates an image depth value histogram of a human candidate region according to an exemplary embodiment of the present invention. Referring to FIG.

본 발명의 일실시 예에 따르면, 다양한 실험치에 의하여, 사람 후보 영역의 영상 깊이 값의 히스토그램 CDF(Cumulative Distribution Function)의 하위 10% 영역에 해당하는 값이 머리 영역에 해당하는 것임을 알 수 있었다.According to one embodiment of the present invention, it is found that a value corresponding to the lower 10% region of the histogram CDF (Cumulative Distribution Function) of the image depth value of the human candidate region corresponds to the head region.

깊이 영상에서 사람 후보 영역은 카메라로부터 가장 가까운 값이 가장 낮은 값을 갖게 된다(0 값은 제외). 따라서 사람 후보 영역 중 가장 작은 픽셀 값이 카메라와 머리 간의 거리 중 가장 가까운 지점을 의미하게 된다. 하지만, 머리는 둥글기 때문에 머리 영역 전체가 모두 같은 값을 가지지 않는다. In the depth image, the nearest candidate candidate region has the lowest value (excluding 0). Therefore, the smallest pixel value among the candidate regions means the closest point between the camera and the head. However, since the head is round, the entire head area does not have the same value.

실험치에 의하면 머리 영역은 대부분 히스토그램의 CDF중 하위 10% 영역을 차지하게 됨을 알 수 있었다.Experimental results show that the head region occupies the lower 10% of the CDF of the histogram.

그러므로 머리 영역을 지정하기 위해 스토그램의 CDF중 하위 10% 영역을 사용하여 머리 영역을 구할 수 있다. 이값은 응용 시스템에 따라 그 값은 달라질 수 있다. 이값이 작아지면 노이즈 등에 의한 오류가 증가하고, 이값이 너무 커지면 머리 부분뿐 아니라 신체의 다른 영역도 포함하게 되어 정확도가 떨어지게 된다.Therefore, to specify the head region, you can use the lower 10% region of the CDF of the stream to obtain the head region. This value can vary depending on the application system. If this value becomes smaller, errors due to noise increase, and if this value becomes too large, accuracy is lowered because it includes not only the head but also other areas of the body.

도 2를 참조하면, 깊이 카메라를 사용할 경우에는 머리 영역은 사람 후보 영역의 영상 깊이 값의 히스토그램 CDF(Cumulative Distribution Function)의 하위 10% 영역에 해당하는 값(90)을 머리 영역의 픽셀 값으로 추정한다.
Referring to FIG. 2, when using a depth camera, the head region estimates a value (90) corresponding to the lower 10% region of the histogram CDF of the image depth value of the human candidate region as the pixel value of the head region do.

본 발명의 일 실시 예에 따르면, 사람 영역 설정 단계에서는 사람 후보 영역에 해당하는 물체의 중심 좌표에 대해서 아래의 식과 같이 일정 프레임 동안의 누적 이동량이 일정 값(THacc) 이상이 되면 사람 영역으로 설정한다. According to an embodiment of the present invention, in the human region setting step, when the cumulative amount of movement during a certain frame is equal to or greater than a predetermined value THacc with respect to the center coordinates of the object corresponding to the human candidate region, .

예를 들면, 지도 이미지에서 x, y 픽셀에 대해 움직임이 5 이하인 움직임은 노이즈로 간주할 수 있다. 그리고 5프레임간의 누적 이동 거리가 7(

Figure 112013057961006-pat00005
=7)초과인 사람 후보 영역은 위치 검출부에서 사람 영역으로 판단할 수 있다.For example, in a map image, a motion with a motion of 5 or less for x, y pixels can be regarded as noise. If the cumulative moving distance between 5 frames is 7 (
Figure 112013057961006-pat00005
= 7) can be judged as a human region in the position detecting section.

누적 이동량은 다음 [수학식 1]로 나타낸다.The cumulative movement amount is expressed by the following equation (1).

Figure 112013057961006-pat00006
Figure 112013057961006-pat00006

(여기서 acc는 누적값을 나타내며, i는 i번째 사람 후보 영역, t는 현재 프레임, n은 측정할 최대 프레임 수, x는 i번째 후보 영역의 x 좌표, y는 i번째 후보 영역의 y좌표를 의미한다.)Where i is the ith candidate region, t is the current frame, n is the maximum number of frames to be measured, x is the x coordinate of the ith candidate region, y is the y coordinate of the ith candidate region, it means.)

[수학식 1]에서 구한

Figure 112013057961006-pat00007
이면 사람 후보 영역은 사람 영역으로 판단하게 된다.
≪ EMI ID = 1.0 >
Figure 112013057961006-pat00007
The person candidate region is judged to be a human region.

본 발명의 일 실시 예에 따른 조명 연출 제어방법은, 검출된 사람 영상 영역의 사각형 꼭짓점의 좌표를 실제 공간 크기와 비례하여 지도 이미지 공간을 생성하고 상기 지도 이미지 공간상에서 상기 사람 영상 영역의 중심 좌표를 추출하는 단계를 포함한다.
The illumination directing control method according to an embodiment of the present invention includes the steps of generating a map image space in proportion to the actual space size of the coordinates of the rectangle corner of the detected human image area and setting the center coordinates of the human image area on the map image space .

본 발명의 일실시 예에서는 고정되어 있는 카메라로부터 입력된 깊이 영상의 사각형 꼭짓점의 좌표를 실제 공간 크기와 비례하여 지도 이미지 공간을 생성하게 된다.In an embodiment of the present invention, a coordinate image of a square vertex of a depth image input from a fixed camera is generated in proportion to an actual spatial size.

중심좌표 추출 단계에서는 상기 사람 영상의 이미지 중심부를 지도 이미지 공간의 좌표로 추출한다.In the center coordinate extraction step, the center of the image of the human image is extracted as the coordinates of the map image space.

본 발명의 일 실시 예에서는 상기 지도 이미지 공간으로 투시(perspectvie) 변환을 통해 실제 공간을 이미지 공간으로 투영하게 되며, 카메라의 설치 위치에 따라 입력된 영상 좌표를 실제 위치의 가상 좌표와 비교하여 좌표 보정을 하게 된다. 중심좌표 추출과 좌표 보정 단계를 거쳐서 실제 대상이 위치한 공간 좌표로 변환하는 단계를 수행한다. In an embodiment of the present invention, the actual space is projected to the image space through perspectvie transformation into the map image space, and the input image coordinates are compared with the virtual coordinates of the actual position according to the installation position of the camera, . The center coordinate extraction and the coordinate correction step are performed to convert the coordinates into the spatial coordinates at which the actual object is located.

상술한 조명 위치 설정부(300)는 주어진 공간에 대한 이미지 맵에 대하여 설정하고자하는 위치가 입력되면, 이를 바탕으로 조명의 위치를 설정하는 인터페이스를 제공하는 수단을 포함한다. 즉, 조명 위치 설정부(300)는 미리 지정하거나 유저 인터페이스 등을 통해 이미지 공간상에서의 조명 위치를 설정할 수 있다.
The illumination position setting unit 300 includes means for providing an interface for setting an illumination position based on a position to be set for an image map for a given space. That is, the illumination position setting unit 300 can preset the illumination position on the image space through the user interface or the like.

본 발명의 일 실시 예에 따른 조명 연출 제어방법은, 지도 이미지 공간에서 조명장치의 위치를 설정하는 단계를 포함한다.An illumination directing control method according to an embodiment of the present invention includes a step of setting a position of a lighting apparatus in a map image space.

도 3은 본 발명의 일실시 예에 따른 위치 설정부에서 지도 이미지 공간상에 조명의 위치를 설정한 예이다.FIG. 3 is an example of setting a position of an illumination on a map image space in a position setting unit according to an embodiment of the present invention.

본 발명의 일 실시 예에 따르면, 지도 이미지(30)는 실제 공간의 크기에 비례하게 평면으로 나타내며, 조명의 위치를 초기값으로 입력하여 설정한다. 또한, 각 조명은 조명 제어를 위한 컨트롤러로부터 아이디(1 ~ 12)가 부여되어 있으며, 조명의 위치를 설정할 때 조명의 아이디(1 ~12)와 같은 위치를 설정하도록 한다. According to an embodiment of the present invention, the map image 30 is displayed in a plane in proportion to the size of the actual space, and is set by inputting the position of the illumination as an initial value. Further, IDs 1 to 12 are assigned from the controller for lighting control of each illumination, and the same position as the IDs 1 to 12 of the illumination is set when setting the position of the illumination.

본 발명의 일실시 예에서는 실제 공간 300×500㎠인 공간을 600×1000 픽셀의 지도 이미지에 1:2 비율로 나타내었으며 12개의 조명을 균등하게 배치하고, 조명의 위치도 같은 비율로 지도 이미지에 설정하였다. 또한, 각 조명은 도 2와 같이 아이디(1 ~ 12)를 부여하여 개별로 제어할 수 있도록 하였다.
In an embodiment of the present invention, a space having an actual space of 300 × 500 cm 2 is represented by a 1: 2 ratio with a map image of 600 × 1000 pixels, 12 lights are evenly arranged, Respectively. In addition, each of the illuminations can be individually controlled by assigning IDs 1 to 12 as shown in FIG.

조명 거리 계산부(400)에서는 사람 위치 검출부(200)에서 검출된 사람 위치와 조명 위치 설정부에서 설정된 조명과의 위치를 기반으로 각 조명과의 거리를 계산한다, The illumination distance calculation unit 400 calculates the distance between each person and the illuminant based on the human position detected by the human position detection unit 200 and the position of the illumination set by the illumination position setting unit.

사람과 조명과의 거리는 다음 [수학식 2]로부터 구해진다.The distance between the person and the illumination is obtained from the following equation (2).

Figure 112013057961006-pat00008
Figure 112013057961006-pat00008

여기서 j는 각 조명이며,

Figure 112013057961006-pat00009
는 I번 째 검출된 사람의 지도 이미지상에서 위치를 의미하며
Figure 112013057961006-pat00010
는 지도 이미지상에서의 j번 째 조명의 위치,
Figure 112013057961006-pat00011
는 i번 째 사람과 j번 째 조명과의 거리를 의미한다.
Where j is each illumination,
Figure 112013057961006-pat00009
Indicates the position on the map image of the I-th detected person
Figure 112013057961006-pat00010
The position of the j-th light on the map image,
Figure 112013057961006-pat00011
Is the distance between the i-th person and the j-th light.

본 발명의 일 실시 예에 따른 조명 연출 제어방법은, 이전 사람 영상 영역의 중심 좌표로부터 현재 상기 사람 영상 영역의 중심 좌표를 차감하여 이동 방향을 구하는 단계를 포함한다.The illumination directing control method according to an embodiment of the present invention includes a step of subtracting a center coordinate of a current human image area from a center coordinate of a previous human image area to obtain a moving direction.

도 4는 본 발명의 일실시 예에 따른 지도 이미지에서 사람의 이동에 따른 각도를 구하는 방법을 도시한 것이다.FIG. 4 illustrates a method of obtaining an angle according to a person's movement in a map image according to an embodiment of the present invention.

본 발명의 일 실시 예에 따르면, 이동 방향 검출부(500)는 사람 위치 검출부에서 검출된 사람의 영역을 바탕으로 어깨선을 검출하고 이전의 사람 위치와 현재 위치로부터 이동방향을 검출한다.According to an embodiment of the present invention, the moving direction detecting unit 500 detects a shoulder line based on a region of a person detected by the human position detecting unit, and detects a moving direction from a previous human position and a current position.

또한, 검출된 어깨선과 이동 방향을 바탕으로 바라보는 방향을 검출하게 된다.In addition, the direction of sight is detected based on the detected shoulder line and the direction of movement.

본 발명의 일실시 예에서는 이전 사람 위치와 현재 위치로부터 이동 방향을 검출하기 위해 다음과 같은 식을 통해 이동방향을 검출할 수 있다.In one embodiment of the present invention, the moving direction can be detected through the following equation to detect the moving direction from the previous person position and the current position.

도 4를 참조하면, 사람이 t-1에서 t로 이동할 때, 좌표(31)는 t에서의 사람의 좌표를 나타내며, 좌표(32)는 t-1에서의 사람의 좌표를 나타낸다.Referring to FIG. 4, when a person moves from t-1 to t, the coordinates 31 represent the coordinates of a person at t, and the coordinates 32 represent the coordinates of a person at t-1.

이때 이동방향에 대한 각도는 다음 [수학식 3]으로 구해진다.At this time, the angle with respect to the moving direction is obtained by the following equation (3).

Figure 112013057961006-pat00012
Figure 112013057961006-pat00012

여기서

Figure 112013057961006-pat00013
,
Figure 112013057961006-pat00014
는 지도 이미지상에서 x - y 좌표 위치, t는 현재 관측된 시점, t-1은 이전 관측된 시점, θ는 x축을 기준으로 이동 방향에 대한 각도이다.
here
Figure 112013057961006-pat00013
,
Figure 112013057961006-pat00014
Is an x-y coordinate position on the map image, t is the current observed time, t-1 is the previous observed time, and? Is the angle with respect to the moving direction with respect to the x axis.

본 발명의 일 실시 예에 따른 조명 연출 제어방법은, 사람 영상 영역의 중심 좌표를 기준으로 어깨 라인을 검출하고 이동 방향을 바탕으로 바라보는 방향을 검출하는 단계를 포함한다.
An illumination directing control method according to an embodiment of the present invention includes detecting a shoulder line based on a center coordinate of a human image area and detecting a direction of looking based on a moving direction.

도 5는 본 발명의 일실시 예에 따른 어깨선을 검출하기 위해 사람의 영역으로부터 어깨선을 추정하기 위한 방법을 도시한 것이다.5 illustrates a method for estimating a shoulder line from a region of a person to detect a shoulder line according to an embodiment of the present invention.

도 5의 (a)는 가장 작은 x 좌표에 있는 픽셀과 가장 큰 x 좌표에 있는 픽셀의 위치의 최외곽 점으로부터 1차 최소자승법을 이용하여 두 점을 잇는 선(41)을 도시한 것이다.5 (a) shows a line 41 connecting a pixel at the smallest x-coordinate and a point at the outermost position of the pixel at the largest x-coordinate using the first order least squares method.

도 5의 (b)는 가장 작은 y 좌표에 있는 픽셀, 가장 큰 y 좌표에 있는 픽셀의 위치의 최외곽 점으로부터 1차 최소자승법을 이용하여 두 점을 잇는 선(51)을 도시한 것이다.FIG. 5B shows a line 51 connecting the two points using the first-order least squares method from the outermost point of the pixel at the smallest y-coordinate and the pixel at the largest y-coordinate.

도 5를 참조하면, 어깨선을 검출하기 위해서 사람 위치 검출부(200)에서 검출된 사람의 영역에서 가장 작은 x 좌표에 있는 픽셀과 가장 큰 x 좌표에 있는 픽셀, 가장 작은 y 좌표에 있는 픽셀, 가장 큰 y 좌표에 있는 픽셀의 위치로부터 최외각 네 점을 찾고, 좌우, 상하의 점들의 좌표를 바탕으로 1차 최소자승법(least-squares problems)을 이용하여 각각 두 점을 잇는 선을 구한다.
5, in order to detect the shoulder line, a pixel at the smallest x coordinate and a pixel at the largest x coordinate in the area of the person detected by the human position detecting part 200, a pixel at the smallest y coordinate, Find the four outermost points from the position of the pixel in the y coordinate, and find a line connecting the two points using the least-squares problems based on the coordinates of the left and right and top and bottom points.

도 6은 본 발명의 일실시 예에 따라 지도 이미지상에서 검출된 어깨선을 도시한 것이다.6 illustrates a shoulder line detected on a map image according to an embodiment of the present invention.

본 발명의 일 실시 예에 따르면, 도 5와 같은 방법에 의하여 검출된 사람의 영역에서 가장 작은 x 좌표에 있는 픽셀과 가장 큰 x 좌표에 있는 픽셀, 가장 작은 y 좌표에 있는 픽셀, 가장 큰 y 좌표에 있는 픽셀의 위치로부터 최외각 네 점을 찾고, 좌우, 상하의 점들의 좌표를 바탕으로 1차 최소자승법을 이용하여 각각 두 점을 잇는 선을 구한 다음, 각각 이 이 두 선이 지나는 픽셀들 중 값이 0이 아닌 픽셀의 수를 카운트하여 더 많은 쪽을 우세한 방향으로 선택한다.According to one embodiment of the present invention, a pixel at the smallest x coordinate and a pixel at the largest x coordinate in the region of the person detected by the method of Fig. 5, a pixel at the smallest y coordinate, And the line connecting the two points is obtained by using the first-order least squares method based on the coordinates of the left and right and upper and lower points. Then, each of the pixels of the pixels passing through these two lines Counts the number of non-zero pixels and selects the more predominant direction.

위와 같이 우세한 방향으로 선택된 선은 수많은 실험치에서도 어깨선 방향과 일치하게 됨을 알 수 있었다.It can be seen that the line selected in the predominant direction coincides with the shoulder line direction in many experimental values.

도 6을 참조하면, 두 선이 지나는 픽셀들 중 값이 0이 아닌 픽셀의 수를 카운트하여 더 많은 쪽인 도 5의 (a)를 우세한 방향으로 선정하여 지도 이미지상에 검출된 어깨선(61)을 도시한 것이다.Referring to FIG. 6, the number of pixels whose values are not 0 among the pixels passing through the two lines is counted, and the shoulder line 61 detected on the map image is selected in a predominant direction in FIG. 5 (a) Respectively.

가운데 영상은 머리부(60)를 나타낸다.
The middle image represents the head portion 60.

도 7은 본 발명의 일실시 예에 따른 검출된 어깨선에 대한 각도를 도시한 것이다.Figure 7 illustrates the angle to the detected shoulder line according to one embodiment of the present invention.

본 발명의 일 실시 예에 따르면, 우세한 방향으로 선정된 어깨선(71)은 양끝 점을 이용하여 어깨선의 각도 즉, 어깨 라인이 향하는 각도 θp를 다음 [수학식 4]에 의하여 계산되어진다.According to an embodiment of the present invention, the angle of the shoulder line, that is, the angle? P with which the shoulder line is directed is calculated by using the following equation (4) using both ends of the shoulder line 71 selected in the predominant direction.

Figure 112013057961006-pat00015
Figure 112013057961006-pat00015

(여기서 x1과 y1은 좌측 또는 상단 좌표이고 x2와 y2는 우측 또는 하단 좌표, θp는 어깨선의 각도이다.)(Where x 1 and y 1 are the left or top coordinates, x 2 and y 2 are the right or bottom coordinates, and θ p is the angle of the shoulder line).

도 7을 참조하면, 사람이 바라보는 방향 즉 사람의 진행 방향은 어깨선(71)에 수직인 선이 되고, 수직인 선은 두 가지 방향(θp, θp+180)으로 나타난다.7, the direction the viewer is looking at that is the direction of movement of the person to be a line perpendicular to the shoulder line 71, the perpendicular line is shown in two different directions (θ p, θ p +180).

따라서 사람이 바라보는 방향은 θp(73), 또는 θp+180(72) 임을 알 수 있다.Therefore, it can be seen that the viewing direction is θ p (73) or θ p +180 (72).

본 발명의 일 실시 예에서는 사람이 진행하는 방향을 바라보는 방향으로 추정을 하고, θp(73), 또는 θp+180(72) 중, 이동 방향 θm를 이용하여 선택할 수 있도록 하였다.In one embodiment of the present invention, estimation is made in a direction in which a person is moving forward, and the user can select one of θ p (73) and θ p +180 (72) using the movement direction θ m .

즉, 이동방향 검출부(500)에서는 사람 영역의 어깨선 검출을 통하여 방향을 추정하고 이전의 이동경로에 대한 정보를 바탕으로 전방과 후방을 구분하는 방법을 채택하였다.That is, the moving direction detecting unit 500 adopts a method of estimating the direction through the detection of the shoulder line of the human area and distinguishing the forward and backward directions based on the information on the previous moving route.

본 발명의 또 다른 실시 예에서는, 머리로 인한 방해가 없이 어깨선의 검출을 효과적으로 하기 위하여 머리 영역을 제거하고 경계 상자(bounding box)를 구성하여 경계 상자와의 두 접점을 통하여 어깨의 방향을 추정하는 방법을 제공될 수 있다.In another embodiment of the present invention, to effectively detect the shoulder line without disturbance due to the head, the head region is removed and a bounding box is formed to estimate the direction of the shoulder through the two contact points with the boundary box Method can be provided.

도 8은 본 발명의 일실시 예에 따라 바라보는 방향을 검출하기 위한 방법을 설명하기 위한 도면이다.8 is a diagram for explaining a method for detecting a viewing direction according to an embodiment of the present invention.

도 8을 참조하면, 이전 위치와 현재 위치로부터 이동각도θm(수평면과 이루는 각도)를 구한다. Referring to FIG. 8, a movement angle? M (angle with the horizontal plane) is obtained from the previous position and the current position.

그리고 상술한 바와 같이 어깨선 검출로부터 [수학식 4]를 이용하여 θp와 θp+180을 구한다. As described above, θ p and θ p +180 are calculated from the shoulder line detection using Equation (4).

θm에 의한 선분(r)과 수직인 선분(b)을 그린 뒤, 사람이 바라보는 각도를 θS이라 하면, 선분(r)은 바라보는 각도라고 할 때 θS + 90이 되고 선분(b)은 θS- 90이 된다.after the segment (r) and the line perpendicular (b) according to θ m green, when referred to as angle θ S viewer is looking, line (r) is the θ S + 90 when said watching angle segment (b ) Becomes &thetas; S- 90.

따라서 어깨선이 바라보는 각도로 볼 수 있는 θS의 범위는 다음 [수학식 5]와 같다.Therefore, the range of the angle θ S that can be seen at the angle of the shoulder line is as shown in the following equation (5).

Figure 112013057961006-pat00016
Figure 112013057961006-pat00016

그러므로 이동 방향 검출부(500)에서 바라보는 방향(θS)을 검출하는 과정은 θp가 조건

Figure 112013057961006-pat00017
에 만족할 경우에는 θp로 판단하게 되며 그렇지 않은 경우에는 θp+180을 바라보는 방향(θS)으로 판단하게 된다.
Therefore, the process of detecting the direction (θ S) viewed from the moving direction detection unit 500 is a condition θ p
Figure 112013057961006-pat00017
, It is judged to be θ p , otherwise it is judged to be the direction (θ S ) to see θ p +180.

본 발명의 일 실시 예에 따른 조명 연출 제어방법은, 바라보는 방향과 조명장치와의 거리를 바탕으로 조명연출 패턴에 따른 조명 연출 제어 신호를 생성하는 단계를 포함한다.An illumination directing control method according to an embodiment of the present invention includes generating an illumination directing control signal according to an illumination directing pattern based on a viewing direction and a distance between the illuminating device.

본 발명의 일 실시 예에 따르면, 조명 제어 신호 생성부(600)는 사람의 위치와 바라보는 방향, 조명장치의 위치가 주어졌을 때 조명과의 거리 및 형태를 바탕으로 조명 연출 제어 범위에 포함되는 조명 연출을 제어하는 신호를 생성한다.According to an embodiment of the present invention, the lighting control signal generator 600 may include a lighting control signal generator 600, which is included in the lighting directing control range based on the position and viewing direction of a person, And generates a signal for controlling the illumination presentation.

즉, 조명 제어 신호 생성부(600)는 조명 거리 계산부에서 계산된 조명들과의 거리와 이동 방향 검출부에서 계산된 각 사람의 방향을 바탕으로 조명 연출 제어 신호를 생성한다.That is, the illumination control signal generator 600 generates an illumination directing control signal based on the distance between the illumination calculated by the illumination distance calculating unit and the direction of each person calculated by the movement direction detecting unit.

본 발명의 일실시 예에 따르면, 조명 연출 제어 신호를 생성하는 것은, 사람의 위치와 방향을 기반으로 원형, 타원형 등 조명 연출 패턴으로 조명 연출 제어 범위를 정하여 조명과의 거리를 계산하여 조명을 제어할 수 있으며, 조명 연출 제어 범위에 조명이 들어갈 경우 조명과의 거리에 따라 디밍(dimming)하거나 스위칭(on/off) 신호를 생성할 수 있다. According to an embodiment of the present invention, the generation of the illumination directing control signal is performed by calculating the distance of the illumination directing control based on the position and direction of the person, such as circular or oval, And when dimming is applied to the illumination directing control range, it is possible to dimming or generate a switching (on / off) signal depending on the distance to the illumination.

또한, 조명 연출 제어 범위를 정할 때 바라보는 방향을 바탕으로 offset을 줄 수 있다.In addition, when determining the range of illumination directing control, an offset can be given based on the viewing direction.

본 발명의 일 실시 예에 따르면, 원형 연출의 형태의 경우에는 다음 [수학식 6]에 의해 조명 연출 제어 범위의 반경 안에 조명 장치가 존재하는지 판단할 수 있으며, d2보다 작거나 같으면 조명 연출 제어 범위에 속하는 것으로 판단될 수 있다.According to one embodiment of the invention, in the form of a circular director has the following formula 6 can be determined that the illumination device exists within a radius of the light directing control range by which, light directing control is less than d 2 equal to or It can be judged that it belongs to the range.

Figure 112013057961006-pat00018
Figure 112013057961006-pat00018

(여기서 a와 b는 각각 지도 이미지상에서 사람 영역의 중심 좌표의 x, y 좌표에 해당하며 C x, C y 는 x, y에 대한 주어진 offset값, d는 제어할 범위에 해당하는 반지름, x, y는 각 조명의 위치, i는 i번째 조명이다.)(Where a and b correspond to the x and y coordinates of the center coordinates of the human region on the map image, respectively, C x and C y are the given offset values for x and y, d is the radius corresponding to the control range, y is the position of each light, and i is the i-th light.)

도 9는 본 발명의 일실시 예에 따른 조명 연출 제어 범위를 설명하기 위한 도면이다.9 is a diagram for explaining an illumination directing control range according to an embodiment of the present invention.

도 9의(a)와 같이 사람의 위치가 제어할 원 영역의 중심에 위치한다면 식[6]에서 c는 0에 해당한다.As shown in Fig. 9 (a), if the position of a person is located at the center of the original area to be controlled, c corresponds to 0 in Equation [6].

도 9(b)와 같이 사람의 위치가 원의 중심보다 아래에 있다면 c 값은 음수를 갖게 된다. As shown in FIG. 9 (b), if the position of the person is below the center of the circle, the value c has a negative value.

예를 들면, 사람의 위치를 원의 중심으로 두고 제어한다고 할 때 d가 50이고 사람의 위치 (a, b) = (100, 100)이고, 두 조명이 각각 (x1, y1) = (75, 75), (x 2, y 2) = (50, 75)라고 한다면, [수학식 6]에 따라 (x1, y1)의 거리는 35.36, (x 2, y 2) 의 거리는 55.90으로 계산되므로 첫 번째 조명은 조명 연출 제어 범위 안에 존재하고, 두 번째 조명은 존재하지 않는다.For example, suppose d is 50 and the person's position (a, b) = (100, 100) and the two lights are (x 1 , y 1 ) = 75, if said 75), (x 2, y 2) = (50, 75), a distance 55.90 in the distance 35.36, (x 2, y 2 ) of the (x 1, y 1) in accordance with equation 6] The first illumination is within the illumination directing control range, and the second illumination is not present.

본 발명의 또 다른 실시 예에 따르면, 또한 도 9(c)와 같이 타원형의 형태일 경우에는 다음 [수학식 7]을 이용하여 조명 연출의 제어 범위에 위치하는지 알 수 있다.According to another embodiment of the present invention, if it is an elliptical shape as shown in FIG. 9 (c), it can be determined whether it is located in the control range of the illumination production using the following formula (7).

Figure 112013057961006-pat00019
Figure 112013057961006-pat00019

여기서 a는 타원의 짧은 축의 1/2, b는 타원의 긴 축의 1/2, x와 y는 조명의 위치, i는 i번째 조명 장치를 의미한다. 또한, a와 b는 연출 제어할 영역의 크기, α, β는 사람 영역의 중심 좌표의 위치, C x , C y 는 x, y에 대한 offset(편차값)을 의미한다.Where a is 1/2 of the short axis of the ellipse, b is 1/2 of the long axis of the ellipse, x and y are the positions of the illumination, and i means the i th illumination device. A and b are the size of the region to be controlled,? And? Are the position of the center coordinates of the human region, C x , C y means offset (deviation value) for x, y.

offset(편차값)은 바라보는 방향을 바탕으로 설정할 수 있다. The offset value can be set based on the viewing direction.

예를 들어, 도 9(b)(c)처럼 제어할 범위의 중심에 사람이 있는 것이 아니라 한쪽에 치우쳐 있을 때 이값은 offset에 의해 결정되며 바라보는 방향각 θs를 기준으로 결정될 수 있다. For example, Figure 9 (b) when this value (c) to be shifted to one side, rather than in person at the center of the range to be controlled, as can be determined by looking at the direction angle θ s is determined by the offset.

즉,

Figure 112013057961006-pat00020
,
Figure 112013057961006-pat00021
In other words,
Figure 112013057961006-pat00020
,
Figure 112013057961006-pat00021

(여기서 는 미리 설정된 중심으로부터의 거리에 대한 상수 값이다.)(Where e is a constant value for the distance from the preset center)

또한, 조명 연출 제어 신호를 생성하기 위해서 단순 on/off의 신호를 생성하는 것은 조명 연출 제어 범위에 해당하는 조명 장치에는 on신호를 그렇지 않은 조명 장치에는 off신호를 줄 수 있다.Also, generating a simple on / off signal to generate an illumination directing control signal may give an on signal to an illumination device corresponding to an illumination directing control range, and an off signal to an illumination device that does not.

또 다른 실시 예에서는 거리에 따른 디밍 제어 신호를 제안한다.In another embodiment, a dimming control signal along the distance is proposed.

예를 들면, 각 조명과의 계산된 거리를 최대 거리를 바탕으로 다음 식[8]과 같이 거리에 대한 퍼센트로 디밍신호를 생성할 수 있다. For example, a dimming signal can be generated in percent of distance based on the maximum distance calculated for each illumination, as shown in Equation [8].

expression

Figure 112013057961006-pat00022
Figure 112013057961006-pat00022

여기서 PWM은 PWM(Pulse width modulation)으로 디밍제어를 할 때의 PWM의 값, t는 수학식 6, 7의 값(좌변항에서 계산된 값), d는 제어 연출 패턴이 원일 경우에는 반지름이고, 제어 연출 패턴이 타원의 방정식일 경우에는 1이다.Where PWM is the PWM value when dimming control is performed by PWM (Pulse Width Modulation), t is the value of Equations 6 and 7 (calculated in the left side term), d is the radius when the control rendering pattern is a circle, It is 1 when the control rendering pattern is an elliptic equation.

예를 들면, 원형 패턴으로 제어 연출을 하는 경우에 d가 50일 때, 최대 거리가 50이고, [수학식 6]의 좌변항에서 계산된 값을 t라고 할 때. t가 50보다 작다면 1-(t ÷ 50)을 한다면 1~0 범위에서 정규화된 값으로 설정하는 것이 가능하다. For example, when d is 50, the maximum distance is 50, and the value calculated in the left side of Equation (6) is t. If t is less than 50, it can be set to a normalized value in the range of 1 to 0 if 1- (t ÷ 50).

이 정규화된 값을 8비트 PWM에 대해 퍼센트로 사용하여 신호를 생성할 수 있다. 예를 들면, 8비트 PWM이 가질 수 있는 값은 0~255의 총 256개의 값이고, 정규화된 값이 0.15라고 하면, 256 × 0.15=38.4가 되고 반올림하여 38의 값을 PWM 값으로 사용하여 디밍 제어 신호를 발생할 수 있다.This normalized value can be used as a percentage of the 8-bit PWM to generate the signal. For example, an 8-bit PWM can have a total of 256 values from 0 to 255. If the normalized value is 0.15, 256 × 0.15 = 38.4 is obtained and the value of 38 is used as a PWM value, A control signal can be generated.

본 발명의 일실시 예에서는 조명 제어 신호를 생성하기 위해 RS485기반의 DMX512를 사용하였으며, DMX512의 제어 장치를 제어하기 위한 신호를 주어진 프로토콜에 맞추어 생성하였다. 하지만, DMX512 외에 Zigbee 및 Bluetooth, 무선 랜 등의 다른 통신 방법 및 프로토콜을 사용하는 것도 포함된다.
In an embodiment of the present invention, an RS485-based DMX 512 is used to generate an illumination control signal, and a signal for controlling the DMX 512 control device is generated according to a given protocol. However, it includes the use of other communication methods and protocols such as Zigbee and Bluetooth, wireless LAN in addition to DMX512.

본 발명의 일 실시 예에 따른 조명 연출 제어방법은, 상기 조명연출 제어신호에 의하여 조명장치에 조명을 제어하는 신호를 발생하는 단계를 포함한다.
An illumination directing control method according to an embodiment of the present invention includes a step of generating a signal for controlling illumination to the illumination device by the illumination directing control signal.

조명 제어부(700)는 조명 생성부로부터 전송받은 조명 신호를 바탕으로 조명 장치를 제어하게 되며, PWM, 가변저항 등을 이용하여 색온도나 조도, 색상 등을 제어하게 된다.The illumination control unit 700 controls the illumination device based on the illumination signal transmitted from the illumination generation unit, and controls the color temperature, illumination, color, and the like using PWM, a variable resistor, and the like.

따라서, 본 발명의 일 실시 예에 따른 조명제어방법은 조명제어장치가 자동으로 사람의 영역을 구별하고 사람의 이동 방향과 사람의 바라보는 방향을 산출하여 조명 제어 신호를 생성하여 조명장치를 스스로 제어할 수 있다.Accordingly, in the lighting control method according to an embodiment of the present invention, the lighting control apparatus automatically distinguishes the area of the person, calculates the direction of movement of the person and the direction of the person, generates the lighting control signal, can do.

본 발명의 일 실시 예에 따른 조명제어방법은 사람의 이동 방향과 사람의 어깨 라인을 구별하여 사람의 바라보는 방향을 판단하는 구성 및 방법을 제안함으로써, 자동으로 사람의 바라보는 방향을 정확하게 산출하여 조명장치를 제어할 수 있는 조명 제어장치를 제공할 수 있다.The lighting control method according to an embodiment of the present invention proposes a configuration and a method for determining a viewing direction of a person by distinguishing a moving direction of a person from a shoulder line of a person so as to automatically calculate a viewing direction of a person It is possible to provide a lighting control apparatus capable of controlling the lighting apparatus.

또한, 사람의 바라보는 방향에 따라 다양한 오프셋 조건을 설정하여 다양한 국부조명을 자동으로 연출할 수 있게 된다.In addition, it is possible to automatically produce various local lighting by setting various offset conditions according to the viewing direction of a person.

본 발명의 일 실시 예에 따르면, 사람의 바라보는 방향에 맞추어 오프셋 크기를 조절함으로써, 원형 패턴 및 타원형 패턴 등 다양한 조명 제어 패턴을 설정할 수 있으며, 조명의 거리에 따라 적합한 조명 환경을 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, various light control patterns such as a circular pattern and an elliptical pattern can be set by adjusting the offset size in accordance with the direction of the viewer, and it is possible to provide a suitable illumination environment It is effective.

또한, 사람의 바라보는 방향으로만 오프셋을 주어 자동으로 쾌적한 조명을 제공하면서 또한 불필요한 조명을 줄임으로써, 에너지를 절감할 수 있는 효과를 가지게 된다.In addition, by offsetting only in the direction of the viewer, it is possible to automatically provide pleasant lighting while reducing unnecessary lighting, thereby reducing energy consumption.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.
The foregoing description is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments.

1 ~ 12: 조명 장치의 ID
20: 조명 장치
100: 영상 획득부
200: 사람 위치 검출부
300: 조명 위치 설정부
400: 조명 거리 계산부
500: 이동 방향 검출부
600: 조명 신호 생성부
700: 조명 제어부
1 to 12: ID of lighting device
20: Lighting device
100:
200: human position detector
300: illumination position setting unit
400: Illumination distance calculation unit
500: moving direction detecting section
600: an illumination signal generating unit
700:

Claims (11)

삭제delete 삭제delete 사람 움직임 방향을 고려한 조명 제어 방법에 있어서,
조명 제어 장치의 영상 획득 수단이 깊이 영상을 획득하는 영상 획득 단계;
상기 조명제어장치의 사람위치 검출 수단이 상기 획득된 깊이 영상으로부터 사람 영상 영역을 검출하는 사람 영역 검출 단계;
상기 사람위치 검출 수단이 상기 사람 영상 영역의 사각형 꼭짓점의 좌표를 실제 공간 크기와 비례하여 지도 이미지 공간을 생성하고 상기 지도 이미지 공간에서 상기 사람 영상 영역의 중심 좌표를 추출하는 사람 위치 추출 단계;
상기 조명제어장치의 조명 위치 설정 수단이 상기 지도 이미지 공간에서 조명장치의 위치를 설정하는 조명 위치 설정 단계;
상기 조명제어장치의 조명 거리 계산 수단이 상기 사람 영상 영역의 중심 좌표와 상기 조명장치의 위치 좌표를 기반으로 조명 거리를 계산하는 조명 거리 계산 단계;
상기 조명제어장치의 이동 방향 검출 수단이 이전 사람 영상 영역의 중심 좌표로부터 현재 상기 사람 영상 영역의 중심 좌표를 차감하여 이동 방향을 구하는 이동 방향 검출 단계;
상기 이동 방향 검출 수단이 상기 사람 영상 영역의 중심 좌표를 기준으로 어깨 라인을 검출하고 상기 이동 방향을 바탕으로 바라보는 방향을 검출하는 바라보는 방향 검출 단계;
상기 조명제어장치의 조명 제어신호 생성 수단이 상기 조명 거리와 바라보는 방향을 포함하여 조명연출 패턴에 따른 조명 연출 제어 범위와 조명 연출 제어 신호를 생성하는 조명 제어신호 생성 단계; 및
상기 조명제어장치의 조명제어수단이 상기 조명 연출 제어 신호를 전송받아 상기 조명장치에 조명을 제어하는 신호를 발생하는 조명장치 제어 단계를 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법
A lighting control method in which a human movement direction is considered,
An image acquiring step of acquiring a depth image by an image acquiring unit of the illumination control apparatus;
A human region detection step of detecting a human image region from the acquired depth image by human position detection means of the illumination control apparatus;
A human position extraction step of the human position detection means generating a map image space in proportion to the actual space size of the coordinates of the rectangle corner of the human image region and extracting the center coordinates of the human image region in the map image space;
A lighting position setting step of the lighting control device setting a position of the lighting device in the map image space;
An illumination distance calculation step of the illumination control device calculating the illumination distance based on the center coordinates of the human image area and the position coordinates of the illumination device;
A moving direction detection step of detecting a moving direction by subtracting a center coordinate of a current human image area from a center coordinate of a previous person image area;
The moving direction detecting means detects a shoulder line based on a center coordinate of the human image region and detects a direction in which the line of sight is viewed based on the moving direction;
An illumination control signal generation step of generating an illumination illumination control range and an illumination illumination control signal in accordance with an illumination illumination pattern including a direction in which the illumination control signal generation means of the illumination control device looks at the illumination distance; And
And a lighting device controlling step of receiving a lighting direction control signal from the lighting control device of the lighting control device and generating a signal for controlling the lighting device to the lighting device.
제 3항에 있어서
상기 사람 영역 검출 단계에서 사람 영상 영역을 검출하는 것은, 상기 획득된 깊이 영상에 대하여 다음 [식 1] 에 의한 일정 프레임 동안의 누적 이동량(acci)이 일정 값 이상이 되면 사람 영상 영역으로 검출하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법
[식 1]
Figure 112013057961006-pat00023

(여기서 acci는 누적값을 나타내며, i는 i번째 사람 후보 영역, t는 현재 프레임, n은 측정할 최대 프레임 수, x는 i번째 후보 영역의 x 좌표, y는 i번째 후보 영역의 y좌표를 의미한다.)
The method of claim 3, wherein
The detection of the human image region in the human region detection step may include detecting a human image region when the cumulative amount of movement (acc i ) during a certain frame is equal to or greater than a predetermined value with respect to the obtained depth image, A Smart Lighting Control Method Considering Human Movement Direction
[Formula 1]
Figure 112013057961006-pat00023

(Where acc i denotes an accumulated value, i denotes an ith person candidate region, t denotes a current frame, n denotes a maximum number of frames to be measured, x denotes an x coordinate of an ith candidate region, y denotes a y coordinate .)
제 3항에 있어서,
상기 사람 위치 추출 단계에서 상기 사람 영상 영역의 중심 좌표를 추출하는 것은, 상기 사람 영상 영역 중에서 머리 영역을 검출하고 상기 머리 영역의 중심점을 상기 중심 좌표로 추출하는 것을 더 포함하되,
상기 머리 영역은 상기 사람 영상 영역의 깊이 영상 값의 히스토그램 CDF(Cumulative Distribution Function)의 하위 10% 영역에 해당하는 값을 상기 머리 영역의 픽셀 값으로 추정하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법
The method of claim 3,
Extracting the center coordinates of the human image region in the human position extraction step further comprises detecting a head region in the human image region and extracting a center point of the head region in the center coordinates,
Wherein the head region estimates a value corresponding to a lower 10% region of a histogram CDF of the depth image value of the human image region as a pixel value of the head region. Control method
제 3항에 있어서,
상기 이동 방향 검출 단계에서 다음 [식 2]에 의하여 상기 이동 방향에 대한 각도(θ)를 구하는 것을 더 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법
[식 2]
Figure 112013057961006-pat00024

(여기서
Figure 112013057961006-pat00025
,
Figure 112013057961006-pat00026
는 상기 지도 이미지상에서 x - y 좌표 위치, t는 현재 관측된 시점, t-1은 이전 관측된 시점, θ는 x축을 기준으로 이동 방향에 대한 각도임)
The method of claim 3,
Further comprising calculating an angle (?) With respect to the moving direction by the following formula (2) in the moving direction detecting step:
[Formula 2]
Figure 112013057961006-pat00024

(here
Figure 112013057961006-pat00025
,
Figure 112013057961006-pat00026
Is an angle with respect to the moving direction with respect to the x-axis as a reference,
제 6항에 있어서
상기 바라보는 방향 검출 단계에서 상기 어깨 라인을 검출하는 것은, 상기 사람 위치 추출 단계에서 검출된 사람의 영역에서 가장 작은 x 좌표에 있는 픽셀과 가장 큰 x 좌표에 있는 픽셀, 가장 작은 y 좌표에 있는 픽셀 및 가장 큰 y 좌표에 있는 픽셀의 위치로부터 최외각 네 점을 찾고, 좌우, 상하의 점들의 좌표를 바탕으로 1차 최소자승법을 이용하여 각각 두 점을 잇는 선을 구한 다음, 각각 이 이 두 선이 지나는 픽셀들 중 값이 0이 아닌 픽셀의 수를 카운트하여 더 많은 쪽을 어깨 라인으로 검출하는 것을 더 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법
The method of claim 6, wherein
The detecting of the shoulder line in the looking direction detecting step may include detecting pixels in the smallest x coordinate and the largest x coordinate in the area of the person detected in the human position extracting step, And the outermost four points from the position of the pixel at the largest y coordinate, and based on the coordinates of the left and right and upper and lower points, a line connecting the two points is obtained using the first least squares method, Counting the number of non-zero pixels among the passing pixels and detecting more of the pixels as a shoulder line. The smart lighting control method according to claim 1,
제 7항에 있어서
상기 검출된 어깨 라인은 다음 [식 3]에 의하여 어깨 라인이 향하는 각도(θp)를 구하는 것을 더 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법
[식 3]
Figure 112013057961006-pat00027

(여기서 x1과 y1은 상기 지도 이미지상에서 검출된 어깨 라인의 좌측 또는 상단 좌표이고 x2와 y2는 우측 또는 하단 좌표, θp는 x축에 대하여 어깨 라인이 향하는 각도임.)
The method of claim 7, wherein
Wherein the detected shoulder line further includes an angle? P at which the shoulder line is directed by the following formula (3): " (6 ) "
[Formula 3]
Figure 112013057961006-pat00027

(Where x 1 and y 1 are the left or top coordinates of the shoulder line detected on the map image, x 2 and y 2 are the coordinates of the right or bottom coordinates, and θ p is the angle at which the shoulder line faces the x axis)
제 8항에 있어서
상기 바라보는 방향 검출 단계에서 바라보는 방향(θS)은 상기 어깨 라인이 향하는 각도 θp가 조건
Figure 112013057961006-pat00028
에 만족할 경우에는 θp로 판단하게 되며, 그렇지 않은 경우에는 θp+180 을 바라보는 방향(θS)으로 검출하는 것을 더 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법
The method of claim 8, wherein
The view from the direction detection step facing direction (θ S) is the heading angle θ p the condition the shoulder line
Figure 112013057961006-pat00028
, And if it is not satisfied, it is determined as &thetas; p , otherwise, it is detected as a direction &thetas; S in which &thetas; p +180 is viewed.
제 3항에 있어서,
상기 조명 제어 신호 생성 단계에서 조명연출 패턴에 따른 조명 연출 제어 범위가 원형 연출 패턴인 경우, 각 조명 장치가 다음 [식 4]에 의하여 구한 좌측 항의 값이 d2보다 작거나 같으면 조명 연출 제어 범위 내에 위치하는 것으로 판단하는 것을 더 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법
[식 4]
Figure 112013057961006-pat00029

(여기서 a와 b는 상기 지도 이미지상에서 사람 영역의 중심 좌표의 x, y 좌표에 해당하며 C x, C y 는 x, y에 대하여 주어진 offset값(편차값), d는 제어할 범위에 해당하는 반지름, x, y는 각 조명의 위치, i는 i번째 조명임.)
The method of claim 3,
If the lighting directing control range according to the illumination directing pattern in the generating step the illumination control signal Round directed pattern, in each illumination device, the following [Equation 4] one trillion people directing control range of the left term value is less than or equal to d 2 obtained by The method further comprising: determining a position of the person to be moved
[Formula 4]
Figure 112013057961006-pat00029

(Where a and b correspond to the x, y coordinates of the center coordinates of the human region on the map image, C x and C y are the offset values (deviation values) given for x and y, Radius, x, y is the position of each light, i is the i-th illumination).
제 3항에 있어서,
상기 조명 제어 신호 생성 단계에서 조명연출 패턴에 따른 조명 연출 제어 범위가 타원형 연출 패턴인 경우, 각 조명 장치가 다음 [식 5]에 의하여 구한 좌측 항의 값이 1보다 작거나 같으면 조명 연출 제어 범위 내에 위치하는 것으로 판단하는 것을 더 포함하는 것을 특징으로 하는 사람 움직임 방향을 고려한 스마트 조명 제어 방법
[식 5]
Figure 112013057961006-pat00030

(여기서 a는 타원의 짧은 축의 1/2, b는 타원의 긴 축의 1/2, x와 y는 조명의 위치, i는 i번째 조명 장치를 의미한다. 또한, a와 b는 연출 제어할 영역의 크기, α, β는 사람 영역의 중심 좌표의 위치, C x , C y 는 x, y에 대하여 주어진 offset(편차값)을 의미한다.)
The method of claim 3,
When the illumination control range according to the illumination pattern is the elliptical pattern, the illumination device generates the illumination control signal in the illumination control range if the value of the left term calculated by the following formula (5) The method according to claim 1, further comprising:
[Formula 5]
Figure 112013057961006-pat00030

(Where a is 1/2 of the short axis of the ellipse, b is 1/2 of the long axis of the ellipse, x and y are the positions of the illumination, and i is the i th illumination device) The position of the center coordinates of the human region, C x , C y means the offset given for x, y.)
KR1020130074945A 2013-06-27 2013-06-27 Smart lighting control device and method based direction of human motion KR101512141B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130074945A KR101512141B1 (en) 2013-06-27 2013-06-27 Smart lighting control device and method based direction of human motion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130074945A KR101512141B1 (en) 2013-06-27 2013-06-27 Smart lighting control device and method based direction of human motion

Publications (2)

Publication Number Publication Date
KR20150001541A KR20150001541A (en) 2015-01-06
KR101512141B1 true KR101512141B1 (en) 2015-04-16

Family

ID=52475278

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130074945A KR101512141B1 (en) 2013-06-27 2013-06-27 Smart lighting control device and method based direction of human motion

Country Status (1)

Country Link
KR (1) KR101512141B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11869265B2 (en) 2020-03-06 2024-01-09 Electronics And Telecommunications Research Institute Object tracking system and object tracking method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101987922B1 (en) 2019-01-08 2019-06-11 오은실 Automatic system for capturing image by controlling light cell actively
KR102433080B1 (en) * 2020-06-25 2022-08-17 주식회사 리얼리티매직 Player location-based lighting production method for virtual reality game and virtual reality system for performing the same
CN116095901B (en) * 2023-01-31 2023-08-25 浙江宇达实业有限公司 Multifunctional LED lamp

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4475060B2 (en) 2004-08-24 2010-06-09 パナソニック電工株式会社 Human detection device
JP2012028015A (en) 2010-07-20 2012-02-09 Toshiba Corp Illumination control system and illumination control method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4475060B2 (en) 2004-08-24 2010-06-09 パナソニック電工株式会社 Human detection device
JP2012028015A (en) 2010-07-20 2012-02-09 Toshiba Corp Illumination control system and illumination control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11869265B2 (en) 2020-03-06 2024-01-09 Electronics And Telecommunications Research Institute Object tracking system and object tracking method

Also Published As

Publication number Publication date
KR20150001541A (en) 2015-01-06

Similar Documents

Publication Publication Date Title
JP5726792B2 (en) Information processing apparatus, image sensor apparatus, and program
US8798316B2 (en) Method and system for controlling lighting
US10015864B2 (en) Lighting preference arbitration
JP6847124B2 (en) Adaptive lighting systems for mirror components and how to control adaptive lighting systems
US9301372B2 (en) Light control method and lighting device using the same
US10795004B2 (en) Distance measurement apparatus
EP2924992A1 (en) Method and apparatus for obtaining 3d image
KR101512141B1 (en) Smart lighting control device and method based direction of human motion
KR101543374B1 (en) Sensibility lighting control apparatus and method
WO2014134993A1 (en) Target object information acquisition method and electronic device
KR20140094585A (en) Device control system, device control method, and computer-readable recording medium
US20150317516A1 (en) Method and system for remote controlling
WO2013137074A1 (en) System and method for controlling a climate control unit
US20150009131A1 (en) System for Determining Three-Dimensional Position of Transmission Device Relative to Detecting Device
WO2014024364A1 (en) Object detection device, object detection method, and program
Chun et al. Real-time smart lighting control using human motion tracking from depth camera
US10616561B2 (en) Method and apparatus for generating a 3-D image
JP6060551B2 (en) Lighting control device
KR101416574B1 (en) Apparatus and method for smart lighting control
KR101695728B1 (en) Display system including stereo camera and position detecting method using the same
JP5877372B2 (en) Lighting control apparatus and lighting system
Moriya et al. Indoor localization based on distance-illuminance model and active control of lighting devices
CN105203072B (en) A kind of information processing method and electronic equipment
JP2010055801A (en) Illumination system
JP2016111575A (en) Imaging apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180409

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190402

Year of fee payment: 5