KR20210080155A - 실내 조명 제어 장치 및 방법 - Google Patents

실내 조명 제어 장치 및 방법 Download PDF

Info

Publication number
KR20210080155A
KR20210080155A KR1020200076840A KR20200076840A KR20210080155A KR 20210080155 A KR20210080155 A KR 20210080155A KR 1020200076840 A KR1020200076840 A KR 1020200076840A KR 20200076840 A KR20200076840 A KR 20200076840A KR 20210080155 A KR20210080155 A KR 20210080155A
Authority
KR
South Korea
Prior art keywords
image
lighting
command
density
intensity
Prior art date
Application number
KR1020200076840A
Other languages
English (en)
Other versions
KR102327395B1 (ko
Inventor
장영민
팜퉁럼
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Publication of KR20210080155A publication Critical patent/KR20210080155A/ko
Application granted granted Critical
Publication of KR102327395B1 publication Critical patent/KR102327395B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • F21V23/0471Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

본 발명은 복수의 조명의 세기를 각각 조절하여 실내 조명을 제어하는 장치로서, 프로세서; 및 상기 프로세서를 통해 실현되는 적어도 하나의 명령을 저장하는 메모리를 포함하고, 상기 적어도 하나의 명령은, 복수의 카메라를 통해 실내에 대한 이미지를 획득하도록 하는 명령; 이미지 내 객체를 분류하도록 학습된 신경망에 상기 이미지를 입력하여 이미지 내 복수의 객체를 분류하도록 하는 명령; 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하도록 하는 명령; 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하도록 하는 명령; 및 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하도록 하는 명령을 포함하는, 실내 조명 제어 장치를 개시한다.

Description

실내 조명 제어 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING INDOOR LIGHTING}
본 발명은 실내 조명을 제어하는 방법 및 장치에 관한 것으로, 더욱 상세하게는 딥 러닝 기술과 공간 인식 기술에 기반하여 실내 조명을 제어하는 방법 및 장치에 관한 것이다.
이미지 객체 인식 기술은, 촬영된 이미지를 분석하여 그 안에 포함된 객체를 인식하기 위한 기술이다. 이러한 이미지 객체 인식 기술에는 객체 감지, 객체 이동 감지 등의 기술들이 포함될 수 있다.
한편, 에너지 절약에 대한 필요성이 대두되면서, 지능형 빌딩 시스템(intelligent building system, IBS) 등을 통하여 조명 제어, 영상/음향 제어, 방범 제어 등을 수행함으로써, 건물의 에너지 소비를 효과적으로 저감하기 위한 기술의 개발이 요구되고 있다.
최근 실내 조명을 제어하는 방법과 관련하여, 주변의 밝기를 감지하는 조도센서를 이용하여 조도센서의 감지신호에 따라 주변이 밝은 경우에는 광원의 출력 강도를 감소시키고, 주변이 어두운 경우에는 광원의 출력 강도를 증가시킴으로써 외부 채광 여부에 관계 없이 실내가 항상 일정한 밝기를 유지하도록 조명함으로써 소비 전력을 절감할 수 있도록 하는 디밍 제어 시스템이 이용되고 있다.
또한, 적외선 센서 및 초음파 센서와 같이 조명 구역 내 위치한 사람의 움직임을 감지하는 모션 센서를 이용하여, 조명 구역 내 사람의 움직임에 따라 조명 장치를 점등시키거나 소등시킴으로써 소비 전력을 절감할 수 있도록 하는 조명 시스템이 이용되고 있다.
다만, 최근 디밍 제어 시스템은 조도 센서의 측정 조도값의 편차가 크고, 태양광이나 조명광이 난반사되는 경우, 실제로 주변이 어둡지만 조도 센서가 주변 밝기를 매우 밝은 것으로 인식하여 적절한 조명 밝기를 제공하지 못하는 문제점이 있다. 또한, 센서 자체가 온도, 계절 기후 등의 외부 환경에 따라 오작동하는 경우가 빈번하다.
뿐만 아니라, 모션 센서의 경우, 낙엽, 동물, 빗방울, 커튼 등의 움직임도 감지하여 조명 장치를 점등시키는 문제가 있고, 모션 센서를 적외선 센서로 이용할 경우 태양광이 센서로 입력되어 태양광에 포함된 적외선 성분으로 인해 모션 센서가 오작동되는 문제가 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 Mask R-CNN을 활용하여 스마트한 실내 조명 제어 방법을 제공하는 데 있다.
또한, 상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은 공간 인식 기술인 DFD(Depth From Defocus)을 활용하여 스마트한 실내 조명 제어 방법을 제공하는 데 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 실내 조명 제어 장치는, 프로세서; 및 상기 프로세서를 통해 실현되는 적어도 하나의 명령을 저장하는 메모리를 포함하고, 상기 적어도 하나의 명령은, 복수의 카메라를 통해 실내에 대한 이미지를 획득하도록 하는 명령; 이미지 내 객체를 분류하도록 학습된 신경망에 상기 이미지를 입력하여 이미지 내 복수의 객체를 분류하도록 하는 명령; 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하도록 하는 명령; 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하도록 하는 명령; 및 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하도록 하는 명령을 포함할 수 있다.
또한, 상기 이미지 내 객체를 분류하도록 학습된 신경망은, 이미지 내 객체를 화소 단위로 구분하는 Mask R-CNN(Region with Convolutional Neural Network)일 수 있다.
또한, 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하도록 하는 명령은, 공간 인식 기술인 DFD(Depth From Defocus)에 기반하여 상기 제 1 객체와 상기 복수의 카메라 간 거리 및 상대 속도를 추정하도록 하는 명령을 포함할 수 있다.
또한, 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하도록 하는 명령은, 상기 개별적인 조명과 인접한 조명들의 세기를 고려하여 상기 개별적인 조명에 대한 조명 세기를 결정함으로써 상기 조명 디밍 맵을 생성하도록 하는 명령을 포함할 수 있다.
또한, 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하도록 하는 명령은, 주기적으로 상기 밀도를 추출하도록 하는 명령을 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 실내 조명 제어 방법은, 복수의 카메라를 통해 실내에 대한 이미지를 획득하는 단계; 이미지 내 객체를 분류하도록 학습된 신경망에 상기 이미지를 입력하여 이미지 내 복수의 객체를 분류하는 단계; 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하는 단계; 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하는 단계; 및 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계를 포함할 수 있다.
또한, 상기 이미지 내 객체를 분류하도록 학습된 신경망은, 이미지 내 객체를 화소 단위로 구분하는 Mask R-CNN(Region with Convolutional Neural Network)일 수 있다.
또한, 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하는 단계는, 공간 인식 기술인 DFD(Depth From Defocus)에 기반하여 상기 제 1 객체와 상기 복수의 카메라 간 거리 및 상대 속도를 추정하는 단계를 포함할 수 있다.
또한, 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계는, 상기 개별적인 조명과 인접한 조명들의 세기를 고려하여 상기 개별적인 조명에 대한 조명 세기를 결정함으로써 상기 조명 디밍 맵을 생성하는 단계를 포함할 수 있다.
또한, 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하는 단계는, 주기적으로 상기 밀도를 추출하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 실내 환경에서 사람들의 상대적 위치를 자율적으로 감지하여 실내 조명을 제어하는 장점을 가진다.
또한, 영역별 인원수에 따라서 조명의 밝기를 차등적으로 제어함으로써, 에너지 소모를 저감하면서도 높은 조도 품질을 유지하는 장점을 가진다.
도 1은 본 발명의 일 실시예에 따른 실내 조명 제어 방법의 동작 순서도이다.
도 2는 본 발명의 Mask R-CNN의 개념도이다.
도 3은 본 발명의 일 실시예에 따른 실내 조명 제어 방법의 일 예이다.
도 4는 본 발명의 조명 디밍 맵의 개념도이다.
도 5는 본 발명의 일 실시예에 따른 실내 조명 제어 장치의 블록 구성도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 실내 조명 제어 방법의 동작 순서도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 실내 조명 제어 방법은, 복수의 카메라를 통해 실내에 대한 이미지를 획득하는 단계(S110)를 포함할 수 있다.
또한, 본 발명은 이미지 내 객체를 분류하도록 학습된 신경망에 상기 이미지를 입력하여 이미지 내 복수의 객체를 분류하는 단계(S120)를 포함할 수 있다.
여기서, 상기 이미지 내 객체를 분류하도록 학습된 신경망은, 이미지 내 객체를 화소 단위로 구분하는 Mask R-CNN(Region with Convolutional Neural Network)일 수 있다.
또한, 본 발명은 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하는 단계(S130)를 포함할 수 있다.
여기서, 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하는 단계는, 공간 인식 기술인 DFD(Depth From Defocus)에 기반하여 상기 제 1 객체와 상기 복수의 카메라 간 거리 및 상대 속도를 추정하는 단계를 포함할 수 있다.
또한, 본 발명은 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하는 단계(S140)를 포함할 수 있다.
여기서, 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하는 단계는, 주기적으로 상기 밀도를 추출하는 단계를 포함할 수 있다.
또한, 본 발명은 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계(S150)를 포함할 수 있다.
여기서, 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계는, 상기 개별적인 조명과 인접한 조명들의 세기를 고려하여 상기 개별적인 조명에 대한 조명 세기를 결정함으로써 상기 조명 디밍 맵을 생성하는 단계를 포함할 수 있다.
도 2는 본 발명의 Mask R-CNN의 개념도이다.
또한, 본 발명은 이미지 내 객체를 분류하도록 학습된 신경망에 상기 이미지를 입력하여 이미지 내 복수의 객체를 분류하는 단계(S120)를 포함할 수 있다.
여기서, 상기 이미지 내 객체를 분류하도록 학습된 신경망은, 이미지 내 객체를 화소 단위로 구분하는 Mask R-CNN(Region with Convolutional Neural Network)일 수 있다.
여기서, Mask R-CNN은 객체 검출을 위한 Faster R-CNN에서 확장하여 인스턴트 세분화(Instance Segmentation)를 위한 신경망 모델을 의미할 수 있다. 즉, Mask R-CNN은 Faster R-CNN에서 검출한 각각의 박스(box)에 마스크(mask)를 씌워주는 신경망 모델을 의미할 수 있다. 또한, Mask R-CNN은 Faster R-CNN에 마스크를 예측(predict)하는 부분을 추가한 신경망 모델을 의미할 수 있다.
도 2를 참조하여 구체적으로 설명하면, Mask R-CNN은 경계 박스(bounding box)로 이미지 내 객체를 파악하는 대신 인스턴스 세분화를 통해 이미지 내 객체를 화소 단위로 구분하는 신경망 모델을 의미할 수 있다. 즉, 기존의 Faster R-CNN은 객체 검출만을 위한 신경망 모델이여서 객체를 검출하는 과정에서 정확한 객체의 위치 정보를 포함하는 것은 불필요하였으나, Mask R-CNN은 이미지 내 객체를 화소 단위로 구분함으로써 이미지 내 객체의 정확한 위치 정보를 포함할 수 있다.
또한, Mask R-CNN은 기존에 있는 분류 및 경계 박스 회귀(regression)를 위한 분기와 함께 관심 영역(Region of Interest; RoI)마다 예측 세분화(predicting segmentation)를 위한 분기(branch)를 추가하여 Faster R-CNN으로부터 확장된 신경망 모델을 의미할 수 있다.
여기서, Mask R-CNN가 이미지 내 객체를 분류하는 과정은, 관심 영역을 제안하고, 제안된 관심 영역을 분류하고, 경계 박스 및 마스크를 생성하는 단계를 포함할 수 있다. 즉, Mask R-CNN은 컨볼루션 신경망(CNN)에 기반한 특징 맵(feature map)에 특징 맵을 입력으로 하는 컨볼루션 신경망을 추가하고, 객체가 존재하는 화소(pixel)에 1의 값을 부여하고, 그 외의 화소에는 0의 값을 부여하여 행렬을 생성함으로써 경계 박스 및 마스크를 생성할 수 있다.
또한, Mask R-CNN은 ResNet50, RestNet101과 같은 표준 CNN인 백본 네트워크(backbone network)를 포함할 수 있다. 또한, Mask R-CNN네트워크의 전반부 계층(early layer)은 낮은 수준의 특징을 검출할 수 있고, 후반부 계층(later layer)은 높은 수준의 특징을 검출할 수 있다. 또한, Mask R-CNN에 입력된 이미지는 1024(px) x 1024(px) x 3(RGB) 크기를 갖는 이미지에서 32 x 32 x 2048 모양(shape)을 갖는 특징 맵으로 변환되어 출력될 수 있다. 다만, Mask R-CNN에 입력되는 이미지의 크기나 특징 맵의 모양은 이에 한정되지 않는다.
본 발명의 Mask R-CNN은 특징 피라미드 네트워크(Feature Pyramid Network; FPN), 관심 영역 제안 네트워크(Region Proposal Network; RPN), 관심 영역 정렬(Region of Interest Align; RoI Align) 기술을 포함할 수 있다.
특징 피라미드 네트워크는, 객체를 여러 스케일로 자세히 표현하기 위해 백본 네트워크를 확장시킨 네트워크를 의미할 수 있다. 특징 피라미드 네트워크는 두 개의 피라미드로 구성될 수 있는데, 하나의 피라미드는 높은 수준의 특징을 다른 피라미드로부터 수신하여 낮은 수준의 특징을 검출하는 계층으로 전달할 수 있다. 즉, 특징 피라미드 네트워크는 모든 계층에서 높은 수준의 특징과 낮은 수준의 특징에 대해 접근할 수 있게한다.
또한, 관심 영역 제안 네트워크는, 특징 피라미드 네트워크를 위에서부터 아래로 스캔하여 객체가 포함된 지역을 제안하는 네트워크를 의미할 수 있다. 즉, 관심 영역 제안 네트워크는 미리 위치가 정해진 박스 세트인 앵커(anchor)를 활용하고, 입력된 이미지에 따라 자체적으로 배율을 조정함으로써 객체가 포함된 지역을 제안할 수 있다. 개별적인 앵커는 지상 진리(ground-truth) 클래스 및 경계 박스에 할당될 수 있다. 또한, 관심 영역 제안 네트워크는 앵커마다 앵커 클래스 및 경계 박스 사양을 갖는 두 개의 출력을 만들 수 있다. 여기서, 앵커 클래스는 전경(foreground) 클래스이거나 배경(background) 클래스일 수 있다.
관심 영역 정렬 기술이란, RoI Pool에서 선택된 특징 맵의 영역이 원본 이미지 내 영역과 상이한 경우 활용되는 기술을 의미할 수 있다. 즉, 이미지 세분화는 이미지의 화소 수준 특성까지 고려해야하므로 RoI Pool에서 선택된 특징 맵의 영역이 원본 이미지의 영역과 상이할 수 있으므로, 이 때 관심 영역 정렬 기술이 사용될 수 있다.
관심 영역 정렬 기술은, 특징 맵이 서로 다른 지점에서 샘플링되고, 화소값이 2.93일 경우 정확하게 관심 영역을 정렬하기 위해 쌍 선형(bilinear) 보간(interpolation)을 적용할 수 있다. 다만, 본 발명에서 관심 영역 정렬 기술에 의해 필요한 화소값은 이에 한정되지 않는다. 기존에는 화소값이 2일 경우 RoI Pool에서 관심 영역을 선택하였다.
이어서, 관심 영역 정렬 기술은 관심 영역 분류기(classifier)를 활용하여 선택한 영역을 갖는 마스크를 생성하기 위해 컨볼루션 네트워크를 사용할 수 있다. 생성된 마스크는 28 x 28 화소의 낮은 해상도를 가질 수 있다.
상기 관심 영역 정렬 기술에 따라 신경망이 학습되는 동안, 손실을 계산하기 위해 마스크는 28 x 28 크기로 스케일 다운될 수 있다. 또한, 관심 영역에 대한 마스크는 관심 영역 박스의 크기에 맞게 스케일 업될 수 있다.
도 2를 참조하면, Mask R-CNN의 인스턴스 세분화를 활용하면 이미지 내 객체(사람)을 분류할 수 있는 것을 알 수 있다.
도 3은 본 발명의 일 실시예에 따른 실내 조명 제어 방법의 일 예이다.
본 발명은 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하는 단계(S130)를 포함할 수 있다.
여기서, 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하는 단계는, 공간 인식 기술인 DFD(Depth From Defocus)에 기반하여 상기 제 1 객체와 상기 복수의 카메라 간 거리 및 상대 속도를 추정하는 단계를 포함할 수 있다.
본 발명에서 DFD 기술을 활용하는 방법은 다음과 같다. 먼저, 본 발명에서 초점 거리가 상이한 두 개의 카메라는 병렬로 배치될 수 있다. 여기서, 두 개의 카메라는 동시에 두 개의 연속적인 이미지를 각각 캡쳐할 수 있다. 또한, 본 발명에 따라 캡쳐된 두 개의 연속적인 이미지 내 객체(예를 들어, 사람)는 Mask R-CNN에 의해 이미지와 이미지 사이에서 검출되고 추적될 수 있다. 두 개의 카메라가 동시에 각각 캡쳐한 두 개의 연속적인 이미지 즉, 네 개의 이미지를 통해 이미지 내 객체와 카메라 간 거리를 추정할 수 있다.
수학식 1은 본 발명에 따라 이미지 내 객체와 카메라 간 거리를 추정하는 수식일 수 있다.
Figure pat00001
수학식 1은 라플라시안 필터를 기초로 할 수 있고, d는 초점 흐림의 양을 나타내는 평가 값(evaluation value)을 의미할 수 있고, x 및 y는 초점 위치를 의미할 수 있고,
Figure pat00002
는 밝기 값을 의미할 수 있다. 또한,
Figure pat00003
는 중앙 화소 값과 주변에 인접한 4개의 화소값으로써 5개의 화소 값으로 구성될 수 있다.
Figure pat00004
의 값이 클수록 초점 흐림의 양이 적을 수 있다.
수학식 2는 블록 내 화소값들이 임계값보다 큰 d의 화소값을 모두 합하여 블록의 크기로 나누어 F 를 도출하는 수학식이다.
Figure pat00005
여기서, (2N + 1)2는 블록의 크기를 의미할 수 있고, th는 평가 값 d의 임계값을 의미할 수 있다. 예를 들어, 4개의 이미지가 있는 경우, F는 F11, F12, F21, 및 F22로 나타날 수 있다. 첨자에서 왼쪽 번호는 카메라의 번호를 의미할 수 있고, 오른쪽 번호는 샘플링 순서를 의미할 수 있다.
F11, F12, F21, 및 F22는 가우스 함수를 활용하여 수학식 3 내지 6에 의하여 각각 도출할 수 있다.
Figure pat00006
Figure pat00007
Figure pat00008
Figure pat00009
여기서,
Figure pat00010
는 이미지 내 객체와 카메라 간 거리를 의미할 수 있고, v는 카메라와 객체 간 상대 속도를 의미할 수 있고,
Figure pat00011
는 표준 편차를 의미할 수 있고,
Figure pat00012
는 가우스 함수의 피크 값을 의미할 수 있고,
Figure pat00013
는 연속된 두 이미지 간 시간 간격을 의미할 수 있다.
수학식 7 은 이미지 내 객체와 카메라 간 거리를 추정하는 수식을 의미할 수 있다.
Figure pat00014
또한, 수학식 8은 카메라와 객체 간 상대 속도를 의미할 수 있다.
Figure pat00015
여기서, A는
Figure pat00016
를 의미할 수 있고, B는
Figure pat00017
를 의미할 수 있고, C는
Figure pat00018
를 의미할 수 있다.
따라서, 본 발명에서는 DFD 기술을 활용하여 이미지 내 객체와 카메라 간 거리를 추정할 수 있고, 카메라와 객체의 상대속도를 측정하여 이미지 내 객체를 추적할 수 있다.
도 3을 참조하면, 본 발명은 복수의 카메라를 통해 획득한 교실 이미지를 본 발명의 학습된 신경망인 Mask R-CNN에 입력하여, 사람(person), 의자(chair) 및 시계(clock) 등으로 이미지 내 객체를 분류할 수 있다.
교실을 촬영한 이미지를 객체 별로 분류한 후, 전술한 바와 같이 본 발명에서 DFD 기술을 활용하면, 복수의 카메라와 이미지 내 객체 간 거리를 추정할 수 있고, 카메라와 객체의 상대속도를 측정할 수 있으므로 이미지 내 객체를 추적할 수 있다. 따라서, 거리와 상대속도를 활용하여 이미지 내에서 객체의 상대적인 위치를 파악할 수 있다.
또한, 본 발명은 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하는 단계(S140)를 포함할 수 있다.
여기서, 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하는 단계는, 주기적으로 상기 밀도를 추출하는 단계를 포함할 수 있다.
또한, 본 발명은 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계(S150)를 포함할 수 있다.
여기서, 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계는, 상기 개별적인 조명과 인접한 조명들의 세기를 고려하여 상기 개별적인 조명에 대한 조명 세기를 결정함으로써 상기 조명 디밍 맵을 생성하는 단계를 포함할 수 있다.
예를 들어, 9m x 12m 크기를 갖는 공간을 3 x 3 크기를 갖는 가상의 격자로 나눌 경우, 각 격자는 3m x 4m의 크기를 가질 수 있다. 도 3을 참조하면, 교실을 3 x 3 크기를 갖는 가상의 격자로 나눌 수 있고, 본 발명에 따라, 복수의 이미지 내 객체 중에서 사람에 해당하는 객체를 추출하여, 해당 격자에서 사람이 차지는 비율(밀도)를 계산할 수 있다. 즉, 도 3의 격자를 참조하면, 이미지의 가운데에 사람이 밀집해 있음을 알 수 있다.
또한, 격자를 점유하는 객체의 밀도는 주기적으로 추출될 수 있다. 예를 들면, 도 3에서 각 격자를 점유하는 사람의 밀도는 1분 간격으로 추출될 수 있다. 또한, 각 격자의 밀도 값은 사람 밀도 분포 맵을 제공하기 위해 전체 영역에 대하여 나누어질 수 있다. 여기서, 우리는 격자의 크기를 m x m으로 할 수 있고, 여기서, m은 홀수일 경우 후술하는 조명 디밍 맵을 생성하는 데 유용하다. 다만, m은 이에 홀수에 한정되지 않는다.
이어서, 본 발명은, 마이크로 컨트롤 유닛(Micro Control Unit; MCU)에 기반한 조명 장치 또는 조명 제어가 가능한 컨트롤러 회로 및 프로그램을 통해 조명 디밍 맵 값에 기반하여 실내 조명을 제어할 수 있다.
도 4는 본 발명의 조명 디밍 맵의 개념도이다.
본 발명은 격자의 밀도를 추출하고, 상기 격자의 밀도 맵과 모든 조명에 대해 최대 조명 디밍 값을 갖는 조명 배열 맵에 대하여 2D 컨볼루션을 수행하여 조명 디밍 맵을 생성할 수 있다.
수학식 9는 조명 디밍 맵을 구하는 수식을 의미할 수 있다.
Figure pat00019
여기서, L은 조명 디밍 맵을 의미할 수 있고, Pd는 제 1 객체에 대한 밀도 맵을 의미할 수 있고, Lmax는 최대 조명 디밍 값을 갖는 조명 배열 맵을 의미할 수 있다. 즉, 조명 디밍 맵이 조명 배열 맵과 동일한 크기를 갖도록 하기 위해 컨볼루션 결과 행렬을 m/2 번 째 행 및 열을 기준으로 분리할 수 있다. 이 때, 최대 조명 디밍 값은 조명이 100% 점등 되었을 때를 1이라고 할 수 있다.
다시 도 3을 참조하면, 먼저, 교실의 이미지에서 제 1 객체, 즉, 실내 조명을 제어하는 데 필요한 객체로서 사람을 분류해내고, 교실을 가상의 격자로 분할하고, 각 격자 내 사람이 차지하는 비율을 밀도로써 DFD 기술에 기반하여 추출한 후 최대 조명 디밍 값을 갖는 맵과 2D 컨볼루션을 수행하여 조명 디밍 맵을 획득할 수 있다. 여기서, 조명 디밍 맵은 조명 디밍 행렬과 혼용되어 사용될 수 있다.
다만, 본 발명은 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계(S150)를 포함할 수 있고, 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계는, 상기 개별적인 조명과 인접한 조명들의 세기를 고려하여 상기 개별적인 조명에 대한 조명 세기를 결정함으로써 상기 조명 디밍 맵을 생성하는 단계를 포함할 수 있다. 즉, 본 발명은 조명 디밍 맵에서 개별적인 조명과 인접한 조명들의 조명의 세기를 고려하여 개별적인 조명에 대한 조명의 세기를 결정할 수 있다.
예를 들어, 도 4를 참조하면, 본 발명은 조명 디밍 맵을 생성한 후, 해당 조명 영역과 인접한 조명 영역의 조명 세기 값의 평균을 추출하여 해당 조명의 세기를 결정할 수 있다. 도 3의 격자의 밀도 맵과 최대 조명 디밍 값을 갖는 조명 배열 맵과 2D 컨볼루션을 수행하여 획득한 조명 디밍맵에서 첫번째 조명의 조명 세기가 0.619인 경우, 그 주변과 인접한 조명들의 조명의 세기 즉, 0.86, 0.722, 0.997의 세기를 고려하여 첫번째 조명의 세기를 정할 수 있다. 이때, 인접한 조명들의 세기를 고려한다는 것은 첫번째 조명의 조명 세기와 인접한 조명들의 조명 세기의 평균을 구하는 것을 의미할 수 있다. 따라서, 도 4에서 첫번째 조명의 조명 세기는 (0.619 + 0.86 + 0.722 + 0.997) / 5 = 0.8이 될 수 있다.
도 5는 본 발명의 일 실시예에 따른 실내 조명 제어 장치의 블록 구성도이다.
도 5을 참조하면, 본 발명의 일 실시예에 따른 실내 조명 제어 장치(500)는 프로세서(510) 및 프로세서를 통해 실행되는 적어도 하나의 명령 및 명령 수행의 결과를 저장하는 메모리(520) 및 네트워크와 연결되어 통신을 수행하는 송수신 장치(530)를 포함할 수 있다.
실내 조명 제어 장치(500)는 또한, 입력 인터페이스 장치(940), 출력 인터페이스 장치(550), 저장 장치(560) 등을 더 포함할 수 있다. 실내 조명 제어 장치(500)에 포함된 각각의 구성 요소들은 버스(Bus)(570)에 의해 연결되어 서로 통신을 수행할 수 있다.
프로세서(510)는 메모리(520) 및 저장 장치(560) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(510)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(520) 및 저장 장치(560) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(520)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중에서 적어도 하나로 구성될 수 있다.
저장 장치(560)는 또한, 학습된 Mask R-CNN에 이미지가 입력되어 출력된 결과를 저장할 수 있고, 학습된 Mask R-CNN에 이미지가 입력되어 인스터스 세분화(Instance Segment)된 이미지를 저장할 수 있고, DFD 기술에 기반하여 복수의 이미지들과 복수의 카메라 간 추정한 거리 및 복수의 이미지들의 프레임을 분석하여 복수의 이미지들의 속도를 분석한 결과를 저장할 수 있다.
여기서, 적어도 하나의 명령은 복수의 카메라를 통해 실내에 대한 이미지를 획득하도록 하는 명령; 이미지 내 객체를 분류하도록 학습된 신경망에 상기 이미지를 입력하여 이미지 내 복수의 객체를 분류하도록 하는 명령; 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하도록 하는 명령; 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하도록 하는 명령; 및 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하도록 하는 명령을 포함할 수 있다.
또한, 상기 이미지 내 객체를 분류하도록 학습된 신경망은, 이미지 내 객체를 화소 단위로 구분하는 Mask R-CNN(Region with Convolutional Neural Network)일 수 있다.
또한, 상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하도록 하는 명령은, 공간 인식 기술인 DFD(Depth From Defocus)에 기반하여 상기 제 1 객체와 상기 복수의 카메라 간 거리 및 상대 속도를 추정하도록 하는 명령을 포함할 수 있다.
또한, 상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하도록 하는 명령은, 상기 개별적인 조명과 인접한 조명들의 세기를 고려하여 상기 개별적인 조명에 대한 조명 세기를 결정함으로써 상기 조명 디밍 맵을 생성하도록 하는 명령을 포함할 수 있다.
또한, 상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하도록 하는 명령은, 주기적으로 상기 밀도를 추출하도록 하는 명령을 포함할 수 있다.
본 발명의 실시예에 따른 방법의 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.
또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다.
실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.
이상 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (10)

  1. 복수의 조명의 세기를 각각 조절하여 실내 조명을 제어하는 장치로서,
    프로세서; 및
    상기 프로세서를 통해 실현되는 적어도 하나의 명령을 저장하는 메모리를 포함하고,
    상기 적어도 하나의 명령은,
    복수의 카메라를 통해 실내에 대한 이미지를 획득하도록 하는 명령;
    이미지 내 객체를 분류하도록 학습된 신경망에 상기 이미지를 입력하여 이미지 내 복수의 객체를 분류하도록 하는 명령;
    상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하도록 하는 명령;
    상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하도록 하는 명령; 및
    상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하도록 하는 명령을 포함하는, 실내 조명 제어 장치.
  2. 청구항 1에 있어서,
    상기 이미지 내 객체를 분류하도록 학습된 신경망은,
    이미지 내 객체를 화소 단위로 구분하는 Mask R-CNN(Region with Convolutional Neural Network)인, 실내 조명 제어 장치.
  3. 청구항 1에 있어서,
    상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하도록 하는 명령은,
    공간 인식 기술인 DFD(Depth From Defocus)에 기반하여 상기 제 1 객체와 상기 복수의 카메라 간 거리 및 상대 속도를 추정하도록 하는 명령을 포함하는, 실내 조명 제어 장치.
  4. 청구항 1에 있어서,
    상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하도록 하는 명령은,
    상기 개별적인 조명과 인접한 조명들의 세기를 고려하여 상기 개별적인 조명에 대한 조명 세기를 결정함으로써 상기 조명 디밍 맵을 생성하도록 하는 명령을 포함하는, 실내 조명 제어 장치.
  5. 청구항 1에 있어서,
    상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하도록 하는 명령은,
    주기적으로 상기 밀도를 추출하도록 하는 명령을 포함하는, 실내 조명 제어 장치.
  6. 복수의 조명의 세기를 각각 조절하는 실내 조명 제어 장치에 의해 수행되는 실내 조명 제어 방법으로서,
    복수의 카메라를 통해 실내에 대한 이미지를 획득하는 단계;
    이미지 내 객체를 분류하도록 학습된 신경망에 상기 이미지를 입력하여 이미지 내 복수의 객체를 분류하는 단계;
    상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하는 단계;
    상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하는 단계; 및
    상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계를 포함하는, 실내 조명 제어 방법.
  7. 청구항 6에 있어서,
    상기 이미지 내 객체를 분류하도록 학습된 신경망은,
    이미지 내 객체를 화소 단위로 구분하는 Mask R-CNN(Region with Convolutional Neural Network)인, 실내 조명 제어 방법.
  8. 청구항 6에 있어서,
    상기 분류된 복수의 객체 중 조명의 세기를 조절하는데 필요한 제 1 객체를 추출하고, 상기 이미지를 격자로 분할하는 단계는,
    공간 인식 기술인 DFD(Depth From Defocus)에 기반하여 상기 제 1 객체와 상기 복수의 카메라 간 거리 및 상대 속도를 추정하는 단계를 포함하는, 실내 조명 제어 방법.
  9. 청구항 6에 있어서,
    상기 밀도 맵에 기반하여 상기 복수의 조명을 구성하는 개별적인 조명에 대한 조명 세기 정보를 포함하는 조명 디밍 맵을 생성하는 단계는,
    상기 개별적인 조명과 인접한 조명들의 세기를 고려하여 상기 개별적인 조명에 대한 조명 세기를 결정함으로써 상기 조명 디밍 맵을 생성하는 단계를 포함하는, 실내 조명 제어 방법.
  10. 청구항 6에 있어서,
    상기 분할된 격자 내 제 1 객체가 차지하는 부분을 밀도로써 추출하여 밀도 맵을 생성하는 단계는,
    주기적으로 상기 밀도를 추출하는 단계를 포함하는, 실내 조명 제어 방법.
KR1020200076840A 2019-12-20 2020-06-24 실내 조명 제어 장치 및 방법 KR102327395B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190172152 2019-12-20
KR20190172152 2019-12-20

Publications (2)

Publication Number Publication Date
KR20210080155A true KR20210080155A (ko) 2021-06-30
KR102327395B1 KR102327395B1 (ko) 2021-11-17

Family

ID=76602239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200076840A KR102327395B1 (ko) 2019-12-20 2020-06-24 실내 조명 제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102327395B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114245529A (zh) * 2021-12-22 2022-03-25 北京云蝶智学科技有限公司 一种灯光控制方法及系统
WO2023091502A1 (en) * 2021-11-22 2023-05-25 Lumileds Llc Auto adjusted light source
WO2023101939A1 (en) * 2021-12-02 2023-06-08 Lumileds Llc Led array optimization using artificial neural networks

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266501A (ja) * 2008-04-24 2009-11-12 Panasonic Electric Works Co Ltd 照明システム
KR20130015972A (ko) * 2011-08-05 2013-02-14 엘지전자 주식회사 다양한 조명 환경에서의 차량 검출
KR20190001695A (ko) * 2017-06-28 2019-01-07 삼성전자주식회사 카메라 모듈, 카메라 모듈을 포함하는 전자 장치
KR101979115B1 (ko) * 2017-11-20 2019-05-15 경일대학교산학협력단 실시간 영상의 정보 보호를 위한 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체
KR20190089336A (ko) * 2018-01-22 2019-07-31 숭실대학교산학협력단 영상 내 물체의 이동 속도 측정 장치 및 측정 방법, 상기 방법을 수행하기 위한 기록 매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266501A (ja) * 2008-04-24 2009-11-12 Panasonic Electric Works Co Ltd 照明システム
KR20130015972A (ko) * 2011-08-05 2013-02-14 엘지전자 주식회사 다양한 조명 환경에서의 차량 검출
KR20190001695A (ko) * 2017-06-28 2019-01-07 삼성전자주식회사 카메라 모듈, 카메라 모듈을 포함하는 전자 장치
KR101979115B1 (ko) * 2017-11-20 2019-05-15 경일대학교산학협력단 실시간 영상의 정보 보호를 위한 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체
KR20190089336A (ko) * 2018-01-22 2019-07-31 숭실대학교산학협력단 영상 내 물체의 이동 속도 측정 장치 및 측정 방법, 상기 방법을 수행하기 위한 기록 매체

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023091502A1 (en) * 2021-11-22 2023-05-25 Lumileds Llc Auto adjusted light source
WO2023101939A1 (en) * 2021-12-02 2023-06-08 Lumileds Llc Led array optimization using artificial neural networks
CN114245529A (zh) * 2021-12-22 2022-03-25 北京云蝶智学科技有限公司 一种灯光控制方法及系统
CN114245529B (zh) * 2021-12-22 2024-04-02 北京碧云数创科技有限公司 一种灯光控制方法及系统

Also Published As

Publication number Publication date
KR102327395B1 (ko) 2021-11-17

Similar Documents

Publication Publication Date Title
KR102327395B1 (ko) 실내 조명 제어 장치 및 방법
US10861302B2 (en) Robust motion filtering for real-time video surveillance
US10460195B2 (en) Imaging apparatus and method, operation apparatus and method, and program and recording medium
Liu et al. Foreground object detection using top-down information based on EM framework
EP2959454B1 (en) Method, system and software module for foreground extraction
CN108416268B (zh) 一种基于双机器人视觉沟通的动作识别方法
JP2017223648A (ja) 飛行時間型深度イメージングの際の消費電力の低減
US10482347B2 (en) Inspection of the contoured surface of the undercarriage of a motor vehicle
JP4309927B2 (ja) まぶた検出装置及びプログラム
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
JP2013003787A (ja) 対象物検出装置
US20180189955A1 (en) Augumented reality (ar) method and system enhanced through efficient edge detection of image objects
CN101715070B (zh) 特定监控视频中的背景自动更新方法
CN108274476B (zh) 一种人形机器人抓取球体的方法
KR102148586B1 (ko) 자동 조명 및 보안 장치
KR20180044587A (ko) 다중 배경 모델을 이용한 전경 생성 방법 및 그 장치
KR100755800B1 (ko) 얼굴색과 에이다부스트를 이용한 얼굴 검출기 및 검출방법
Ji et al. Detect foreground objects via adaptive fusing model in a hybrid feature space
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
CN107038690A (zh) 一种基于多特征融合的运动阴影去除方法
KR100973588B1 (ko) 얼굴검출기의 부윈도우 설정방법
CN109074646A (zh) 图像识别装置以及图像识别程序
Benito-Picazo et al. Deep learning-based anomalous object detection system powered by microcontroller for ptz cameras
JP2008234619A (ja) 顔認証装置および顔認証方法
Naba et al. Haar-like feature based real-time neuro car detection system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant