KR102314903B1 - Method And Apparatus for Controlling Building Based on Image - Google Patents

Method And Apparatus for Controlling Building Based on Image Download PDF

Info

Publication number
KR102314903B1
KR102314903B1 KR1020210066997A KR20210066997A KR102314903B1 KR 102314903 B1 KR102314903 B1 KR 102314903B1 KR 1020210066997 A KR1020210066997 A KR 1020210066997A KR 20210066997 A KR20210066997 A KR 20210066997A KR 102314903 B1 KR102314903 B1 KR 102314903B1
Authority
KR
South Korea
Prior art keywords
sensor
person
area
camera module
image
Prior art date
Application number
KR1020210066997A
Other languages
Korean (ko)
Inventor
김유성
김민수
Original Assignee
김유성
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김유성 filed Critical 김유성
Priority to KR1020210066997A priority Critical patent/KR102314903B1/en
Application granted granted Critical
Publication of KR102314903B1 publication Critical patent/KR102314903B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • B66B5/0012Devices monitoring the users of the elevator system
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • G06K9/00362
    • G06K9/00624
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

Disclosed are a method and a device for controlling a building based on an image. The present embodiment provides the method and the device for controlling a building based on an image, which may recognize a person in an image based on the image obtained from a multi-sensor installed in the building, predict the direction of movement of an object by separating the movement area of a person and the area which has detected the movement until just before, and control the building equipment according to the number of people and the direction of the movement at each installation location.

Description

영상 기반 건물 제어 방법 및 장치{Method And Apparatus for Controlling Building Based on Image}Image-based building control method and apparatus {Method And Apparatus for Controlling Building Based on Image}

본 발명의 일 실시예는 영상 기반 건물 제어 방법 및 장치에 관한 것이다. An embodiment of the present invention relates to an image-based building control method and apparatus.

이하에 기술되는 내용은 단순히 본 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.The content described below merely provides background information related to the present embodiment and does not constitute the prior art.

건물 에너지소비는 다른 분야와는 달리 건물의 적절한 운용에 의해 효율성이 결정된다. 정보통신기술(ICT: Information and Communication Technology)의 발달로 인해 건물에서의 에너지 정보를 모니터링하고 시스템과 연동하여 제어 및 운영하는 건물에너지 관리시스템(BEMS: Building Energy Management System), 빌딩 자동제어 시스템 등의 기능을 최적화하기 위한 다양한 시도들이 이루어지고 있다.Unlike other fields, building energy consumption is determined by the proper operation of buildings. Due to the development of information and communication technology (ICT), building energy management system (BEMS: Building Energy Management System), building automatic control system, etc. Various attempts have been made to optimize the function.

빌딩 자동제어 시스템은 빌딩이 대형화되고 고급화됨에 따라 급격하게 증가하는 각종 설비들 예컨대, 공조설비, 전기, 방재, 방범, 통신 설비 등을 중앙 통제 센터에서 감시하며 일괄적으로 제어할 수 있다.The automatic building control system can monitor and collectively control various facilities, such as air conditioning facilities, electricity, disaster prevention, crime prevention, communication facilities, etc., which are rapidly increasing as buildings become larger and more advanced, from a central control center.

업무용 빌딩과 같은 중대형 건물은 빌딩 내 설치되는 전력, 조명, 공조시설 등의 각종 서브시스템을 자동으로 제어하는 빌딩 자동제어 시스템이 설치되는 경우가 많다. 빌딩 자동제어 시스템은 냉난방제어시스템 및 조명제어시스템 등을 포함한다.In a medium-to-large building such as a business building, an automatic building control system that automatically controls various subsystems such as electric power, lighting, and air conditioning facilities installed in the building is often installed. The building automatic control system includes a heating and cooling control system and a lighting control system.

최근 신축되는 공공기관 건물에 BEMS의 설치 의무화 등 건물의 운영단계에서 효율적인 에너지 사용과 관리를 위하여 정책적으로 확대되고 있으나 아직까지 일반적인 건물 에너지 관리 시스템은 건물과 각종 설비 및 시스템의 운영과 관련된 상태감시와 기본적인 제어기능 이외에 사용자가 원하는 에너지 소비정보 제공이 미흡한 실정이다.Recently, the policy has been expanded for efficient energy use and management in the operating stage of buildings, such as mandatory installation of BEMS in newly constructed public institution buildings. In addition to basic control functions, the provision of energy consumption information desired by users is insufficient.

빌딩 자동제어 시스템은 실시간 모니터링과 제어를 요구한다. 종래의 냉난방기 자체에 부착된 온도 센서에 의존하여 실내 온도를 조절하거나, 가습기 등의 습도조절장치를 수동으로 조절하여 작동시키는 방식은 실내의 온도 불균형을 초래하거나, 온도가 과도하게 높아지거나 낮은 상태로 가동되는 경우가 많고, 적정 습도를 유지하기 어렵기 때문에 사용자가 냉난방장치 및 습도조절장치를 직접 조작해야 하는 문제가 있다.Building automatic control systems require real-time monitoring and control. The conventional method of controlling the indoor temperature depending on the temperature sensor attached to the air conditioner itself or manually controlling and operating a humidity control device such as a humidifier causes an imbalance in the indoor temperature, or causes the temperature to be excessively high or low. Since it is often operated and it is difficult to maintain proper humidity, there is a problem in that the user has to directly operate the air conditioning system and the humidity control system.

본 실시예는 건물 내에 설치된 멀티 센서로부터 획득한 영상을 기반으로 영상 내 사람을 인지하고, 사람의 움직임 영역과 직전까지 움직임을 감지한 영역을 분리하여 객체의 움직임 방향을 예측하고, 설치 위치마다 사람의 수와 움직임 방향에 따라 건물 설비를 제어할 수 있도록 하는 영상 기반 건물 제어 방법 및 장치를 제공하는 데 목적이 있다.This embodiment recognizes a person in an image based on an image obtained from a multi-sensor installed in a building, separates the movement area of the person from the area where the movement was detected until just before, and predicts the movement direction of the object, An object of the present invention is to provide an image-based building control method and apparatus for controlling building equipment according to the number and direction of movement.

본 실시예의 일 측면에 의하면, 기 설정된 특정 영역을 촬영한 영상 정보를 획득하는 카메라 모듈; 상기 영상 정보로부터 배경 영상과 객체를 각각 분리하여 인지한 후 상기 객체가 사람인지의 여부를 판별하는 사람 판별부; 상기 사람의 수를 카운팅하는 사람 계수부; 상기 사람의 이동성이 확인되면, 상기 이동성을 기반으로 움직임 방향을 산출하는 이동성 판별부; 상기 사람의 이동성을 운동량으로 환산하는 운동량 판별부; 및 상기 사람의 수, 상기 움직임 방향, 상기 운동량을 기반으로 연동하는 건물 설비를 제어하는 건물설비 제어부;를 포함하는 것을 특징으로 하는 멀티 센서를 제공한다.According to an aspect of the present embodiment, there is provided a camera module for acquiring image information of a preset specific area; a person determining unit that separates and recognizes a background image and an object from the image information and determines whether the object is a person; a person counting unit for counting the number of persons; a mobility determining unit for calculating a movement direction based on the mobility when the mobility of the person is confirmed; an exercise amount determining unit for converting the mobility of the person into an exercise amount; and a building equipment control unit for controlling the building equipment interlocking based on the number of people, the movement direction, and the amount of exercise; provides a multi-sensor comprising a.

이상에서 설명한 바와 같이 본 실시예에 의하면, 건물 내에 설치된 멀티 센서로부터 획득한 영상을 기반으로 영상 내 사람을 인지하고, 사람의 움직임 영역과 직전까지 움직임을 감지한 영역을 분리하여 객체의 움직임 방향을 예측하고, 설치 위치마다 사람의 수와 움직임 방향에 따라 건물 설비를 제어할 수 있도록 하는 효과가 있다.As described above, according to this embodiment, a person in an image is recognized based on an image obtained from a multi-sensor installed in a building, and the movement direction of the object is determined by separating the movement area of the person and the area in which the movement was detected just before. It has the effect of predicting and controlling the building equipment according to the number of people and the direction of movement at each installation location.

도 1a,1b는 본 실시예에 따른 단일 카메라 모듈을 탑재한 멀티 센서를 나타낸 도면이다.
도 2a,2b,2c,2d,2e,2f,2g,2h는 본 실시예에 따른 복수의 카메라를 탑재한 멀티 센서를 나타낸 도면이다.
도 3은 본 실시예에 따른 이미지 인식 프로세서를 나타낸 도면이다.
도 4는 본 실시예에 따른 복수의 영역 상에 움직임 감지 영역을 판별하는 방법을 나타낸 도면이다.
도 5는 본 실시예에 따른 촬영된 영상에 대한 이미지 처리 방법을 나타낸 도면이다.
도 6은 본 실시예에 따른 멀티 센서를 이용한 검출 범위를 나타낸 도면이다.
도 7은 본 실시예에 따른 멀티 센서의 내부 모듈을 나타낸 도면이다.
도 8은 본 실시예에 따른 멀티 센서를 이용한 조명 제어 방법을 나타낸 도면이다.
도 9는 본 실시예에 따른 멀티 센서를 이용한 에어컨 제어 방법을 나타낸 도면이다.
도 10은 본 실시예에 따른 멀티 센서를 이용한 엘리베이터 제어 방법을 나타낸 도면이다.
도 11은 본 실시예에 따른 멀티 센서를 이용한 방법 및 방제 방법을 나타낸 도면이다.
도 12는 본 실시예에 따른 객체 이동성에 따라 제어영역을 확장하는 방법을 설명하기 위한 도면이다.
도 13은 본 실시예에 따른 객체의 방향성 탐지 방법을 나타낸 도면이다.
도 14는 본 실시예에 따른 객체의 동일 방향성을 확인하는 방법을 나타낸 도면이다.
도 15는 본 실시예에 따른 비콘과 2차적으로 연동하여 동작하는 방법을 나타낸 도면이다.
도 16은 본 실시예에 따른 비콘과 2차적으로 연동하여 객체 이동의 정확성을 확인하는 방법을 나타낸 도면이다.
1A and 1B are diagrams illustrating a multi-sensor equipped with a single camera module according to the present embodiment.
2a, 2b, 2c, 2d, 2e, 2f, 2g, and 2h are diagrams illustrating a multi-sensor equipped with a plurality of cameras according to the present embodiment.
3 is a diagram illustrating an image recognition processor according to the present embodiment.
4 is a diagram illustrating a method of determining a motion detection area on a plurality of areas according to the present embodiment.
5 is a diagram illustrating an image processing method for a photographed image according to the present embodiment.
6 is a view showing a detection range using the multi-sensor according to the present embodiment.
7 is a view showing an internal module of the multi-sensor according to the present embodiment.
8 is a view showing a lighting control method using a multi-sensor according to the present embodiment.
9 is a diagram illustrating a method for controlling an air conditioner using a multi-sensor according to the present embodiment.
10 is a view showing an elevator control method using a multi-sensor according to the present embodiment.
11 is a view showing a method and a control method using a multi-sensor according to the present embodiment.
12 is a diagram for explaining a method of extending a control area according to object mobility according to the present embodiment.
13 is a diagram illustrating a method of detecting the directionality of an object according to the present embodiment.
14 is a diagram illustrating a method of confirming the same directionality of an object according to the present embodiment.
15 is a diagram illustrating a method of operating in secondary linkage with a beacon according to the present embodiment.
16 is a diagram illustrating a method of checking the accuracy of object movement by secondarily interworking with a beacon according to the present embodiment.

이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, this embodiment will be described in detail with reference to the accompanying drawings.

도 1a,1b는 본 실시예에 따른 단일 카메라 모듈을 탑재한 멀티 센서를 나타낸 도면이다.1A and 1B are diagrams illustrating a multi-sensor equipped with a single camera module according to the present embodiment.

멀티 센서(110)는 빌딩의 ZEB(Zero-Energy Building)화, 스마트 웰네스 오피스, 에 플렉서블(Flexible)하게 대응하기 위해서 탑재된다. 여기서, ZEB는 에너지 절약 기술과 재생 에너지 사용과 같은 에너지 조치를 결합하여 운영 단계에서 에너지 소비가 0 또는 일반적으로 0이 되도록 하는 건물을 의미한다.The multi-sensor 110 is mounted in order to respond flexibly to ZEB (Zero-Energy Building) of a building, a smart wellness office. Here, ZEB refers to a building that combines energy-saving technologies with energy measures such as the use of renewable energy to achieve zero, or generally zero, energy consumption during the operational phase.

멀티 센서(110)는 기 설정된 특정 영역을 촬영하기 위한 카메라 모듈(112)을 탑재한다. 멀티 센서(110)는 카메라 모듈(112)을 이용하여 획득한 영상에서 배경 영상과 객체를 각각 인지한다. 멀티 센서(110)는 인지된 객체가 사람인지를 판별한다. 멀티 센서(110)는 사람 수를 카운팅하고, 사람의 이동성을 확인한다.The multi-sensor 110 is equipped with a camera module 112 for photographing a predetermined specific area. The multi-sensor 110 recognizes a background image and an object from an image acquired by using the camera module 112 , respectively. The multi-sensor 110 determines whether the recognized object is a person. The multi-sensor 110 counts the number of people and checks the mobility of the people.

멀티 센서(110)는 인지된 사람의 수와 움직임 방향에 따라 연동하는 건물 설비를 제어한다. 멀티 센서(110)는 화상 인식을 위한 별도의 이미지 프로세서(Image Processor)를 탑재한다. 멀티 센서(110)는 고정밀하고 광범위하게 사람을 감지한다. 멀티 센서(110)는 감지된 사람에 대한 정보를 획득한다. 멀티 센서(110)는 획득한 정보를 기반으로 건물 설비(건물 내 조명 설비(810), 냉난방 설비(910), 엘리베이터 설비(1010), 방범 및 방제 설비(1110))에 대한 제어를 지원한다.The multi-sensor 110 controls the building equipment that interworks according to the number of recognized people and the direction of movement. The multi-sensor 110 is equipped with a separate image processor for image recognition. The multi-sensor 110 detects people with high precision and wide range. The multi-sensor 110 acquires information about the sensed person. The multi-sensor 110 supports control of building equipment (inside lighting equipment 810, air conditioning equipment 910, elevator equipment 1010, and crime prevention and control equipment 1110) based on the acquired information.

멀티 센서(110)는 각각 독립적으로 동작하거나 복수의 개가 하나의 장치와 연결되어 동작할 수 있다. 멀티 센서(110)는 건물 설비(건물 내 조명 설비(810), 냉난방 설비(910), 엘리베이터 설비(1010), 방범 및 방제 설비(1110))와 연동한다. 멀티 센서(110)는 카메라 모듈(112)로부터 수신된 영상 정보를 기반으로 건물 설비(건물 내 조명 설비(810), 냉난방 설비(910), 엘리베이터 설비(1010), 방범 및 방제 설비(1110))를 제어한다. 멀티 센서(110)는 카메라 모듈(112)로부터 영상 정보를 수신한다. 멀티 센서(110)는 영상 정보를 기반으로 건물 설비(건물 내 조명 설비(810), 냉난방 설비(910), 엘리베이터 설비(1010), 방범 및 방제 설비(1110))를 제어한다.The multi-sensor 110 may operate independently of each other, or a plurality of dogs may operate in connection with one device. The multi-sensor 110 interworks with the building equipment (the lighting equipment 810 in the building, the heating and cooling equipment 910, the elevator equipment 1010, and the crime prevention and control equipment 1110). The multi-sensor 110 is based on the image information received from the camera module 112, building equipment (inside lighting equipment 810, heating and cooling equipment 910, elevator equipment 1010, crime prevention and control equipment 1110) control The multi-sensor 110 receives image information from the camera module 112 . The multi-sensor 110 controls building equipment (inside lighting equipment 810, heating and cooling equipment 910, elevator equipment 1010, and crime prevention and control equipment 1110) based on image information.

멀티 센서(110)는 카메라 모듈(112)로부터 수신된 영상 정보를 이용하여 객실 사용 여부를 시각화한다. 멀티 센서(110)는 실시간 객실 사용에 대한 가시성과 예약 상태 및 실제 가용성을 제공하여 비즈니스 효율성을 높인다. 멀티 센서(110)는 용량과 사용자 수가 일치하는지의 여부를 분석하여 회의 공간을 보다 적절하게 활용할 수 있도록 한다.The multi-sensor 110 uses the image information received from the camera module 112 to visualize whether the room is used. Multi-sensor 110 provides visibility into real-time room usage, reservation status, and actual availability to increase business efficiency. The multi-sensor 110 analyzes whether the capacity and the number of users match, so that the meeting space can be used more appropriately.

멀티 센서(110)는 카메라 모듈(112)로부터 수신된 영상 정보를 이용하여 사무실 사용 여부를 시각화한다. 멀티 센서(110)는 사무실 내 좌석이나 구역에 얼마나 오래 있었는지 시각화하면 대략적인 근무 시간을 파악할 수 있다. 멀티 센서(110)는 사무실 내에 존재하는 객체 움직임과 객체 속도를 기반으로 고정 좌석 수를 줄인다.The multi-sensor 110 visualizes whether the office is used by using the image information received from the camera module 112 . The multi-sensor 110 may determine approximate working hours by visualizing how long they have been in a seat or area in the office. The multi-sensor 110 reduces the number of fixed seats based on the object movement and object speed existing in the office.

멀티 센서(110)는 상업 시설에 설치되어 카메라 모듈(112)로부터 수신된 영상 정보를 기반으로 사업 시설에 대한 혼잡을 시각화한다. 멀티 센서(110)는 식당에 설치되어 카메라 모듈(112)로부터 수신된 영상 정보를 기반으로 기다리는 인원수와 식당 내 인원 현황을 감지하여 디지털 사이니지에 실시간으로 표시하여 혼잡 수준을 분산할 수 있다. 멀티 센서(110)는 혼잡 수준을 스마트폰에 정보를 배포하여 고객 서비스를 개선할 수 있도록 한다.The multi-sensor 110 is installed in a commercial facility to visualize congestion in a business facility based on image information received from the camera module 112 . The multi-sensor 110 is installed in a restaurant, and based on the image information received from the camera module 112, detects the number of people waiting and the status of people in the restaurant, and displays it on a digital signage in real time to disperse the congestion level. The multi-sensor 110 distributes congestion level information to the smartphone to improve customer service.

멀티 센서(110)는 각종 시설과의 협력을 지원한다. 멀티 센서(110)는 기존의 적외선 센서와 비교하여 광범위하게 미세 움직임을 감지할 수 있으며, 해당 범위 내에서 감지되는 사람 및 활동하고 있는 총 사람의 수를 추정할 수 있다. 멀티 센서(110)는 해당 범위 내에서 사람의 존재하는지의 여부를 결정한 후 거짓 또는 긍정으로 출력하여 출력 프로세스를 줄이고 설정을 단순화할 수 있다. 멀티 센서(110)는 전술한 기능을 다양한 시설과 연계하여 스마트 컨트롤을 실현한다. The multi-sensor 110 supports cooperation with various facilities. The multi-sensor 110 may detect a wide range of micro-movements compared to a conventional infrared sensor, and may estimate the number of people detected and active within a corresponding range. The multi-sensor 110 can reduce the output process and simplify the setting by outputting false or positive after determining whether a person exists within the corresponding range. The multi-sensor 110 realizes smart control by linking the above-described functions with various facilities.

멀티 센서(110)는 단일 카메라 모듈(112)을 포함하여 구현될 수 있다. 카메라 모듈(112)은 고해상도 컬러 카메라로서, 그레이 스케일 카메라를 지원한다. 예컨대, 카메라 모듈(112)은 최대 130만 픽셀을 지원한다. 카메라 모듈(112)은 색상 인식을 수행하여 물체 인식률을 향상시킨다. 여기서, 단일 카메라 모듈(112)은 기 설정된 전체 영역(120)을 촬영한 영상 데이터를 획득한다.The multi-sensor 110 may be implemented by including a single camera module 112 . The camera module 112 is a high-resolution color camera and supports a gray scale camera. For example, the camera module 112 supports a maximum of 1.3 million pixels. The camera module 112 improves the object recognition rate by performing color recognition. Here, the single camera module 112 acquires image data obtained by photographing the preset entire area 120 .

건물 설비는 건물 내 조명 설비(810), 냉난방 설비(910), 엘리베이터 설비(1010), 방범 및 방제 설비(1110) 중 적어도 하나 이상의 설비를 포함한다.The building equipment includes at least one of the lighting equipment 810 in the building, the heating and cooling equipment 910 , the elevator equipment 1010 , and the crime prevention and control equipment 1110 .

도 2a,2b,2c,2d,2e,2f,2g,2h는 본 실시예에 따른 복수의 카메라를 탑재한 멀티 센서를 나타낸 도면이다.2a, 2b, 2c, 2d, 2e, 2f, 2g, and 2h are diagrams illustrating a multi-sensor equipped with a plurality of cameras according to the present embodiment.

본 실시예에 따른 멀티 센서(110)는 복수의 카메라 모듈(112-1,112-2,112-3,112-4)을 포함하여 구현될 수 있다. 멀티 센서(110)는 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)을 포함한다.The multi-sensor 110 according to the present embodiment may be implemented to include a plurality of camera modules 112-1, 112-2, 112-3, and 112-4. The multi-sensor 110 includes a first camera module 112-1, a second camera module 112-2, a third camera module 112-3, and a fourth camera module 112-4.

이미지 인식 프로세서는 최대 4대의 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)과 연결 가능하다. 이미지 인식 프로세서는 최대 4대의 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)을 동시에 연결할 수 있으며, 4개의 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)로부터 각각 획득한 이미지 데이터를 합성하여 하나의 영상인 합성 데이터(200)를 생성한다.The image recognition processor can be connected to up to four first camera modules 112-1, second camera modules 112-2, third camera modules 112-3, and fourth camera modules 112-4. . The image recognition processor can connect up to four first camera modules 112-1, second camera modules 112-2, third camera modules 112-3, and fourth camera modules 112-4 simultaneously. and image data obtained from each of the four first camera modules 112-1, the second camera module 112-2, the third camera module 112-3, and the fourth camera module 112-4. The synthesized data 200, which is one image, is generated by synthesizing.

이미지 인식 프로세서는 저전력을 소비하면서, 고성능으로 이미지를 인식한다. 이미지 인식 프로세서는 0.15 GHz ~ 0.266 GHz에서 동작하는 MPE(Media Processing Engine)와 복수의 이미지 처리 가속기 통합하여 향상된 성능으로 대상 객체를 감지한다. The image recognition processor recognizes images with high performance while consuming low power. The image recognition processor integrates a Media Processing Engine (MPE) operating at 0.15 GHz to 0.266 GHz and multiple image processing accelerators to detect target objects with improved performance.

제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)은 기 설정된 특정 영역을 촬영한 영상 정보를 각각 획득한다.The first camera module 112-1, the second camera module 112-2, the third camera module 112-3, and the fourth camera module 112-4 display image information of a preset specific area. get each

카메라 모듈(120)은 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)을 포함한다. 제1 카메라 모듈(112-1)은 제1 영역(210)을 촬영하여 제1 영상 데이터를 획득한다. 제2 카메라 모듈(112-2)은 제2 영역(220)을 촬영하여 제2 영상 데이터를 획득한다. 제3 카메라 모듈(112-3)은 제3 영역(230)을 촬영하여 제3 영상 데이터를 획득한다. 제4 카메라 모듈(112-4)은 제4 영역(240)을 촬영하여 제4 영상 데이터를 획득한다. The camera module 120 includes a first camera module 112-1, a second camera module 112-2, a third camera module 112-3, and a fourth camera module 112-4. The first camera module 112-1 acquires first image data by photographing the first area 210 . The second camera module 112 - 2 acquires second image data by photographing the second area 220 . The third camera module 112 - 3 acquires third image data by photographing the third area 230 . The fourth camera module 112 - 4 acquires fourth image data by photographing the fourth area 240 .

제1 영역(210), 제2 영역(220), 제3 영역(230), 제4 영역(240)은 일부 영역이 중첩되는 중첩 영역(330)을 갖는다.The first region 210 , the second region 220 , the third region 230 , and the fourth region 240 have an overlapping region 330 in which some regions overlap.

도 2a 내지 도 2f에 도시된 바와 같이, 멀티 센서(110)는 검출 범위 중 사람이 중앙 영역에서 판별되는 경우 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4) 중 일부를 선택적으로 동작하도록 제어한다.As shown in FIGS. 2A to 2F , the multi-sensor 110 includes a first camera module 112-1, a second camera module 112-2, and a third when a person is determined in the central area of the detection range. Some of the camera module 112-3 and the fourth camera module 112-4 are controlled to selectively operate.

다시 말해, 도 2a에 도시된 바와 같이, 멀티 센서(110)는 검출 범위 중 사람이 제1 영역(210)에서 판별되는 경우 제1 카메라 모듈(112-1)만을 선택적으로 동작하도록 제어한다. 도 2b에 도시된 바와 같이, 멀티 센서(110)는 검출 범위 중 사람이 제2 영역(220)에서 판별되는 경우 제2 카메라 모듈(112-2)만을 선택적으로 동작하도록 제어한다. 도 2c에 도시된 바와 같이, 멀티 센서(110)는 검출 범위 중 사람이 제3 영역(230)에서 판별되는 경우 제3 카메라 모듈(112-3)만을 선택적으로 동작하도록 제어한다. 도 2d에 도시된 바와 같이, 멀티 센서(110)는 검출 범위 중 사람이 제4 영역(240)에서 판별되는 경우 제4 카메라 모듈(112-4)만을 선택적으로 동작하도록 제어한다.In other words, as shown in FIG. 2A , the multi-sensor 110 selectively operates only the first camera module 112-1 when a person is determined in the first area 210 in the detection range. As shown in FIG. 2B , the multi-sensor 110 selectively operates only the second camera module 112 - 2 when a person is determined in the second area 220 in the detection range. As shown in FIG. 2C , the multi-sensor 110 selectively operates only the third camera module 112 - 3 when a person is determined in the third area 230 in the detection range. As shown in FIG. 2D , the multi-sensor 110 selectively operates only the fourth camera module 112 - 4 when a person is determined in the fourth area 240 in the detection range.

도 2f에 도시된 바와 같이, 멀티 센서(110)는 검출 범위 중 사람이 제1 영역(210)과 제2 영역(220)에서 판별되는 경우 제1 카메라 모듈(112-1)과 제2 카메라 모듈(112-2)만을 선택적으로 동작하도록 제어한다.As shown in FIG. 2f , the multi-sensor 110 includes a first camera module 112-1 and a second camera module when a person is determined in the first area 210 and the second area 220 in the detection range. Only (112-2) is controlled to operate selectively.

도 2g에 도시된 바와 같이, 멀티 센서(110)는 검출 범위 중 사람이 모서리 영역 또는 끝단 영역에서 판별되는 경우 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4) 전체가 동작하도록 제어한다.As shown in FIG. 2G , the multi-sensor 110 includes a first camera module 112-1, a second camera module 112-2, and a third when a person is determined in a corner area or an end area of the detection range. The camera module 112-3 and the fourth camera module 112-4 are all controlled to operate.

도 2h에 도시된 바와 같이, 멀티 센서(110)는 사람이 모서리 영역 또는 끝단 영역에서 판별되는 경우, 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)이 확장 영역(210-2,220-2,230-2,240-2)을 갖도록 제어한다. 여기서, 멀티 센서(110)는 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)이 확장 영역(210-2,220-2,230-2,240-2)을 갖도록 각 카메라 모듈의 각도를 조절한다.As shown in Fig. 2h, the multi-sensor 110 is a first camera module 112-1, a second camera module 112-2, and a third camera module when a person is determined in a corner area or an end area. (112-3), the fourth camera module 112-4 is controlled to have the extended areas 210-2, 220-2, 230-2, and 240-2. Here, in the multi-sensor 110, the first camera module 112-1, the second camera module 112-2, the third camera module 112-3, and the fourth camera module 112-4 are extended areas. Adjust the angle of each camera module to have (210-2,220-2,230-2,240-2).

도 3은 본 실시예에 따른 이미지 인식 프로세서를 나타낸 도면이다.3 is a diagram illustrating an image recognition processor according to the present embodiment.

멀티 센서(110)는 탑재된 복수의 카메라 모듈(112-1,112-2,112-3,112-4)을 이용하여 획득한 복수의 영상을 하나의 데이터로 합성한 합성 데이터(200)를 생성한다. 멀티 센서(110)는 합성 데이터(200)를 복수의 영역으로 분할한다. 멀티 센서(110)는 분할 영역 내에서 움직임 감지 영역(310)과 직전까지 움직임 감지 영역(320)으로 구분한다.The multi-sensor 110 generates synthesized data 200 by synthesizing a plurality of images acquired using a plurality of mounted camera modules 112-1, 112-2, 112-3, and 112-4 into one data. The multi-sensor 110 divides the synthesized data 200 into a plurality of regions. The multi-sensor 110 is divided into a motion detection area 310 and a motion detection area 320 up to just before in the divided area.

멀티 센서(110)는 복수의 분할 영역마다 사람이 존재하는 지의 여부를 감지한다. 멀티 센서(110)는 분할 영역마다 사람이 존재하는 경우, 해당 영역이 움직임 감지 영역(310)과 직전까지 움직임 감지 영역(320)으로 구분한다.The multi-sensor 110 detects whether a person is present in each of the plurality of divided areas. When a person is present in each divided area, the multi-sensor 110 divides the corresponding area into a motion detection area 310 and a motion detection area 320 until just before.

멀티 센서(110)는 촬상한 화상에 기초하여 복수의 분할 영역마다 사람의 존재 유무를 검지한다. 멀티 센서(110)는 분할 영역 중 사람 존재 영역마다, 움직임 감지 영역(310)과 직전까지 움직임 감지 영역(320)으로 구분하여 사람의 이동량과 운동량을 확인한다.The multi-sensor 110 detects the presence or absence of a person in each of the plurality of divided areas based on the captured image. The multi-sensor 110 divides each human presence area into a motion detection area 310 and a motion detection area 320 until just before, and checks the amount of movement and movement of the person.

멀티 센서(110)는 복수의 분할 영역 각각에서 직전까지 움직임 감지 영역(320)의 유지 시간과 움직임 감지 영역(310)의 유지 시간을 기반으로 운동량을 산출한다. 멀티 센서(110)는 운동량을 기반으로 CO2 농도를 산출한다. 멀티 센서(110)는 직전까지 움직임 감지 영역(320)에서 움직임 감지 영역(310)으로 변경 여부에 따라 사람의 이동량을 산출한다.The multi-sensor 110 calculates an exercise amount based on the holding time of the motion sensing region 320 and the holding time of the motion sensing region 310 in each of the plurality of divided regions until just before. Multi-sensor 110 calculates the CO 2 concentration based on the momentum. The multi-sensor 110 calculates the amount of movement of a person according to whether or not the motion detection area 320 is changed to the motion detection area 310 until just before.

멀티 센서(110)는 복수의 분할 영역에 포함되는 한 개 이상의 움직임 감지 영역(310)과 한 개 이상의 직전까지 움직임 감지 영역(320)을 매칭시키거나 한 개 이상의 직전까지 움직임 감지 영역(320)을 한 개 이상의 움직임 감지 영역(310)으로 매칭시킨다.The multi-sensor 110 matches one or more motion detection areas 310 included in the plurality of divided areas and one or more motion detection areas 320 up to just before or at least one motion detection area 320 up to just before. Matching with one or more motion detection regions 310 .

멀티 센서(110)는 움직임 감지 영역(310)에서 직전까지 움직임 감지 영역(320)으로 전환되는 전환 영역을 추출한다. 멀티 센서(110)는 전환 영역을 기반으로 사람의 이동량과 운동량을 확인한다. 멀티 센서(110)는 전환 영역을 사이즈 또는 영역 개수를 기반으로 사람의 이동량과 운동량을 확인한다. 멀티 센서(110)는 복수의 분할 영역 중 움직임 미감지 영역을 오프 영역(340)으로 설정한다.The multi-sensor 110 extracts a transition region converted from the motion detection region 310 to the motion detection region 320 until just before. The multi-sensor 110 checks the amount of movement and movement of the person based on the conversion area. The multi-sensor 110 checks the amount of movement and the amount of movement of a person based on the size or the number of areas in the conversion area. The multi-sensor 110 sets the non-motion detection region among the plurality of divided regions as the off region 340 .

멀티 센서(110)는 탐지 영역을 분할한 복수의 분할 영역마다, 사람의 존재 유무를 검지한다. 멀티 센서(110)는 복수의 분할 영역 각각을 복수의 카메라 모듈(112-1,112-2,112-3,112-4)을 이용하여 탐지한다. 멀티 센서(110)는 탐지 영역의 복수의 분할 영역마다, 사람의 존재 유무를 검지하는 검지 기능의 온오프를 전환할 수 있다. 멀티 센서(110)는 분할 영역 상의 탐지 영역을 직사각형으로 형태로 인지한다.The multi-sensor 110 detects the presence or absence of a person in each of the plurality of divided areas into which the detection area is divided. The multi-sensor 110 detects each of a plurality of divided regions using a plurality of camera modules 112-1, 112-2, 112-3, and 112-4. The multi-sensor 110 may switch on/off of a detection function for detecting the presence or absence of a person for each of the plurality of divided areas of the detection area. The multi-sensor 110 recognizes the detection area on the divided area in the form of a rectangle.

도 4는 본 실시예에 따른 복수의 영역 상에 움직임 감지 영역을 판별하는 방법을 나타낸 도면이다.4 is a diagram illustrating a method of determining a motion detection area on a plurality of areas according to the present embodiment.

멀티 센서(110)는 사람을 인식하기 위한 고정밀 이미지 인식 프로세서를 장착한다. 멀티 센서(110)에 탑재된 이미지 인식 프로세서를 이용하여 카메라 모듈(112-1,112-2,112-3,112-4)로부터 획득한 영상 정보를 실시간으로 처리하여 사람 수와 사람의 움직임 방향을 인식한다.The multi-sensor 110 is equipped with a high-precision image recognition processor for recognizing a person. The image information acquired from the camera modules 112-1, 112-2, 112-3, and 112-4 is processed in real time using the image recognition processor mounted on the multi-sensor 110 to recognize the number of people and the direction of movement of the people.

멀티 센서(110)에 탑재된 이미지 인식 프로세서는 통합된 지능형 카메라로서, 카메라 모듈(112-1,112-2,112-3,112-4)로부터 획득한 입력 이미지를 처리하고 인간, 머리, 팔 및 기타 객체의 움직임을 감지한다.The image recognition processor mounted on the multi-sensor 110 is an integrated intelligent camera, which processes the input images obtained from the camera modules 112-1, 112-2, 112-3, and 112-4 and controls the movement of humans, heads, arms and other objects. detect

일반적인 광역 감시 시스템에서 이용하는 중앙 집중식 이미지 인식 서버처럼 복수의 네트워크 카메라로부터 동시에 이미지를 획득하는 계산에 과부하가 걸릴 수 있다. 본 실시예에 따른 멀티 센서(110)에 탑재된 이미지 인식 프로세서는 지능형 카메라를 이용하여 카메라 모듈(112-1,112-2,112-3,112-4)에서 이미지를 처리할 수 있다. 이미지 인식 프로세서는 시스템에 사용되는 PC의 전력 소비를 줄이면서 다양한 이미지 처리 작업을 고속으로 수행한다. 이미지 인식 프로세서는 펌웨어를 수정에 따라 안 기능으로 사람 감지, 얼굴 인식, 표정 인식으로 특정 사람을 검출할 수 있다. 이미지 인식 프로세서는 카메라 모듈(112-1,112-2,112-3,112-4)을 이용하여 획득한 각 영상 프레임 내 존재하는 사람을 출력하는 장면만을 빠르게 추출한다.Like a centralized image recognition server used in a general wide area surveillance system, the calculation of simultaneously acquiring images from a plurality of network cameras may be overloaded. The image recognition processor mounted on the multi-sensor 110 according to the present embodiment may process images in the camera modules 112-1, 112-2, 112-3, and 112-4 using an intelligent camera. The image recognition processor performs various image processing tasks at high speed while reducing the power consumption of the PC used in the system. The image recognition processor may detect a specific person by human detection, face recognition, and facial expression recognition as an eye function according to firmware revision. The image recognition processor quickly extracts only a scene outputting a person present in each image frame acquired using the camera modules 112-1, 112-2, 112-3, and 112-4.

이미지 인식 프로세서는 사람 인식에 적합한 이미지 처리 프로세서를 포함한다. 이미지 인식 프로세서는 조도가 낮은 상황에서 보행자 보행자를 감지할 수 있다. 이미지 인식 프로세서는 인식된 대상 객체의 색조, 색상을 인식한다. The image recognition processor includes an image processing processor suitable for human recognition. The image recognition processor may detect pedestrians in low-light situations. The image recognition processor recognizes the hue and color of the recognized target object.

멀티 센서(110)는 복수의 카메라 모듈(112-1,112-2,112-3,112-4)(예컨대, 최대 4대)을 동시에 연결할 수 있다. 멀티 센서(110)는 복수의 카메라 모듈(112-1,112-2,112-3,112-4)로부터 획득한 영상 정보로부터 캡처한 이미지를 하나로 합성한 합성 데이터(200)로부터 사람을 인지하고, 사람의 이동방향을 검출할 수 있다.The multi-sensor 110 may simultaneously connect a plurality of camera modules 112-1, 112-2, 112-3, and 112-4 (eg, up to four). The multi-sensor 110 recognizes a person from the composite data 200 synthesizing images captured from image information obtained from a plurality of camera modules 112-1, 112-2, 112-3, and 112-4 into one, and determines the direction of movement of the person. can be detected.

이미지 인식 프로세서는 복수의 카메라 모듈(112-1,112-2,112-3,112-4)을 지원하며, 복수의 카메라 모듈(112-1,112-2,112-3,112-4)로부터 획득된 복수의 대상 객체를 동시에 감지한다. 이미지 인식 프로세서는 사람 인식에 적합한 원본 이미지 처리 가속기를 포함한다. 이미지 인식 프로세서는 HOG(Histogram of Oriented Gradients)을 이용하여 원본 이미지를 처리하며, 야간 및 주간에서 실시간으로 사람을 감지한다. 이미지 인식 프로세서는 HOG을 이용하여 조명 변화 및 작은 변형을 파악하여 사람을 감지한다.The image recognition processor supports a plurality of camera modules 112-1, 112-2, 112-3, and 112-4, and simultaneously detects a plurality of target objects obtained from the plurality of camera modules 112-1, 112-2, 112-3, and 112-4. The image recognition processor includes an original image processing accelerator suitable for human recognition. The image recognition processor processes the original image using the Histogram of Oriented Gradients (HOG), and detects people in real time at night and during the day. The image recognition processor uses HOG to detect changes in lighting and small deformations to detect people.

이미지 인식 프로세서는 카메라 기반 비전 시스템을 이용하여 사람을 인식하는 애플리케이션용 이미지 인식 프로세서를 포함한다. 이미지 인식 프로세서는 야간 및 주간 모두 실시간으로 보행자를 감지한다.The image recognition processor includes an image recognition processor for an application that recognizes a person using a camera-based vision system. The image recognition processor detects pedestrians in real time, both at night and during the day.

도 4에 도시된 바와 같이, 멀티 센서(110)는 사무실에 앉아서 근무하는 사람을 인지한 경우, 복수의 분할 영역 중 앉아있는 사람을 인지한다. 멀티 센서(110)는 복수의 카메라 모듈(112-1,112-2,112-3,112-4)을 이용하여 사무실 천장에 설치되므로, 천장에서 탑뷰(Top View)로 사무실에 앉아서 근무하는 사람을 촬영한다. As shown in FIG. 4 , when the multi-sensor 110 recognizes a person who works while sitting in an office, the multi-sensor 110 recognizes a sitting person among a plurality of divided areas. Since the multi-sensor 110 is installed on the ceiling of the office using a plurality of camera modules 112-1, 112-2, 112-3, and 112-4, a person sitting in the office and working is photographed from the ceiling in a Top View.

멀티 센서(110)는 복수의 카메라 모듈(112-1,112-2,112-3,112-4)로부터 획득한 영상을 합성하여 합성 데이터(200)를 생성한 후 합성 데이터(200)를 복수로 분할하여 분할 영역을 생성한다. 멀티 센서(110)는 분할 영역 중 사람을 감지한 후 움직임 감지 영역(310)과 직전까지 움직임 감지 영역(320)을 구분한다. 예컨대, 멀티 센서(110)는 사무실에 앉아서 근무하는 사람을 직전까지 움직임 감지 영역(320)으로 인지하고, 사무실에 앉아서 근무하는 사람의 손이 타이핑하거나 마우스를 움직이는 경우, 손이 위치하는 영역만 움직임 감지 영역(310)으로 인지한다.The multi-sensor 110 generates synthesized data 200 by synthesizing images obtained from a plurality of camera modules 112-1, 112-2, 112-3, and 112-4, and then divides the synthesized data 200 into a plurality of divided regions. create The multi-sensor 110 divides the motion detection area 310 and the motion detection area 320 until just before after detecting a person among the divided areas. For example, the multi-sensor 110 recognizes the person sitting in the office as the motion detection area 320 until just before, and when the hand of the person sitting in the office types or moves the mouse, only the area where the hand is located moves. It is recognized as the sensing area 310 .

멀티 센서(110)는 사무실에 앉아서 근무하는 사람의 손만 움직이는 경우, 손이 위치하는 영역만 움직임 감지 영역(310)으로 판별하여 움직임이 적은 것으로 인지한다. 멀티 센서(110)는 사무실에 앉아서 근무하는 사람의 머리 부분이 움직이는 경우, 해당 객체가 이동하는 것으로 산출한다.When the multi-sensor 110 moves only the hand of a person who sits in the office and works, only the area where the hand is located is determined as the motion detection area 310 and recognizes that there is little movement. The multi-sensor 110 calculates that when the head of a person sitting in the office moves, the corresponding object moves.

도 5는 본 실시예에 따른 촬영된 영상에 대한 이미지 처리 방법을 나타낸 도면이다.5 is a diagram illustrating an image processing method for a photographed image according to the present embodiment.

멀티 센서(110)는 카메라 모듈(112-1,112-2,112-3,112-4)을 이용하여 복수의 영상을 획득한다. 멀티 센서(110)는 복수의 영상을 하나의 영상으로 합성한 합성 데이터(200)를 생성한다. 멀티 센서(110)는 합성 데이터(200)에 대해 소정의 전처리(pre-processing)를 수행한다.The multi-sensor 110 acquires a plurality of images by using the camera modules 112-1, 112-2, 112-3, and 112-4. The multi-sensor 110 generates synthesized data 200 by synthesizing a plurality of images into one image. The multi-sensor 110 performs predetermined pre-processing on the synthesized data 200 .

멀티 센서(110)는 동영상 모드로 동작하는 이미지 처리를 수행한다. 멀티 센서(110)는 합성 데이터(200)를 입력받아 소정의 전처리(preprocessing)를 수행한다. 멀티 센서(110)는 합성 데이터(200)의 각 픽셀의 결함(Defect)을 보정하기 위한 처리와 이미지 센서의 렌즈의 가장자리에서의 왜곡을 보정하기 위한 렌즈 세이딩(lens shading)을 수행한다. 멀티 센서(110)는 이미지 전처리를 위해 각 픽셀당 R(Red), G(Green), B(Blue) 값 중 하나만을 가진다.The multi-sensor 110 performs image processing operating in a video mode. The multi-sensor 110 receives the synthesized data 200 and performs predetermined preprocessing. The multi-sensor 110 performs processing for correcting defects of each pixel of the composite data 200 and lens shading for correcting distortion at the edge of the lens of the image sensor. The multi-sensor 110 has only one of R (Red), G (Green), and B (Blue) values for each pixel for image preprocessing.

멀티 센서(110)는 이미지 전처리를 수행한 RGB 이미지 데이터를 소정 비율로 이미지 크기를 줄이는 다운 스케일링을 수행한다. 멀티 센서(110)는 전처리를 거친 RGB 이미지 데이터를 홀수 라인 또는 짝수 라인만을 선택하여 1/2 사이즈로 다운 스케일링하거나 10라인마다 한 개 라인만을 선택하여 1/10로 다운 스케일링할 수 있다. The multi-sensor 110 down-scaling the RGB image data on which the image pre-processing has been performed to reduce the image size by a predetermined ratio. The multi-sensor 110 may downscale the pre-processed RGB image data to 1/2 size by selecting only odd or even lines, or downscale to 1/10 by selecting only one line for every 10 lines.

멀티 센서(110)는 이미지 보간을 위해 다운 스케일링된 베이어(Bayer) 포맷의 RGB 데이터의 각 픽셀을 주변 픽셀값을 이용하여 보간(interpolation)한다. 멀티 센서(110)는 RGB 감마 보정을 위해 보간 처리된 데이터에 대해서 RGB 감마 보정(gamma correction)을 수행한다. 멀티 센서(110)는 YC 변환을 위해 RGB 영역의 데이터를 휘도(Y)-색차(Chroma) 영역의 데이터로 칼라 영역 변환(Color space conversion)을 수행한다. The multi-sensor 110 interpolates each pixel of down-scaled Bayer format RGB data for image interpolation using surrounding pixel values. The multi-sensor 110 performs RGB gamma correction on interpolated data for RGB gamma correction. The multi-sensor 110 performs color space conversion from RGB data to luminance (Y)-chroma data for YC conversion.

멀티 센서(110)는 YC 변환을 위해 밝기 정보 등의 이미지 특성 정보를 이용하여 화질을 개선할 수 있다. 멀티 센서(110)는 잡음 필터를 위해 YC 영역 데이터의 잡음을 줄이기 위한 필터링을 수행한다. The multi-sensor 110 may improve image quality by using image characteristic information such as brightness information for YC conversion. The multi-sensor 110 performs filtering to reduce noise of YC region data for a noise filter.

멀티 센서(110)는 소정의 이미지 특성을 나타내는 파라미터를 추출하여 오토 포커싱(Auto Focusing; AF), 자동 노출(Auto Exposure; AE), 오토 화이트 밸런싱(Auto White Balancing; AWB) 처리를 수행한다. The multi-sensor 110 extracts a parameter representing a predetermined image characteristic, and performs auto focusing (AF), auto exposure (AE), and auto white balancing (AWB) processes.

파라미터는 전처리된 데이터로부터 추출되는 이미지 전체 픽셀 영역에 대한 밝기값, 또는 전체 픽셀 영역을 소정 개수로 분할한 분할 영역의 밝기값이 될 수 있다. 밝기값은 평균값이 될 수 있다. The parameter may be a brightness value of the entire pixel area of an image extracted from preprocessed data, or a brightness value of a divided area obtained by dividing the entire pixel area into a predetermined number. The brightness value may be an average value.

파라미터는 보간 처리된 이미지의 전체 픽셀 영역에 대한 밝기값, 또는 전체 픽셀 영역을 소정 개수로 분할한 분할 영역의 밝기값이 될 수 있다. 파라미터는 출력 이미지의 전체 픽셀 영역에 대한 밝기값, 또는 전체 픽셀 영역을 소정 개수로 분할한 분할 영역의 밝기값이 될 수 있다. 파라미터는 밝기값 이외의 색차 성분(Cb, Cr)의 평균값등을 포함하는 다른 이미지 특성 정보를 추가로 포함할 수 있다. The parameter may be a brightness value of the entire pixel area of the interpolated image or a brightness value of a divided area obtained by dividing the entire pixel area into a predetermined number. The parameter may be a brightness value of the entire pixel area of the output image or a brightness value of a divided area obtained by dividing the entire pixel area into a predetermined number. The parameter may further include other image characteristic information including the average value of the color difference components (Cb, Cr) other than the brightness value.

멀티 센서(110)는 출력된 YC 데이터를 제공받아 후처리(post processing)를 수행한다. 멀티 센서(110)는 후처리를 위해 YC 데이터에 대한 칼라 보정(Color Correction), 얼굴 검출, 표정 검출 동작을 수행할 수 있다.The multi-sensor 110 receives the output YC data and performs post processing. The multi-sensor 110 may perform color correction, face detection, and expression detection operations on YC data for post-processing.

멀티 센서(110)는 정지된 스틸 이미지 모드로 동작하는 이미지 처리를 수행한다. 멀티 센서(110)는 카메라 모듈(112-1,112-2,112-3,112-4)로부터 스틸 이미지를 입력받아 처리한다. 멀티 센서(110)는 스틸 이미지를 입력받아 소정의 전처리(preprocessing)를 수행한다. 멀티 센서(110)는 전처리 수행을 위해 스틸 이미지의 각 픽셀의 결함(Defect)을 보정하기 위한 처리와 이미지 센서의 렌즈의 가장자리에서의 왜곡을 보정하기 위한 렌즈 세이딩(lens shading)을 수행한다. 멀티 센서(110)는 각 픽셀당 R(Red), G(Green), B(Blue) 값 중 하나만을 포함하는 전처리된 데이터를 출력한다.The multi-sensor 110 performs image processing operating in a still image mode. The multi-sensor 110 receives and processes still images from the camera modules 112-1, 112-2, 112-3, and 112-4. The multi-sensor 110 receives a still image and performs predetermined preprocessing. The multi-sensor 110 performs processing for correcting defects of each pixel of the still image and lens shading for correcting distortion at the edge of the lens of the image sensor to perform pre-processing. The multi-sensor 110 outputs preprocessed data including only one of R (Red), G (Green), and B (Blue) values for each pixel.

멀티 센서(110)는 소정의 스틸 이미지 특성을 나타내는 파라미터를 추출하여 오토 포커싱(Auto Focusing; AF), 자동 노출(Auto Exposure; AE), 오토 화이트 밸런싱(Auto White Balancing; AWB) 처리를 수행한다. The multi-sensor 110 extracts parameters representing predetermined still image characteristics and performs auto focusing (AF), auto exposure (AE), and auto white balancing (AWB) processes.

멀티 센서(110)는 전처리된 이미지 전체 픽셀 영역에 대한 밝기값(평균값) 또는 전체 픽셀 영역을 소정 개수로 분할한 분할 영역의 밝기값을 포함하는 파라미터를 추출한다.The multi-sensor 110 extracts a parameter including a brightness value (average value) of the entire pixel area of the preprocessed image or a brightness value of a divided area obtained by dividing the entire pixel area into a predetermined number.

파라미터는 보간 처리된 스틸 이미지의 전체 픽셀 영역에 대한 밝기값, 또는 전체 픽셀 영역을 소정 개수로 분할한 분할 영역의 밝기값을 포함한다. 파라미터는 RGB 감마가 보정된 스틸 이미지 또는 YC가 변환된 스틸 이미지의 전체 픽셀 영역에 대한 밝기값 또는 전체 픽셀 영역을 소정 개수로 분할한 분할 영역의 밝기값을 포함한다. 파라미터는 밝기값 이외의 색차 성분(Cb, Cr)의 평균값 등과 같은 다른 이미지 특성 정보를 추가로 포함한다. The parameter includes a brightness value of the entire pixel area of the interpolated still image or a brightness value of a divided area obtained by dividing the entire pixel area into a predetermined number. The parameter includes a brightness value of an entire pixel region of a still image in which RGB gamma is corrected or a still image in which YC is converted, or a brightness value of a divided region obtained by dividing the entire pixel region into a predetermined number. The parameter further includes other image characteristic information such as the average value of the color difference components (Cb, Cr) other than the brightness value.

멀티 센서(110)는 전처리된 스틸 이미지를 읽어들여 소프트웨어적으로 RGB 보간, RGB 감마 보정, YC 변환 및 잡음 필터링을 수행하여 YC 데이터를 생성한다. 멀티 센서(110)는 전처리된 베이어(Bayer) 포맷의 RGB 데이터의 각 픽셀을 주변 픽셀값을 이용하여 보간(interpolation)한다. 멀티 센서(110)는 RGB 보간(interpolation) 처리에 의하여 각 픽셀당 R(Red), G(Green), B(Blue) 값 중 하나만을 가지는 각 픽셀당 R(Red), G(Green) 및 B(Blue) 값을 포함하도록 한다.The multi-sensor 110 reads the pre-processed still image and performs RGB interpolation, RGB gamma correction, YC conversion, and noise filtering in software to generate YC data. The multi-sensor 110 interpolates each pixel of the pre-processed Bayer format RGB data using neighboring pixel values. The multi-sensor 110 has only one of R(Red), G(Green), and B(Blue) values for each pixel by RGB interpolation processing, R(Red), G(Green) and B for each pixel. (Blue) value should be included.

멀티 센서(110)는 보간 처리된 데이터에 대해서 RGB 감마 보정(gamma correction)을 수행한다. 멀티 센서(110)는 RGB 영역의 데이터를 휘도(Y)-색차(Chroma) 영역의 데이터로 칼라 영역 변환(Color space conversion)을 수행한다. 멀티 센서(110)는 밝기 정보 등의 이미지 특성 정보를 이용하여 화질을 개선할 수 있다. 멀티 센서(110)는 YC 영역 데이터의 잡음을 줄이기 위한 필터링을 수행한다.The multi-sensor 110 performs RGB gamma correction on the interpolated data. The multi-sensor 110 performs color space conversion from data in the RGB region to data in the luminance (Y)-chroma region. The multi-sensor 110 may improve image quality by using image characteristic information such as brightness information. The multi-sensor 110 performs filtering to reduce noise of the YC area data.

도 6은 본 실시예에 따른 멀티 센서를 이용한 검출 범위를 나타낸 도면이다.6 is a view showing a detection range using the multi-sensor according to the present embodiment.

카메라 모듈(112-1,112-2,112-3,112-4)은 사무공간의 천장에서 책상면 높이로 앉아있는 사람을 검출하기 위해 기 설정된 제1 높이로 설치되어 기 설정된 제1 범위를 촬영하도록 하거나 공장 및 창고의 높은 천장에서 이동하는 사람을 검출하기 위해 기 설정된 제2 높이로 설치되어 기 설정된 제2 범위를 촬영하도록 한다.The camera module (112-1, 112-2, 112-3, 112-4) is installed at a preset first height in order to detect a person sitting at the height of the desk surface from the ceiling of the office space to shoot the preset first range, or factory and warehouse It is installed at a preset second height to detect a person moving from the high ceiling of the .

카메라 모듈(112-1,112-2,112-3,112-4)은 제1 범위와 제2 범위 내에서 제외할 대상을 마스킹(Masking)하도록 한다.The camera modules 112-1, 112-2, 112-3, and 112-4 mask an object to be excluded within the first range and the second range.

멀티 센서(110)는 사무실에 설치되어 사무실 내 책상면 높이까지를 탐지한다. 멀티 센서(110)는 사무실 최대 2~3m 높이의 천장에서도 앉아 있는 사람의 감지가 가능하다. 예컨대, 멀티 센서(110)는 책상에 앉은 사람을 감지하고 필요한 경우에만 에어콘을 동작시키고, 사람의 위치에 따라 풍향을 제어하여 작업 환경을 향상시킬 수 있다.The multi-sensor 110 is installed in the office to detect the height of the desk surface in the office. The multi-sensor 110 is capable of detecting a person sitting even in the ceiling at a height of up to 2-3 m in the office. For example, the multi-sensor 110 may improve the work environment by detecting a person sitting at a desk, operating the air conditioner only when necessary, and controlling the wind direction according to the location of the person.

멀티 센서(110)는 공장 및 창고에서 높은 천장 지지대에 설치될 수 있다. 멀티 센서(110)는 공장이나 창고 등 최대 8m 높이의 높은 천장에서도 보행 감지가 가능하다. 예컨대, 멀티 센서(110)는 작업자를 감지하고 필요한 경우에만 에어콘을 동작시키고, 사람의 위치에 따라 풍향을 제어하여 작업 환경을 향상시킬 수 있다.The multi-sensor 110 may be installed on a high ceiling support in factories and warehouses. The multi-sensor 110 can detect walking even in a high ceiling with a height of up to 8 m, such as in a factory or warehouse. For example, the multi-sensor 110 may improve the work environment by detecting the worker, operating the air conditioner only when necessary, and controlling the wind direction according to the location of the person.

멀티 센서(110)는 획득된 이미지 정보로부터 사람의 미세한 움직임을 감지할 수 있다. 멀티 센서(110)는 주변 밝기를 감지할 수 있으며, 밝기를 기반으로 조명을 제어한다. 멀티 센서(110)는 어두운 환경에 적용되어 보행자를 감지할 수 있다.The multi-sensor 110 may detect a minute movement of a person from the acquired image information. The multi-sensor 110 may detect ambient brightness and control the lighting based on the brightness. The multi-sensor 110 may be applied to a dark environment to detect a pedestrian.

멀티 센서(110)는 9m × 9m로 센싱할 범위를 설정할 수 있다. 멀티 센서(110)는 센싱할 범위를 최대 9개의 영역으로 자유롭게 설정 및 분할할 수 있다. 멀티 센서(110)는 센싱할 범위 중 센싱할 범위에서 제외할 장소(예컨대, 통로)를 마스킹할 수 있다. 멀티 센서(110)는 최소 검출 대상은 15cm2 이상의 물체로서, 0.5m/sec 이상의 속도로 이동한다. 멀티 센서(110)는 1럭스를 최소 검출 조도로 설정한다.The multi-sensor 110 may set a sensing range to 9 m × 9 m. The multi-sensor 110 can freely set and divide the sensing range into up to nine areas. The multi-sensor 110 may mask a place (eg, a passage) to be excluded from the sensing range among the sensing ranges. The multi-sensor 110 has a minimum detection target of 15 cm 2 or more and moves at a speed of 0.5 m/sec or more. The multi-sensor 110 sets 1 lux as the minimum detection illuminance.

멀티 센서(110)는 센싱할 범위 내에서 감지되는 개략적인 인원수와 활동을 추정한다. 멀티 센서(110)는 센싱할 범위 내에 존재하는 사람이 걷거나 제자리에 머무르는 지의 여부를 식별한다. 멀티 센서(110)는 센싱할 범위 내에서 감지된 인원수와 활동에 따라 조명, 에어컨을 포함하는 주변 기기를 효과적으로 제어한다.The multi-sensor 110 estimates the approximate number of people and activities detected within a sensing range. The multi-sensor 110 identifies whether a person present within a sensing range is walking or staying in place. The multi-sensor 110 effectively controls peripheral devices including lighting and air conditioners according to the number of people and activities detected within a sensing range.

멀티 센서(110)는 특정 장소에 설치한 후 업데이트 필요에 따라 최신 기능을 적용하여 업데이트된다. 멀티 센서(110)는 사람에 대한 멀티 정보를 획득하며, 다양한 센서의 기능을 대체한다. 멀티 센서(110)는 센싱할 범위 내에 존재하는 사람에 대해 복수의 정보를 획득한다.The multi-sensor 110 is updated by applying the latest function as needed after being installed in a specific place. The multi-sensor 110 acquires multi-information about a person, and replaces functions of various sensors. The multi-sensor 110 acquires a plurality of pieces of information about a person existing within a sensing range.

멀티 센서(110)는 센싱할 범위 내에서 조도 및 CO2 정보를 획득할 수 있다. 멀티 센서(110)는 미래에 취득한 건물의 빅 데이터를 클라우드에 축적한 후 분석하여 다양한 클라우드 서비스를 제공한다.The multi-sensor 110 may acquire illuminance and CO 2 information within a sensing range. The multi-sensor 110 provides various cloud services by accumulating and analyzing big data of buildings acquired in the future in the cloud.

도 7은 본 실시예에 따른 멀티 센서의 내부 모듈을 나타낸 도면이다.7 is a view showing an internal module of the multi-sensor according to the present embodiment.

본 실시예에 따른 멀티 센서(110)는 데이터 합성부(702), 영역 분할부(704), 사람 판별부(706), 움직임 인지부(708), 사람 계수부(710), 이동성 판별부(720), 운동량 판별부(730), 건물설비 제어부(740)를 포함한다. 멀티 센서(110)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The multi-sensor 110 according to the present embodiment includes a data synthesizing unit 702, a region dividing unit 704, a person determining unit 706, a motion recognition unit 708, a human counting unit 710, and a mobility determining unit ( 720), an exercise amount determination unit 730, and a building equipment control unit 740. Components included in the multi-sensor 110 are not necessarily limited thereto.

멀티 센서(110)에 포함된 각 구성요소는 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작할 수 있다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.Each component included in the multi-sensor 110 may be connected to a communication path that connects a software module or a hardware module inside the device to operate organically with each other. These components communicate using one or more communication buses or signal lines.

도 7에 도시된 멀티 센서(110)의 각 구성요소는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 소프트웨어적인 모듈, 하드웨어적인 모듈 또는 소프트웨어와 하드웨어의 결합으로 구현될 수 있다.Each component of the multi-sensor 110 shown in FIG. 7 means a unit for processing at least one function or operation, and may be implemented as a software module, a hardware module, or a combination of software and hardware.

데이터 합성부(702)는 제1 카메라 모듈(112-1)로부터 획득한 제1 영역(210)에 대응하는 제1 영상 데이터, 제2 카메라 모듈(112-2)로부터 획득한 제2 영역(220)에 대응하는 제2 영상 데이터, 제3 카메라 모듈(112-3)로부터 획득한 제3 영역(230)에 대응하는 제3 영상 데이터, 제4 카메라 모듈(112-4)로부터 획득한 제4 영역(240)에 대응하는 제4 영상 데이터를 하나의 데이터로 합성한 합성 데이터(200)를 생성한다.The data synthesis unit 702 includes first image data corresponding to the first area 210 obtained from the first camera module 112-1 and the second area 220 obtained from the second camera module 112-2. ) corresponding to the second image data, the third image data corresponding to the third area 230 obtained from the third camera module 112-3, and the fourth area obtained from the fourth camera module 112-4 The synthesized data 200 is generated by synthesizing the fourth image data corresponding to 240 into one data.

영역 분할부(704)는 합성 데이터(200)를 복수의 분할 영역으로 분할한다. 사람 판별부(706)는 영상 정보로부터 배경 영상과 객체를 각각 분리하여 인지한 후 객체가 사람인지의 여부를 판별한다. 사람 판별부(706)는 사람의 수에 따라 혼잡 정보를 생성하고, 사람이 사회적 취약 계층인지의 여부, 화재 발생 여부를 판별한다.The region dividing unit 704 divides the synthesized data 200 into a plurality of divided regions. The person determining unit 706 separates and recognizes the background image and the object from the image information, and then determines whether the object is a person. The person determining unit 706 generates congestion information according to the number of people, and determines whether the person is a socially vulnerable group and whether a fire occurs.

사람 판별부(706)는 검출 범위 중 사람이 모서리 영역 또는 끝단 영역에서 판별되는 경우 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4) 전체가 동작하도록 제어한다.The person determining unit 706 is configured to include the first camera module 112-1, the second camera module 112-2, and the third camera module 112-3 when a person is determined in the corner area or the end area of the detection range. , the fourth camera module 112-4 controls the entire operation.

사람 판별부(706)는 검출 범위 중 사람이 중앙 영역에서 판별되는 경우 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4) 중 일부를 선택적으로 동작하도록 제어한다. 사람 판별부(706)는 사람의 머리 부분, 손 부분, 다리 부분을 구분하여 인지한다.The person determining unit 706 is configured to include the first camera module 112-1, the second camera module 112-2, the third camera module 112-3, and the fourth when a person is determined in the central region of the detection range. Some of the camera modules 112-4 are controlled to selectively operate. The person determining unit 706 distinguishes and recognizes a person's head, hand, and leg portions.

사람 판별부(706)는 합성 데이터(200)가 동영상 데이터인 경우, 동영상 데이터의 전처리(preprocessing)를 수행한 전처리 데이터를 생성한다. 사람 판별부(706)는 전처리 데이터 내의 각 픽셀의 결함(Defect)을 보정하고, 렌즈의 가장자리에서의 왜곡을 보정하기 위한 렌즈 세이딩(lens shading)을 수행한 보정 데이터를 생성한다. 사람 판별부(706)는 보정 데이터의 소정 비율로 이미지 크기를 줄이는 다운 스케일링을 수행한 다운 스케일링 데이터를 생성한다. 사람 판별부(706)는 다운 스케일링 데이터를 각 픽셀을 주변 픽셀값을 이용하여 보간(interpolation)을 수생한 보간 데이터를 생성한다. 사람 판별부(706)는 보간 데이터에 대해서 RGB 감마 보정(gamma correction)을 수행한 RGB 감마 데이터를 생성한다. 사람 판별부(706)는 RGB 감마 데이터에 대한 휘도(Y)-색차(Chroma) 영역의 데이터로 칼라 영역 변환(Color space conversion)을 수행한 YC 변환 데이터를 생성한다. 사람 판별부(706)는 YC 변환 데이터의 잡음을 줄이기 위한 필터링을 수행한 노이즈 필터 데이터를 생성한다. 사람 판별부(706)는 노이즈 필터 데이터로부터 사람을 검출하고, 사람의 머리 부분, 손 부분, 다리 부분을 구분하여 인지한다.When the synthesized data 200 is moving picture data, the person determining unit 706 generates preprocessing data obtained by preprocessing the moving picture data. The person discriminating unit 706 corrects a defect of each pixel in the pre-processing data and generates corrected data obtained by performing lens shading to correct distortion at the edge of the lens. The person determining unit 706 generates down-scaling data by performing down-scaling to reduce the image size by a predetermined ratio of the correction data. The person determining unit 706 generates interpolation data obtained by performing interpolation of down-scaling data using neighboring pixel values for each pixel. The human discriminator 706 generates RGB gamma data obtained by performing RGB gamma correction on the interpolated data. The human discriminator 706 generates YC-converted data obtained by performing color space conversion into luminance (Y)-chroma data for RGB gamma data. The person determining unit 706 generates noise filter data that has been filtered to reduce noise of the YC-converted data. The person determining unit 706 detects a person from the noise filter data, and recognizes the person's head, hand, and leg separately.

사람 판별부(706)는 사람이 모서리 영역 또는 끝단 영역에서 판별되는 경우, 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)이 확장 영역(210-2,220-2,230-2,240-2)을 갖도록 제어한다.When a person is determined in the corner area or the end area, the person determining unit 706 may include a first camera module 112-1, a second camera module 112-2, a third camera module 112-3, and a second camera module. 4 The camera module 112-4 is controlled to have the extended areas 210-2, 220-2, 230-2, and 240-2.

사람 판별부(706)는 사람이 모서리 영역 또는 끝단 영역에서 판별되는 경우, 제1 카메라 모듈(112-1)의 기울기를 각각 조절하여 제1 영역(210)이 제1 확장 영역(210-2)으로 확장되도록 한다.When the person is determined in the corner area or the end area, the person determining unit 706 adjusts the inclination of the first camera module 112-1 so that the first area 210 is the first extended area 210-2. to be expanded to

사람 판별부(706)는 사람이 모서리 영역 또는 끝단 영역에서 판별되는 경우, 제2 카메라 모듈(112-2)의 기울기를 각각 조절하여 제2 영역(220)이 제2 확장 영역(220-2)으로 확장되도록 한다.When the person is determined in the corner area or the end area, the person determining unit 706 adjusts the inclination of the second camera module 112-2 so that the second area 220 is the second extended area 220-2. to be expanded to

사람 판별부(706)는 사람이 모서리 영역 또는 끝단 영역에서 판별되는 경우, 제3 카메라 모듈(112-3)의 기울기를 각각 조절하여 제3 영역(230)이 제3 확장 영역(230-2)으로 확장되도록 한다.When a person is determined in the corner area or the end area, the person determining unit 706 adjusts the inclination of the third camera module 112-3 so that the third area 230 is the third extended area 230-2. to be expanded to

사람 판별부(706)는 사람이 모서리 영역 또는 끝단 영역에서 판별되는 경우, 제4 카메라 모듈(112-4)의 기울기를 각각 조절하여 제4 영역(240)이 제4 확장 영역(240-2)으로 확장되도록 한다.When the person is determined in the corner area or the end area, the person determining unit 706 adjusts the inclination of the fourth camera module 112-4 so that the fourth area 240 is the fourth extended area 240-2. to be expanded to

사람 판별부(706)는 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)이 확장 영역(210-2,220-2,230-2,240-2)을 갖도록 제어할 때 중첩 영역(330)을 갖지 않는 하나의 촬영 영역을 갖도록 한다.The person determining unit 706 includes the first camera module 112-1, the second camera module 112-2, the third camera module 112-3, and the fourth camera module 112-4 in the extended area ( 210 - 2, 220 - 2, 230 - 2, 240 - 2), one photographing area not having the overlapping area 330 is provided.

움직임 인지부(708)는 분할 영역마다 사람이 존재하는 지의 여부를 감지하고, 사람이 존재하는 영역을 움직임 감지 영역(310)과 직전까지 움직임 감지 영역(320)으로 구분하여 인지한다.The motion recognition unit 708 detects whether a person is present in each divided area, and recognizes the area in which a person exists by dividing the area into the motion detection area 310 and the motion detection area 320 until just before.

움직임 인지부(708)는 움직임 감지 영역(310)에서 직전까지 움직임 감지 영역(320)으로 변경된 시간이 길수록 판별 민감도를 낮게 산출한다. 움직임 인지부(708)는 직전까지 움직임 감지 영역(320)에서 움직임 감지 영역(310)으로 변경된 시간이 길수록 판별 민감도를 높게 산출한다. 움직임 인지부(708)는 판별 민감도가 기준치보다 높을 경우 제어 범위를 제어 확장 범위로 확장시키고, 판별 민감도가 기준치보다 낮을 경우 제어 확장 범위 제어 범위로 축소하도록 조정한다.The motion recognition unit 708 calculates a lower discrimination sensitivity as the time changed from the motion detection area 310 to the right before the motion detection area 320 increases. The motion recognition unit 708 calculates a higher discrimination sensitivity as the time changed from the motion detection area 320 to the motion detection area 310 until just before is longer. The motion recognition unit 708 adjusts to expand the control range to the extended control range when the discrimination sensitivity is higher than the reference value, and to reduce the control range to the control extended range when the discrimination sensitivity is lower than the reference value.

사람 계수부(710)는 사람의 수를 카운팅한다. 이동성 판별부(720)는 사람의 이동성이 확인되면, 이동성을 기반으로 움직임 방향을 산출한다.The person counting unit 710 counts the number of people. When the mobility of the person is confirmed, the mobility determining unit 720 calculates a movement direction based on the mobility.

이동성 판별부(720)는 움직임 감지 영역(310)이 판별되면, 한 개 이상의 직전까지 움직임 감지 영역(320)을 한 개 이상의 움직임 감지 영역(310)으로 매칭시켜서, 최초 움직임을 감지하고, 다시 감지되는 움직임 감지 영역(310)에 따라 움직임 방향을 산출한다.When the motion detection area 310 is determined, the mobility determining unit 720 matches the one or more motion detection areas 320 with one or more motion detection areas 310 until immediately before detecting the initial motion and re-sensing the motion detection area 310 . A motion direction is calculated according to the motion sensing area 310 to be used.

이동성 판별부(720)는 움직임 감지 영역(310)이 머리 부분으로 판별되면, 머리 부분에 해당하는 직전까지 움직임 감지 영역(320)을 한 개 이상의 움직임 감지 영역(310)으로 매칭시켜서, 최초 움직임을 감지한다. 이후 이동성 판별부(720)는 다시 감지되는 머리 부분에 해당하는 움직임 감지 영역(310)에 따라 움직임 방향을 산출한다.When the motion detection area 310 is determined as the head, the mobility determining unit 720 matches the motion detection area 320 with one or more motion detection areas 310 until just before the head corresponding to the first movement. detect Thereafter, the mobility determining unit 720 calculates a movement direction according to the movement detection area 310 corresponding to the head that is sensed again.

이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제1 방향에서 제2 방향으로 변경된 것으로 인지하면 제1 방향에서 사람이 먼저 감지되었다가 제2 방향으로 이동한 것으로 판단하여 제1 방향에서 제2 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. 이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제1 방향에서 제3 방향으로 변경된 것으로 인지하면 제1 방향에서 사람이 먼저 감지되었다가 제3 방향으로 이동한 것으로 판단하여 제1 방향에서 제3 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. 이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제1 방향에서 제4 방향으로 변경된 것으로 인지하면 제1 방향에서 사람이 먼저 감지되었다가 제4 방향으로 이동한 것으로 판단하여 제1 방향에서 제4 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다.If the mobility determining unit 720 recognizes that the first direction is changed from the first direction to the second direction before receiving the preset timer completion signal, it is determined that the person is detected first in the first direction and then moved to the second direction, and thus the first direction A movement direction determined that the person has moved in the second direction is calculated. If the mobility determining unit 720 recognizes that the first direction is changed from the first direction to the third direction before receiving the preset timer completion signal, it is determined that the person is detected first in the first direction and then moved to the third direction, and the first direction A movement direction determined that the person has moved in the third direction is calculated. If the mobility determining unit 720 recognizes that the first direction is changed from the first direction to the fourth direction before receiving the preset timer completion signal, it is determined that the person is detected first in the first direction and then moved to the fourth direction, and the first direction A movement direction determined that the person has moved in the fourth direction is calculated.

이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제2 방향에서 제1 방향으로 변경된 것으로 인지하면 제2 방향에서 사람이 먼저 감지되었다가 제1 방향으로 이동한 것으로 판단하여 제2 방향에서 제1 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. 이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제2 방향에서 제3 방향으로 변경된 것으로 인지하면 제2 방향에서 사람이 먼저 감지되었다가 제3 방향으로 이동한 것으로 판단하여 제2 방향에서 제3 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. 이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제2 방향에서 제4 방향으로 변경된 것으로 인지하면 제2 방향에서 사람이 먼저 감지되었다가 제4 방향으로 이동한 것으로 판단하여 제2 방향에서 제4 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. If the mobility determining unit 720 recognizes that the second direction is changed from the second direction to the first direction before receiving the preset timer completion signal, it is determined that the person is first detected in the second direction and then moved in the first direction, and thus the second direction A movement direction determined that the person has moved in the first direction is calculated. If the mobility determining unit 720 recognizes that the second direction is changed from the second direction to the third direction before receiving the preset timer completion signal, it is determined that the person has been detected first in the second direction and then moved in the third direction to determine the second direction. A movement direction determined that the person has moved in the third direction is calculated. If the mobility determining unit 720 recognizes that the second direction is changed from the second direction to the fourth direction before receiving the preset timer completion signal, it is determined that the person has been detected first in the second direction and then moved to the fourth direction, and the second direction A movement direction determined that the person has moved in the fourth direction is calculated.

이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제3 방향에서 제1 방향으로 변경된 것으로 인지하면 제3 방향에서 사람이 먼저 감지되었다가 제1 방향으로 이동한 것으로 판단하여 제3 방향에서 제1 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. 이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제3 방향에서 제2 방향으로 변경된 것으로 인지하면 제3 방향에서 사람이 먼저 감지되었다가 제2 방향으로 이동한 것으로 판단하여 제3 방향에서 제2 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. 이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제3 방향에서 제4 방향으로 변경된 것으로 인지하면 제3 방향에서 사람이 먼저 감지되었다가 제4 방향으로 이동한 것으로 판단하여 제3 방향에서 제4 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. If the mobility determining unit 720 recognizes that the third direction is changed from the third direction to the first direction before receiving the preset timer completion signal, it is determined that the person is first detected in the third direction and then moved in the first direction to determine the third direction. A movement direction determined that the person has moved in the first direction is calculated. If the mobility determining unit 720 recognizes that the third direction is changed from the third direction to the second direction before receiving the preset timer completion signal, it is determined that the person is first detected in the third direction and then moved to the second direction, and thus the third direction A movement direction determined that the person has moved in the second direction is calculated. If the mobility determining unit 720 recognizes that the third direction is changed from the third direction to the fourth direction before receiving the preset timer completion signal, it is determined that the person has been detected first in the third direction and then moved to the fourth direction, and the third direction A movement direction determined that the person has moved in the fourth direction is calculated.

이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제4 방향에서 제1 방향으로 변경된 것으로 인지하면 제4 방향에서 사람이 먼저 감지되었다가 제1 방향으로 이동한 것으로 판단하여 제4 방향에서 제1 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. 이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제4 방향에서 제2 방향으로 변경된 것으로 인지하면 제4 방향에서 사람이 먼저 감지되었다가 제2 방향으로 이동한 것으로 판단하여 제4 방향에서 제2 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다. 이동성 판별부(720)는 기 설정된 타이머 완료 신호를 수신하기 전에 제4 방향에서 제3 방향으로 변경된 것으로 인지하면 제4 방향에서 사람이 먼저 감지되었다가 제3 방향으로 이동한 것으로 판단하여 제4 방향에서 제3 방향으로 사람이 이동한 것으로 판단한 움직임 방향을 산출한다.If the mobility determining unit 720 recognizes that the fourth direction is changed from the fourth direction to the first direction before receiving the preset timer completion signal, it is determined that the person has been detected first in the fourth direction and then moved in the first direction to determine the fourth direction. A movement direction determined that the person has moved in the first direction is calculated. If the mobility determining unit 720 recognizes that the fourth direction is changed from the fourth direction to the second direction before receiving the preset timer completion signal, it is determined that the person is first detected in the fourth direction and then moved in the second direction, and thus the fourth direction A movement direction determined that the person has moved in the second direction is calculated. If the mobility determining unit 720 recognizes that the fourth direction is changed from the fourth direction to the third direction before receiving the preset timer completion signal, it is determined that the person is first detected in the fourth direction and then moved to the third direction, and thus the fourth direction A movement direction determined that the person has moved in the third direction is calculated.

이동성 판별부(720)는 직전까지 움직임 감지 영역(320)이 움직임 감지 영역(310)으로 일정한 한 방향으로 지속적으로 변경되는 경우 방향성을 가진 이동으로 판별한다. 이동성 판별부(720)는 순차적으로 방향성을 가진 이동으로 판별되는 시간을 기반으로 사람의 방향성을 예측한다.The mobility determining unit 720 determines that the movement is directional when the motion detection area 320 is continuously changed to the motion detection area 310 in one direction until just before. The mobility determining unit 720 predicts the direction of the person based on the time determined as movement having the direction in sequence.

이동성 판별부(720)는 사람에 대한 탐지 시간이 길수록 방향성 민감도를 높게 설정한다. 이동성 판별부(720)는 방향성을 뚜렷이 가지는 영역에서 판별된 객체, 사람이 많이 모이는 영역에서 판별되는 객체에 대해서 방향성 민감도를 높게 설정한다.The mobility determining unit 720 sets the directionality sensitivity to be higher as the detection time for a person is longer. The mobility determining unit 720 sets a high directionality sensitivity for an object determined in an area having a clear directionality and an object determined in an area where many people gather.

운동량 판별부(730)는 사람의 이동성을 운동량으로 환산한다. 운동량 판별부(730)는 운동량을 기반으로 기 설정된 공간 내의 CO2 농도를 추정한다. 운동량 판별부(730)는 움직임 감지 영역(310)이 직전까지 움직임 감지 영역(320)으로 전환된 후 직전까지 움직임 감지 영역(320)의 유지 시간에 따라 운동량을 낮은 상태로 산출한다.The momentum determining unit 730 converts the mobility of a person into an amount of momentum. The momentum determination unit 730 estimates the concentration of CO 2 in a preset space based on the momentum. The momentum determining unit 730 calculates the amount of exercise in a low state according to the holding time of the motion detection region 320 until just before the motion detection region 310 is converted to the motion detection region 320 until just before.

운동량 판별부(730)는 직전까지 움직임 감지 영역(320)이 움직임 감지 영역(310)으로 전환된 후 움직임 감지 영역(310)의 유지 시간에 따라 운동량을 높은 상태로 산출한다.The momentum determining unit 730 calculates a high momentum according to the holding time of the motion detection region 310 after the motion detection region 320 is converted to the motion detection region 310 until just before.

운동량 판별부(730)는 움직임 감지 영역(310)이 손 부분으로 판별되면, 손 부분에 해당하는 직전까지 움직임 감지 영역(320)을 한 개 이상의 움직임 감지 영역(310)으로 매칭시켜서, 최초 움직임을 감지한다. 이후 운동량 판별부(730)는 다시 감지되는 손 부분에 해당하는 움직임 감지 영역(310)에 따라 사람이 움직이는 것이 아닌 손만 움직이는 것으로 인지(예컨대, 키보드 타이핑)하여 운동량을 낮은 상태로 환산한다.When the motion detection area 310 is determined to be a hand part, the momentum determination unit 730 matches the motion detection area 320 with one or more motion detection areas 310 until just before the hand part, and determines the initial movement. detect Thereafter, the exercise amount determining unit 730 recognizes that only the hand, not the person, moves according to the motion sensing region 310 corresponding to the sensed hand part (eg, typing on the keyboard) and converts the exercise amount to a low state.

건물설비 제어부(740)는 사람의 수, 움직임 방향, 운동량을 기반으로 연동하는 건물 설비를 제어한다. 건물설비 제어부(740)는 움직임 방향에 존재하는 조명 설비를 온시킨다. 건물설비 제어부(740)는 사람이 미존재하거나 움직임 방향의 반대 방향에 존재하는 조명 설비를 오프시킨다.The building equipment control unit 740 controls the building equipment interlocking based on the number of people, the direction of movement, and the amount of momentum. The building equipment control unit 740 turns on the lighting equipment present in the movement direction. The building equipment control unit 740 turns off the lighting equipment that is present in the direction opposite to the direction of movement or the person does not exist.

건물설비 제어부(740)는 영상 정보의 밝기값을 산출하고, 밝기값이 기 설정된 임계치 이상인 경우 주변 창문으로부터 외부 조명이 인입되는 것으로 판단하여 해당 영역에 설치되 조명 설비를 오프시킨다.The building equipment control unit 740 calculates the brightness value of the image information, and when the brightness value is greater than or equal to a preset threshold, it is determined that external lighting is introduced from the surrounding window, and the lighting equipment installed in the corresponding area is turned off.

건물설비 제어부(740)는 사람의 수와 운동량에 비례하여 에어컨 설비가 강하게 운영되도록 제어한다. 건물설비 제어부(740)는 CO2 농도가 기준치 이상인 경우 외부 공기 흡입구를 제어하여 내부 공기가 환기되도록 제어한다. 건물설비 제어부(740)는 혼잡 정보가 높을수록 엘리베이터 설비 중 동작하는 엘리베이터 수가 증가하도록 제어한다.The building equipment control unit 740 controls the air conditioning equipment to be strongly operated in proportion to the number of people and the amount of exercise. The building equipment control unit 740 controls the external air intake to ventilate the internal air when the CO 2 concentration is higher than or equal to the reference value. The building equipment control unit 740 controls to increase the number of elevators operating among the elevator equipment as the congestion information increases.

건물설비 제어부(740)는 사람이 사회적 취약 계층인 경우 직원 단말기로 알람을 발생한다. 건물설비 제어부(740)는 화재 발생 시 주변에 사람 존재 여부를 외부 단말기로 전달한다.The building equipment control unit 740 generates an alarm to the employee terminal when the person is a socially vulnerable class. The building equipment control unit 740 transmits to an external terminal whether there are people around when a fire occurs.

건물설비 제어부(740)는 움직임 방향으로 조명 설비(810)가 추가로 점등되도록 제어한다.The building equipment control unit 740 controls the lighting equipment 810 to be additionally turned on in the movement direction.

건물설비 제어부(740)는 이동성 판별부(720)로부터 움직임 방향이 제1 방향인 것으로 인지한 후 영상 정보에 대한 조도값(밝기값)을 판별한다. 건물설비 제어부(740)는 조도값이 기 설정된 임계치보다 낮다고 판단하면 제1 방향에 설치된 제1 조명 설비가 온되도록 제어한다.The building equipment control unit 740 determines the illuminance value (brightness value) of the image information after recognizing that the movement direction is the first direction from the mobility determining unit 720 . If it is determined that the illuminance value is lower than a preset threshold, the building equipment control unit 740 controls the first lighting equipment installed in the first direction to be turned on.

건물설비 제어부(740)는 이동성 판별부(720)로부터 움직임 방향이 제2 방향인 것으로 인지한 후 영상 정보에 대한 조도값(밝기값)을 판별한다. 건물설비 제어부(740)는 조도값이 기 설정된 임계치보다 낮다고 판단하면 제2 방향에 설치된 제2 조명 설비가 온되도록 제어한다.The building equipment control unit 740 determines the illuminance value (brightness value) of the image information after recognizing that the movement direction is the second direction from the mobility determining unit 720 . When it is determined that the illuminance value is lower than a preset threshold value, the building equipment control unit 740 controls the second lighting equipment installed in the second direction to be turned on.

건물설비 제어부(740)는 이동성 판별부(720)로부터 움직임 방향이 제3 방향인 것으로 인지한 후 영상 정보에 대한 조도값(밝기값)을 판별한다. 건물설비 제어부(740)는 조도값이 기 설정된 임계치보다 낮다고 판단하면 제3 방향에 설치된 제3 조명 설비가 온되도록 제어한다.The building equipment control unit 740 determines the illuminance value (brightness value) of the image information after recognizing that the movement direction is the third direction from the mobility determining unit 720 . When it is determined that the illuminance value is lower than a preset threshold value, the building equipment control unit 740 controls the third lighting equipment installed in the third direction to be turned on.

건물설비 제어부(740)는 이동성 판별부(720)로부터 움직임 방향이 제4 방향인 것으로 인지한 후 영상 정보에 대한 조도값(밝기값)을 판별한다. 건물설비 제어부(740)는 조도값이 기 설정된 임계치보다 낮다고 판단하면 제4 방향에 설치된 제4 조명 설비가 온되도록 제어한다.The building equipment control unit 740 determines the illuminance value (brightness value) of the image information after recognizing that the movement direction is the fourth direction from the mobility determining unit 720 . When it is determined that the illuminance value is lower than a preset threshold, the building equipment control unit 740 controls the fourth lighting equipment installed in the fourth direction to be turned on.

건물설비 제어부(740)는 방향성 민감도가 기준치보다 낮은 경우 해당 방향에 대응되는 건물 설비를 미제어한다.The building equipment control unit 740 does not control the building equipment corresponding to the corresponding direction when the directional sensitivity is lower than the reference value.

건물설비 제어부(740)는 움직임 감지 영역(310), 직전까지 움직임 감지 영역(320)을 기반으로 방향성을 결정한 후 비콘(1510)과 통신이 발생한 경우에만, 출입 가능 인원으로 판단한다. 건물설비 제어부(740)는 비콘과 통신이 미발생한 경우, 해당 인원을 출입 불가 인원으로 판단한다.The building equipment control unit 740 determines the direction of the movement detection area 310 and the motion detection area 320 until just before, and only when communication with the beacon 1510 occurs, it is determined as the number of persons allowed to enter. When communication with the beacon does not occur, the building equipment control unit 740 determines that the person is not allowed to enter.

건물설비 제어부(740)는 비콘(1510)과 통신하여 신호를 수신한 경우 기 저장된 인도어 맵 위치에 사용자 위치를 특정한다. 건물설비 제어부(740)는 사용자 위치를 기반으로 사용자 단말기로부터 입력된 사용자 정보를 기반으로 건물 설비를 그룹 단위로 제어한다.When the building equipment control unit 740 communicates with the beacon 1510 and receives a signal, the building equipment control unit 740 specifies the user's location in the pre-stored indoor map location. The building equipment control unit 740 controls the building equipment in group units based on user information input from the user terminal based on the user location.

도 8은 본 실시예에 따른 멀티 센서를 이용한 조명 제어 방법을 나타낸 도면이다.8 is a view showing a lighting control method using a multi-sensor according to the present embodiment.

멀티 센서(110)는 건물 내 조명 설비(810) 중 불필요한 조명을 오프하도록 제어한다. 멀티 센서(110)는 건물 내 특정 영역에 대한 사람의 존재 또는 부재 여부를 감지한다. 멀티 센서(110)는 특정 영역에서 사람 부재 영역을 흐리게 설정하거나 해제한다.The multi-sensor 110 controls to turn off unnecessary lighting among the lighting equipment 810 in the building. The multi-sensor 110 detects the presence or absence of a person in a specific area within the building. The multi-sensor 110 dims or cancels a person absent area in a specific area.

멀티 센서(110)는 특정 영역을 지나가는 보행자가 인지되면, 조명 설비(810)를 온 시킨다. 멀티 센서(110)는 특정 영역을 지나가는 보행자가 미인지되면 주변의 밝기에 따라 조명 설비(810)를 어둡게 유지하거나 오프하면 에너지를 절약할 수 있다.The multi-sensor 110 turns on the lighting equipment 810 when a pedestrian passing through a specific area is recognized. The multi-sensor 110 may save energy by keeping the lighting equipment 810 dark or off according to the surrounding brightness when a pedestrian passing through a specific area is not recognized.

멀티 센서(110)는 카메라 모듈(112-1,112-2,112-3,112-4)로부터 획득한 이미지 정보를 이용하여 주변 밝기를 감지하고 주변창문으로부터 인입되는 외부 조명에 따라 조명 설비(810)를 적절한 밝기가 되도록 디밍을 제어한다. 멀티 센서(110)는 이미지 정보를 이용하여 조도를 판별할 수 있으므로, 별도의 조도 센서를 구비할 필요가 없으므로 비용을 절감할 수 있다.The multi-sensor 110 detects the ambient brightness using the image information obtained from the camera modules 112-1, 112-2, 112-3, and 112-4, and sets the lighting equipment 810 according to the external light coming in from the surrounding window. Control dimming as much as possible. Since the multi-sensor 110 can determine the illuminance using image information, there is no need to provide a separate illuminance sensor, thereby reducing costs.

멀티 센서(110)는 조명 장비 개별 제어 시스템에 적용될 때, 추가적인 네트워크를 경유하지 않고 게이트웨이 장치에 직접 연결할 수 있으므로 응답성이 높은 신호를 교환할 수 있다.When the multi-sensor 110 is applied to a lighting equipment individual control system, it can be directly connected to the gateway device without passing through an additional network, and thus can exchange signals with high responsiveness.

도 9는 본 실시예에 따른 멀티 센서를 이용한 에어컨 제어 방법을 나타낸 도면이다.9 is a diagram illustrating a method for controlling an air conditioner using a multi-sensor according to the present embodiment.

멀티 센서(110)는 냉난방 설비(910)와 연동하여 동작한다. 멀티 센서(110)는 카메라 모듈(112-1,112-2,112-3,112-4)로부터 수신된 영상 정보를 분석하여 인지된 사람의 수와 움직임 방향에 따라 연동하는 냉난방 설비(910)를 제어한다.The multi-sensor 110 operates in conjunction with the heating/cooling facility 910 . The multi-sensor 110 analyzes the image information received from the camera modules 112-1, 112-2, 112-3, and 112-4 and controls the heating/cooling facility 910 that interworks according to the number of recognized people and the direction of movement.

멀티 센서(110)는 영상 정보로부터 분석된 인원수에 따라 냉난방 설비(910)를 제어하여 적절한 온도로 조절한다. 멀티 센서(110)는 영상 정보를 분석하여 방에 존재하는 사람의 수를 감지한다. 멀티 센서(110)는 방에 사람이 적은 경우 사람 수에 대응하도록 냉난방 설비(910)를 제어하여 온도를 조절한다.The multi-sensor 110 controls the heating and cooling equipment 910 according to the number of people analyzed from the image information to adjust the temperature to an appropriate temperature. The multi-sensor 110 detects the number of people present in the room by analyzing the image information. When there are few people in the room, the multi-sensor 110 controls the heating and cooling equipment 910 to adjust the temperature to correspond to the number of people.

멀티 센서(110)는 기준치보다 온도가 낮거나 높은 경우, 온도를 제어한다. 멀티 센서(110)는 방에 존재하는 사람들의 쾌적한 에어컨 조건을 검출한다. 여기서, 에어컨 조건은 온도, 습도, 공기 및 의류 등의 복수의 요소를 사용의 사람의 열 감각을 정량화하는 지수를 의미한다.The multi-sensor 110 controls the temperature when the temperature is lower or higher than the reference value. The multi-sensor 110 detects comfortable air conditioning conditions of people present in the room. Here, the air conditioning condition refers to an index that quantifies a person's heat sensation of using a plurality of factors such as temperature, humidity, air and clothing.

멀티 센서(110)는 영상 정보로부터 분석된 인원수에 따라 환기 설비를 제어하여 이산화탄소(CO2) 농도 및 환기를 수행한다. 멀티 센서(110)는 거실에서 이산화탄소(CO2) 농도를 존재하는 사람 수로부터 추론하고, 환기량을 결정함으로써, 외부 공기 흡입구를 제어한다. 멀티 센서(110)는 이산화탄소(CO2) 센서의 정기적인 교정과 관련된 번거로움 및 유지 관리 비용을 줄인다.The multi-sensor 110 controls the ventilation equipment according to the number of people analyzed from the image information to perform carbon dioxide (CO 2 ) concentration and ventilation. The multi-sensor 110 infers the carbon dioxide (CO 2 ) concentration from the number of people present in the living room, and controls the external air intake by determining the ventilation amount. Multi-sensor 110 reduces the hassle and maintenance costs associated with regular calibration of carbon dioxide (CO 2 ) sensors.

도 10은 본 실시예에 따른 멀티 센서를 이용한 엘리베이터 제어 방법을 나타낸 도면이다.10 is a view showing an elevator control method using a multi-sensor according to the present embodiment.

멀티 센서(110)는 엘리베이터 설비(1010)와 연동하여 동작한다. 멀티 센서(110)는 카메라 모듈(112-1,112-2,112-3,112-4)로부터 수신된 영상 정보를 분석하여 인지된 사람의 수와 움직임 방향에 따라 연동하는 엘리베이터 설비(1010)를 제어한다.The multi-sensor 110 operates in conjunction with the elevator facility 1010 . The multi-sensor 110 analyzes the image information received from the camera modules 112-1, 112-2, 112-3, and 112-4 and controls the elevator facility 1010 that interworks according to the number of recognized people and the direction of movement.

멀티 센서(110)는 영상 정보를 분석하여 인지된 사람의 수에 따라 혼잡 정보를 생성한다. 멀티 센서(110)는 혼잡 정보를 기반으로 엘리베이터 설비(1010)를 운용한다. 멀티 센서(110)는 엘리베이터 설비(1010)를 제어하여 환승층의 엘리베이터 홀에 설치되어 사용자의 혼잡도에 따라 엘리베이터를 우선적으로 배정하고 대기 시간을 최대로 단축시킨다.The multi-sensor 110 generates congestion information according to the number of recognized people by analyzing the image information. The multi-sensor 110 operates the elevator facility 1010 based on congestion information. The multi-sensor 110 is installed in the elevator hall of the transfer floor by controlling the elevator facility 1010 to prioritize the elevator according to the user's congestion level and to shorten the waiting time to the maximum.

멀티 센서(110)는 영상 정보를 분석하여 인지된 사람이 사회적 취약계층인지를 판별한다. 멀티 센서(110)는 휠체어, 유모차 등 도움을 필요로 한 사람을 감지하고, 직원에게 신속하게 알려주며, 엘리베이터를 전용 동작 모드로 자동 전환한다. 멀티 센서(110)가 추가적인 네트워크를 경유하지 않고 다른 회사의 엘리베이터 장비에 직접 연결할 수 있다.The multi-sensor 110 determines whether the recognized person is a socially vulnerable group by analyzing the image information. The multi-sensor 110 detects a person in need of assistance, such as a wheelchair, a stroller, and promptly informs an employee, and automatically switches the elevator to a dedicated operation mode. Multi-sensor 110 can be directly connected to elevator equipment of other companies without going through an additional network.

도 11은 본 실시예에 따른 멀티 센서를 이용한 방법 및 방제 방법을 나타낸 도면이다.11 is a view showing a method and a control method using a multi-sensor according to the present embodiment.

멀티 센서(110)는 방범 및 방제 설비(1110)와 연동하여 동작한다. 멀티 센서(110)는 카메라 모듈(112-1,112-2,112-3,112-4)로부터 수신된 영상 정보를 분석하여 인지된 사람의 수와 움직임 방향에 따라 연동하는 방범 및 방제 설비(1110)를 제어한다.The multi-sensor 110 operates in conjunction with the crime prevention and control facility 1110 . The multi-sensor 110 analyzes the image information received from the camera modules 112-1, 112-2, 112-3, and 112-4 and controls the crime prevention and control facility 1110 that interworks according to the number of recognized people and the direction of movement.

멀티 센서(110)는 야간 이상 징후 감지를 확인한다. 멀티 센서(110)는 최종 출구에서 경고 모드 영역에서 객체 움직임 감지되면, 모니터링 단말기로 출력되는 이미지 정보(스틸 이미지)를 저장한다. 멀티 센서(110)는 어둠 속에서도 하나 이상의 럭스 조도가 있는 경우 감지할 수 있다.The multi-sensor 110 confirms detection of abnormal signs at night. The multi-sensor 110 stores image information (still image) outputted to the monitoring terminal when an object movement is detected in the warning mode area at the final exit. The multi-sensor 110 may detect when there is one or more lux illuminances even in the dark.

멀티 센서(110)는 건물 내 화재 발생 시 구조자를 확인한다. 멀티 센서(110)는 화재 영역에서 객체 움직임이 감지되면 모니터링 단말기로 이미지 정보(스틸 이미지)가 표시되도록 하고, 해당 데이터를 저장한다. 멀티 센서(110)는 누군가의 탈출이 늦은 경우, 빠른 구조를 요청할 수 있다.The multi-sensor 110 identifies a rescuer when a fire occurs in a building. The multi-sensor 110 displays image information (still image) on the monitoring terminal when an object movement is detected in the fire area, and stores the data. The multi-sensor 110 may request a quick rescue when someone's escape is late.

도 12는 본 실시예에 따른 객체 이동성에 따라 제어영역을 확장하는 방법을 설명하기 위한 도면이다.12 is a diagram for explaining a method of extending a control area according to object mobility according to the present embodiment.

멀티 센서(110)는 움직임 감지 영역(310), 직전까지 움직임 감지 영역(320), 중첩 영역(330)을 기반으로 제어영역을 확장한다. 멀티 센서(110)는 움직임 감지 영역(310)에서 직전까지 움직임 감지 영역(320)으로 전환되는 전환 영역을 인지하거나 직전까지 움직임 감지 영역(320)에서 움직임 감지 영역(310)으로 전환되는 전환 영역을 인지할 수 있다.The multi-sensor 110 extends the control area based on the motion detection area 310 , the motion detection area 320 , and the overlapping area 330 until just before. The multi-sensor 110 recognizes a transition area that is switched from the motion detection area 310 to the motion detection area 320 until just before, or detects a transition area that is converted from the motion detection area 320 to the motion detection area 310 until just before. can recognize

멀티 센서(110)는 전환 영역의 크기 또는 방향에 따라 제1 카메라 모듈(112-1), 제2 카메라 모듈(112-2), 제3 카메라 모듈(112-3), 제4 카메라 모듈(112-4)을 전체 제어하거나 선택적으로 제어하여 촬영 영역을 확장하거나 축소할 수 있다. 멀티 센서(110)는 전환 영역을 크기 또는 방향에 따라 연동하는 건물 설비의 제어 범위를 제한하거나 확장하는 형태로 조절할 수 있다.The multi-sensor 110 includes a first camera module 112-1, a second camera module 112-2, a third camera module 112-3, and a fourth camera module 112 according to the size or direction of the switching area. -4) can be fully controlled or selectively controlled to expand or reduce the shooting area. The multi-sensor 110 may limit or extend the control range of the building equipment that interlocks the switching area according to the size or direction.

멀티 센서(110)는 1차적으로 움직임 감지 영역(310)에 대응하는 영역을 1차 제어영역으로 설정하여 1차 제어영역에 설치된 건물 설비(예컨대, 조명을 대한 점등 또는 소등)를 제어한다. The multi-sensor 110 controls building equipment (eg, turning on or off lights) installed in the primary control area by first setting an area corresponding to the motion detection area 310 as the primary control area.

멀티 센서(110)는 2차적으로 움직임 감지 영역(310) 이외에 직전까지 움직임 감지 영역(320)에 대응하는 영역을 2차 제어 확장 영역(210-2,220-2,230-2,240-2)으로 설정하여 2차 제어 확장 영역(210-2,220-2,230-2,240-2)에 설치된 건물 설비(예컨대, 조명을 대한 점등 또는 소등)까지 제어를 확장한다. The multi-sensor 110 secondarily sets the area corresponding to the motion detection area 320 to the second control extension area 210-2,220-2,230-2,240-2 in addition to the motion detection area 310 until just before the second time. Control is extended to building equipment (eg, turning on or off lighting) installed in the control extension areas 210-2, 220-2, 230-2, and 240-2.

멀티 센서(110)는 1차적으로 움직임 감지 영역(310)에 대응하는 영역을 1차 제어 영역에 대해서 무조건적으로 건물 설비를 제어한다. 멀티 센서(110)는 추가로 확장된 2차적으로 움직임 감지 영역(310) 이외에 직전까지 움직임 감지 영역(320)에 대응하는 영역에 대해서 선택적으로 건물 설비를 제어한다.The multi-sensor 110 controls the building equipment unconditionally with respect to the primary control region in the region corresponding to the primary motion detection region 310 . The multi-sensor 110 selectively controls the building equipment with respect to an area corresponding to the motion detection area 320 until just before in addition to the additionally expanded secondary motion detection area 310 .

멀티 센서(110)는 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)을 추가로 구비할 수 있다. 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)은 별도의 브라켓을 이용하여 하우징의 외측에 연결 가능하다. 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)은 멀티 센서(110)의 제어부와 통신한다.The multi-sensor 110 may further include a first camera module 112-1 to a fourth camera module 112-4. The first camera module 112-1 to the fourth camera module 112-4 may be connected to the outside of the housing using a separate bracket. The first camera module 112-1 to the fourth camera module 112-4 communicates with the control unit of the multi-sensor 110 .

제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)은 기 설정된 기울기로 기울어진 상태로 브라켓에 체결되어 촬영할 수 있는 방향 조정할 수 있다. 멀티 센서(110)는 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)로 1차 제어영역에 설치된 건물 설비를 제어한다.The first camera module 112-1 to the fourth camera module 112-4 may be fastened to the bracket in a state inclined at a preset inclination to adjust the direction for shooting. The multi-sensor 110 controls the building equipment installed in the primary control area with the first camera module 112-1 to the fourth camera module 112-4.

멀티 센서(110)는 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)을 기반으로 1차 움직임 감지 영역(310)이 감지되는 경우, 1차 제어영역을 제어한다. 멀티 센서(110)는 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)을 기반으로 직전까지 움직임 감지 영역(320)이 감지되는 경우, 2차 제어영역에 제어한다. 멀티 센서(110)는 구비된 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)의 감지 시간에 대한 시간 차를 판단하여 1차 제어영역과 2차 제어영역을 제어할 수 있다. The multi-sensor 110 controls the primary control region when the primary motion detection region 310 is detected based on the first camera module 112-1 to the fourth camera module 112-4. The multi-sensor 110 controls the secondary control area when the motion detection area 320 is sensed until just before based on the first camera module 112-1 to the fourth camera module 112-4. The multi-sensor 110 may control the primary control region and the secondary control region by determining a time difference with respect to the detection time of the provided first camera module 112-1 to the fourth camera module 112-4. have.

도 13은 본 실시예에 따른 객체의 방향성 탐지 방법을 나타낸 도면이다.13 is a diagram illustrating a method of detecting the directionality of an object according to the present embodiment.

멀티 센서(110)는 1차적으로 움직임 감지 영역(310)에 대응하는 영역을 1차 제어영역 이후 2차적으로 움직임 감지 영역(310) 이외에 직전까지 움직임 감지 영역(320)이 감지되면, 객체의 이동 방향을 감지한다. 다시 말해, 멀티 센서(110)는 움직임 감지 영역(310)이 직전까지 움직임 감지 영역(320)으로 변경되고, 직전까지 움직임 감지 영역(320)이 움직임 감지 영역(310)으로 변경되면 객체가 움직임 감지 영역(310) 방향으로 이동하는 것으로 인지한다.The multi-sensor 110 primarily detects the area corresponding to the motion detection area 310 until just before the motion detection area 310 secondarily after the first control area. sense the direction In other words, in the multi-sensor 110 , when the motion detection area 310 changes to the motion detection area 320 until just before, and the motion detection area 320 changes to the motion detection area 310 until just before, the object detects motion. It is recognized as moving in the direction of the region 310 .

멀티 센서(110)는 판별 민감도에 따라 제어 범위를 조정할 수 있다. 다시 말해, 멀티 센서(110)는 움직임 감지 영역(310)이 직전까지 움직임 감지 영역(320)으로 변경되는 시간에 근거하여 판별 민감도를 산출한다. 멀티 센서(110)는 직전까지 움직임 감지 영역(320)이 움직임 감지 영역(310)으로 변경되는 시간에 근거하여 판별 민감도를 산출한다.The multi-sensor 110 may adjust the control range according to the discrimination sensitivity. In other words, the multi-sensor 110 calculates the discrimination sensitivity based on the time at which the motion detection area 310 changes to the motion detection area 320 until just before. The multi-sensor 110 calculates the discrimination sensitivity based on the time at which the motion detection area 320 is changed to the motion detection area 310 until just before.

멀티 센서(110)는 판별 민감도가 기준치보다 높을 경우 제어 범위를 확장하도록 제어 범위를 조정하고, 판별 민감도가 기준치보다 낮을 경우 제어 범위를 축소하도록 제어 범위를 조정한다.The multi-sensor 110 adjusts the control range to expand the control range when the discrimination sensitivity is higher than the reference value, and adjusts the control range to reduce the control range when the discrimination sensitivity is lower than the reference value.

도 14는 본 실시예에 따른 객체의 동일 방향성을 확인하는 방법을 나타낸 도면이다.14 is a diagram illustrating a method of confirming the same directionality of an object according to the present embodiment.

멀티 센서(110)는 움직임 판별 시간의 순차성에 따라 객체의 방향성을 탐지한다. 멀티 센서(110)는 직전까지 움직임 감지 영역(320)이 움직임 감지 영역(310)으로 일정한 한 방향으로 지속적으로 변경되는 경우, 방향성을 가진 이동으로 판별한다.The multi-sensor 110 detects the direction of the object according to the sequentiality of the motion determination time. When the multi-sensor 110 continuously changes the motion detection area 320 to the motion detection area 310 in one direction until just before, it is determined that the movement is directional.

멀티 센서(110)는 순차적으로 객체가 판별되는 시간을 기반으로 객체의 방향성을 예측한다. 멀티 센서(110)는 방향성 민감도 설정에 따라 D, E의 경우는 해당 방향에 대응되는 건물 설비를 제어하지 않을 수 있다. The multi-sensor 110 predicts the direction of the object based on the time at which the object is sequentially determined. The multi-sensor 110 may not control the building equipment corresponding to the corresponding direction in the case of D and E according to the directional sensitivity setting.

멀티 센서(110)는 객체 탐지 시간에 대한 설정으로 방향성 민감도를 조정 가능하다. 멀티 센서(110)는 방향성을 뚜렷이 가지는 영역에서 판별된 객체, 사람이 많이 모이는 영역에서 판별되는 객체에 대해서 영역별 판별 민감도를 조정한다.The multi-sensor 110 can adjust the directional sensitivity by setting the object detection time. The multi-sensor 110 adjusts the discrimination sensitivity for each area with respect to an object determined in an area having a clear direction and an object determined in an area where many people gather.

멀티 센서(110)는 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)에서 순차적으로 객체가 센싱되는 시간을 고려하여 방향성에 대해 예측한다. 멀티 센서(110)는 판별 민감도 설정에 따라 D, E의 경우는 해당 방향에 대응되는 건물 설비를 제어하지 않을 수 있다. 멀티 센서(110)는 탐지 시간에 대한 설정으로 판별 민감도를 조정 가능하다. 멀티 센서(110)는 방향성을 뚜렷이 가지는 영역으로부터 획득한 영상, 사람이 많이 모이는 영역으로부터 획득한 영상에 대해서 영역별 판별 민감도 조정이 가능하다.The multi-sensor 110 predicts the direction in consideration of the time when the objects are sequentially sensed by the first camera module 112-1 to the fourth camera module 112-4. The multi-sensor 110 may not control the building equipment corresponding to the corresponding direction in the case of D and E according to the discrimination sensitivity setting. The multi-sensor 110 can adjust the discrimination sensitivity by setting the detection time. The multi-sensor 110 can adjust the discrimination sensitivity for each area with respect to an image obtained from an area having a clear direction and an image obtained from an area where many people gather.

도 15는 본 실시예에 따른 비콘과 2차적으로 연동하여 동작하는 방법을 나타낸 도면이다.15 is a diagram illustrating a method of operating in secondary linkage with a beacon according to the present embodiment.

멀티 센서(110)는 비콘과 연동하여 출입을 관리할 수 있다. 멀티 센서(110)는 움직임 감지 영역(310), 직전까지 움직임 감지 영역(320)을 기반으로 방향성을 결정한 후 비콘(1510)과 통신이 발생한 경우에만, 출입 가능 인원으로 판단한다. 여기서, 비콘(1510)은 사용자가 소지한 단말기와 통신하여 해당 단말기의 식별번호가 기 등록된 식별번호로 판단한 경우, 멀티 센서(110)와 통신하여 신호를 전송한다.The multi-sensor 110 may interwork with a beacon to manage access. The multi-sensor 110 determines the movement-sensing area 310 and the movement-sensing area 320 until just before determining the direction and only when communication with the beacon 1510 occurs, it is determined as the number of people allowed to enter. Here, when the beacon 1510 communicates with a terminal possessed by the user and determines that the identification number of the corresponding terminal is a pre-registered identification number, the beacon 1510 communicates with the multi-sensor 110 to transmit a signal.

멀티 센서(110)는 움직임 감지 영역(310), 직전까지 움직임 감지 영역(320)을 기반으로 방향성을 결정한 후 비콘(1510)과 통신이 미발생한 경우, 출입 불가 인원으로 판단한다. 여기서, 비콘(1510)은 사용자가 소지한 단말기와 통신하여 해당 단말기의 식별번호가 미등록된 식별번호로 판단한 경우, 멀티 센서(110)와 통신을 시도하지 않는다. 멀티 센서(110)는 전체 예측 이동 루트 중 비콘(1510)을 기반으로 판단되는 출입 가능 인원의 이동 경로를 제외한 루트가 출입 불가인원의 이동 경로로 판단한다.If the multi-sensor 110 determines the direction based on the motion detection area 310 and the motion detection area 320 until just before, and communication with the beacon 1510 does not occur, the multi-sensor 110 determines that the person is not allowed to enter. Here, when the beacon 1510 communicates with the terminal possessed by the user and determines that the identification number of the corresponding terminal is an unregistered identification number, the beacon 1510 does not attempt to communicate with the multi-sensor 110 . The multi-sensor 110 determines that a route excluding the movement path of the person who can enter and exit determined based on the beacon 1510 among the entire predicted movement route is the movement path of the person who cannot enter and exit.

다시 말해, 멀티 센서(110)는 움직임 감지 영역(310), 직전까지 움직임 감지 영역(320)을 기반으로 객체를 감지한 후 비콘(1510)과 통신이 발생한 경우, 해당 인원을 출입 가능 인원으로 판단하며, 비콘(1510)과 통신이 미발생한 경우, 해당 인원을 출입 불가 인원으로 판단한다.In other words, when the multi-sensor 110 detects an object based on the motion detection area 310 and the motion detection area 320 until just before and communication with the beacon 1510 occurs, the multi-sensor 110 determines that the person is allowed to enter and exit. And, if communication with the beacon 1510 does not occur, it is determined that the person is not allowed to enter.

멀티 센서(110)는 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)을 기반으로 방향성을 결정한 후 비콘(1510)과 통신이 발생한 경우에만, 출입 가능 인원으로 판단한다. 여기서, 비콘(1510)은 사용자가 소지한 단말기와 통신하여 해당 단말기의 식별번호가 기 등록된 식별번호로 판단한 경우, 멀티 센서(110)와 통신하여 신호를 전송한다.After determining the direction based on the first camera module 112-1 to the fourth camera module 112-4, the multi-sensor 110 determines the number of people allowed to enter only when communication with the beacon 1510 occurs. Here, when the beacon 1510 communicates with a terminal possessed by the user and determines that the identification number of the corresponding terminal is a pre-registered identification number, the beacon 1510 communicates with the multi-sensor 110 to transmit a signal.

멀티 센서(110)는 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)을 기반으로 방향성을 결정한 후 비콘(1510)과 통신이 미발생한 경우, 출입 불가 인원으로 판단한다. 여기서, 비콘(1510)은 사용자가 소지한 단말기와 통신하여 해당 단말기의 식별번호가 미등록된 식별번호로 판단한 경우, 멀티 센서(110)와 통신을 시도하지 않는다. 멀티 센서(110)는 전체 예측 이동 루트 중 비콘(1510)을 기반으로 판단되는 출입 가능 인원의 이동 경로를 제외한 루트가 출입 불가인원의 이동 경로로 판단한다.If the multi-sensor 110 determines the direction based on the first camera module 112-1 to the fourth camera module 112-4 and communication with the beacon 1510 does not occur, it is determined that the person is not allowed to enter. Here, when the beacon 1510 communicates with the terminal possessed by the user and determines that the identification number of the corresponding terminal is an unregistered identification number, the beacon 1510 does not attempt to communicate with the multi-sensor 110 . The multi-sensor 110 determines that a route excluding the movement path of the person who can enter and exit determined based on the beacon 1510 among the entire predicted movement route is the movement path of the person who cannot enter and exit.

다시 말해, 멀티 센서(110) 내에 탑재된 제어부는 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)로부터 객체 감지 신호를 수신한 후 비콘(1510)과 통신이 발생한 경우, 해당 인원을 출입 가능 인원으로 판단하며, 비콘(1510)과 통신이 미발생한 경우, 해당 인원을 출입 불가 인원으로 판단한다.In other words, when the control unit mounted in the multi-sensor 110 receives the object detection signal from the first camera module 112-1 to the fourth camera module 112-4 and then communication with the beacon 1510 occurs, It is determined that the corresponding person is an accessible person, and when communication with the beacon 1510 does not occur, the corresponding person is determined as an accessible person.

도 16은 본 실시예에 따른 비콘과 2차적으로 연동하여 객체 이동의 정확성을 확인하는 방법을 나타낸 도면이다.16 is a diagram illustrating a method of checking the accuracy of object movement by secondarily interworking with a beacon according to the present embodiment.

멀티 센서(110)는 비콘(1510)과 연동하여 사무실 내 이동 여부를 판단한다. 멀티 센서(110)는 움직임 감지 영역(310), 직전까지 움직임 감지 영역(320)을 기반으로 한 사무실 내의 객체의 이동을 판단한다.The multi-sensor 110 determines whether to move within the office in conjunction with the beacon 1510 . The multi-sensor 110 determines the movement of an object in the office based on the motion detection area 310 and the motion detection area 320 until just before.

멀티 센서(110)는 객체 이동을 판단한 후 비콘(1510)을 기반으로 사용자들의 구체적인 위치를 판단한다. 여기서, 비콘(1510)은 사용자가 소지한 단말기와 통신하여 해당 단말기의 식별번호가 기 등록된 식별번호로 판단한 경우, 멀티 센서(110)와 통신하여 신호를 전송한다. 멀티 센서(110)는 비콘(1510)과 통신하여 신호를 수신하여 기 저장된 사무실 내의 맵 위치에 구체적인 사용자 위치를 특정한다.The multi-sensor 110 determines the specific location of users based on the beacon 1510 after determining the movement of the object. Here, when the beacon 1510 communicates with a terminal possessed by the user and determines that the identification number of the corresponding terminal is a pre-registered identification number, the beacon 1510 communicates with the multi-sensor 110 to transmit a signal. The multi-sensor 110 communicates with the beacon 1510 and receives a signal to specify a specific user location on a pre-stored map location in the office.

멀티 센서(110)는 사용자의 위치를 고려하여 사용자 단말기로부터 입력된 사용자 정보를 기반으로 건물 설비를 제어한다. 멀티 센서(110)는 건물 설비에 따라 설비를 그룹핑하여 그룹 단위로 제어하거나 개별 단위로 제어한다.The multi-sensor 110 controls the building equipment based on user information input from the user terminal in consideration of the user's location. The multi-sensor 110 groups the equipment according to the building equipment and controls it in a group unit or in an individual unit.

다시 말해, 멀티 센서(110)는 비콘(1510)과 통신하여 신호를 수신한 경우 기 저장된 인도어 맵 위치에 사용자 위치를 특정하고, 사용자 위치를 기반으로 사용자 단말기로부터 입력된 사용자 정보를 기반으로 건물 설비를 그룹 단위로 제어하거나 개별 단위로 제어한다.In other words, when the multi-sensor 110 communicates with the beacon 1510 and receives a signal, the user's location is specified in a pre-stored indoor map location, and based on the user information input from the user terminal based on the user location, the building equipment is controlled in groups or individually.

멀티 센서(110)는 제1 카메라 모듈(112-1) 내지 제4 카메라 모듈(112-4)을 기반으로 한 사무실 내의 객체의 이동을 판단한다. 멀티 센서(110)는 객체 이동을 판단한 후 비콘(1510)을 기반으로 사용자들의 구체적인 위치를 판단한다. 여기서, 비콘(1510)은 사용자가 소지한 단말기와 통신하여 해당 단말기의 식별번호가 기 등록된 식별번호로 판단한 경우, 멀티 센서(110)와 통신하여 신호를 전송한다. 멀티 센서(110)는 비콘(1510)과 통신하여 신호를 수신하여 기 저장된 사무실 내의 맵 위치에 구체적인 사용자 위치를 특정한다.The multi-sensor 110 determines the movement of an object in the office based on the first camera module 112-1 to the fourth camera module 112-4. The multi-sensor 110 determines the specific location of users based on the beacon 1510 after determining the movement of the object. Here, when the beacon 1510 communicates with a terminal possessed by the user and determines that the identification number of the corresponding terminal is a pre-registered identification number, the beacon 1510 communicates with the multi-sensor 110 to transmit a signal. The multi-sensor 110 communicates with the beacon 1510 and receives a signal to specify a specific user location on a pre-stored map location in the office.

멀티 센서(110)는 사용자의 위치를 고려하여 사용자 단말기로부터 입력된 감성 정보를 기반으로 조명을 제어한다. 멀티 센서(110)는 조명 시스템에 따라 조명을 그룹핑하여 그룹 단위로 제어하거나 개별 단위로 제어한다.The multi-sensor 110 controls the lighting based on the emotional information input from the user terminal in consideration of the user's location. The multi-sensor 110 groups the lights according to the lighting system and controls them in groups or individually.

다시 말해, 멀티 센서(110) 내에 탑재된 제어부는 비콘(1510)과 통신하여 신호를 수신한 경우 기 저장된 인도어 맵 위치에 사용자 위치를 특정하고, 사용자 위치를 기반으로 사용자 단말기로부터 입력된 감성 정보를 기반으로 조명을 그룹 단위로 제어하거나 개별 단위로 제어한다.In other words, when the controller mounted in the multi-sensor 110 communicates with the beacon 1510 and receives a signal, it specifies the user's location in the pre-stored indoor map location, and receives emotional information input from the user terminal based on the user's location. Based on this, the lighting is controlled in groups or individually.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible by those skilled in the art to which this embodiment belongs without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the equivalent range should be interpreted as being included in the scope of the present embodiment.

110: 멀티 센서
112: 카메라 모듈
112-1: 제1 카메라 모듈
112-2: 제2 카메라 모듈
112-3: 제3 카메라 모듈
112-4: 제4 카메라 모듈
200: 합성 데이터
210: 제1 영역
220: 제2 영역
230: 제3 영역
240: 제4 영역
310: 움직임 감지 영역
320: 직전까지 움직임 감지 영역
330: 중첩 영역
340: 오프 영역
110: multi-sensor
112: camera module
112-1: first camera module
112-2: second camera module
112-3: third camera module
112-4: fourth camera module
200: synthetic data
210: first area
220: second area
230: third area
240: fourth area
310: motion detection area
320: motion detection area until just before
330: overlapping area
340: off area

Claims (6)

기 설정된 특정 영역을 촬영한 영상 정보를 획득하는 카메라 모듈;
상기 영상 정보로부터 배경 영상과 객체를 각각 분리하여 인지한 후 상기 객체가 사람인지의 여부를 판별하는 사람 판별부;
상기 사람의 수를 카운팅하는 사람 계수부;
상기 사람의 이동성이 확인되면, 상기 이동성을 기반으로 움직임 방향을 산출하는 이동성 판별부;
상기 사람의 이동성을 운동량으로 환산하는 운동량 판별부; 및
상기 사람의 수, 상기 움직임 방향, 상기 운동량을 기반으로 연동하는 건물 설비를 제어하는 건물설비 제어부;
를 포함하되, 상기 사람 판별부는 상기 사람의 수에 따라 혼잡 정보를 생성하고, 상기 사람이 사회적 취약 계층인지의 여부, 화재 발생 여부를 판별하며,
상기 건물설비 제어부는 상기 혼잡 정보가 높을수록 엘리베이터 설비 중 동작하는 엘리베이터 수가 증가하도록 제어하며, 상기 사람이 사회적 취약 계층인 경우 직원 단말기로 알람을 발생하며, 상기 화재 발생 시 주변에 사람 존재 여부를 외부 단말기로 전달하는 것을 특징으로 하는 멀티 센서.
a camera module for acquiring image information of a preset specific area;
a person determining unit that separates and recognizes a background image and an object from the image information and determines whether the object is a person;
a person counting unit for counting the number of persons;
a mobility determining unit for calculating a movement direction based on the mobility when the mobility of the person is confirmed;
an exercise amount determining unit for converting the mobility of the person into an exercise amount; and
a building equipment control unit for controlling the building equipment interlocking based on the number of people, the movement direction, and the amount of momentum;
Including, wherein the person determining unit generates congestion information according to the number of people, and determines whether the person is a socially vulnerable class, whether a fire occurs,
The building equipment control unit controls the number of elevators operating among elevator facilities to increase as the congestion information increases, and when the person is a socially vulnerable class, generates an alarm to the employee terminal, and determines whether or not there are people around when the fire occurs Multi-sensor, characterized in that transmitted to the terminal.
제1항에 있어서,
상기 건물설비 제어부는
상기 움직임 방향에 존재하는 조명 설비를 온시키고, 상기 사람이 미존재하거나 상기 움직임 방향의 반대 방향에 존재하는 조명 설비를 오프시키고, 상기 영상 정보의 밝기값을 산출하고, 상기 밝기값이 기 설정된 임계치 이상인 경우 주변 창문으로부터 외부 조명이 인입되는 것으로 판단하여 해당 영역에 설치되 조명 설비를 오프시키는 것을 특징으로 하는 멀티 센서.
According to claim 1,
The building equipment control unit
Turn on the lighting equipment existing in the movement direction, turn off the lighting equipment that exists in the direction opposite to the direction of movement or the person does not exist, calculate the brightness value of the image information, and the brightness value is a preset threshold In the case of abnormality, it is determined that external light is introduced from the surrounding window, and the multi-sensor, which is installed in the corresponding area, turns off the lighting equipment.
제1항에 있어서,
상기 건물설비 제어부는
상기 사람의 수와 상기 운동량에 비례하여 에어컨 설비가 강하게 운영되도록 제어하는 것을 특징으로 하는 멀티 센서.
According to claim 1,
The building equipment control unit
Multi-sensor, characterized in that controlling the air conditioner to be strongly operated in proportion to the number of people and the amount of exercise.
제1항에 있어서,
상기 운동량 판별부는 상기 운동량을 기반으로 기 설정된 공간 내의 CO2 농도를 추정하고, 상기 건물설비 제어부는 상기 CO2 농도가 기준치 이상인 경우 외부 공기 흡입구를 제어하여 내부 공기가 환기되도록 제어하는 것을 특징으로 하는 멀티 센서.
According to claim 1,
The momentum determining unit estimates the concentration of CO 2 in a preset space based on the momentum, and the building equipment control unit controls the external air intake to ventilate the internal air when the CO 2 concentration is greater than or equal to a reference value. multi sensor.
삭제delete 제1항에 있어서,
상기 카메라 모듈은
사무공간의 천장에서 책상면 높이로 앉아있는 사람을 검출하기 위해 기 설정된 제1 높이로 설치되어 기 설정된 제1 범위를 촬영하도록 하거나 공장 및 창고의 높은 천장에서 이동하는 사람을 검출하기 위해 기 설정된 제2 높이로 설치되어 기 설정된 제2 범위를 촬영하도록 하며, 상기 제1 범위와 상기 제2 범위 내에서 제외할 대상을 마스킹(Masking)하도록 하는 것을 특징으로 하는 멀티 센서.
According to claim 1,
The camera module is
It is installed at a preset first height to detect a person sitting at the height of a desk in the ceiling of an office space to shoot a preset first range, or a preset system to detect a person moving from a high ceiling in factories and warehouses. The multi-sensor, which is installed at a height of 2 to photograph a preset second range, and to mask an object to be excluded within the first range and the second range.
KR1020210066997A 2021-05-25 2021-05-25 Method And Apparatus for Controlling Building Based on Image KR102314903B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210066997A KR102314903B1 (en) 2021-05-25 2021-05-25 Method And Apparatus for Controlling Building Based on Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210066997A KR102314903B1 (en) 2021-05-25 2021-05-25 Method And Apparatus for Controlling Building Based on Image

Publications (1)

Publication Number Publication Date
KR102314903B1 true KR102314903B1 (en) 2021-10-19

Family

ID=78228087

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210066997A KR102314903B1 (en) 2021-05-25 2021-05-25 Method And Apparatus for Controlling Building Based on Image

Country Status (1)

Country Link
KR (1) KR102314903B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220144583A1 (en) * 2020-11-06 2022-05-12 Otis Elevator Company Elevator system response to custom passenger attributes
CN114777298A (en) * 2022-03-30 2022-07-22 广州云雷智能科技有限公司 Temperature regulation prediction method, device, equipment, storage medium and air conditioning equipment
WO2023128014A1 (en) * 2021-12-29 2023-07-06 한국전자기술연구원 Air conditioner control apparatus for controlling air conditioner by recognizing occupant in room

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000513168A (en) * 1997-04-14 2000-10-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Security system with maskable motion detection and adjustable field of view
US20130073093A1 (en) * 2011-09-19 2013-03-21 Siemens Industry, Inc. Building automation system control with motion sensing
JP2013182811A (en) * 2012-03-02 2013-09-12 Panasonic Corp Illumination control apparatus and illumination system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000513168A (en) * 1997-04-14 2000-10-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Security system with maskable motion detection and adjustable field of view
US20130073093A1 (en) * 2011-09-19 2013-03-21 Siemens Industry, Inc. Building automation system control with motion sensing
JP2013182811A (en) * 2012-03-02 2013-09-12 Panasonic Corp Illumination control apparatus and illumination system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220144583A1 (en) * 2020-11-06 2022-05-12 Otis Elevator Company Elevator system response to custom passenger attributes
WO2023128014A1 (en) * 2021-12-29 2023-07-06 한국전자기술연구원 Air conditioner control apparatus for controlling air conditioner by recognizing occupant in room
KR20230101404A (en) * 2021-12-29 2023-07-06 한국전자기술연구원 An air conditioner control device that controls the air conditioner by recognizing the occupants of the room
KR102558090B1 (en) * 2021-12-29 2023-07-24 한국전자기술연구원 An air conditioner control device that controls the air conditioner by recognizing the occupants of the room
CN114777298A (en) * 2022-03-30 2022-07-22 广州云雷智能科技有限公司 Temperature regulation prediction method, device, equipment, storage medium and air conditioning equipment
CN114777298B (en) * 2022-03-30 2023-09-22 广州云雷智能科技有限公司 Temperature regulation prediction method, device, equipment, storage medium and air conditioning equipment

Similar Documents

Publication Publication Date Title
KR102314903B1 (en) Method And Apparatus for Controlling Building Based on Image
US11595579B2 (en) Systems and methods for automatic exposure in high dynamic range video capture systems
CN101262617B (en) White balance correction apparatus and method
JP5726792B2 (en) Information processing apparatus, image sensor apparatus, and program
US6645066B2 (en) Space-conditioning control employing image-based detection of occupancy and use
KR101835552B1 (en) Control center system of working environment for smart factory
US8044992B2 (en) Monitor for monitoring a panoramic image
JP2016171526A (en) Image sensor, person detection method, control system, control method, and computer program
CN111562745A (en) Intelligent control system and intelligent control method
KR100958497B1 (en) Illumination control system using motion detection of image data and control method therefore
WO2011032117A1 (en) Method and system for wildfire detection using a visible range camera
CN113606749A (en) Partition on-demand ventilation control method based on personnel pixel density
KR101798372B1 (en) system and method for detecting a fire
US10867491B2 (en) Presence detection system and method
CN117156637A (en) Intelligent lighting control method, device, equipment and medium based on security system
KR102395440B1 (en) Cloud-based building management system and method thereof
CN112347937B (en) Indoor fire monitoring system and method based on visual perception
CN110972376A (en) Method and system for automatically controlling household lamp to be turned on and turned off
JP6495696B2 (en) Image collecting apparatus, image collecting method, and computer program
JP7357194B2 (en) Information output device, detection system, control method, and program
JP2014002943A (en) Lighting control device
KR200191446Y1 (en) A forest fires sensing appararus
WO2019225912A1 (en) Method for controlling air conditioner by recognizing zone on basis of artificial intelligence, server, and air conditioner
CN115100796A (en) Cinema safety monitoring system based on edge calculation
CN116300489A (en) Space intelligent control system and control method based on personnel positioning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant