KR20220162351A - Intelligent CCTV And Surveillance System Using It - Google Patents

Intelligent CCTV And Surveillance System Using It Download PDF

Info

Publication number
KR20220162351A
KR20220162351A KR1020210070699A KR20210070699A KR20220162351A KR 20220162351 A KR20220162351 A KR 20220162351A KR 1020210070699 A KR1020210070699 A KR 1020210070699A KR 20210070699 A KR20210070699 A KR 20210070699A KR 20220162351 A KR20220162351 A KR 20220162351A
Authority
KR
South Korea
Prior art keywords
image data
recognition model
mode
license plate
model
Prior art date
Application number
KR1020210070699A
Other languages
Korean (ko)
Other versions
KR102555845B1 (en
Inventor
전승준
Original Assignee
주식회사 인포쉐어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인포쉐어 filed Critical 주식회사 인포쉐어
Priority to KR1020210070699A priority Critical patent/KR102555845B1/en
Publication of KR20220162351A publication Critical patent/KR20220162351A/en
Application granted granted Critical
Publication of KR102555845B1 publication Critical patent/KR102555845B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke

Abstract

An intelligent CCTV according to an embodiment of the present invention for performing image processing such as object detection in image data captured by a CCTV includes: a photographing part that photographs a target point and generates image data; a processing part that is set in at least one of a face recognition mode, an object recognition mode, a people counting mode, a fire detection mode, a license plate detection mode, and a motion detection mode to process the image data; and a communication part that transmits the processed image data to a control server. The processing part comprises a GPU module detachably coupled to the photographing part.

Description

지능형 CCTV 및 이를 이용하는 감시시스템{Intelligent CCTV And Surveillance System Using It}Intelligent CCTV and Surveillance System Using It {Intelligent CCTV And Surveillance System Using It}

본 발명은 지능형 CCTV에 관한 것이다.The present invention relates to an intelligent CCTV.

본 명세서에서 달리 표시되지 않는 한, 이 식별항목에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 식별항목에 기재된다고 하여 종래 기술이라고 인정되는 것은 아니다. Unless otherwise indicated herein, material described in this section is not prior art to the claims in this application, and it is not admitted that the material described in this section is prior art.

CCTV 관제 시스템(CCTV surveillance system)은 시설 관리 및 재난 대응, 방법, 교통 관리 등의 목적으로 다양한 분야에 적용되고 있다. 공공 기관을 중심으로 설치된 CCTV 카메라는 2013년 기준으로 약 65,000여 대이며 지속적으로 증가하고 있다. CCTV 카메라의 증가에 따라 한정된 공간에서 관제사가 감시해야 하는 영상은 많아지고 있다. 일반적으로 1명의 관제사가 감시하는데 적절한 카메라는 약 20~50대까지이다. 그리고, 관제사가 관제하는 데 있어 12분이 지나면 약 45% 정도 감시 능력이 떨어지고 22분이 지나면 약 95% 정도 감소한다. 따라서, 효율적인 CCTV 관제 시스템의 운영을 위해서는 영상 이해 및 인식 기술을 기반으로 하는 지능형 CCTV시스템의 도입이 필요하다.A CCTV surveillance system is applied to various fields for purposes such as facility management, disaster response, method, and traffic management. As of 2013, the number of CCTV cameras installed mainly in public institutions is approximately 65,000 and is continuously increasing. With the increase of CCTV cameras, the number of images that a controller must monitor in a limited space is increasing. In general, about 20 to 50 cameras are suitable for one controller to monitor. In addition, when the controller controls, the monitoring ability decreases by about 45% after 12 minutes and by about 95% after 22 minutes. Therefore, in order to operate an efficient CCTV control system, it is necessary to introduce an intelligent CCTV system based on image understanding and recognition technology.

지능형 CCTV 시스템은 객체 검출(object detection), 추적(tracking), 상황 인식(event detection) 등의 복합적인 영상 처리 기술(video processing)이 요구된다. 객체 검출은 주로 보행자 또는 차량 검출 기법이 필요하고 상황에 따라서 화염 또는 연기 검출 기법이 요구된다.An intelligent CCTV system requires complex video processing technologies such as object detection, tracking, and event detection. Object detection mainly requires a pedestrian or vehicle detection technique, and depending on the situation, a flame or smoke detection technique is required.

종래의 지능형 CCTV의 경우, CCTV를 통해 촬영된 영상데이터를 관제서버로 전송하고, 관제서버에서 영상 처리를 수행하였다. 이에 따라, 관제서버에서 대량의 데이터 처리가 필요하게 되어 서버 구축 비용이나 유지비용이 상승한다는 문제가 있었다.In the case of a conventional intelligent CCTV, image data captured through the CCTV is transmitted to a control server, and image processing is performed in the control server. Accordingly, there is a problem in that a large amount of data processing is required in the control server, which increases server construction cost or maintenance cost.

또한, 관제서버에서는 하나의 CCTV가 아니라 다수의 CCTV의 영상처리가 수행됨에 따라 연산처리 속도가 느리다는 문제가 있었다. In addition, in the control server, there was a problem that the operation processing speed was slow as the image processing of multiple CCTVs was performed instead of one CCTV.

본 발명은 CCTV에서 촬영되는 영상데이터에서 객체검출 등의 영상처리를 수행할 수 있는 지능형 CCTV를 제공하는 것을 그 목적으로 한다.An object of the present invention is to provide an intelligent CCTV capable of performing image processing such as object detection in image data captured by the CCTV.

또한, 본 발명은 CCTV에 별도의 NVIDIA GPU 모듈을 장착하여 CCTV 단에서 영상처리를 수행할 수 있는 지능형 CCTV를 제공하는 것을 그 목적으로 한다.In addition, an object of the present invention is to provide an intelligent CCTV capable of performing image processing in a CCTV stage by mounting a separate NVIDIA GPU module in the CCTV.

본 발명의 일 실시예에 따른 지능형 CCTV는 타깃 지점을 촬영하여 영상데이터를 생성하는 촬영부; 및 얼굴인식모드, 객체인식모드, 피플카운팅모드, 화재감지모드, 번호판감지모드, 움직임 감지모드 중 적어도 하나의 모드로 설정되어 상기 영상데이터를 처리하는 프로세싱부; 상기 처리된 영상데이터를 관제서버로 전송하는 통신부를 포함하고, 상기 프로세싱부는, 상기 촬영부에 탈착가능하게 결합되는GPU 모듈로 구성되는 것을 특징으로 한다.An intelligent CCTV according to an embodiment of the present invention includes a photographing unit for generating image data by photographing a target point; and a processing unit set to at least one of a face recognition mode, an object recognition mode, a people counting mode, a fire detection mode, a license plate detection mode, and a motion detection mode to process the image data; It includes a communication unit for transmitting the processed image data to a control server, and the processing unit is characterized in that it consists of a GPU module detachably coupled to the photographing unit.

본 발명의 일 실시예에 따른 지능형 CCTV의 바람직한 특징에 따르면, 상기 프로세싱부는, 복수개의 얼굴이미지를 미리 정해진 학습알고리즘으로 학습하여 얼굴의 특징점을 추출하는 얼굴인식모델을 생성하고, 복수개의 사람이미지를 미리 정해진 학습알고리즘으로 학습하여 사람의 수를 측정하는 피플카운팅모델을 생성하며, 차량, 사람, 동물을 포함하는 객체 별로 수집된 복수개의 객체이미지를 미리 정해진 학습알고리즘으로 학습하여 객체의 특징을 추출하는 객체인식모델을 생성하고, 복수개의 연기 및 화재이미지를 미리 정해진 학습알고리즘으로 학습하여 화재인식모델을 생성하며, 복수개의 번호판이미지를 미리 정해진 학습알고리즘으로 학습하여 차량번호를 추출하는 번호판인식모델을 생성하고, 객체의 동작 별로 구분되어 있는 복수개의 동작이미지를 미리 정해진 학습알고리즘으로 학습하여 움직임감지모델을 생성하는 모델링부를 포함한다.According to a preferred feature of the intelligent CCTV according to an embodiment of the present invention, the processing unit learns a plurality of face images with a predetermined learning algorithm to generate a face recognition model for extracting facial feature points, and generates a plurality of human images. A people counting model that measures the number of people is created by learning with a predetermined learning algorithm, and a plurality of object images collected for each object including vehicles, people, and animals are learned with a predetermined learning algorithm to extract the characteristics of the object Create an object recognition model, create a fire recognition model by learning a plurality of smoke and fire images with a predetermined learning algorithm, and create a license plate recognition model that extracts a vehicle number by learning a plurality of license plate images with a predetermined learning algorithm and a modeling unit configured to generate a motion detection model by learning a plurality of motion images classified for each motion of the object using a predetermined learning algorithm.

본 발명의 일 실시예에 따른 지능형 CCTV의 바람직한 특징에 따르면, 상기 얼굴인식모델, 화재인식모델, 번호판인식모델은 yolo v4 알고리즘으로 학습되고, 상기 객체인식모델은 hog 알고리즘으로 학습되며, 상기 피플카운팅모델은 cnn 알고리즘으로 학습되고, 상기 움직임 감지모델은 Mean-Shift 및 CAMShift 알고리즘으로 학습된다.According to a preferred feature of the intelligent CCTV according to an embodiment of the present invention, the face recognition model, the fire recognition model, and the license plate recognition model are learned with the yolo v4 algorithm, the object recognition model is learned with the hog algorithm, and the people counting The model is trained with the cnn algorithm, and the motion detection model is trained with the Mean-Shift and CAMShift algorithms.

본 발명의 일 실시예에 따른 지능형 CCTV의 바람직한 특징에 따르면, 상기 프로세싱부는, 상기 타깃 지점이 보안지대인 경우, 상기 얼굴인식모드로 설정되고, 상기 영상데이터를 얼굴인식모델에 입력하여 상기 타깃 지점에서 촬영되는 얼굴 특징점 정보를 추출하고, 추출된 특징점 정보와 미리 저장된 보안지대에 접근 가능한 복수개의 얼굴 특징점 정보와 일치여부를 판단하여 일치하지 않는 경우, 상기 영상데이터에 해당 인원에 미리 정해진 색의 바운딩 박스를 표시한다.According to a preferred feature of the intelligent CCTV according to an embodiment of the present invention, the processing unit, when the target point is a security zone, is set to the face recognition mode, inputs the image data to a face recognition model, and inputs the target point Extracts facial feature point information photographed in and determines whether the extracted feature point information matches a plurality of facial feature point information accessible to the previously stored security zone, and if not matched, bounding the image data with a predetermined color for the person concerned mark the box

본 발명의 일 실시예에 따른 지능형 CCTV의 바람직한 특징에 따르면, 상기 프로세싱부는, 공개 수배자이미지 및 실종자이미지들을 얼굴인식모델에 입력하여 추출된 공개 수배자 및 실종자들의 얼굴 특징점 정보를 저장하고 있고, 상기 얼굴인식모드로 설정되어 상기 타깃 지점에서 촬영되는 영상데이터를 상기 얼굴인식모델에 입력하여 영상데이터 상에 포함된 얼굴들의 특징점 정보를 추출하고, 추출된 특징점 정보와 상기 공개 수배자 및 실종자들의 얼굴의 특징점 정보와 비교하여 일치여부를 판단하여 일치하는 경우, 일치하는 신상정보를 관제서버로 전송한다.According to a preferred feature of the intelligent CCTV according to an embodiment of the present invention, the processing unit stores the facial feature point information of the wanted person and the missing person extracted by inputting the wanted person image and the missing person image into a face recognition model, and the face Image data set in recognition mode and photographed at the target point is input to the face recognition model to extract feature point information of faces included in the image data, and extract feature point information and feature point information of the faces of the wanted person and missing persons. If the match is determined by comparing with the matched personal information, the matching personal information is transmitted to the control server.

본 발명의 일 실시예에 따른 지능형 CCTV의 바람직한 특징에 따르면, 상기 프로세싱부는, 상기 타깃 지점이 주차금지 구역인 경우, 상기 번호판감지모드로 설정되고, 상기 영상데이터를 번호판추출모델에 입력하여 차량의 번호판을 추출하고, 번호판 정보를 생성하여 상기 관제서버로 전송한다.According to a preferred feature of the intelligent CCTV according to an embodiment of the present invention, the processing unit, when the target point is a no-parking zone, is set to the license plate detection mode, and inputs the image data to a license plate extraction model to detect the vehicle's The license plate is extracted, and license plate information is generated and transmitted to the control server.

본 발명은 CCTV에서 촬영되는 영상데이터에서 객체검출 등의 영상처리를 수행할 수 있기 때문에, 관제사 없이도 효율적으로 감시 및 감독을 수행할 수 있을 뿐만 아니라, 관제사의 피로도로 인한 오차가 발생하지 않기 때문에 신뢰도 및 정확도가 향상된다는 효과가 있다.Since the present invention can perform image processing such as object detection in video data captured by CCTV, it is possible to efficiently monitor and supervise without a controller, and reliability is improved because errors due to fatigue of the controller do not occur. and accuracy is improved.

또한, 본 발명은 CCTV에 별도의 NVIDIA GPU 모듈을 장착하여 CCTV 단에서 영상처리를 수행할 수 있기 때문에, 관제서버의 구축비용을 낮출 수 있을 뿐만 아니라, 기존의 CCTV에 NVIDIA GPU 모듈을 장착할 수 있어 CCTV 시스템 구축에도 비용을 절감할 수 있다는 효과가 있다.In addition, since the present invention can perform image processing in the CCTV stage by installing a separate NVIDIA GPU module in the CCTV, not only can the construction cost of the control server be lowered, but also the NVIDIA GPU module can be installed in the existing CCTV. It has the effect of reducing the cost of constructing a CCTV system.

또한, 본 발명은 CCTV 단에서 영상 처리가 수행되기 때문에, CCTV를 복수개로 증가시키더라도, 종래와 같이 관제서버에서 복수개의 CCTV에 의해 촬영된 영상데이터들을 처리하여 연산처리 속도가 저하되지 않을 뿐만 아니라, 관제서버의 결함이 발생하더라도 영상데이터를 수신할 서버만 대체하면 되기 때문에 결함 복구속도 및 서버 안정성이 향상된다는 효과가 있다.In addition, since the image processing is performed in the CCTV stage of the present invention, even if the number of CCTVs is increased, the operation processing speed is not reduced by processing the image data taken by the plurality of CCTVs in the control server as in the prior art. In this case, even if a control server is defective, only the server to receive video data needs to be replaced, so there is an effect of improving the defect recovery speed and server stability.

도 1은 본 발명의 일 실시예에 따른 지능형 cctv를 이용하는 감시시스템을 보여주는 도면이다.
도 2는 본 발명의 일 실시예에 따른 지능형 CCTV(200)의 구성을 보여주는 도면이다.
도 3은 본 발명의 일 실시예에 따른 프로세싱부(220)의 구성을 보여주는 도면이다.
도 4는 각 모델들이 영상데이터 상에 영상 처리를 수행한 것을 보여주는 일예이다.
1 is a diagram showing a monitoring system using an intelligent cctv according to an embodiment of the present invention.
Figure 2 is a diagram showing the configuration of an intelligent CCTV (200) according to an embodiment of the present invention.
3 is a diagram showing the configuration of the processing unit 220 according to an embodiment of the present invention.
4 is an example showing that each model performs image processing on image data.

본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다.In this specification, it should be noted that in adding reference numerals to components of each drawing, the same components have the same numbers as much as possible, even if they are displayed on different drawings.

한편, 본 명세서에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다. 단수의 표현은 문맥상 명백하게 다르게 정의하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. "포함하다" 또는 "가지다" 등의 용어는 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분 품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Meanwhile, the meaning of terms described in this specification should be understood as follows. Singular expressions should be understood to include plural expressions unless the context clearly defines otherwise, and terms such as “first” and “second” are used to distinguish one component from another, The scope of rights should not be limited by these terms. It should be understood that terms such as "comprise" or "having" do not preclude the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

"적어도 하나"의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, "제1 항목, 제2 항목 및 제3 항목 중에서 적어도 하나"의 의미는 제1 항목, 제2 항목, 또는 제3 항목 각각뿐만 아니라 제1 항목, 제2 항목, 및 제3 항목 중에서 2개 이상으로부터 제시될 수 있는 모든 항 목의 조합을 의미한다. The term “at least one” should be understood to include all possible combinations from one or more related items. For example, "at least one of the first item, the second item, and the third item" means the first item, the second item, and the third item as well as each of the first item, the second item, and the third item. It means a combination of all items that can be presented from two or more of them.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들에 대해 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

본 발명에 따른 지능형 CCTV를 이용하는 감시시스템은 영상데이터를 생성하고, 영상데이터 상에서 얼굴인식, 객체인식, 피플카운팅, 연기감지, 번호판감지, 움직임 감지를 수행할 수 있다.A surveillance system using an intelligent CCTV according to the present invention can generate image data and perform face recognition, object recognition, people counting, smoke detection, license plate detection, and motion detection on the image data.

특히, 본 발명에 따른 지능형 CCTV를 이용하는 감시시스템은 에지 컴퓨팅 환경을 구축하여 종래 관제서버에서 수행되었던 영상데이터 처리를 클라이언트 측에서 수행하여 관제서버의 연산 부하를 최소화시킬 수 있을 뿐만 아니라, 관제서버의 구축비용을 최소화시킬 수 있도록 한다. In particular, the surveillance system using the intelligent CCTV according to the present invention builds an edge computing environment and performs image data processing performed in the conventional control server on the client side to minimize the computational load of the control server, as well as To minimize construction costs.

도 1은 본 발명의 일 실시예에 따른 지능형 cctv를 이용하는 감시시스템을 보여주는 도면이다. 도 1에 도시된 바와 같이, 본 발명에 따른 지능형 CCTV를 이용하는 감시시스템(100)은 지능형 CCTV(200) 및 관제서버(300)를 포함한다. 1 is a diagram showing a monitoring system using an intelligent cctv according to an embodiment of the present invention. As shown in FIG. 1, the monitoring system 100 using an intelligent CCTV according to the present invention includes an intelligent CCTV 200 and a control server 300.

본 발명에 따른 지능형 CCTV(200)는 영상데이터를 생성하고, 영상데이터를 처리하여 관제서버(300)로 전송한다. 구체적으로, 지능형 CCTV(200)는 타겟 지점을 촬영하여 영상데이터를 생성한다. 지능형 CCTV(200)는 얼굴인식모드, 객체인식모드, 피플카운팅모드, 화재감지모드, 번호판감지모드, 움직임감지모드 중 적어도 하나의 모드로 설정되어 생성된 영상데이터를 처리하여 관제서버(300)로 전송한다.Intelligent CCTV (200) according to the present invention generates image data, processes the image data and transmits it to the control server (300). Specifically, the intelligent CCTV (200) generates image data by photographing a target point. The intelligent CCTV (200) is set to at least one mode among face recognition mode, object recognition mode, people counting mode, fire detection mode, license plate detection mode, and motion detection mode, and processes the generated image data to the control server 300. send.

이하, 본 발명에 따른 지능형 CCTV(200)에 대해 도 2를 참조하여 보다 구체적으로 설명한다.Hereinafter, the intelligent CCTV 200 according to the present invention will be described in more detail with reference to FIG. 2 .

도 2는 본 발명의 일 실시예에 따른 지능형 CCTV(200)의 구성을 보여주는 도면이다. 도 2에 도시된 바와 같이, 지능형 CCTV(200)는 촬영부(210), 프로세싱부(220), 및 통신부(230)를 포함한다.Figure 2 is a diagram showing the configuration of an intelligent CCTV (200) according to an embodiment of the present invention. As shown in Figure 2, the intelligent CCTV (200) includes a photographing unit 210, a processing unit 220, and a communication unit (230).

본 발명에 따른 촬영부(210)는 타깃 지점을 촬영하여 영상데이터를 생성한다. The photographing unit 210 according to the present invention generates image data by photographing a target point.

일 예로, 촬영부(210)는 카메라로 구성될 수 있다. 예컨대, 촬영부(210)는 effective pixel이 1920 x 1080(FHD) 이상이고, 신호대 잡음비가 50dB 이상이며, 작동환경이 -30°C ~ +60°C 내에서 동작되고, 전원 규격이 DC 12V인 카메라일 수 있다. 다만, 이는 하나의 예일 뿐 촬영부(210)는 각 사항들 중 적어도 하나를 충족하지 않는 카메라이거나 카메라 외의 촬영하기 위한 장치일 수 있으며, 이에 한정되지 않는다.For example, the photographing unit 210 may be configured as a camera. For example, the photographing unit 210 has an effective pixel of 1920 x 1080 (FHD) or more, a signal-to-noise ratio of 50dB or more, an operating environment of -30°C to +60°C, and a power specification of DC 12V. It could be a camera. However, this is just one example, and the photographing unit 210 may be a camera that does not satisfy at least one of the above or a device for photographing other than a camera, but is not limited thereto.

촬영부(210)는 생성된 영상데이터를 프로세싱부(220)로 전달한다. The photographing unit 210 transfers the generated image data to the processing unit 220 .

프로세싱부(220)는 촬영부(210)에 의해 생성된 영상데이터를 처리한다. The processing unit 220 processes image data generated by the photographing unit 210 .

이를 위해, 본 발명에 따른 프로세싱부(220)는 GPU 모듈로 구성될 수 있다. 예컨대, GPU 모듈은 NVIDIA Jetson GPU 모듈로 구성될 수 있다. 특히, 고가의 지능형 CCTV를 구축하기 위해서는 하나의 CCTV 당 1000만원 이상의 비용이 소모되나, 본 발명은 별도의 NVIDIA Jetson GPU 모듈로 프로세싱부(220)를 구축함으로써, 비용을 획기적으로 감축할 수 있다.To this end, the processing unit 220 according to the present invention may be configured as a GPU module. For example, the GPU module may consist of an NVIDIA Jetson GPU module. In particular, in order to build an expensive intelligent CCTV, it costs more than 10 million won per CCTV, but the present invention can drastically reduce the cost by building the processing unit 220 with a separate NVIDIA Jetson GPU module.

일 실시예에 있어서, 프로세싱부(220)는 촬영부(210)에 탈착가능하게 결합될 수 있다. 일반적으로, 기존 CCTV를 철거 후 지능형 CCTV를 구축되지만, 본 발명은 기존의 일반적인 CCTV에 프로세싱부(220)로 구성되는 NVIDIA Jetson GPU 모듈을 결합시켜 지능형 CCTV(200)로 구축할 수도 있다.In one embodiment, the processing unit 220 may be detachably coupled to the photographing unit 210 . In general, an intelligent CCTV is built after demolishing an existing CCTV, but the present invention may be constructed as an intelligent CCTV 200 by combining an NVIDIA Jetson GPU module composed of a processing unit 220 with an existing general CCTV.

일 실시예에 있어서, 본 발명에 따른 프로세싱부로 구성되는 NVIDIA Jetson GPU 모듈은 GPU는 NVIDIA Volta architecture with 384 NVIDIA CUDA® cores and 48 Tensor cores 이상의 스펙을 보유하고, CPU는 6-core NVIDIA Carmel ARM®v8.2 64-bit CPU, 6 MB L2 + 4 MB L3 이상을 스펙을 보유하며, Memory는 8 GB 128-bit LPDDR4x @ 51.2GB/s이상의 스펙을 보유하고, Storage는 micro SD를 이용할 수 있다.In one embodiment, the NVIDIA Jetson GPU module composed of the processing unit according to the present invention, the GPU has specifications of NVIDIA Volta architecture with 384 NVIDIA CUDA® cores and 48 Tensor cores or more, and the CPU has 6-core NVIDIA Carmel ARM®v8 .2 It has specifications of 64-bit CPU, 6 MB L2 + 4 MB L3 or more, memory has specifications of 8 GB 128-bit LPDDR4x @ 51.2 GB/s or more, and storage can use micro SD.

예컨대, NVIDIA Jetson GPU 모듈은 GPU는 512-core Volta GPU with Tensor cores로 구성되고, CPU는 8-core ARM v8.2 64-bit CPU, 8MB L2, 4MB L3로 구성되며, Memory는 32GB 256-Bit LPDDR4x/ 137GB/s로 구성되고, Storage는 32GB emmc 5.1로 구성될 수 있다.For example, in the NVIDIA Jetson GPU module, the GPU consists of 512-core Volta GPU with Tensor cores, the CPU consists of 8-core ARM v8.2 64-bit CPU, 8MB L2, 4MB L3, and the memory consists of 32GB 256-Bit It is composed of LPDDR4x/ 137GB/s, and Storage can be composed of 32GB emmc 5.1.

이에 따라, 본 발명은 별도의 철거비용이나 제반비용을 절감할 수 있다는 효과가 있다.Accordingly, the present invention has an effect of reducing separate removal costs or overall costs.

일 실시예에 있어서, 프로세싱부(220)는 얼굴인식모드, 객체인식모드, 피플카운팅모드, 화재감지모드, 번호판감지모드, 움직임감지모드 중 적어도 하나의 모드로 설정되어 영상데이터를 처리할 수 있다.In one embodiment, the processing unit 220 is set to at least one mode of face recognition mode, object recognition mode, people counting mode, fire detection mode, license plate detection mode, and motion detection mode to process image data. .

프로세싱부(220)는 얼굴인식모드로 설정되면, 영상데이터 상에 포함된 얼굴로부터 특징점 정보를 추출하고, 추출된 특징점 정보와 미리 저장된 복수개의 특징점 정보들과 비교할 수 있다. 프로세싱부(220)는 비교결과 추출된 특징점 정보와 일치하는 특징점 정보가 있는 경우, 해당 특징점 정보에 매핑된 사람의 정보를 관제서버(300)로 전달할 수 있다.When the face recognition mode is set, the processing unit 220 may extract feature point information from a face included in the image data and compare the extracted feature point information with a plurality of previously stored feature point information. The processing unit 220 may transmit information about a person mapped to the corresponding feature point information to the control server 300 when there is minutiae point information identical to the minutiae point information extracted as a result of the comparison.

프로세싱부(220)는 객체인식모드로 설정되면, 영상데이터 상에 포함된 객체로부터 객체의 특징 정보를 추출하고, 추출된 특징 정보와 미리 저장된 복수개의 특징 정보들과 비교할 수 있다. 프로세싱부(220)는 비교결과 추출된 특징 정보와 일치하는 특징 정보가 있는 경우, 해당 특징 정보에 매핑된 객체의 정보를 관제서버(300)로 전달할 수 있다.When set to the object recognition mode, the processing unit 220 may extract feature information of an object from an object included in image data and compare the extracted feature information with a plurality of pieces of pre-stored feature information. The processing unit 220 may transmit the information of the object mapped to the characteristic information to the control server 300 when there is characteristic information identical to the characteristic information extracted as a result of the comparison.

프로세싱부(220)는 피플카운팅모드로 설정되면, 영상데이터 상에 포함된 사람의 수를 카운팅하여 카운팅 정보를 생성하고, 카운팅 정보를 관제서버(300)로 전달할 수 있다.When set to the people counting mode, the processing unit 220 may generate counting information by counting the number of people included in the image data, and transmit the counting information to the control server 300 .

프로세싱부(220)는 화재감지모드로 설정되면, 영상데이터 상에 포함된 연기 및 불꽃의 포함여부를 판단하고, 연기 및 불꽃이 포함되면 화재발생정보를 관제서버(300)로 전달할 수 있다.When set to the fire detection mode, the processing unit 220 may determine whether or not smoke and flames included in the image data are included, and transmit fire occurrence information to the control server 300 when smoke and flames are included.

프로세싱부(220)는 번호판감지모드로 설정되면, 영상데이터 상에 포함된 차량번호를 추출하고, 차량번호를 관제서버(300)로 전달할 수 있다.When the license plate detection mode is set, the processing unit 220 may extract the license plate number included in the image data and transfer the license plate number to the control server 300 .

프로세싱부(220)는 움직임감지모드로 설정되면, 영상데이터 상에 포함된 객체들의 움직임 여부를 판단하고, 움직임정보를 생성하여 관제서버(300)로 전달할 수 있다.When set to the motion detection mode, the processing unit 220 may determine whether objects included in the image data are moving, generate motion information, and transmit it to the control server 300 .

이와 같이, 본 발명에 따른 프로세싱부(220)는 얼굴인식, 객체인식, 피플카운팅, 연기감지, 번호판감지, 움직임 감지를 수행할 수 있다.As such, the processing unit 220 according to the present invention may perform face recognition, object recognition, people counting, smoke detection, license plate detection, and motion detection.

일 실시예에 있어서, 프로세싱부(220)는 촬영부(210)가 촬영하는 타깃지점에 따라 모드를 설정하고, 해당 모드에 따라 영상데이터 상에 처리를 수행할 수 있다.In one embodiment, the processing unit 220 may set a mode according to a target point captured by the photographing unit 210 and may process image data according to the corresponding mode.

예컨대, 프로세싱부(210)는 타깃 지점이 보안지대인 경우, 얼굴인식모드로 설정될 수 있다. 이러한 경우, 프로세싱부(220)는 영상데이터로부터 얼굴 특징점 정보를 추출하고, 추출된 특징점 정보와 미리 저장된 보안지대에 접근 가능한 복수개의 얼굴 특징점 정보와 일치여부를 판단할 수 있다. 프로세싱부(220)는 추출된 얼굴 특징점 정보와 일치하는 얼굴 특징점 정보가 없는 경우, 거동수상자 발생 정보를 생성하여 관제서버(300)로 전달할 수 있다. 또한, 프로세싱부(220)는 영상데이터 상에 해당 얼굴에 미리 정해진 색의 바운딩 박스를 표시할 수 있다.For example, the processing unit 210 may set the face recognition mode when the target point is a security zone. In this case, the processing unit 220 may extract facial feature point information from the image data, and determine whether the extracted feature point information matches a plurality of facial feature point information accessible to the previously stored security zone. The processing unit 220 may generate behavioral subject generation information and transmit it to the control server 300 when there is no facial feature point information matching the extracted facial feature point information. Also, the processing unit 220 may display a bounding box of a predetermined color on the corresponding face on the image data.

예컨대, 프로세싱부(210)는 타깃지점이 주차금지구역인 경우, 번호판감지모드로 설정되고, 영상데이터에서 차량의 번호판을 추출하여 번호판 정보를 생성하고, 번호판 정보를 관제서버(300)로 전달할 수 있다.For example, when the target point is a no-parking zone, the processing unit 210 may be set to a license plate detection mode, generate license plate information by extracting a license plate of a vehicle from image data, and transmit the license plate information to the control server 300. have.

일 실시예에 있어서, 프로세싱부(220)는 관제서버(300)로부터 공개 수배자 및 실종자 수색요청을 수신하는 경우, 공개수배자 및 실종자 수색을 수행할 수 있다. 예컨대, 프로세싱부(220)는 얼굴인식모드로 설정되고, 타깃 지점에서 촬영되는 영상데이터로부터 영상데이터 상에 포함된 얼굴들의 특징점 정보를 추출하고, 추출된 특징점 정보와 공개수배자 및 실종자들의 얼굴의 특징점 정보와 비교하여 일치여부를 판단할 수 있다. 프로세싱부(220)는 일치하는 경우, 얼굴의 특징점 정보에 매핑되어 저장되어 있는 공개수배자 및 실종자 신상정보 중 일치하는 신상정보를 관제서버(300)로 전달할 수 있다. 이러한 경우, 프로세싱부(220)는 공개 수배자 이미지 및 실종자이미지들로부터 추출된 공개수배자 및 실종자들의 얼굴 특징점 정보를 저장하고 있을 수 있다.In one embodiment, the processing unit 220 may perform a search for a wanted person or a missing person when receiving a search request for a publicly wanted person or a missing person from the control server 300 . For example, the processing unit 220 is set to the face recognition mode, extracts feature point information of faces included in the image data from image data photographed at a target point, and extracts the extracted feature point information and feature points of the faces of wanted persons and missing persons. It can be compared with the information to determine whether it matches. When matched, the processing unit 220 may transmit matching personal information among wanted person and missing person personal information mapped to facial feature point information and stored to the control server 300 . In this case, the processing unit 220 may store facial feature point information of wanted persons and missing persons extracted from wanted person images and missing person images.

이하, 본 발명에 따른 프로세싱부(220)에 대해 도 3을 참조하여 보다 구체적으로 설명한다.Hereinafter, the processing unit 220 according to the present invention will be described in more detail with reference to FIG. 3 .

도 3은 본 발명의 일 실시예에 따른 프로세싱부(220)의 구성을 보여주는 도면이다.3 is a diagram showing the configuration of the processing unit 220 according to an embodiment of the present invention.

본 발명에 따른 프로세싱부(220)는 모델링부(250), 얼굴인식모델(252), 피플카운팅모델(253), 객체인식모델(254), 화재인식모델(255), 번호판인식모델(256), 움직임감지모델(257), 데이터베이스(260), 입력부(265), 및 모드 선택부(270)를 포함한다.The processing unit 220 according to the present invention includes a modeling unit 250, a face recognition model 252, a people counting model 253, an object recognition model 254, a fire recognition model 255, a license plate recognition model 256 , a motion detection model 257, a database 260, an input unit 265, and a mode selection unit 270.

모델링부(250)는 얼굴인식모델(252), 피플카운팅모델(253), 객체인식모델(254), 화재인식모델(255), 번호판인식모델(256), 움직임감지모델(257)을 생성할 수 있다.The modeling unit 250 generates a face recognition model 252, a people counting model 253, an object recognition model 254, a fire recognition model 255, a license plate recognition model 256, and a motion detection model 257. can

모델링부(250)는 학습데이터를 이용하여 미리 정해진 학습알고리즘으로 각각의 모델을 생성할 수 있다.The modeling unit 250 may generate each model using a predetermined learning algorithm using learning data.

모델링부(250)는 복수개의 얼굴이미지를 미리 정해진 학습알고리즘으로 학습하여 얼굴의 특징점을 추출하는 얼굴인식모델(252)을 생성할 수 있다. 이에 따라, 얼굴인식모델(252)은 영상데이터가 입력되면 영상데이터에 포함된 얼굴의 특징점을 추출할 수 있다.The modeling unit 250 may generate a face recognition model 252 for extracting feature points of a face by learning a plurality of face images using a predetermined learning algorithm. Accordingly, when image data is input, the face recognition model 252 may extract facial feature points included in the image data.

일 실시예에 있어서, 얼굴인식모델(252)은 영상데이터 상에 얼굴을 바운딩박스하여 표시할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 얼굴인식모델(253)은 영상데이터 상에 얼굴을 바운딩 박스하여 표시할 수 있다.In one embodiment, the face recognition model 252 may display a bounding box of a face on image data. For example, as shown in FIG. 4 , the face recognition model 253 may display a face as a bounding box on image data.

일 실시예에 있어서, 얼굴인식모델(252)을 생성하기 위한 학습알고리즘은 YOLO V4 알고리즘을 이용할 수 있다.In one embodiment, a learning algorithm for generating the face recognition model 252 may use the YOLO V4 algorithm.

모델링부(250)는 복수개의 사람이미지를 미리 정해진 학습알고리즘으로 학습하여 사람의 수를 측정하는 피플카운팅모델(253)을 생성할 수 있다. 이에 따라, 피플카운팅모델(253)은 영상데이터가 입력되면 영상데이터 상에 포함된 사람 수 정보를 생성할 수 있다. 여기서 사람수 정보는 카운팅 정보를 의미한다.The modeling unit 250 may generate a people counting model 253 for measuring the number of people by learning a plurality of human images using a predetermined learning algorithm. Accordingly, the people counting model 253 may generate information on the number of people included in the image data when image data is input. Here, the number of people information means counting information.

일 실시예에 잇어서, 피플카운팅모델(253)은 영상데이터 상에 사람을 바운딩박스하여 표시할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 피플카운팅모델(253)은 영상데이터 상에 사람을 바운딩 박스하여 표시할 수 있다.In one embodiment, the people counting model 253 may display a person as a bounding box on image data. For example, as shown in FIG. 4 , the people counting model 253 may display a person as a bounding box on image data.

일 실시예에 있어서, 피플카운팅모델(253)을 생성하기 위한 학습알고리즘은 CNN 알고리즘을 이용할 수 있다. In one embodiment, a learning algorithm for generating the people counting model 253 may use a CNN algorithm.

모델링부(250)는 차량, 사람, 동물을 포함하는 객체 별로 수집된 복수개의 객체이미지를 미리 정해진 학습알고리즘으로 학습하여 객체인식모델(254)을 생성할 수 있다. 이에 따라, 객체인식모델(254)은 영상데이터 상에 포함된 객체 중 차량, 사람, 동물을 구분하여 객체정보를 생성할 수 있다. 여기서 객체는 차량, 사람, 동물을 예로 들었으나, 이는 하나의 예일 뿐, 학습되는 객체이미지에 따라 서로 다른 객체들을 구분하여 객체정보를 생성할 수 있을 것이다.The modeling unit 250 may generate an object recognition model 254 by learning a plurality of object images collected for each object including vehicles, people, and animals using a predetermined learning algorithm. Accordingly, the object recognition model 254 may generate object information by classifying vehicles, people, and animals among objects included in the image data. Here, vehicles, people, and animals are exemplified as objects, but this is only one example, and object information may be generated by classifying different objects according to the object image to be learned.

일 실시예에 있어서, 객체인식모델(254)은 영상데이터 상에 차량, 사람, 동물 별로 서로 다른 바운딩 박스를 생성할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 화재인식모델(255)은 영상데이터 상에 포함된 객체들을 바운딩박스하여 표시할 수 있다. In one embodiment, the object recognition model 254 may create different bounding boxes for each vehicle, person, and animal on image data. For example, as shown in FIG. 4 , the fire recognition model 255 may display objects included in image data as bounding boxes.

일 실시예에 있어서, 객체인식모델(254)을 생성하기 위한 학습알고리즘은 hog 알고리즘을 이용할 수 있다.In one embodiment, a learning algorithm for generating the object recognition model 254 may use a hog algorithm.

일 실시예에 있어서, 모델링부(250)는 복수개의 연기 및 불꽃이미지를 미리 정해진 학습알고리즘으로 학습하여 화재인식모델(255)을 생성할 수 있다. 이에 따라, 화재인식모델(255)은 영상데이터 상에 화재발생여부를 판단하여 화재발생정보를 생성할 수 있다. In one embodiment, the modeling unit 250 may generate a fire recognition model 255 by learning a plurality of smoke and flame images using a predetermined learning algorithm. Accordingly, the fire recognition model 255 may generate fire occurrence information by determining whether a fire occurs on the image data.

일 실시예에 있어서, 화재인식모델(255)은 영상데이터 상에 연기 및 불꽃을 바운딩박스하여 표시할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 화재인식모델(255)은 영상데이터 상에 포함된 연기 및 불꽃을 바운딩박스하여 표시할 수 있다. In one embodiment, the fire recognition model 255 may display smoke and flame as a bounding box on image data. For example, as shown in FIG. 4 , the fire recognition model 255 may display smoke and flame included in the image data as a bounding box.

일 실시예에 있어서, 모델링부(250)는 복수개의 번호판이미지를 미리 정해진 학습알고리즘으로 학습하여 차량번호를 추출하는 번호판인식모델(256)을 생성할 수 있다. 이에 따라, 번호판인식모델(256)은 영상데이터 상에 포함된 차량 번호판으로부터 차량번호를 추출할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 번호판인식모델(256)은 차량번호를 추출할 수 있다.In one embodiment, the modeling unit 250 may generate a license plate recognition model 256 for extracting a vehicle number by learning a plurality of license plate images using a predetermined learning algorithm. Accordingly, the license plate recognition model 256 may extract the vehicle number from the license plate included in the image data. For example, as shown in FIG. 4 , the license plate recognition model 256 may extract a vehicle number.

일 실시예에 있어서, 화재인식모델(255)은 영상데이터 상에 연기 및 불꽃을 바운딩박스하여 표시할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 화재인식모델(255)은 영상데이터 상에 포함된 연기 및 불꽃을 바운딩박스하여 표시할 수 있다. In one embodiment, the fire recognition model 255 may display smoke and flame as a bounding box on image data. For example, as shown in FIG. 4 , the fire recognition model 255 may display smoke and flame included in the image data as a bounding box.

일 실시예에 있어서, 화재인식모델(255)을 생성하기 위한 학습알고리즘은 YOLO V4 알고리즘을 이용할 수 있다.In one embodiment, the learning algorithm for generating the fire recognition model 255 may use the YOLO V4 algorithm.

일 실시예에 있어서, 모델링부(250)는 객체의 동작 별로 구분되어 있는 복수개의 동작이미지를 미리 정해진 학습알고리즘으로 학습하여 움직임감지모델(256)을 생성할 수 있다. 이에 따라, 움직임감지모델(256)은 영상데이터 상에 움직임이 발생하는 객체에 대한 정보를 생성할 수 있다.In an embodiment, the modeling unit 250 may generate the motion detection model 256 by learning a plurality of motion images classified for each motion of an object using a predetermined learning algorithm. Accordingly, the motion detection model 256 may generate information about an object whose motion occurs on image data.

일 실시예에 있어서, 움직임감지모델(256)은 영상데이터 상에 움직임이 감지되는 객체를 바운딩박스하여 표시할 수 있다. 예컨대, 도 4에 도시된 바와 같이, 움직임감지모델(256)은 영상데이터 상에 움직임이 감지되는 객체를 바운딩박스하여 표시할 수 있다.In one embodiment, the motion detection model 256 may display an object whose motion is detected on image data as a bounding box. For example, as shown in FIG. 4 , the motion detection model 256 may display an object whose motion is detected as a bounding box on image data.

일 실시예에 있어서, 움직임감지모델(256)을 생성하기 위한 학습알고리즘은 Mean-shift 및 CAMShift알고리즘을 이용할 수 있다.In one embodiment, a learning algorithm for generating the motion detection model 256 may use a mean-shift and CAMShift algorithm.

데이터베이스(260)에는 복수개의 학습데이터가 저장되어 있다. 여기서 학습데이터는 얼굴이미지, 객체이미지, 연기이미지, 불꽃이미지, 번호판이미지, 동작이미지를 포함한다. 또한, 데이터베이스(260)에는 공개 수배자이미지 및 실종자이미지들을 얼굴인식모델에 입력하여 추출된 공개 수배자 및 실종자들의 얼굴 특징점 정보를 저장되어 있을 수 있다. 또한, 데이터베이스(260)에는 보안지대에 접근 가능한 복수개의 얼굴 특징점 정보를 저장되어 있을 수 있다.The database 260 stores a plurality of learning data. Here, the learning data includes a face image, an object image, a smoke image, a flame image, a license plate image, and an action image. In addition, the database 260 may store facial feature point information of wanted persons and missing persons extracted by inputting wanted person images and missing person images to a face recognition model. In addition, the database 260 may store information on a plurality of facial feature points accessible to the security zone.

입력부(265)는 설정된 모드에 따라 얼굴인식모델(252), 피플카운팅모델(253), 객체인식모델(254), 화재인식모델(255), 번호판인식모델(256), 움직임감지모델(257) 중 적어도 하나의 모델에 영상데이터를 입력할 수 있다.The input unit 265 includes a face recognition model 252, a people counting model 253, an object recognition model 254, a fire recognition model 255, a license plate recognition model 256, and a motion detection model 257 according to the set mode. Image data may be input to at least one of the models.

모드 선택부(270)는 프로세싱부(220)는 얼굴인식모드, 객체인식모드, 피플카운팅모드, 화재감지모드, 번호판감지모드, 움직임감지모드 중 적어도 하나의 모드로 설정한다. 이와 같이, 본 발명은 모드를 하나 이상 선택하여 설정할 수 있다. 예컨대, 본 발명은 얼굴인식을 수행하면서 연기감지 또는 번호판감지를 수행할 수 있다.The mode selection unit 270 sets the processing unit 220 to at least one of a face recognition mode, an object recognition mode, a people counting mode, a fire detection mode, a license plate detection mode, and a motion detection mode. As such, in the present invention, one or more modes can be selected and set. For example, the present invention may perform smoke detection or license plate detection while performing face recognition.

일 실시예에 있어서, 모드 선택부(270)는 타깃지점에 따라 모드를 선택할 수 있다. 예컨대, 모드 선택부(270)는 타깃 지점이 보안지대인 경우, 얼굴인식모드를 선택할 수 있다. 또한, 모드 선택부(270)는 타깃 지점이 주차금지 구역인 경우, 번호판감지모드를 선택할 수 있다.In one embodiment, the mode selector 270 may select a mode according to the target point. For example, the mode selector 270 may select a face recognition mode when the target point is a security zone. In addition, the mode selector 270 may select a license plate detection mode when the target point is a no-parking area.

일 실시예에 있어서, 모드 선택부(270)는 관제서버(300)의 요청에 따라 모드를 선택할 수 있다. 예컨대, 모드 선택부(270)는 관제서버(300)로 공개수배자 및 실종자 수색요청이 수신되면, 얼굴인식모드를 선택할 수 있다.In one embodiment, the mode selector 270 may select a mode according to a request of the control server 300 . For example, the mode selector 270 may select a face recognition mode when a search request for a wanted person or a missing person is received from the control server 300 .

한편, 통신부(230)는 관제서버(300)와 송수신을 수행한다.On the other hand, the communication unit 230 performs transmission and reception with the control server 300 .

통신부(230)는 프로세싱부(220)에 의해 처리된 영상데이터를 관제서버(300)로 전송한다. 또한, 통신부(230)는 관제서버(300)로 신상정보, 화재발생정보, 거동수상자 발생 정보, 사람수 정보, 객체정보, 움직임정보, 사람정보, 번호판 정보 등 프로세싱부(220)에 의해 생성된 정보를 관제서버(300)로 전송한다. 또한, 통신부(230)는 관제서버(300)로부터 모드를 선택하기 위한 요청을 수신할 수 있다. 예컨대, 통신부(230)는 공개수배자 및 실종자 수색요청을 관제서버(300)로부터 수신할 수 있다.The communication unit 230 transmits the image data processed by the processing unit 220 to the control server 300 . In addition, the communication unit 230 is the control server 300, personal information, fire occurrence information, behavior award winner information, number of people information, object information, movement information, person information, license plate information, etc. generated by the processing unit 220 Information is transmitted to the control server (300). Also, the communication unit 230 may receive a request for selecting a mode from the control server 300 . For example, the communication unit 230 may receive a search request for a wanted person or a missing person from the control server 300 .

일 실시예에 있어서, 통신부(230)는 외부 IP를 할당받아 관제서버(300)와 송수신할 수 있다. 이에 따라, 통신부(230)에는 지능형 CCTV(100) 별로 서로 다른 IP가 할당되어 있을 수 있다.In one embodiment, the communication unit 230 may transmit/receive data with the control server 300 by receiving an external IP address. Accordingly, different IPs may be assigned to each intelligent CCTV 100 in the communication unit 230 .

한편, 관제서버(300)는 지능형 cctv(200)로부터 촬영되고 처리된 영상데이터를 수신할 수 있다. 이와 같이, 본 발명은 관제서버(300)가 지능형 cctv(200)에 의해 처리된 영상데이터를 수신하여 서버의 부하가 감소되어 연산처리 속도가 향상될 수 있다는 효과가 있다. On the other hand, the control server 300 may receive image data captured and processed from the intelligent cctv (200). In this way, the present invention has an effect that the control server 300 receives the image data processed by the intelligent cctv 200, thereby reducing the load of the server and improving the processing speed.

또한, 관제서버(300)는 지능형 cctv(200)로부터 신상정보, 화재발생정보, 거동수장자 발생정보, 사람수 정보, 객체 정보, 움직임정보, 사람정보, 번호판 정보 등의 생성된 정보를 수신할 수 있다.In addition, the control server 300 is to receive generated information such as personal information, fire occurrence information, behavioral disability generation information, number of people information, object information, movement information, person information, license plate information, etc. from the intelligent cctv (200). can

또한, 관제서버(300)는 모드를 선택하기 위한 요청을 지능형 cctv(200)로 전송할 수 있다.In addition, the control server 300 may transmit a request for selecting a mode to the intelligent cctv (200).

본 발명이 속하는 기술분야의 당업자는 상술한 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 본 발명이 복수개의 프로그램으로 분할되어 구현되는 경우 각 프로그램은 서로 다른 매체에 탑재될 수 있다. Those skilled in the art to which the present invention pertains will be able to understand that the above-described present invention may be embodied in other specific forms without changing its technical spirit or essential features. When the present invention is implemented by being divided into a plurality of programs, each program may be loaded on different media.

그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한 다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (6)

타깃 지점을 촬영하여 영상데이터를 생성하는 촬영부;
얼굴인식모드, 객체인식모드, 피플카운팅모드, 화재감지모드, 번호판감지모드, 움직임 감지모드 중 적어도 하나의 모드로 설정되어 상기 영상데이터를 처리하는 프로세싱부; 및
상기 처리된 영상데이터를 관제서버로 전송하는 통신부를 포함하고,
상기 프로세싱부는,
상기 촬영부에 탈착가능하게 결합되는 GPU 모듈로 구성되는 것을 특징으로 하는 지능형 CCTV.
a photographing unit generating image data by photographing a target point;
a processing unit set to at least one of a face recognition mode, an object recognition mode, a people counting mode, a fire detection mode, a license plate detection mode, and a motion detection mode to process the image data; and
A communication unit for transmitting the processed image data to a control server;
The processing unit,
Intelligent CCTV, characterized in that consisting of a GPU module detachably coupled to the photographing unit.
제1항에 있어서,
상기 프로세싱부는,
복수개의 얼굴이미지를 미리 정해진 학습알고리즘으로 학습하여 얼굴의 특징점을 추출하는 얼굴인식모델을 생성하고, 복수개의 사람이미지를 미리 정해진 학습알고리즘으로 학습하여 사람의 수를 측정하는 피플카운팅모델을 생성하며, 차량, 사람, 동물을 포함하는 객체 별로 수집된 복수개의 객체이미지를 미리 정해진 학습알고리즘으로 학습하여 객체의 특징을 추출하는 객체인식모델을 생성하고, 복수개의 연기 및 화재이미지를 미리 정해진 학습알고리즘으로 학습하여 화재인식모델을 생성하며, 복수개의 번호판이미지를 미리 정해진 학습알고리즘으로 학습하여 차량번호를 추출하는 번호판인식모델을 생성하고, 객체의 동작 별로 구분되어 있는 복수개의 동작이미지를 미리 정해진 학습알고리즘으로 학습하여 움직임감지모델을 생성하는 모델링부를 포함하는 것을 특징으로 하는 지능형 CCTV.
According to claim 1,
The processing unit,
Learning a plurality of face images with a predetermined learning algorithm to create a face recognition model that extracts facial feature points, learning a plurality of human images with a predetermined learning algorithm to create a people counting model that measures the number of people, A plurality of object images collected for each object, including vehicles, people, and animals, are learned with a predetermined learning algorithm to create an object recognition model that extracts object features, and a plurality of smoke and fire images are learned with a predetermined learning algorithm. to create a fire recognition model, create a license plate recognition model that extracts a vehicle number by learning a plurality of license plate images with a predetermined learning algorithm, and learn a plurality of motion images classified by object motion with a predetermined learning algorithm Intelligent CCTV characterized in that it comprises a modeling unit for generating a motion detection model.
제2항에 있어서,
상기 얼굴인식모델, 화재인식모델, 번호판인식모델은 yolo v4 알고리즘으로 학습되고,
상기 객체인식모델은 hog 알고리즘으로 학습되며,
상기 피플카운팅모델은 cnn 알고리즘으로 학습되고,
상기 움직임 감지모델은 Mean-Shift 및 CAMShift 알고리즘으로 학습되는 것을 특징으로 하는 지능형 CCTV.
According to claim 2,
The face recognition model, fire recognition model, and license plate recognition model are learned with the yolo v4 algorithm,
The object recognition model is learned with a hog algorithm,
The people counting model is learned with the cnn algorithm,
Intelligent CCTV, characterized in that the motion detection model is learned by Mean-Shift and CAMShift algorithms.
제1항에 있어서,
상기 프로세싱부는,
상기 타깃 지점이 보안지대인 경우, 상기 얼굴인식모드로 설정되고, 상기 영상데이터를 얼굴인식모델에 입력하여 상기 타깃 지점에서 촬영되는 얼굴 특징점 정보를 추출하고, 추출된 특징점 정보와 미리 저장된 보안지대에 접근 가능한 복수개의 얼굴 특징점 정보와 일치여부를 판단하여 일치하지 않는 경우, 상기 영상데이터에 해당 인원에 미리 정해진 색의 바운딩박스를 표시하는 것을 특징으로 하는 지능형 CCTV.
According to claim 1,
The processing unit,
When the target point is a security zone, the face recognition mode is set, the image data is input to a face recognition model to extract facial feature point information captured at the target point, and the extracted feature point information and pre-stored security zone An intelligent CCTV characterized in that it determines whether or not it matches with a plurality of accessible facial feature points, and if it does not match, a bounding box of a predetermined color is displayed for the person concerned in the image data.
제1항에 있어서,
상기 프로세싱부는,
공개 수배자이미지 및 실종자이미지들을 얼굴인식모델에 입력하여 추출된 공개 수배자 및 실종자들의 얼굴 특징점 정보를 저장하고 있고,
상기 얼굴인식모드로 설정되어 상기 타깃 지점에서 촬영되는 영상데이터를 상기 얼굴인식모델에 입력하여 영상데이터 상에 포함된 얼굴들의 특징점 정보를 추출하고, 추출된 특징점 정보와 상기 공개 수배자 및 실종자들의 얼굴의 특징점 정보와 비교하여 일치여부를 판단하여 일치하는 경우, 일치하는 신상정보를 관제서버로 전송하는 것을 특징으로 하는 지능형 CCTV.
According to claim 1,
The processing unit,
Public wanted person images and missing person images are input to a face recognition model to store facial feature information of public wanted people and missing people extracted;
The image data set in the face recognition mode and photographed at the target point is input to the face recognition model to extract feature point information of the faces included in the image data, and extract the extracted feature point information and the faces of the wanted person and the missing person. An intelligent CCTV characterized in that it compares feature point information to determine whether they match, and if they match, transmits the matching personal information to the control server.
제1항에 있어서,
상기 프로세싱부는,
상기 타깃 지점이 주차금지 구역인 경우, 상기 번호판감지모드로 설정되고, 상기 영상데이터를 번호판추출모델에 입력하여 차량의 번호판을 추출하고, 번호판 정보를 생성하여 상기 관제서버로 전송하는 것을 특징으로 하는 지능형 CCTV.
According to claim 1,
The processing unit,
When the target point is a no-parking zone, the license plate detection mode is set, the license plate of the vehicle is extracted by inputting the image data to the license plate extraction model, and license plate information is generated and transmitted to the control server. Intelligent CCTV.
KR1020210070699A 2021-06-01 2021-06-01 Intelligent CCTV And Surveillance System Using It KR102555845B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210070699A KR102555845B1 (en) 2021-06-01 2021-06-01 Intelligent CCTV And Surveillance System Using It

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210070699A KR102555845B1 (en) 2021-06-01 2021-06-01 Intelligent CCTV And Surveillance System Using It

Publications (2)

Publication Number Publication Date
KR20220162351A true KR20220162351A (en) 2022-12-08
KR102555845B1 KR102555845B1 (en) 2023-07-17

Family

ID=84436984

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210070699A KR102555845B1 (en) 2021-06-01 2021-06-01 Intelligent CCTV And Surveillance System Using It

Country Status (1)

Country Link
KR (1) KR102555845B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102588080B1 (en) 2023-04-07 2023-10-12 주식회사 와치캠 Cctv image analysis method and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179991A (en) * 2013-03-14 2014-09-25 Samsung Electronics Co Ltd Video data processing method and electronic device supporting the same
KR20170080116A (en) * 2015-12-31 2017-07-10 동의대학교 산학협력단 Face Recognition System using Depth Information
KR101808587B1 (en) * 2017-08-03 2017-12-13 주식회사 두원전자통신 Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors
KR20190079925A (en) * 2017-12-28 2019-07-08 군산대학교산학협력단 Surveillance camera for vehicle number recognition and vehicle mounting the surveillance camera
KR102251777B1 (en) * 2020-09-11 2021-05-13 주식회사 세연테크 Intelligent image surveillance apparatus supporting proxy function and driving method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179991A (en) * 2013-03-14 2014-09-25 Samsung Electronics Co Ltd Video data processing method and electronic device supporting the same
KR20170080116A (en) * 2015-12-31 2017-07-10 동의대학교 산학협력단 Face Recognition System using Depth Information
KR101808587B1 (en) * 2017-08-03 2017-12-13 주식회사 두원전자통신 Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors
KR20190079925A (en) * 2017-12-28 2019-07-08 군산대학교산학협력단 Surveillance camera for vehicle number recognition and vehicle mounting the surveillance camera
KR102251777B1 (en) * 2020-09-11 2021-05-13 주식회사 세연테크 Intelligent image surveillance apparatus supporting proxy function and driving method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102588080B1 (en) 2023-04-07 2023-10-12 주식회사 와치캠 Cctv image analysis method and system

Also Published As

Publication number Publication date
KR102555845B1 (en) 2023-07-17

Similar Documents

Publication Publication Date Title
US10599958B2 (en) Method and system for classifying an object-of-interest using an artificial neural network
US20220343665A1 (en) Systems and methods for machine learning-based site-specific threat modeling and threat detection
US11222239B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN105389562B (en) A kind of double optimization method of the monitor video pedestrian weight recognition result of space-time restriction
WO2018148628A1 (en) Detection of risky objects in image frames
CN104919794A (en) Method and system for metadata extraction from master-slave cameras tracking system
JP2018207222A (en) Camera and parameter registration method
CN111428572B (en) Information processing method, device, electronic equipment and medium
KR20190093799A (en) Real-time missing person recognition system using cctv and method thereof
JP2018205900A (en) Monitoring system and monitoring method
KR102555845B1 (en) Intelligent CCTV And Surveillance System Using It
Vivek Anand et al. Image validation with virtualization in blockchain based internet of things
Shivthare et al. Suspicious activity detection network for video surveillance using machine learning
Song et al. A low false negative filter for detecting rare bird species from short video segments using a probable observation data set-based EKF method
KR102343348B1 (en) Method of acquiring infrared image data, apparatus for acquiring infrared image data, and computer program for the method
Mittal et al. Gender and age based census system for metropolitan cities
KR20240028530A (en) System and method for audio tagging of objects of interest
Zennayi et al. Unauthorized access detection system to the equipments in a room based on the persons identification by face recognition
Yasmeen et al. Suspicious Activity Detection Using CCTV Surveillance Video
Veena et al. Face mask and helmet facial detection for atm security using image processing in cloud computing
KR102641534B1 (en) Cloud-edge integrated platform system
Upadhyay et al. Face Mask Detection Using Convolutional Neural Network (CNN)
Jayamohan et al. Review of Video Analytics Method for Video Surveillance
Daga et al. Applications of Human Activity Recognition in Different Fields: A Review
Jenifa et al. Visitor/intruder monitoring system using machine learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant