KR102588729B1 - Hybrid ai image analysis system - Google Patents

Hybrid ai image analysis system Download PDF

Info

Publication number
KR102588729B1
KR102588729B1 KR1020220181858A KR20220181858A KR102588729B1 KR 102588729 B1 KR102588729 B1 KR 102588729B1 KR 1020220181858 A KR1020220181858 A KR 1020220181858A KR 20220181858 A KR20220181858 A KR 20220181858A KR 102588729 B1 KR102588729 B1 KR 102588729B1
Authority
KR
South Korea
Prior art keywords
image
camera unit
unit
artificial intelligence
meta information
Prior art date
Application number
KR1020220181858A
Other languages
Korean (ko)
Inventor
정재호
Original Assignee
주식회사 루트브이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 루트브이 filed Critical 주식회사 루트브이
Priority to KR1020220181858A priority Critical patent/KR102588729B1/en
Application granted granted Critical
Publication of KR102588729B1 publication Critical patent/KR102588729B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a hybrid artificial intelligence image analysis system, and more specifically, to an image analysis system, which includes a general camera unit, an edge device camera unit, a media distribution unit, a background processing unit, and an image processing unit. It is possible to process artificial intelligence image analysis by combining a server type and an edge type.

Description

하이브리드 인공지능 영상분석 시스템{HYBRID AI IMAGE ANALYSIS SYSTEM}Hybrid artificial intelligence image analysis system {HYBRID AI IMAGE ANALYSIS SYSTEM}

본 발명은 하이브리드 영상분석 시스템에 관한 것으로서, 보다 구체적으로는 엣지 타입과 서버 타입을 결합한 하이브리드 인공지능 영상분석 시스템에 관한 것이다.The present invention relates to a hybrid video analysis system, and more specifically, to a hybrid artificial intelligence video analysis system combining edge type and server type.

종래의 영상 감시 시스템은 각 주요 설비 구역에 설치된 CCTV 카메라를 사용해 서버에 실시간 영상데이터를 저장하고, 실시간 영상 화면을 디스플레이 하거나 녹화 재생을 표시하여, 다수의 화면을 종합 상황실 관제사의 경험 및 지속적 운영을 통해서 관리하는 시스템이었다. 최근에는 인공지능 기술이 크게 발달하면서, 영상 감시 분야에서도 인공지능 또는 딥러닝 기술의 적용이 시도되고 있다.Conventional video surveillance systems use CCTV cameras installed in each major facility area to store real-time video data on a server and display real-time video screens or record playback to provide the experience and continuous operation of multiple screens to the control room controller. It was a system managed through. Recently, with the significant development of artificial intelligence technology, attempts are being made to apply artificial intelligence or deep learning technology in the field of video surveillance.

인공지능 영상분석 시스템은 영상을 분석하여 이벤트를 탐지하는 지점에 따라서 서버 타입과 엣지 타입으로 구분할 수 있다. 먼저, 엣지 타입은 카메라에서 영상을 분석하는 방법으로 영상을 전송하기 위해 압축하는 과정에서 발생하는 신호의 왜곡 없이 영상을 분석할 수 있고 응답속도가 빠른 장점을 갖고 있다. 엣지 타입의 인공지능 영상분석은 관련 IoT 장비와의 안정적인 연동을 통해 신뢰성 있고 의미 있는 정보를 생성하지만, 기 설치된 장비와의 연동과 그에 따른 애로사항이 발생하여 경제성이 떨어지는 단점이 있다. 특히, 엣지 디바이스로 카메라를 교체해야 하므로 비용이 많이 들고, 임베디드 연산속도가 제한적이기 때문에 복잡도가 높은 영상분석 기법을 적용할 수 없고 추후 기능 업그레이드에 제한적인 단점이 있다. 인공지능 영상분석 시스템을 도입하고자 할 경우, 엣지 타입을 도입하려면 기존에 설치되어 있는 카메라를 모두 교체해야 하므로 비용이 많이 들고, 교체 중에는 영상 감시에 공백이 발생할 수 있으므로 교체 시기 등을 고려해야 한다.Artificial intelligence video analysis systems can be divided into server type and edge type depending on the point at which events are detected by analyzing video. First, the edge type is a method of analyzing video from a camera and has the advantage of being able to analyze video without distortion of the signal that occurs during the process of compressing the video for transmission and has a fast response speed. Edge-type artificial intelligence video analysis generates reliable and meaningful information through stable linkage with related IoT equipment, but has the disadvantage of being economically unfeasible due to linkage with already installed equipment and the resulting difficulties. In particular, it is expensive because the camera must be replaced with an edge device, and because the embedded operation speed is limited, complex video analysis techniques cannot be applied, and future function upgrades are limited. If you want to introduce an artificial intelligence video analysis system, introducing the edge type requires replacing all existing cameras, which is expensive, and gaps in video surveillance may occur during replacement, so the timing of replacement must be considered.

이에 반해, 서버 타입은 카메라로부터 영상을 전송받아서 지능형 영상분석을 수행하는 집중형 구조로써, 카메라에 대한 의존성이 없으므로 기존 카메라에 적용하기 용이하다. 그러나 대규모 채널 지원을 위해서는 고가의 GPU를 탑재해야 하므로 구축에 비용이 많이 들고, 처리할 수 있는 카메라 댓수가 제한적이기 때문에 확장성에 문제가 있다. 또한, 최근 서버 타입의 문제점인 높은 네트워크 대역폭 사용률, 서버당 처리할 수 있는 채널 수 문제도 있다. 따라서 인공지능 영상분석 시스템을 도입하고자 할 경우, 서버 타입을 도입하려면 다채널 CCTV를 동시에 또는 별도로 처리하는 대용량 물리적인 통합관제 시스템이 있어야 하므로, 서버의 부담을 가중해 성능의 한계를 가져올 수 있고, 네트워크를 많이 사용함에 따른 비용을 고려해야 한다.On the other hand, the server type is a centralized structure that receives images from cameras and performs intelligent image analysis. Since there is no dependency on cameras, it is easy to apply to existing cameras. However, in order to support large-scale channels, expensive GPUs must be installed, making it expensive to build, and there are problems with scalability because the number of cameras that can be processed is limited. In addition, there are problems with recent server types such as high network bandwidth usage and the number of channels that can be processed per server. Therefore, when trying to introduce an artificial intelligence video analysis system, introducing a server type requires a large-capacity physical integrated control system that processes multi-channel CCTV simultaneously or separately, which may increase the burden on the server and limit performance. The cost of using a lot of the network must be considered.

전술한 배경 기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지 기술이라 할 수는 없다.The above-mentioned background technology is technical information that the inventor possessed for deriving the present invention or acquired in the process of deriving the present invention, and cannot necessarily be said to be known technology disclosed to the general public before filing the application for the present invention.

한편, 본 발명과 관련된 선행기술로, 등록특허 제10-2058452호(발명의 명칭: IoT 융합 지능형 영상분석 플랫폼 시스템, 등록일자: 2019년 12월 17일) 등이 개시된 바 있다.Meanwhile, as prior art related to the present invention, Patent Registration No. 10-2058452 (title of the invention: IoT convergence intelligent video analysis platform system, registration date: December 17, 2019) has been disclosed.

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 영상 처리부가 일반 카메라부에서 촬영된 제1 영상으로부터 인공지능 영상분석을 처리해 제1 메타정보를 추정하는 딥러닝 모듈을 포함하고, 인공지능 모델을 내장하여 촬영되는 제2 영상으로부터 실시간으로 제2 메타정보를 추정하는 엣지 디바이스 카메라부로부터 데이터를 전달받아 처리함으로써, 인공지능 영상분석에 있어서 서버 타입과 엣지 타입을 결합해 처리할 수 있는, 하이브리드 인공지능 영상분석 시스템을 제공하는 것을 그 목적으로 한다.The present invention was proposed to solve the above problems of previously proposed methods, and is a deep learning module in which an image processing unit estimates the first meta information by processing artificial intelligence image analysis from the first image captured by a general camera unit. Combining the server type and edge type in artificial intelligence video analysis by receiving and processing data from the edge device camera unit, which includes an artificial intelligence model and estimates the second meta information in real time from the captured second image. The purpose is to provide a hybrid artificial intelligence image analysis system that can process

또한, 본 발명은, 영상 처리부에서 인공지능 영상분석을 처리하는 일반 카메라부와 엣지 타입으로 인공지능 영상분석을 처리하는 엣지 디바이스 카메라부를 결합함으로써, 일반 카메라부를 전부 교체할 필요 없이 설치된 기존의 하드웨어 자원을 활용하면서 엣지 디바이스 카메라부를 일부 설치하는 것으로 인공지능 영상분석 시스템을 도입할 수 있고, 인공지능 연산을 엣지 디바이스 카메라부와 영상 처리부가 분산해 처리함으로써, 엣지 타입의 빠른 반응 및 서버의 부담 최소화의 장점과, 서버 타입의 대용량처리의 장점을 결합해 그 효과를 극대화할 수 있는, 하이브리드 인공지능 영상분석 시스템을 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention combines a general camera unit that processes artificial intelligence image analysis in the image processing unit with an edge device camera unit that processes artificial intelligence image analysis as an edge type, so that existing hardware resources can be used without the need to replace all of the general camera unit. An artificial intelligence video analysis system can be introduced by installing a portion of the edge device camera unit while utilizing the edge device camera unit and the image processing unit to distribute and process the artificial intelligence calculations, enabling quick edge-type response and minimizing the burden on the server. Another purpose is to provide a hybrid artificial intelligence video analysis system that can maximize the effect by combining the advantages of server-type large-capacity processing.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 하이브리드 인공지능 영상분석 시스템은,A hybrid artificial intelligence image analysis system according to the characteristics of the present invention to achieve the above purpose,

영상분석 시스템으로서,As a video analysis system,

제1 영상을 촬영하는 일반 카메라부;A general camera unit that captures a first image;

제2 영상을 촬영하되, 인공지능 모델을 내장하여 상기 제2 영상으로부터 실시간으로 제2 메타정보를 추정하는 엣지 디바이스 카메라부;An edge device camera unit that captures a second image and uses an artificial intelligence model to estimate second meta information in real time from the second image;

상기 일반 카메라부 및 상기 엣지 디바이스 카메라부로부터 상기 제1 영상, 제2 영상 및 제2 메타정보를 수신하여 전달하는 미디어 분배부(Media Distributer);A media distributor that receives and transmits the first image, second image, and second meta information from the general camera unit and the edge device camera unit;

상기 미디어 분배부에서 전달받은 상기 제2 메타정보를 데이터베이스부에 저장하는 백그라운드 처리부; 및a background processing unit that stores the second meta information received from the media distribution unit in a database unit; and

상기 미디어 분배부에서 전달받은 상기 제1 영상 및 제2 영상을 디코딩하고 출력 가능한 형태로 처리하는 영상 처리부를 포함하며,An image processing unit that decodes the first video and the second video received from the media distribution unit and processes them into an outputable format,

상기 영상 처리부는,The image processing unit,

프로세서에 내장된 GPU를 사용해 연산하는 딥러닝 모델을 이용해, 상기 일반 카메라부에서 촬영된 제1 영상으로부터 제1 메타정보를 추정하고, 상기 제1 메타정보를 상기 데이터베이스부에 저장하는 딥러닝 모듈을 포함하여,A deep learning module that estimates first meta information from the first image captured by the general camera unit using a deep learning model calculated using the GPU built into the processor and stores the first meta information in the database unit. including,

상기 영상 처리부에서 인공지능 영상분석을 처리하는 상기 일반 카메라부와 엣지 타입으로 인공지능 영상분석을 처리하는 상기 엣지 디바이스 카메라부를 결합한 것을 그 구성상의 특징으로 한다.Its structural feature is that the image processing unit combines the general camera unit that processes artificial intelligence image analysis with the edge device camera unit that processes artificial intelligence image analysis in an edge type.

바람직하게는, 상기 제1 메타정보 및 제2 메타정보는,Preferably, the first meta information and the second meta information are:

상기 제1 영상 및 제2 영상에서 각각 추출된 객체 이미지 및 분석정보를 포함할 수 있다.It may include object images and analysis information extracted from the first image and the second image, respectively.

바람직하게는, 상기 엣지 디바이스 카메라부는,Preferably, the edge device camera unit,

상기 제2 영상 및 제2 메타정보를 전송하는 영상전송 모드와, 상기 제2 영상은 제외하고 상기 제2 메타정보만 전송하는 특징전송 모드에 따라, 상기 미디어 분배부에 데이터를 전송할 수 있다.Data can be transmitted to the media distribution unit according to a video transmission mode that transmits the second video and second meta information and a feature transmission mode that transmits only the second meta information and excludes the second video.

더욱 바람직하게는, 상기 엣지 디바이스 카메라부는,More preferably, the edge device camera unit,

상기 영상 처리부로부터 수신한 제어 신호에 따라 상기 영상전송 모드와 특징전송 모드를 제어할 수 있다.The image transmission mode and feature transmission mode can be controlled according to the control signal received from the image processing unit.

더더욱 바람직하게는, 상기 영상 처리부는,Even more preferably, the image processing unit,

이벤트가 탐지되면, 상기 엣지 디바이스 카메라부에 상기 영상전송 모드로 변경하는 제어 신호를 전송할 수 있다.When an event is detected, a control signal to change to the video transmission mode can be transmitted to the edge device camera unit.

바람직하게는, 상기 딥러닝 모듈은,Preferably, the deep learning module,

openVINO 기반으로 상기 제1 영상으로부터 상기 제1 메타정보를 추출할 수 있다.The first meta information can be extracted from the first image based on openVINO.

바람직하게는,Preferably,

상기 영상 처리부에서 처리되는 인공지능 영상분석은 상기 엣지 디바이스 카메라부에서 처리되는 인공지능 영상분석보다 복잡도가 높아 더 큰 연산력을 요구할 수 있다.Artificial intelligence image analysis processed in the image processing unit is more complex than artificial intelligence image analysis processed in the edge device camera unit and may require greater computing power.

본 발명에서 제안하고 있는 하이브리드 인공지능 영상분석 시스템에 따르면, 영상 처리부가 일반 카메라부에서 촬영된 제1 영상으로부터 인공지능 영상분석을 처리해 제1 메타정보를 추정하는 딥러닝 모듈을 포함하고, 인공지능 모델을 내장하여 촬영되는 제2 영상으로부터 실시간으로 제2 메타정보를 추정하는 엣지 디바이스 카메라부로부터 데이터를 전달받아 처리함으로써, 인공지능 영상분석에 있어서 서버 타입과 엣지 타입을 결합해 처리할 수 있다.According to the hybrid artificial intelligence image analysis system proposed in the present invention, the image processing unit includes a deep learning module that processes artificial intelligence image analysis from the first image captured by a general camera unit to estimate first meta information, and artificial intelligence By receiving and processing data from the edge device camera unit, which estimates the second meta information in real time from the second image captured with a built-in model, the server type and edge type can be combined and processed in artificial intelligence image analysis.

또한, 본 발명에서 제안하고 있는 하이브리드 인공지능 영상분석 시스템에 따르면, 영상 처리부에서 인공지능 영상분석을 처리하는 일반 카메라부와 엣지 타입으로 인공지능 영상분석을 처리하는 엣지 디바이스 카메라부를 결합함으로써, 일반 카메라부를 전부 교체할 필요 없이 설치된 기존의 하드웨어 자원을 활용하면서 엣지 디바이스 카메라부를 일부 설치하는 것으로 인공지능 영상분석 시스템을 도입할 수 있고, 인공지능 연산을 엣지 디바이스 카메라부와 영상 처리부가 분산해 처리함으로써, 엣지 타입의 빠른 반응 및 서버의 부담 최소화의 장점과, 서버 타입의 대용량처리의 장점을 결합해 그 효과를 극대화할 수 있다.In addition, according to the hybrid artificial intelligence video analysis system proposed in the present invention, by combining a general camera unit that processes artificial intelligence video analysis in the image processing unit and an edge device camera unit that processes artificial intelligence video analysis as an edge type, a general camera An artificial intelligence video analysis system can be introduced by installing a portion of the edge device camera unit while utilizing existing hardware resources without the need to replace the entire unit. By distributing and processing the artificial intelligence calculations between the edge device camera unit and the image processing unit, The effect can be maximized by combining the advantages of the edge type's quick response and minimal server load with the advantages of the server type's high-capacity processing.

도 1은 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템의 구성을 도시한 도면.
도 2는 일반적인 영상분석 시스템에서 일반 카메라부와 엣지 디바이스 카메라부를 사용하는 경우를 도시한 도면.
도 3은 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템에서 일반 카메라부와 엣지 디바이스 카메라부를 사용하는 경우를 도시한 도면.
도 4는 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템에서, 딥러닝 모듈의 세부적인 구성을 도시한 도면.
도 5는 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템을 이용한 주차장 관리 시스템을 예를 들어 도시한 도면.
도 6은 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템을 이용한 침입자 감지 시스템을 예를 들어 도시한 도면.
도 7은 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템을 이용한 얼굴 검색 시스템을 예를 들어 도시한 도면.
1 is a diagram showing the configuration of a hybrid artificial intelligence image analysis system according to an embodiment of the present invention.
Figure 2 is a diagram showing a case where a general camera unit and an edge device camera unit are used in a general video analysis system.
Figure 3 is a diagram showing a case of using a general camera unit and an edge device camera unit in a hybrid artificial intelligence video analysis system according to an embodiment of the present invention.
Figure 4 is a diagram showing the detailed configuration of a deep learning module in a hybrid artificial intelligence image analysis system according to an embodiment of the present invention.
Figure 5 is a diagram showing an example of a parking lot management system using a hybrid artificial intelligence image analysis system according to an embodiment of the present invention.
Figure 6 is a diagram illustrating an intruder detection system using a hybrid artificial intelligence image analysis system according to an embodiment of the present invention as an example.
Figure 7 is a diagram showing an example of a face search system using a hybrid artificial intelligence image analysis system according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, with reference to the attached drawings, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention. However, when describing preferred embodiments of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the same symbols are used throughout the drawings for parts that perform similar functions and actions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.Additionally, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case when it is 'directly connected', but also when it is 'indirectly connected' with another element in between. Includes. Additionally, ‘including’ a certain component does not mean excluding other components, but rather including other components, unless specifically stated to the contrary.

도 1은 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템의 구성을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템은, 일반 카메라부(100), 엣지 디바이스 카메라부(200), 미디어 분배부(300), 백그라운드 처리부(400) 및 영상 처리부(500)를 포함하여 구성될 수 있으며, 로컬 이미지 저장부(600) 및 데이터베이스부(700)를 더 포함하여 구성될 수 있다.Figure 1 is a diagram showing the configuration of a hybrid artificial intelligence image analysis system according to an embodiment of the present invention. As shown in Figure 1, the hybrid artificial intelligence image analysis system according to an embodiment of the present invention includes a general camera unit 100, an edge device camera unit 200, a media distribution unit 300, and a background processing unit 400. ) and an image processing unit 500, and may further include a local image storage unit 600 and a database unit 700.

본 발명은 영상 처리부(500)가 일반 카메라부(100)에서 촬영된 제1 영상으로부터 인공지능 영상분석을 처리해 제1 메타정보를 추정하는 딥러닝 모듈(510)을 포함하고, 인공지능 모델을 내장하여 촬영되는 제2 영상으로부터 실시간으로 제2 메타정보를 추정하는 엣지 디바이스 카메라부(200)로부터 데이터를 전달받아 처리함으로써, 인공지능 영상분석에 있어서 서버 타입과 엣지 타입을 결합해 처리할 수 있다. 즉, 엣지형 카메라와 서버형 영상분석을 동시 적용하여, 엣지 타입으로 영상분석 시스템을 도입할 때의 예산 부담과, 서버 타입으로 영상분석 시스템을 도입할 때의 서버 부하를 줄이고, 엣지 타입의 빠른 반응 및 서버의 부담 최소화의 장점과, 서버 타입의 대용량처리의 장점을 결합하여 딥러닝 기능을 집중하도록 할 수 있다.The present invention includes a deep learning module 510 in which the image processing unit 500 estimates first meta information by processing artificial intelligence image analysis from the first image captured by the general camera unit 100, and has a built-in artificial intelligence model. By receiving and processing data from the edge device camera unit 200, which estimates the second meta information in real time from the captured second image, the server type and edge type can be combined and processed in artificial intelligence image analysis. In other words, by applying edge-type cameras and server-type video analysis simultaneously, the budget burden when introducing an edge-type video analysis system and the server load when introducing a server-type video analysis system are reduced, and the edge-type fast By combining the advantages of minimizing response and server burden with the advantages of server-type large-capacity processing, deep learning functions can be focused.

도 1을 참조하여 일반 카메라부(100)와 엣지 디바이스 카메라부(200)에서 촬영되는 영상의 인공지능 영상분석 처리 과정을 살펴보도록 한다. 먼저, 일반 카메라부(100)에서 촬영되는 제1 영상의 인공지능 영상분석 처리 과정을 살펴보면, ① 미디어 분배부(300)가 일반 카메라부(100)에서 RTSP 스트리밍을 받아, ② 영상 처리부(500)로 전송한다. ③ 영상 처리부(500)의 제1 디코더 모듈(520)가 전송받은 제1 영상을 디코딩한 뒤 딥러닝 모듈(DL Module)(510)에 전달한다. ④ 딥러닝 모듈(510)에서 생성된 제1 메타정보 중 객체 이미지를 로컬 이미지 저장부(600)에 저장하고, ⑤ 제1 메타정보 중 객체 분석정보를 데이터베이스부(700)에 저장한다. ⑥ 디코딩된 이미지는 렌더 모듈(540)를 통해 화면에 그려준다.With reference to FIG. 1, let us look at the artificial intelligence image analysis processing process of images captured by the general camera unit 100 and the edge device camera unit 200. First, looking at the artificial intelligence video analysis processing process of the first video captured by the general camera unit 100, ① the media distribution unit 300 receives RTSP streaming from the general camera unit 100, and ② the image processing unit 500 send to ③ The first decoder module 520 of the image processing unit 500 decodes the received first image and transmits it to the deep learning module (DL Module) 510. ④ The object image among the first meta information generated by the deep learning module 510 is stored in the local image storage unit 600, and ⑤ the object analysis information among the first meta information is stored in the database unit 700. ⑥ The decoded image is drawn on the screen through the render module 540.

다음으로, 엣지 디바이스 카메라부(200)에서 촬영되는 제2 영상과 제2 영상으로부터 실시간으로 추정된 제2 메타정보의 데이터 처리 과정을 살펴보면, ⓐ 미디어 분배부(300)가 엣지 디바이스 카메라부(200)에서 제2 영상 및 제2 메타정보를 RTSP 스트리밍을 받는다. ⓑ 미디어 분배부(300)는 스트리밍 받은 데이터에서 제2 메타정보를 추출하여 백그라운드 처리부(400)로 전송한다. ⓒ 백그라운드 처리부(400)는 제2 메타정보에 포함된 객체 이미지를 다운로드하여 로컬 이미지 저장부(600)에 저장하고, ⓓ 제2 메타정보에 포함된 객체 분석정보는 데이터베이스부(700)에 저장한다. ⓔ 미디어 분배부(300)가 AI 카메라 스트리밍을 받아 영상 처리부(500)로 전송한다. ⓕ 영상 처리부(500)의 제2 디코더 모듈(530)에서 디코딩된 이미지는 렌더 모듈(540)를 통해 화면에 그려준다.Next, looking at the data processing process of the second image captured by the edge device camera unit 200 and the second meta information estimated in real time from the second image, ⓐ the media distribution unit 300 ) receives RTSP streaming of the second video and second meta information. ⓑ The media distribution unit 300 extracts the second meta information from the streamed data and transmits it to the background processing unit 400. ⓒ The background processing unit 400 downloads the object image included in the second meta information and stores it in the local image storage unit 600, and ⓓ stores the object analysis information included in the second meta information in the database unit 700. . ⓔ The media distribution unit 300 receives AI camera streaming and transmits it to the video processing unit 500. ⓕ The image decoded in the second decoder module 530 of the image processing unit 500 is drawn on the screen through the render module 540.

도 2는 일반적인 영상분석 시스템에서 일반 카메라부(100)와 엣지 디바이스 카메라부(200)를 사용하는 경우를 도시한 도면이다. 도 2에 도시된 바와 같이, 일반적인 영상분석 시스템에 엣지 디바이스 카메라부(200) 12대와 일반 카메라부(100) 4대를 모두 연결하게 되면, 엣지 디바이스 카메라부(200) 12대만 인공지능 카메라로 사용할 수 있다.FIG. 2 is a diagram illustrating a case where a general camera unit 100 and an edge device camera unit 200 are used in a general video analysis system. As shown in Figure 2, when all 12 edge device camera units 200 and 4 general camera units 100 are connected to a general video analysis system, only 12 edge device camera units 200 are used as artificial intelligence cameras. You can use it.

도 3은 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템에서 일반 카메라부(100)와 엣지 디바이스 카메라부(200)를 사용하는 경우를 도시한 도면이다. 도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템에서는, 엣지 디바이스 카메라부(200) 12대와 일반 카메라부(100) 4대를 모두 연결했을 때, 일반 카메라부(100) 4대에서 촬영되는 영상은 딥러닝 모듈(510)을 통해 인공지능 영상분석을 처리할 수 있으므로, 16대 모두 인공지능 카메라로 사용할 수 있다.FIG. 3 is a diagram illustrating a case where a general camera unit 100 and an edge device camera unit 200 are used in a hybrid artificial intelligence video analysis system according to an embodiment of the present invention. As shown in Figure 3, in the hybrid artificial intelligence video analysis system according to an embodiment of the present invention, when all 12 edge device camera units 200 and 4 general camera units 100 are connected, the general camera Since the images captured by the four subunits 100 can be processed through artificial intelligence image analysis through the deep learning module 510, all 16 units can be used as artificial intelligence cameras.

본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템은, 16채널로 구현될 수 있다. 예를 들어, 도 3에 도시된 바와 같이 엣지 디바이스 카메라부(200) 12채널과 일반 카메라부(100) 4채널을 결합하여 16채널을 구성할 수 있다. 이때, 영상 처리부(500)의 딥러닝 모듈(510)은, 인텔 프로세서에 내장된 GPU를 사용해 OpenVINO를 기반으로 연산하는 딥러닝 모델을 이용할 수 있는데, 인텔 i7 프로세서를 기준으로 openVINO의 YOLOv4 -tiny fp32 알고리즘 적용 시, 76fps의 성능을 가지므로 4채널의 일반 카메라부(100) 영상을 처리할 수 있다.The hybrid artificial intelligence image analysis system according to an embodiment of the present invention can be implemented with 16 channels. For example, as shown in FIG. 3, 16 channels can be configured by combining 12 channels of the edge device camera unit 200 and 4 channels of the general camera unit 100. At this time, the deep learning module 510 of the image processing unit 500 can use a deep learning model calculated based on OpenVINO using the GPU built into the Intel processor. Based on the Intel i7 processor, openVINO's YOLOv4 -tiny fp32 When applying the algorithm, it has a performance of 76fps, so it can process 4 channels of video from the general camera unit 100.

이하에서는, 도 1 내지 도 3을 참조하여 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템의 각 구성에 대해 상세히 설명하도록 한다.Hereinafter, each configuration of the hybrid artificial intelligence image analysis system according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 3.

일반 카메라부(100)는, 제1 영상을 촬영할 수 있다. 여기서, 일반 카메라부(100)는 기존에 설치된 CCTV, IP카메라 등으로, 엣지 타입의 인공지능 영상 처리를 할 수 있는 엣지 디바이스 카메라부(200)와 대비되어, 인공지능 영상 처리를 할 수 없는 카메라를 의미할 수 있다. 특히, 이미 설치된 카메라는, 인공지능 연산을 할 수 있는 GPU를 갖고 있지 않거나, 추가 탑재할 수 없는 경우도 많으므로, 연산용 GPU 없이 일반 카메라부(100)를 그대로 활용할 수 있다. 일반 카메라부(100)에서 촬영되는 제1 영상은 카메라 특성에 따라 흑백, 컬러, 적외선, 3D 영상 등 다양할 수 있다.The general camera unit 100 can capture the first image. Here, the general camera unit 100 is a camera that cannot perform artificial intelligence image processing, in contrast to the edge device camera unit 200, which is a previously installed CCTV, IP camera, etc., capable of edge-type artificial intelligence image processing. It can mean. In particular, cameras that are already installed often do not have a GPU capable of performing artificial intelligence calculations or cannot be additionally installed, so the general camera unit 100 can be used as is without a GPU for calculation. The first image captured by the general camera unit 100 may vary depending on camera characteristics, such as black and white, color, infrared, and 3D images.

엣지 디바이스 카메라부(200)는, 제2 영상을 촬영하되, 인공지능 모델을 내장하여 제2 영상으로부터 실시간으로 제2 메타정보를 추정할 수 있다. 도 1에 도시된 바와 같이, 엣지 디바이스 카메라부(200)는, 인공지능 모델을 내장한 카메라인 AI-카메라, 임베디드 박스에서 영상을 분석하는 AI-BOX, 차량 번호판 인식 카메라(LPR-Camera, License Plate Recognition Camera) 등으로 구현될 수 있다.The edge device camera unit 200 can capture the second image and estimate the second meta information in real time from the second image by embedding an artificial intelligence model. As shown in FIG. 1, the edge device camera unit 200 includes an AI-camera, which is a camera with a built-in artificial intelligence model, an AI-BOX that analyzes images in an embedded box, and a license plate recognition camera (LPR-Camera, License). It can be implemented with a Plate Recognition Camera, etc.

여기서, 제2 메타정보는, 제2 영상에서 각각 추출된 객체 이미지 및 분석정보를 포함할 수 있다. 예를 들어, 엣지 디바이스 카메라부(200)는, 제2 영상을 실시간 분석해 객체를 탐지하고, 탐지된 객체 부분을 자른 크롭 영상(객체 이미지)과 탐지된 객체를 분류한 분석정보를 생산할 수 있다. 이러한 객체 이미지와 분석정보를 제2 메타정보로 구성할 수 있다.Here, the second meta information may include object images and analysis information each extracted from the second image. For example, the edge device camera unit 200 can detect an object by analyzing the second image in real time, and produce a cropped image (object image) of the detected object portion and analysis information that classifies the detected object. These object images and analysis information can be configured as second meta information.

미디어 분배부(300)는, 일반 카메라부(100) 및 엣지 디바이스 카메라부(200)로부터 제1 영상, 제2 영상 및 제2 메타정보를 수신하여 전달할 수 있다. 보다 구체적으로, 미디어 분배부(300)는, RTSP 프로토콜로 일반 카메라부(100)에서 제1 영상을 수신해 영상 처리부(500)의 제1 디코더 모듈(520)에 전달하는 제1 RTSP 클라이언트(310); 및 RTSP 프로토콜로 엣지 디바이스 카메라부(200)에서 제2 영상을 수신해 영상 처리부(500)의 제2 디코더 모듈(530)에 전달하고, 제2 메타정보를 파싱하여 백그라운드 처리부(400)에 전달하는 파서를 포함하여 구성되는 제2 RTSP 클라이언트(320)를 포함할 수 있다. 즉, 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템은, 일반 카메라부(100)의 제1 영상 스트리밍뿐만 아니라, 제2 영상과 제2 메타정보를 포함하여 구성되는 엣지 디바이스 카메라부(200)의 스트리밍 정보를 수신해 처리할 수 있는 미디어 분배부(300)를 포함함으로써, 일반 카메라부(100)와 엣지 디바이스 카메라부(200)를 효과적으로 결합한 하이브리드 시스템을 구현할 수 있다.The media distribution unit 300 may receive and transmit the first image, the second image, and the second meta information from the general camera unit 100 and the edge device camera unit 200. More specifically, the media distribution unit 300 receives the first image from the general camera unit 100 using the RTSP protocol and transmits it to the first decoder module 520 of the image processing unit 500. ); And receiving the second image from the edge device camera unit 200 using the RTSP protocol and delivering it to the second decoder module 530 of the image processing unit 500, parsing the second meta information and delivering it to the background processing unit 400. It may include a second RTSP client 320 that includes a parser. That is, the hybrid artificial intelligence image analysis system according to an embodiment of the present invention includes not only the first image streaming of the general camera unit 100, but also an edge device camera unit (which includes a second image and second meta information). By including a media distribution unit 300 that can receive and process streaming information from 200, a hybrid system that effectively combines the general camera unit 100 and the edge device camera unit 200 can be implemented.

백그라운드 처리부(400)는, 미디어 분배부(300)에서 전달받은 제2 메타정보를 데이터베이스부(700)에 저장할 수 있다. 즉, 백그라운드 처리부(400)는, 제2 메타정보(객체 이미지와 분석정보를 포함함)를 전달받고, 객체 이미지는 로컬 이미지 저장부(600)에, 분석정보는 데이터베이스부(700)에 각각 저장할 수 있다.The background processing unit 400 may store the second meta information received from the media distribution unit 300 in the database unit 700. That is, the background processing unit 400 receives the second meta information (including the object image and analysis information), and stores the object image in the local image storage unit 600 and the analysis information in the database unit 700. You can.

영상 처리부(500)는, 미디어 분배부(300)에서 전달받은 제1 영상 및 제2 영상을 디코딩하고 출력 가능한 형태로 처리할 수 있다. 보다 구체적으로, 영상 처리부(500)는, 프로세서에 내장된 GPU를 사용해 연산하는 딥러닝 모델을 이용해, 일반 카메라부(100)에서 촬영된 제1 영상으로부터 제1 메타정보를 추정하고, 제1 메타정보를 데이터베이스부(700)에 저장하는 딥러닝 모듈(510)을 포함하며, 제1 디코더 모듈(520), 제2 디코더 모듈(530) 및 렌더 모듈(540)를 더 포함하여 구성될 수 있다. 여기서, 제1 메타정보는, 제1 영상에서 추출된 객체 이미지 및 분석정보를 포함할 수 있다.The image processing unit 500 may decode the first and second images received from the media distribution unit 300 and process them into an outputable format. More specifically, the image processing unit 500 estimates the first meta information from the first image captured by the general camera unit 100 using a deep learning model calculated using the GPU built into the processor, and It includes a deep learning module 510 that stores information in the database unit 700, and may further include a first decoder module 520, a second decoder module 530, and a render module 540. Here, the first meta information may include an object image and analysis information extracted from the first image.

즉, 영상 처리부(500)가 딥러닝 모듈(510)을 포함함으로써, 딥러닝 모듈(510)을 통해 서버 타입으로 인공지능 영상분석을 처리하는 일반 카메라부(100)와 엣지 타입으로 인공지능 영상분석을 처리하는 엣지 디바이스 카메라부(200)를 결합할 수 있다.That is, the image processing unit 500 includes a deep learning module 510, so that the general camera unit 100 processes artificial intelligence image analysis as a server type through the deep learning module 510 and artificial intelligence image analysis as an edge type. The edge device camera unit 200 that processes can be combined.

도 4는 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템에서, 딥러닝 모듈(510)의 세부적인 구성을 도시한 도면이다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템에서, 영상 처리부(500)의 딥러닝 모듈(510)은, 디코더 모듈(511), 검출 모듈(512) 및 센더 모듈(513)을 포함하여 구성될 수 있다. 이하에서는, 도 4를 참조하여 4채널 기준으로 객체 탐지를 수행하는 딥러닝 모듈(510)의 데이터 처리 흐름을 상세히 설명하도록 한다.Figure 4 is a diagram showing the detailed configuration of the deep learning module 510 in the hybrid artificial intelligence image analysis system according to an embodiment of the present invention. As shown in FIG. 4, in the hybrid artificial intelligence image analysis system according to an embodiment of the present invention, the deep learning module 510 of the image processing unit 500 includes a decoder module 511, a detection module 512, and It may be configured to include a sender module 513. Hereinafter, the data processing flow of the deep learning module 510 that performs object detection on a 4-channel basis will be described in detail with reference to FIG. 4.

먼저, ① 일반 카메라부(100)로부터 제1 영상의 프레임 이미지를 받은 디코더 모듈(511)의 디코더 스레드(Decoder Thread)에서 객체 탐지 수행을 위하여 이미지 큐에 프레임 이미지들을 저장할 수 있다. ② 검출 모듈(512)은 이미지 큐에서 프레임 이미지를 순차적으로 취득하여, ③ 취득한 프레임 이미지를 대상으로 OpenVINO 변환이 된 YOLOv4 딥러닝 모델을 통한 객체 탐지를 수행한 뒤 탐지된 객체에 대한 정보를 다시 이미지 큐에 저장한다. ④ 디코더 모듈(511)에서 객체 탐지 정보와 프레임 이미지를 순차적으로 취득하여, ⑤ 취득한 객체 탐지 정보를 바탕으로 추적(Object Tracking) 및 이벤트(Event) 처리를 수행한 후 결과값을 패킷으로 정리하여 TCP 큐에 저장한다. ⑥ 센더 모듈(513)은 TCP 큐에서 패킷 정보들을 순차적으로 취득하고, ⑦ 센더 모듈(513)에서 취득한 패킷 정보를 업데이트 DB에 전송하여 이벤트 DB 내용을 저장/갱신할 수 있다.First, ① the decoder thread of the decoder module 511 that receives the frame image of the first video from the general camera unit 100 may store the frame images in an image queue to perform object detection. ② The detection module 512 sequentially acquires frame images from the image queue, ③ performs object detection through the YOLOv4 deep learning model converted to OpenVINO for the acquired frame images, and then returns information about the detected objects to the image. Save to queue. ④ Obtain object detection information and frame images sequentially from the decoder module 511, ⑤ perform object tracking and event processing based on the acquired object detection information, then organize the results into packets and transmit them to TCP Save to queue. ⑥ The sender module 513 sequentially acquires packet information from the TCP queue, and ⑦ transmits the packet information acquired from the sender module 513 to the update DB to store/update the event DB contents.

한편, 딥러닝 모듈(510)은, OpenVINO 기반으로 제1 영상으로부터 제1 메타정보를 추출할 수 있다. OpenVINO는 Intel에서 딥러닝 추론에 최적화된 추론 엔진을 구축하기 위하여 제공하는 오픈소스 툴킷이다. OpenVINO는 인텔 프로세서에 내장된 GPU를 사용해 연산을 수행할 수 있도록 최적화 및 경량화된 추론 엔진을 사용할 수 있도록 한다. 따라서 외장 GPU를 추가로 탑재하지 않아도 되므로 경제적이고, 절대적으로 높은 점유율을 가진 인텔 프로세서에 최적화되어 있으므로 범용적으로 사용할 수 있다. 또한, 외장 GPU 없이 CPU만으로 동작하도록 경량화된 딥러닝 모델을 통해, 추론 속도나 성능면에서 우수한 결과를 얻을 수 있고, 다양한 모델들로 변환이 용이하다.Meanwhile, the deep learning module 510 can extract the first meta information from the first image based on OpenVINO. OpenVINO is an open source toolkit provided by Intel to build an inference engine optimized for deep learning inference. OpenVINO allows the use of an optimized and lightweight inference engine to perform calculations using the GPU built into Intel processors. Therefore, it is economical because it does not require an additional external GPU, and it can be used for general purposes because it is optimized for Intel processors, which have an absolutely high market share. In addition, through a deep learning model that has been lightweighted to operate only on the CPU without an external GPU, excellent results can be obtained in terms of inference speed and performance, and it is easy to convert to various models.

보다 구체적으로 OpenVINO를 활용하면, PyTorch, Tensorflow와 같은 기존 딥러닝에서 범용적으로 널리 사용되어 온 딥러닝 모델들을 손쉽게 활용할 수 있다. 또한, 일반적으로 성능이 우수한 모델들은 필연적으로 높은 메모리, 자원량을 요구하는데, 추론 엔진을 통한 최적화 및 경량화는 적은 메모리 및 자원량으로 우수한 성능을 얻을 수 있게 도와준다. 특히, OpenVINO는 최적화 및 경량화에 가장 큰 주안점을 두고 있는데, 이러한 경량화를 통해 본 발명에서는 기존의 일반 카메라부(100)를 이용해서 추론 기능을 구현할 수 있다.More specifically, by using OpenVINO, you can easily utilize deep learning models that have been widely used in existing deep learning, such as PyTorch and Tensorflow. In addition, models with excellent performance inevitably require high memory and resources, but optimization and lightweighting through inference engines help achieve excellent performance with small memory and resources. In particular, OpenVINO places the greatest emphasis on optimization and lightweighting, and through such lightweighting, the present invention can implement the inference function using the existing general camera unit 100.

한편, 엣지 디바이스 카메라부(200)는, 제2 영상 및 제2 메타정보를 전송하는 영상전송 모드와, 제2 영상은 제외하고 제2 메타정보만 전송하는 특징전송 모드에 따라, 미디어 분배부(300)에 데이터를 전송할 수 있다. 이때, 엣지 디바이스 카메라부(200)는, 영상 처리부(500)로부터 수신한 제어 신호에 따라 영상전송 모드와 특징전송 모드를 제어할 수 있다.Meanwhile, the edge device camera unit 200 includes a media distribution unit ( 300), data can be transmitted. At this time, the edge device camera unit 200 can control the image transmission mode and feature transmission mode according to the control signal received from the image processing unit 500.

특징전송 모드에서, 엣지 디바이스 카메라부(200)가 전송하는 제2 메타정보는 인공지능 모델에서 추출한 특징 데이터를 포함하며, 이벤트가 발생한 특정 영역의 영상 정보, 검출된 객체의 형태, 크기, 속도, 방향, 색상 등의 다양한 정보로 구성될 수 있다. 보다 구체적으로, 엣지 디바이스 카메라부(200)와 영상 처리부(500)의 딥러닝 모듈(510)의 영상분석 역할 담당에 따라, 특징전송 모드에서는 엣지 디바이스 카메라부(200)가 딥러닝 모듈(510)의 영상분석에 필요한 정보만을 전송해 데이터 통신량을 최소화할 수 있다. 예를 들어, 카운팅 기반의 이벤트 탐지를 영상 처리부(500)에서 수행하면, 검출된 객체의 위치, 방향, 크기 정보만을 필요로 하므로, 특징전송 모드에서는 객체의 영상, 색상 등의 불필요한 정보를 전송하지 않으며, 이를 통하여 전송되는 데이터의 양을 줄일 수 있다.In the feature transmission mode, the second meta information transmitted by the edge device camera unit 200 includes feature data extracted from the artificial intelligence model, image information of the specific area where the event occurred, the shape, size, speed, and shape of the detected object. It may consist of various information such as direction and color. More specifically, according to the image analysis role of the edge device camera unit 200 and the deep learning module 510 of the image processing unit 500, in the feature transmission mode, the edge device camera unit 200 uses the deep learning module 510. Data communication volume can be minimized by transmitting only the information necessary for video analysis. For example, when counting-based event detection is performed in the image processing unit 500, only the location, direction, and size information of the detected object is required, so unnecessary information such as the image and color of the object is not transmitted in the feature transmission mode. And through this, the amount of data transmitted can be reduced.

또한, 영상 처리부(500)는, 이벤트가 탐지되면, 엣지 디바이스 카메라부(200)에 영상전송 모드로 변경하는 제어 신호를 전송할 수 있다. 즉, 영상 처리부(500)에서 엣지 디바이스 카메라부(200)의 모드를 설정 제어하며, 카메라에서 전송된 특징 정보(제2 메타정보)를 사용하여 이벤트를 탐지하게 된다. 영상 처리부(500)에서 이벤트를 탐지하면, 해당 엣지 디바이스 카메라부(200)의 전송 모드를 영상전송 모드로 변경하며, 영상전송 모드에서 전송되는 제2 영상을 관리자는 이벤트에 대한 검증을 수행할 수 있다.Additionally, when an event is detected, the image processing unit 500 may transmit a control signal to change the image transmission mode to the edge device camera unit 200. That is, the image processing unit 500 sets and controls the mode of the edge device camera unit 200, and detects events using characteristic information (second meta information) transmitted from the camera. When the image processing unit 500 detects an event, the transmission mode of the edge device camera unit 200 is changed to the video transmission mode, and the manager can verify the event on the second video transmitted in the video transmission mode. there is.

영상 처리부(500)에서 처리되는 인공지능 영상분석은 엣지 디바이스 카메라부(200)에서 처리되는 인공지능 영상분석보다 복잡도가 높아 더 큰 연산력을 요구할 수 있다. 즉, 영상에서의 특징 추출과 이벤트 탐지 기능을 카메라와 서버로 분리함으로써 영상 처리부(500)의 딥러닝 영상분석 수용 능력을 높이고, 엣지 디바이스 카메라부(200)의 연산 능력 한계를 극복할 수 있다. 이와 같이 단순한 딥러닝 영상분석은 엣지 디바이스 카메라부(200)에서 처리하고 복잡도가 높은 영상분석은 서버 타입 영상 분석 시스템을 적용하여 장점만을 활용할 수 있다.Artificial intelligence image analysis processed in the image processing unit 500 is more complex than artificial intelligence image analysis processed in the edge device camera unit 200, and may require greater computing power. In other words, by separating the feature extraction and event detection functions from the image into the camera and the server, the deep learning video analysis capacity of the image processing unit 500 can be increased and the computing capacity limitations of the edge device camera unit 200 can be overcome. In this way, simple deep learning video analysis is processed by the edge device camera unit 200, and highly complex video analysis can utilize only the advantages by applying a server-type video analysis system.

도 5는 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템을 이용한 주차장 관리 시스템을 예를 들어 도시한 도면이다. 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템에서는, 엣지 디바이스 카메라부(200)에서 LPR 모델을 이용해 차량 번호판을 인식하는 인공지능 영상분석을 처리하고, 일반 카메라부(100)에서 촬영되는 제1 영상으로는 영상 처리부(500)의 딥러닝 모듈(510)을 통해 출입 차량을 카운트하는 인공지능 영상분석을 처리하여, 하이브리드 방식으로 구현할 수 있다.Figure 5 is a diagram showing an example of a parking lot management system using a hybrid artificial intelligence video analysis system according to an embodiment of the present invention. As shown in Figure 5, in the hybrid artificial intelligence image analysis system according to an embodiment of the present invention, the edge device camera unit 200 processes artificial intelligence image analysis to recognize vehicle license plates using an LPR model, and general The first image captured by the camera unit 100 can be implemented in a hybrid method by processing artificial intelligence image analysis that counts entering and exiting vehicles through the deep learning module 510 of the image processing unit 500.

도 6은 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템을 이용한 침입자 감지 시스템을 예를 들어 도시한 도면이다. 도 6에 도시된 바와 같이, 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템에서는, 엣지 디바이스 카메라부(200)에서 얼굴 인식 모델을 이용해 제2 영상에서 출입하는 사람의 얼굴을 인식하는 객체 지향형 인공지능 영상분석을 처리하고, 일반 카메라부(100)에서 촬영되는 제1 영상으로는 영상 처리부(500)의 딥러닝 모듈(510)을 통해 침입을 감지하는 이벤트 지향형 인공지능 영상분석을 처리할 수 있다. 예를 들어, 엣지 디바이스 카메라부(200)를 이용한 얼굴 인식에서 얼굴 DB에 없는 침입자의 얼굴이 감지되면, 일반 카메라부(100)를 통해 해당 침입자를 탐지하고 추적할 수 있다.Figure 6 is a diagram illustrating an intruder detection system using a hybrid artificial intelligence image analysis system according to an embodiment of the present invention as an example. As shown in FIG. 6, in the hybrid artificial intelligence image analysis system according to an embodiment of the present invention, the edge device camera unit 200 uses a face recognition model to recognize the face of the person entering and exiting the second image. Oriented artificial intelligence image analysis is processed, and the first image captured by the general camera unit 100 is used to process event-oriented artificial intelligence image analysis that detects intrusion through the deep learning module 510 of the image processing unit 500. You can. For example, if the face of an intruder that is not in the face DB is detected in face recognition using the edge device camera unit 200, the intruder can be detected and tracked through the general camera unit 100.

도 7은 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템을 이용한 얼굴 검색 시스템을 예를 들어 도시한 도면이다. 도 7에 도시된 바와 같이, 본 발명의 일실시예에 따른 하이브리드 인공지능 영상분석 시스템에서는, 엣지 디바이스 카메라부(200)에서 얼굴 인식 모델을 이용해 제2 영상에서 얼굴 영역을 검출하고, 영상 처리부(500)의 얼굴 DB와 비교해 얼굴 인식을 처리할 수 있다. 또한, 일반 카메라부(100)에서 촬영되는 제1 영상으로는 영상 처리부(500)의 딥러닝 모듈(510)을 통해 얼굴 영역을 검출하고 얼굴 DB와 비교해 얼굴 인식을 처리할 수 있다. 이처럼 일반 카메라부(100)와 엣지 디바이스 카메라부(200)로 구성된 16대 카메라 전부를 이용해 얼굴 인식을 동시에 빠르게 처리할 수 있다.Figure 7 is a diagram showing an example of a face search system using a hybrid artificial intelligence image analysis system according to an embodiment of the present invention. As shown in Figure 7, in the hybrid artificial intelligence image analysis system according to an embodiment of the present invention, the edge device camera unit 200 detects the face area in the second image using a face recognition model, and the image processing unit ( Face recognition can be processed compared to the face DB of 500). In addition, with the first image captured by the general camera unit 100, the face area can be detected through the deep learning module 510 of the image processing unit 500 and compared with the face DB to process face recognition. In this way, face recognition can be processed quickly and simultaneously using all 16 cameras consisting of the general camera unit 100 and the edge device camera unit 200.

전술한 바와 같이, 본 발명에서 제안하고 있는 하이브리드 인공지능 영상분석 시스템에 따르면, 영상 처리부(500)가 일반 카메라부(100)에서 촬영된 제1 영상으로부터 인공지능 영상분석을 처리해 제1 메타정보를 추정하는 딥러닝 모듈(510)을 포함하고, 인공지능 모델을 내장하여 촬영되는 제2 영상으로부터 실시간으로 제2 메타정보를 추정하는 엣지 디바이스 카메라부(200)로부터 데이터를 전달받아 처리함으로써, 인공지능 영상분석에 있어서 서버 타입과 엣지 타입을 결합해 처리할 수 있다. 또한, 본 발명에 따르면, 영상 처리부(500)에서 인공지능 영상분석을 처리하는 일반 카메라부(100)와 엣지 타입으로 인공지능 영상분석을 처리하는 엣지 디바이스 카메라부(200)를 결합함으로써, 일반 카메라부(100)를 전부 교체할 필요 없이 설치된 기존의 하드웨어 자원을 활용하면서 엣지 디바이스 카메라부(200)를 일부 설치하는 것으로 인공지능 영상분석 시스템을 도입할 수 있고, 인공지능 연산을 엣지 디바이스 카메라부(200)와 영상 처리부(500)가 분산해 처리함으로써, 엣지 타입의 빠른 반응 및 서버의 부담 최소화의 장점과, 서버 타입의 대용량처리의 장점을 결합해 그 효과를 극대화할 수 있다.As described above, according to the hybrid artificial intelligence image analysis system proposed in the present invention, the image processing unit 500 processes artificial intelligence image analysis from the first image captured by the general camera unit 100 to generate first meta information. By receiving and processing data from the edge device camera unit 200, which includes a deep learning module 510 to estimate and estimates second meta information in real time from the second image captured with a built-in artificial intelligence model, artificial intelligence In video analysis, server type and edge type can be combined for processing. In addition, according to the present invention, by combining the general camera unit 100, which processes artificial intelligence image analysis in the image processing unit 500, with the edge device camera unit 200, which processes artificial intelligence image analysis as an edge type, a general camera An artificial intelligence video analysis system can be introduced by installing a portion of the edge device camera unit 200 while utilizing existing hardware resources without the need to replace the entire unit 100, and artificial intelligence calculations can be performed using the edge device camera unit ( By distributing processing between the image processing unit 200 and the image processing unit 500, the effect can be maximized by combining the advantages of quick response and minimal server burden of the edge type and the advantage of large-capacity processing of the server type.

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention described above can be modified or applied in various ways by those skilled in the art, and the scope of the technical idea according to the present invention should be determined by the claims below.

100: 일반 카메라부
200: 엣지 디바이스 카메라부
300: 미디어 분배부
310: 제1 RTSP 클라이언트
320: 제2 RTSP 클라이언트
400: 백그라운드 처리부
500: 영상 처리부
510: 딥러닝 모듈
511: 디코더 모듈
512: 검출 모듈
513: 센더 모듈
520: 제1 디코더 모듈
530: 제2 디코더 모듈
540: 렌더 모듈
600: 로컬 이미지 저장부
700: 데이터베이스부
100: General camera unit
200: Edge device camera unit
300: Media distribution department
310: first RTSP client
320: Second RTSP client
400: Background processing unit
500: Image processing unit
510: Deep learning module
511: decoder module
512: detection module
513: Sender module
520: first decoder module
530: second decoder module
540: Render module
600: Local image storage unit
700: Database unit

Claims (7)

영상분석 시스템으로서,
제1 영상을 촬영하는 일반 카메라부(100);
제2 영상을 촬영하되, 인공지능 모델을 내장하여 상기 제2 영상으로부터 실시간으로 제2 메타정보를 추정하는 엣지 디바이스 카메라부(200);
상기 일반 카메라부(100) 및 상기 엣지 디바이스 카메라부(200)로부터 상기 제1 영상, 제2 영상 및 제2 메타정보를 수신하여 전달하는 미디어 분배부(300)(Media Distributer);
상기 미디어 분배부(300)에서 전달받은 상기 제2 메타정보를 데이터베이스부(700)에 저장하는 백그라운드 처리부(400); 및
상기 미디어 분배부(300)에서 전달받은 상기 제1 영상 및 제2 영상을 디코딩하고 출력 가능한 형태로 처리하는 영상 처리부(500)를 포함하며,
상기 영상 처리부(500)는,
프로세서에 내장된 GPU를 사용해 연산하는 딥러닝 모델을 이용해, 상기 일반 카메라부(100)에서 촬영된 제1 영상으로부터 제1 메타정보를 추정하고, 상기 제1 메타정보를 상기 데이터베이스부(700)에 저장하는 딥러닝 모듈(510)을 포함하여,
상기 영상 처리부(500)에서 인공지능 영상분석을 처리하는 상기 일반 카메라부(100)와 엣지 타입으로 인공지능 영상분석을 처리하는 상기 엣지 디바이스 카메라부(200)를 결합하며,
상기 제1 메타정보 및 제2 메타정보는,
상기 제1 영상 및 제2 영상에서 각각 객체 이미지 및 분석정보를 포함하며,
상기 엣지 디바이스 카메라부(200)는,
상기 제2 영상 및 제2 메타정보를 전송하는 영상전송 모드와, 상기 제2 영상은 제외하고 상기 제2 메타정보만 전송하는 특징전송 모드에 따라, 상기 미디어 분배부(300)에 데이터를 전송하며,
상기 미디어 분배부(300)는,
RTSP 프로토콜로 상기 일반 카메라부(100)에서 제1 영상을 수신해 상기 영상 처리부(500)의 제1 디코더 모듈(520)에 전달하는 제1 RTSP 클라이언트(310); 및
RTSP 프로토콜로 상기 엣지 디바이스 카메라부(200)에서 제2 영상을 수신해 상기 영상 처리부(500)의 제2 디코더 모듈(530)에 전달하고, 상기 제2 메타정보를 파싱하여 상기 백그라운드 처리부(400)에 전달하는 파서를 포함하여 구성되는 제2 RTSP 클라이언트(320)를 포함하며,
상기 딥러닝 모듈(510)은,
openVINO 기반으로 상기 제1 영상으로부터 상기 제1 메타정보를 추출하며,
상기 영상 처리부(500)에서 처리되는 인공지능 영상분석은 상기 엣지 디바이스 카메라부(200)에서 처리되는 인공지능 영상분석보다 복잡도가 높아 더 큰 연산력을 요구하는 것을 특징으로 하는, 하이브리드 인공지능 영상분석 시스템.
As a video analysis system,
A general camera unit 100 that captures a first image;
An edge device camera unit 200 that captures a second image and includes an artificial intelligence model to estimate second meta information in real time from the second image;
A media distributor 300 that receives and transmits the first image, the second image, and the second meta information from the general camera unit 100 and the edge device camera unit 200;
a background processing unit 400 that stores the second meta information received from the media distribution unit 300 in the database unit 700; and
It includes an image processing unit 500 that decodes the first and second images received from the media distribution unit 300 and processes them into an outputable form,
The image processing unit 500,
Using a deep learning model calculated using the GPU built into the processor, first meta information is estimated from the first image captured by the general camera unit 100, and the first meta information is stored in the database unit 700. Including a deep learning module 510 that stores,
The image processing unit 500 combines the general camera unit 100, which processes artificial intelligence image analysis, with the edge device camera unit 200, which processes artificial intelligence image analysis as an edge type,
The first meta information and second meta information are,
Each of the first image and the second image includes an object image and analysis information,
The edge device camera unit 200,
Transmitting data to the media distribution unit 300 according to a video transmission mode that transmits the second video and second meta information and a feature transmission mode that transmits only the second meta information and excludes the second video, ,
The media distribution unit 300,
A first RTSP client 310 that receives the first image from the general camera unit 100 using the RTSP protocol and transmits it to the first decoder module 520 of the image processing unit 500; and
The second image is received from the edge device camera unit 200 using the RTSP protocol and transmitted to the second decoder module 530 of the image processing unit 500, and the background processing unit 400 parses the second meta information. It includes a second RTSP client 320 configured to include a parser transmitted to,
The deep learning module 510,
Extracting the first meta information from the first image based on openVINO,
The artificial intelligence image analysis processed in the image processing unit 500 is more complex than the artificial intelligence image analysis processed in the edge device camera unit 200 and thus requires greater computing power, a hybrid artificial intelligence image analysis system. .
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020220181858A 2022-12-22 2022-12-22 Hybrid ai image analysis system KR102588729B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220181858A KR102588729B1 (en) 2022-12-22 2022-12-22 Hybrid ai image analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220181858A KR102588729B1 (en) 2022-12-22 2022-12-22 Hybrid ai image analysis system

Publications (1)

Publication Number Publication Date
KR102588729B1 true KR102588729B1 (en) 2023-10-16

Family

ID=88506188

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220181858A KR102588729B1 (en) 2022-12-22 2022-12-22 Hybrid ai image analysis system

Country Status (1)

Country Link
KR (1) KR102588729B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102119721B1 (en) * 2019-10-23 2020-06-05 주식회사 넥스트케이 Intellectual Edge Device and Driving Method Thereof
KR102125022B1 (en) * 2020-03-31 2020-06-19 김형진 Method for operating video analyzing server, and method for providing video surveillance service using the same
KR20220055704A (en) * 2020-10-27 2022-05-04 엘지전자 주식회사 Ai based exercise coaching apparatus
KR102435951B1 (en) * 2022-02-08 2022-08-24 주식회사 오라시스템 Smart ems-based intelligent video surveillance system for multi-site integrated operation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102119721B1 (en) * 2019-10-23 2020-06-05 주식회사 넥스트케이 Intellectual Edge Device and Driving Method Thereof
KR102125022B1 (en) * 2020-03-31 2020-06-19 김형진 Method for operating video analyzing server, and method for providing video surveillance service using the same
KR20220055704A (en) * 2020-10-27 2022-05-04 엘지전자 주식회사 Ai based exercise coaching apparatus
KR102435951B1 (en) * 2022-02-08 2022-08-24 주식회사 오라시스템 Smart ems-based intelligent video surveillance system for multi-site integrated operation

Similar Documents

Publication Publication Date Title
Tsakanikas et al. Video surveillance systems-current status and future trends
Anjum et al. Video stream analysis in clouds: An object detection and classification framework for high performance video analytics
EP2688296B1 (en) Video monitoring system and method
CN102982311B (en) Based on automobile video frequency Feature Extraction System and the method for video structural description
Prati et al. Intelligent video surveillance as a service
CN112804188B (en) A scalable visual computing system
CN106060470B (en) Video monitoring method and system
Abdullah et al. Traffic monitoring using video analytics in clouds
CN111510680B (en) Image data processing method, system and storage medium
CN107222660A (en) A kind of distributed network visual monitor system
CN111405243A (en) Target monitoring method and system based on multiple cameras
CN101127830A (en) Based on embedded intelligent network camera with identification function
Yuan et al. AccDecoder: Accelerated decoding for neural-enhanced video analytics
KR102588729B1 (en) Hybrid ai image analysis system
CN113068059B (en) Video live broadcasting method, device, equipment and storage medium
CN111541864B (en) Digital retina software defined camera method and system
Lee et al. RAVIP: real-time AI vision platform for heterogeneous multi-channel video stream
WO2025001292A1 (en) Computing power scheduling method for cloud application, file processing method for cloud application, and cloud computing platform
CN112351259A (en) Traffic monitoring system based on Internet of things
KR102505909B1 (en) Apparatus for Detecting Object Real Time of Multi Channel Video Stream
CN116248861A (en) An intelligent video detection method, system and device
US20230394826A1 (en) Data processing device and method, and data processing system
KR20150095080A (en) Apparatus and Method for Transmitting Video Data
CN114513681A (en) A video processing system, method, apparatus, electronic device and storage medium
CN111277801B (en) Monitoring video storage system based on content and application method

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20221222

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20230616

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20221222

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230707

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20231004

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20231010

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20231011

End annual number: 3

Start annual number: 1

PG1601 Publication of registration