KR102641534B1 - Cloud-edge integrated platform system - Google Patents

Cloud-edge integrated platform system Download PDF

Info

Publication number
KR102641534B1
KR102641534B1 KR1020240013745A KR20240013745A KR102641534B1 KR 102641534 B1 KR102641534 B1 KR 102641534B1 KR 1020240013745 A KR1020240013745 A KR 1020240013745A KR 20240013745 A KR20240013745 A KR 20240013745A KR 102641534 B1 KR102641534 B1 KR 102641534B1
Authority
KR
South Korea
Prior art keywords
edge device
metadata
data
cloud
image data
Prior art date
Application number
KR1020240013745A
Other languages
Korean (ko)
Inventor
최형두
Original Assignee
주식회사 이투온
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이투온 filed Critical 주식회사 이투온
Priority to KR1020240013745A priority Critical patent/KR102641534B1/en
Application granted granted Critical
Publication of KR102641534B1 publication Critical patent/KR102641534B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • H04N21/23109Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion by placing content in organized collections, e.g. EPG data repository
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests

Abstract

본 발명은 에지 디바이스와 클라우드 서버 간의 상호 작용을 기반으로 하는 영상 분석 및 모니터링 분야, 클라우드 컴퓨팅, 인공 지능 및 데이터 보안 분야에 적용 가능한 클라우드-에지 통합 플랫폼 시스템에 관한 것으로서, 보다 상세하게는, 적어도 하나의 카메라를 통해 영상 데이터를 취득하고, 취득된 상기 영상 데이터로부터 메타 데이터를 생성하며, 상기 영상 데이터와 상기 메타 데이터 중 적어도 어느 하나를 전송하는 에지 디바이스; 및 상기 에지 디바이스로부터 상기 메타 데이터를 전송받고, 전송받은 상기 메타 데이터를 통해 이벤트 발생이라고 판단하면, 상기 에지 디바이스로부터 상기 영상 데이터를 추가로 전송받는 클라우드 서버를 포함하는 클라우드-에지 통합 플랫폼 시스템에 관한 것이다.The present invention relates to a cloud-edge integrated platform system applicable to the fields of video analysis and monitoring, cloud computing, artificial intelligence, and data security based on the interaction between edge devices and cloud servers, and more specifically, to at least one an edge device that acquires image data through a camera, generates metadata from the acquired image data, and transmits at least one of the image data and the metadata; and a cloud server that receives the metadata from the edge device and, upon determining that an event has occurred based on the received metadata, additionally transmits the video data from the edge device. will be.

Description

클라우드-에지 통합 플랫폼 시스템{CLOUD-EDGE INTEGRATED PLATFORM SYSTEM}Cloud-Edge Integration Platform System{CLOUD-EDGE INTEGRATED PLATFORM SYSTEM}

본 발명은 클라우드-에지 통합 플랫폼 시스템에 관한 것으로, 특히 에지 디바이스와 클라우드 서버 간의 상호 작용을 기반으로 하는 영상 분석 및 모니터링 분야, 클라우드 컴퓨팅, 인공 지능 및 데이터 보안 분야에 적용 가능한 클라우드-에지 통합 플랫폼 시스템에 관한 것이다.The present invention relates to a cloud-edge integrated platform system, particularly applicable to the fields of video analysis and monitoring, cloud computing, artificial intelligence, and data security based on the interaction between edge devices and cloud servers. It's about.

기존의 영상 분석 및 모니터링 시스템은 대부분 중앙 집중식 아키텍처를 기반으로 하며, 모든 영상 데이터를 중앙 서버로 전송하고 처리하는 방식을 채택하고 있다. 이로 인해 대량의 영상 데이터를 수집, 전송 및 처리하는 데 필요한 대규모 서버 및 고가의 그래픽 처리 장치(GPU)가 필요하며, 이로 인해 높은 운영 비용과 에너지 소비가 발생하게 된다.Most existing video analysis and monitoring systems are based on a centralized architecture and adopt a method of transmitting and processing all video data to a central server. This requires large-scale servers and expensive graphics processing units (GPUs) to collect, transmit, and process large amounts of video data, resulting in high operating costs and energy consumption.

또한, 개인정보 보호와 관련된 문제가 중요한 문제로 대두되고 있으며, 영상 데이터에는 민감한 개인 정보가 포함될 수 있다. 따라서 개인정보 보호 및 비식별화 기술의 필요성에 대한 관심도 높아지고 있는 실정이다.Additionally, issues related to personal information protection are emerging as an important issue, and video data may contain sensitive personal information. Therefore, interest in the need for personal information protection and de-identification technology is increasing.

(0001) 국내공개특허공보 제10-2022-0041722호(0001) Domestic Patent Publication No. 10-2022-0041722

본 발명이 해결하고자 하는 기술적 과제는, 에지 디바이스와 클라우드 서버 간의 협력을 통해 영상 분석 및 모니터링 시스템의 효율성을 향상시키고 개인정보 보호 문제를 해결할 수 있는 클라우드-에지 통합 플랫폼 시스템을 제공하는데 있다.The technical problem that the present invention seeks to solve is to provide a cloud-edge integrated platform system that can improve the efficiency of video analysis and monitoring systems and solve personal information protection issues through cooperation between edge devices and cloud servers.

본 발명이 해결하고자 하는 다른 기술적 과제는, 에지 디바이스에서 영상 분석 및 비식별화 기술을 구현하고, 클라우드 서버는 정형 데이터 기반 다양한 분석을 수행하여 실시간 모니터링 및 이벤트 감지를 지원할 수 있는 클라우드-에지 통합 플랫폼 시스템을 제공하는데 있다.Another technical problem that the present invention aims to solve is a cloud-edge integrated platform that implements video analysis and de-identification technology in edge devices, and the cloud server can support real-time monitoring and event detection by performing various analyzes based on structured data. The goal is to provide a system.

본 발명이 해결하고자 하는 또 다른 기술적 과제는, 영상 분석, 클라우드 컴퓨팅, 인공 지능 및 데이터 보안 분야에서의 기술적 도전에 대한 혁신적인 해결책을 제시하며, 기존 시스템의 한계를 극복할 수 있는 클라우드-에지 통합 플랫폼 시스템을 제공하는데 있다.Another technical challenge that the present invention aims to solve is a cloud-edge integrated platform that provides innovative solutions to technical challenges in the fields of image analysis, cloud computing, artificial intelligence, and data security, and can overcome the limitations of existing systems. The goal is to provide a system.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

상기 기술적 과제를 달성하기 위한 본 발명인 클라우드-에지 통합 플랫폼 시스템은, 적어도 하나의 카메라를 통해 영상 데이터를 취득하고, 취득된 상기 영상 데이터로부터 메타 데이터를 생성하는 제1 처리부를 포함하며, 상기 카메라를 통해 취득된 영상 데이터와 상기 제1 처리부를 통해 생성된 메타 데이터 중 적어도 어느 하나를 전송하는 에지 디바이스; 및 상기 에지 디바이스로부터 상기 메타 데이터를 전송받고, 전송받은 상기 메타 데이터를 통해 이벤트 발생이라고 판단한 경우에만 상기 에지 디바이스로부터 상기 영상 데이터를 전송받는 클라우드 서버를 포함하며, 상기 에지 디바이스는, 상기 영상 데이터와 상기 메타 데이터를 저장하기 위한 적어도 하나의 메모리를 더 포함하는 것을 특징으로 한다.The cloud-edge integrated platform system of the present invention for achieving the above technical problem includes a first processing unit that acquires image data through at least one camera and generates metadata from the acquired image data, and uses the camera. an edge device that transmits at least one of image data acquired through and metadata generated through the first processing unit; and a cloud server that receives the metadata from the edge device and transmits the video data from the edge device only when it is determined that an event has occurred through the received metadata, wherein the edge device receives the video data and It is characterized in that it further includes at least one memory for storing the metadata.

상기 본 발명의 양태들은 본 발명의 바람직한 실시례들 중 일부에 불과하며, 본원 발명의 기술적 특징들이 반영된 다양한 실시례들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 본 발명의 상세한 설명을 기반으로 도출되고 이해될 수 있다.The above aspects of the present invention are only some of the preferred embodiments of the present invention, and various embodiments reflecting the technical features of the present invention will be described in detail below by those skilled in the art. It can be derived and understood based on.

이상에서 상술한 본 발명은 다음과 같은 효과가 있다.The present invention described above has the following effects.

먼저, 본 발명은 에지 디바이스에서 영상 분석 및 비식별화 기술을 구현함으로써, 중앙 집중식 아키텍처에 비해 훨씬 효율적인 영상 처리 및 모니터링이 가능하며, 에지 디바이스에서 발생한 이벤트와 메타 정보만을 클라우드 서버로 전송하므로 네트워크 부하가 감소하고 전송 대역폭을 절약할 수 있다.First, the present invention implements video analysis and de-identification technology in edge devices, enabling much more efficient video processing and monitoring compared to centralized architectures, and transmits only events and meta information occurring in edge devices to the cloud server, reducing network load. can be reduced and transmission bandwidth can be saved.

또한, 본 발명은 에지 디바이스에서 개인정보 비식별화 기술을 적용하여 개인 정보 보호를 강화, 즉 개인정보가 포함된 영상 데이터는 클라우드로 전송하기 전에 비식별화되며, 클라우드 서버는 비식별화된 데이터만을 처리함으로써 개인정보 침해 문제를 해결할 수 있다.In addition, the present invention enhances personal information protection by applying personal information de-identification technology in edge devices, that is, video data containing personal information is de-identified before being transmitted to the cloud, and the cloud server stores the de-identified data. The problem of personal information infringement can be solved by only processing the information.

또한, 클라우드 서버는 전송된 메타 데이터와 정형 데이터를 기반으로 실시간 대시보드를 구현하고, 고속 검색을 지원함으로써, 화재, 특정 객체 출현, 이상 행동 등의 이벤트를 신속하게 검색하고 모니터링할 수 있다.In addition, the cloud server implements a real-time dashboard based on transmitted metadata and structured data and supports high-speed search, allowing you to quickly search and monitor events such as fire, appearance of specific objects, and abnormal behavior.

또한, 에지 디바이스에서 영상 분석을 수행하므로 중앙 서버에서의 고가의 GPU 구매 및 전력 소비 문제를 해결할 수 있다. Additionally, since video analysis is performed on edge devices, the problem of purchasing expensive GPUs and power consumption in central servers can be solved.

또한, 클라우드 서버는 이벤트 관련 영상만을 저장하므로 스토리지 비용이 절감되며, 클라우드 구축 및 운영 비용을 줄일 수 있다.Additionally, since the cloud server stores only event-related videos, storage costs are reduced and cloud construction and operation costs can be reduced.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명인 클라우드-에지 통합 플랫폼 시스템의 일 실시례에 따른 구성 개념도,
도 2는 본 발명인 클라우드-에지 통합 플랫폼 시스템의 예시도,
도 3은 본 발명에 따른 에지 디바이스 분석 및 클라우드 서버로 전송할 데이터 예시도,
도 4는 본 발명에 따른 실시간 대시보드 구현 예시도.
1 is a conceptual diagram according to an embodiment of the cloud-edge integrated platform system of the present invention;
Figure 2 is an example of the cloud-edge integrated platform system of the present invention;
Figure 3 is an example of edge device analysis and data to be transmitted to a cloud server according to the present invention;
Figure 4 is an example of a real-time dashboard implementation according to the present invention.

이하, 본 발명의 일부 실시례들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시례를 설명함에 있어, 관련된 공지구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시례에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted.

또한, 본 발명의 실시례의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Additionally, when describing the components of an embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. When a component is described as being "connected," "coupled," or "connected" to another component, that component may be directly connected or connected to that other component, but there is no "interconnection" between each component. It should be understood that they may be “connected,” “coupled,” or “connected.”

도 1은 본 발명인 클라우드-에지 통합 플랫폼 시스템의 일 실시례에 따른 구성 개념도고, 도 2는 본 발명인 클라우드-에지 통합 플랫폼 시스템의 예시도이며, 도 3은 본 발명에 따른 에지 디바이스 분석 및 클라우드 서버로 전송할 데이터 예시도이고, 도 4는 본 발명에 따른 실시간 대시보드 구현 예시도이다.Figure 1 is a configuration diagram according to an embodiment of the cloud-edge integrated platform system of the present invention, Figure 2 is an exemplary diagram of the cloud-edge integrated platform system of the present invention, and Figure 3 is an edge device analysis and cloud server according to the present invention. This is an example of data to be transmitted, and Figure 4 is an example of a real-time dashboard implementation according to the present invention.

도 1 내지 도 4를 참조하여, 본 발명인 클라우드-에지 통합 플랫폼 시스템을 설명하면 다음과 같다.With reference to FIGS. 1 to 4, the cloud-edge integrated platform system of the present invention is described as follows.

본 발명인 클라우드-에지 통합 플랫폼 시스템은, 적어도 하나의 카메라(1), 에지 디바이스(10) 및 클라우드 서버(20)를 포함하여 구성될 수 있다.The cloud-edge integrated platform system of the present invention may be configured to include at least one camera 1, an edge device 10, and a cloud server 20.

카메라(1)는 공지의 모든 카메라를 적용할 수 있으며, 적어도 하나의 카메라로 구성될 수 있다. 카메라(1)의 위치는 한 곳에 적어도 하나로 구성되거나, 적어도 한 곳에 각각 적어도 하나로 구성될 수 있을 것이다. 본 발명에서는 적어도 하나의 카메라(1)로 구성될 수 있으며, 다수의 카메라(1)를 사용하여 다양한 시야를 커버하고 다양한 각도와 위치에서 영상 데이터를 수집할 수 있다.The camera 1 can be any known camera and can be composed of at least one camera. The positions of the cameras 1 may consist of at least one camera 1 in one location, or may be configured of at least one camera 1 in each location. In the present invention, it can be composed of at least one camera (1), and by using multiple cameras (1), it can cover a variety of fields of view and collect image data from various angles and positions.

카메라(1)에는 에지 디바이스(10)와의 데이터 통신을 위한 인터페이스가 구비될 수 있다. 일반적으로 이더넷, USB, 무선 통신 등의 방법으로 데이터를 전송할 수 있다.The camera 1 may be equipped with an interface for data communication with the edge device 10. In general, data can be transmitted using methods such as Ethernet, USB, and wireless communication.

카메라(1)는 영상 센서를 사용하여 주변 환경의 빛을 감지하고 이미지로 변환하고, 변환된 이미지는 디지털 형식으로 저장될 수 있다.The camera 1 uses an image sensor to detect light in the surrounding environment and converts it into an image, and the converted image can be saved in digital format.

영상 프로세서는 취득된 이미지를 처리하고 필요한 작업을 수행할 수 있다. 이 과정에는 밝기 보정, 색상 보정, 노이즈 제거 등이 포함될 수 있으며, AI 기반 영상 분석도 이 단계에서 진행될 수 있다.An image processor can process the acquired images and perform necessary operations. This process may include brightness correction, color correction, noise removal, etc., and AI-based image analysis may also occur at this stage.

카메라(1)는 에지 디바이스(10)와의 데이터 통신을 통해 처리된 영상 데이터를 전송할 수 있다. 전송된 데이터는 에지 디바이스에서 추가적인 처리 및 분석을 위해 사용될 수 있다.The camera 1 can transmit processed image data through data communication with the edge device 10. The transmitted data can be used for further processing and analysis at the edge device.

카메라(1)는 다양한 형태와 기능으로 구성될 수 있으며, 이를 통해 에지 디바이스(10)와 협력하여 영상 데이터를 취득할 수 있다.The camera 1 can be configured in various forms and functions, and through this, it can acquire image data in cooperation with the edge device 10.

에지 디바이스(10)로 카메라 기반 에지 디바이스를 사용할 수 있으며, 카메라 기반 에지 디바이스는 영상 데이터를 취득하고 분석하는 역할을 수행할 수 있다. 카메라의 종류와 해상도는 다양할 수 있으며, 고화질 카메라를 사용하여 상세한 영상 데이터를 획득할 수 있다.A camera-based edge device can be used as the edge device 10, and the camera-based edge device can acquire and analyze video data. Camera types and resolutions can vary, and detailed image data can be obtained using high-definition cameras.

영상 외에도 다양한 센서를 사용한 에지 디바이스도 적용할 수 있다. 예를 들어, 열화상 카메라, 울트라소닉 센서, 레이더, 모션 감지 센서 등을 활용하여 환경에서 다양한 데이터를 수집하고 분석할 수 있다.In addition to video, edge devices using various sensors can also be applied. For example, various data from the environment can be collected and analyzed using thermal imaging cameras, ultrasonic sensors, radar, and motion detection sensors.

에지 디바이스(10)는 영상 데이터뿐만 아니라, 다양한 통신 기술을 활용하여 데이터를 수집하고 분석할 수 있다. The edge device 10 can collect and analyze not only video data but also data using various communication technologies.

또한, 임베디드 시스템 기반 에지 디바이스를 적용, 즉 에지 디바이스(10)는 소형 컴퓨팅 시스템을 포함할 수 있으며, 이를 통해 데이터 처리 및 분석을 로컬에서 수행할 수도 있다. 예를 들어, 라즈베리 파이와 같은 임베디드 시스템을 활용할 수 있다.Additionally, by applying an embedded system-based edge device, that is, the edge device 10 may include a small computing system, through which data processing and analysis may be performed locally. For example, you can utilize an embedded system such as Raspberry Pi.

무인기(UAV) 또는 드론 기반 에지 디바이스를 적용할 수도 있다. 무인기나 드론은 공중에서 영상 데이터를 수집하여 에지 디바이스(10)로 전송할 수 있다. 이러한 기기를 사용하면 더 넓은 영역을 모니터링하고 데이터를 수집할 수 있다.Unmanned aerial vehicles (UAV) or drone-based edge devices can also be applied. An unmanned aerial vehicle or drone can collect image data in the air and transmit it to the edge device 10. These devices allow larger areas to be monitored and data collected.

AI 칩 및 가속기를 포함한 에지 디바이스를 적용할 수도 있다. 일부 에지 디바이스(10)는 AI 가속기, GPU 또는 특수한 하드웨어를 포함하여 고성능 데이터 처리를 수행할 수 있다. 이를 통해 실시간 영상 분석 및 복잡한 알고리즘을 실행할 수 있다.Edge devices including AI chips and accelerators can also be applied. Some edge devices 10 may include AI accelerators, GPUs, or specialized hardware to perform high-performance data processing. This allows real-time video analysis and complex algorithms to be run.

에지 디바이스(10)는 취득된 상기 영상 데이터로부터 메타 데이터를 생성하며, 상기 영상 데이터와 상기 메타 데이터 중 적어도 어느 하나를 클라우드 서버(20)로 전송할 수 있다.The edge device 10 may generate metadata from the acquired image data and transmit at least one of the image data and the metadata to the cloud server 20.

에지 디바이스(10)는 카메라(1)를 통해 영상 데이터를 취득하고, 상기 영상 데이터는 렌즈 시스템 및 영상 센서를 사용하여 수집될 수 있다.The edge device 10 acquires image data through the camera 1, and the image data may be collected using a lens system and an image sensor.

에지 디바이스(10) 내에는 메모리(11)가 포함될 수 있으며, 메모리(11)는 상기 영상 데이터 및 메타 데이터를 저장할 수 있다. The edge device 10 may include a memory 11, and the memory 11 may store the image data and metadata.

제1 처리부(12)는 취득된 영상 데이터를 처리하고 분석할 수 있다. 제1 처리부(12)는, 도 3을 참조하면, 취득된 영상 데이터를 분석하여 객체 인식, 얼굴인식, 이상 행동 분석 및 기타 작업 등을 수행할 수 있다. 이때, AI 알고리즘을 활용하여 영상 데이터를 처리하고 관련 정보를 추출할 수 있다. 예컨대, 사람의 경우 키포인트만(스켈레톤)을 추출할 수 있으며, 추출된 좌표 정보만을 표시할 수 있다.The first processing unit 12 may process and analyze the acquired image data. Referring to FIG. 3, the first processing unit 12 may analyze acquired image data and perform object recognition, face recognition, abnormal behavior analysis, and other tasks. At this time, AI algorithms can be used to process image data and extract related information. For example, in the case of a person, only key points (skeletons) can be extracted, and only the extracted coordinate information can be displayed.

에지 디바이스(10)는 취득한 영상 데이터를 분석하여 화재, 흉기, 사람, 차량 등의 객체를 인식할 수 있다. 이를 통해 촬영된 환경에서의 중요한 객체를 식별하고 감지할 수 있다.The edge device 10 can recognize objects such as fire, weapons, people, and vehicles by analyzing acquired image data. This allows identification and detection of important objects in the captured environment.

에지 디바이스(10)는 영상 데이터에서 얼굴을 감지하고 인식할 수 있다. 얼굴인식 기술은 사람을 식별하고 관련 정보를 추출하는 데 사용될 수 있다. 필요한 경우 비식별화 기술을 적용하여 개인정보를 보호할 수 있다.The edge device 10 can detect and recognize faces in image data. Facial recognition technology can be used to identify people and extract relevant information. If necessary, personal information can be protected by applying de-identification technology.

에지 디바이스(10)는 차량 번호판을 인식하고, 필요한 경우 비식별화 기술을 적용함으로써 차량 정보를 추출하고 개인정보 보호를 강화할 수 있다.The edge device 10 can extract vehicle information and enhance personal information protection by recognizing vehicle license plates and applying de-identification technology if necessary.

에지 디바이스(10)는 객체의 움직임을 추적하며, 사람, 차량 등의 이동 경로를 분석할 수 있다. 이러한 정보는 위험 상황 감지 및 경로 변화 패턴 분석에 활용될 수 있다.The edge device 10 can track the movement of objects and analyze the movement paths of people, vehicles, etc. This information can be used to detect dangerous situations and analyze route change patterns.

에지 디바이스(10)는 환경에서의 이상 행동을 감지하고 분석할 수 있다. 예를 들어, 쓰러짐, 폭행, 흡연 등의 이상 행동을 탐지하고 필요한 조치를 취할 수 있다.The edge device 10 can detect and analyze abnormal behavior in the environment. For example, abnormal behavior such as falling, assault, or smoking can be detected and necessary measures can be taken.

에지 디바이스(10)는 객체의 위치 정보와 타임 스탬프를 메타 데이터로 기록할 수 있으며, 이를 통해 영상 데이터의 이벤트 발생 시간과 위치를 파악하고 분석에 활용할 수 있다.The edge device 10 can record the location information and time stamp of an object as metadata, through which the time and location of an event in video data can be identified and used for analysis.

키포인트 분석은 영상에서 중요한 지점을 식별하고 추적하는 기술을 의미하는 것으로, 키포인트를 이용하여 얼굴인식, 객체 추적 및 기타 분석 작업을 수행할 수 있다.Keypoint analysis refers to a technology that identifies and tracks important points in an image, and keypoints can be used to perform facial recognition, object tracking, and other analysis tasks.

이러한 영상 데이터 분석 기술은 에지 디바이스(10) 내의 제1 처리부(12)에서 실행될 수 있다. 이와 같은 기술을 활용하여 카메라(1)를 통해 촬영된 환경에서 발생하는 다양한 이벤트와 객체를 식별하고 관련 정보를 추출하며, 이를 메타 데이터로 저장하고 클라우드 서버(20)로 전송하여 다양한 분석 작업을 지원할 수 있다.This image data analysis technology can be executed in the first processing unit 12 within the edge device 10. Using this technology, various events and objects occurring in the environment captured through the camera (1) are identified and related information is extracted, stored as metadata, and transmitted to the cloud server (20) to support various analysis tasks. You can.

제1 처리부(12)는 처리된 영상 데이터와 메타 데이터를 메모리(11)에 저장할 수 있다. 이때, 메모리(11)는 데이터를 효율적으로 관리하고 필요한 경우 압축하여 저장할 수 있다. The first processing unit 12 may store processed image data and metadata in the memory 11 . At this time, the memory 11 can efficiently manage data and compress and store it if necessary.

에지 디바이스(10)는 필요한 경우 클라우드 서버(20)로 메타 데이터 및 필요한 영상 데이터와 분석 결과 데이터를 전송할 수 있다. 예컨대, 평상시 비식별화된 메타 데이터만을 전송하고, 이벤트 발생시에만 클라우드 서버(20)로 촬영된 영상 원본 데이터를 전송할 수 있다. 이벤트 발생은 위험 상황 발생을 포함하는 것으로, 예컨대 에지 디바이스(10)에서 전송된 메타 데이터를 통해 어느 장소에 두 명의 사람이 걸어가다가 한 사람만 확인이 되거나, 두 사람의 이동 경로가 일반적이지 않거나, 건물 옥상에 있던 사람이 갑자기 사라지거나 한 경우일 수 있다. 이와 같은 경우, 클라우드 서버(20)는 에지 디바이스(10)로부터 전송받은 메타 데이터를 통해 이벤트 상황을 감지하고, 이벤트 발생이라고 판단되면 에지 디바이스(10)에 원본 영상 데이터를 요청하여 전달받고, 전달받은 영상 데이터를 통해 정확한 상황을 확인할 수 있다. If necessary, the edge device 10 can transmit metadata, necessary image data, and analysis result data to the cloud server 20. For example, only de-identified metadata can be transmitted in normal times, and original video data captured to the cloud server 20 can be transmitted only when an event occurs. The occurrence of an event includes the occurrence of a dangerous situation, for example, when two people are walking to a certain place and only one person is identified through metadata transmitted from the edge device 10, or the movement path of the two people is unusual, or This could be a case where a person on the roof of a building suddenly disappears. In this case, the cloud server 20 detects an event situation through metadata transmitted from the edge device 10, and when it is determined that an event has occurred, it requests and receives the original video data from the edge device 10, and receives the received video data. You can check the exact situation through video data.

도 2에 도시된 바와 같이, 이벤트 발생은 에지 디바이스(10)에서 수행할 수도 있다. 에지 디바이스(10)는 저장된 AI 알고리즘을 통해 이벤트 발생을 확인하고, 이벤트 발생일 경우 메타 데이터가 아닌 원본 영상 데이터를 전송할 수도 있다. 물론, 메타 데이터와 원본 영상 데이터를 함께 전송할 수도 있다. 또한, 에지 디바이스(10)는 이벤트 발생으로 판단한 경우에도 개인정보와 관련된 사항들은 비식별화하고, 비식별화된 메타 데이터만을 전송할 수 있으며, 예컨대 이벤트 발생 영상 또는 이벤트 발생 캡처 화면을 전송할 수 있다. 또한, 카메라(1)에서 클라우드 서버(20)에 실시간으로 영상 데이터를 전송할 수도 있다.As shown in FIG. 2, event generation may be performed in the edge device 10. The edge device 10 may check the occurrence of an event through a stored AI algorithm, and if an event occurs, it may transmit original image data rather than metadata. Of course, metadata and original video data can also be transmitted together. In addition, even when it is determined that an event has occurred, the edge device 10 can de-identify personal information-related matters and transmit only de-identified metadata, for example, transmitting an event occurrence video or an event capture screen. Additionally, video data can be transmitted from the camera 1 to the cloud server 20 in real time.

또한, 클라우드 서버(20)에서 전송된 메타 데이터를 확인하고, 원본 영상 데이터를 에지 디바이스(10)에 요청한 경우에만 원본 영상 데이터를 전송하도록 구성할 수도 있다. Additionally, metadata transmitted from the cloud server 20 can be checked and the original video data can be configured to be transmitted only when the original video data is requested from the edge device 10.

기본적으로, 클라우드 서버(20)는 에지 디바이스(10)로부터 평상시 메타 데이터만을 전송받고, 전송받은 상기 메타 데이터를 통해 이벤트 발생이라고 판단한 경우에만, 에지 디바이스(10)로부터 상기 영상 데이터를 전송받도록 구성될 수 있다.Basically, the cloud server 20 is configured to receive only metadata normally from the edge device 10 and to receive the video data from the edge device 10 only when it is determined that an event has occurred through the transmitted metadata. You can.

클라우드 서버(20)는 에지 디바이스(10)로부터 전송된 메타 데이터 및 필요한 영상 데이터를 수신할 수 있다. 수신된 데이터는 에지 디바이스(10)에서 필터링되고 압축된 상태일 수 있다.The cloud server 20 may receive metadata and necessary image data transmitted from the edge device 10. The received data may be filtered and compressed in the edge device 10.

에지 디바이스(10)와 연결된 클라우드 서버(20)는 대용량 메모리(21)를 구비할 수 있으며, 에지 디바이스(10)에서 전송된 영상 데이터 및 메타 데이터를 저장하고 관리할 수 있다. 메모리(21)는 영상 데이터와 메타 데이터를 실시간으로 처리하는 데 사용될 수 있다.The cloud server 20 connected to the edge device 10 may be equipped with a large capacity memory 21 and may store and manage image data and metadata transmitted from the edge device 10. The memory 21 can be used to process image data and metadata in real time.

제2 처리부(22)는 수신된 정형데이터를 분석하고 처리하며, 이 과정에서 사람 이동 패턴의 이상 유무로 위험 상황, 차량 추돌 상황 감지나 객체 인식, 얼굴인식, 이상 행동 분석, 차량 번호판 인식, 경로 변화 패턴 분석 등의 다양한 분석 작업을 수행할 수 있다.The second processing unit 22 analyzes and processes the received structured data, and in this process, detects dangerous situations, vehicle collision situations, object recognition, face recognition, abnormal behavior analysis, vehicle license plate recognition, and path by detecting abnormalities in human movement patterns. Various analysis tasks, such as change pattern analysis, can be performed.

제2 처리부(22)는 영상 데이터의 분석, 처리 및 관리를 수행할 수 있다. 이 과정에서 다양한 분석 알고리즘과 기술을 활용하여 데이터를 처리하고 결과를 생성할 수 있다.The second processing unit 22 may perform analysis, processing, and management of image data. In this process, various analysis algorithms and technologies can be used to process data and generate results.

제2 처리부(22)는 에지 디바이스(10)에서 수집한 영상 데이터와 메타 데이터를 수신할 수 있다. 제2 처리부(22)는 상기 영상 데이터를 분석, 즉 다양한 영상 처리 및 컴퓨터 비전 알고리즘을 사용하여 객체 인식, 얼굴인식, 차량 번호판 인식, 객체 추적 및 이상 행동 분석 등의 작업을 수행할 수 있다.The second processing unit 22 may receive image data and metadata collected from the edge device 10. The second processing unit 22 can analyze the image data, that is, perform tasks such as object recognition, face recognition, license plate recognition, object tracking, and abnormal behavior analysis using various image processing and computer vision algorithms.

제2 처리부(22)는 이러한 분석을 위해 미리 정의된 알고리즘 및 모델을 활용할 수 있다. 예를 들어, 딥러닝 신경망을 사용하여 얼굴인식이나 객체 인식을 수행할 수 있으며, 컴퓨터 비전 기술을 활용하여 객체의 속성 및 위치 정보를 추출할 수 있다.The second processing unit 22 may utilize predefined algorithms and models for this analysis. For example, deep learning neural networks can be used to perform face recognition or object recognition, and computer vision technology can be used to extract object properties and location information.

분석된 데이터는 여러 단계를 거쳐 가공될 수 있다. 필요한 정보만을 추출하고 정리하여 결과 데이터를 생성할 수 있다. 예를 들어, 얼굴 인식 결과는 얼굴의 특징과 식별 정보로 변환될 수 있다.Analyzed data can be processed through several steps. Result data can be generated by extracting and organizing only the necessary information. For example, face recognition results can be converted into facial features and identification information.

분석 및 처리된 데이터와 관련 정보는 메모리(21)에 저장될 수 있다. 이러한 저장 공간은 데이터의 장기 저장을 지원하며, 필요할 때 검색할 수 있도록 관리될 수 있다.Analyzed and processed data and related information may be stored in memory 21. These storage spaces support long-term storage of data and can be managed so that they can be retrieved when needed.

제2 처리부(22)는 메타 데이터와 결과 데이터를 활용하여 고속 검색을 지원할 수 있다. 이를 통해 특정 이벤트나 객체를 빠르게 검색할 수 있으며, 이러한 정보는 대시보드를 구현하는 데 활용될 수 있다.The second processing unit 22 can support high-speed search by utilizing meta data and result data. This allows you to quickly search for specific events or objects, and this information can be used to implement dashboards.

분석된 데이터는 통계 및 분석 작업을 위해 사용될 수 있다. 예를 들어, 사람간 경로 변화 패턴 분석, 차량 크기 및 이동 패턴 분석, 키포인트 분석을 통해 다양한 정보와 통계 자료를 생성할 수 있다.Analyzed data can be used for statistical and analysis work. For example, various information and statistical data can be generated through analysis of path change patterns between people, analysis of vehicle size and movement patterns, and key point analysis.

이러한 과정을 통해 제2 처리부(22)는 클라우드 서버(20)에서 수신한 데이터를 분석하고 가공하여 중요한 정보와 결과를 생성할 수 있으며, 생성된 정보는 사용자가 실시간으로 모니터링하거나 검색하여 중요한 사건 및 데이터를 확인하는 데 사용될 수 있다. 예를 들어, 클라우드 서버(20)는 사람간 경로 변화 패턴 분석, 차량 크기 및 이동 패턴 분석, 키포인트 분석 등을 통해 얼굴인식, 쓰러짐, 흡연 등과 같은 이상 행동을 탐지하고 통계 정보를 제공할 수 있다.Through this process, the second processing unit 22 can analyze and process the data received from the cloud server 20 to generate important information and results, and the generated information can be monitored or searched in real time by the user to identify important events and results. It can be used to check data. For example, the cloud server 20 can detect abnormal behavior such as face recognition, falling, smoking, etc. and provide statistical information through analysis of path change patterns between people, vehicle size and movement pattern analysis, key point analysis, etc.

클라우드 서버(20)는 메타 정보 및 영상 내의 객체의 속성 및 위치 정보를 활용하여 고속 검색을 지원할 수 있다. 이를 통해 특정 이벤트나 객체의 위치를 빠르게 검색할 수 있으며, 이러한 정보를 활용하여, 도 4에 도시된 바와 같이, 대시보드를 구현할 수 있다. 즉, 에지 디바이스(10)는 카메라(1)를 통해 촬영된 영상 데이터를 분석하고, 메타 데이터를 생성하여 생성된 메타 데이터를 클라우드 서버(20)로 전송할 수 있다. 전송된 메타 데이터를 클라우드 서버(20)의 대시보드로 출력할 수 있다. 이때, 대시보드에는 도 4에 도시된 바와 같이, 사람과 차량 정보가 실제 영상이 아닌 특징과 위치 좌표만을 가진 데이터로 표시될 수 있다. 또한, 만약 이벤트가 발생한 것으로 판단되면, 에지 디바이스(10)는 최초 촬영된 원본 영상 데이터를 클라우드 서버(20)로 전송하고, 클라우드 서버(20)의 대시보드에서는 원본 영상 데이터를 출력할 수 있다. 이벤트 발생 여부는 제2 처리부(22)를 통한 알고리즘 자동 분석 수행 및/또는 별도의 관리자가 판단하여 수행하도록 구성할 수 있다.The cloud server 20 can support high-speed search by utilizing meta information and the properties and location information of objects in the image. Through this, the location of a specific event or object can be quickly searched, and using this information, a dashboard can be implemented, as shown in FIG. 4. That is, the edge device 10 can analyze image data captured through the camera 1, generate metadata, and transmit the generated metadata to the cloud server 20. The transmitted metadata can be output to the dashboard of the cloud server 20. At this time, as shown in FIG. 4, on the dashboard, person and vehicle information may be displayed as data containing only features and location coordinates rather than actual images. Additionally, if it is determined that an event has occurred, the edge device 10 may transmit the initially captured original image data to the cloud server 20 and output the original image data on the dashboard of the cloud server 20. Whether or not an event occurs can be configured to automatically analyze the algorithm through the second processing unit 22 and/or be determined by a separate manager.

이와 같이, 클라우드 서버(20)는 에지 디바이스(10)로부터 수신한 데이터를 처리하고 관리하여, 고급 분석, 통계 작업, 고속 검색 및 대시보드 구현을 제공할 수 있으며, 이를 통해 사용자는 실시간 모니터링 및 중요한 정보에 대한 빠른 액세스가 가능하도록 구현될 수 있다.In this way, the cloud server 20 can process and manage data received from the edge device 10 to provide advanced analysis, statistical operations, high-speed search, and dashboard implementation, which allows users to perform real-time monitoring and important It can be implemented to allow quick access to information.

통계 자료의 경우, 예컨대 일자별 보행자 및 차량의 통행량 등 시계열 분석 자료와 둘레길 구간별 방문객 수 또는 사람이나 사람들이 어느 방향으로 많이 이동하는지에 대한 분석 자료일 수 있으며, 이를 토대로 광고판 설치 장소 선정 등 다양한 관련 산업 분야에 이용할 수 있다.In the case of statistical data, for example, it may be time series analysis data such as the volume of pedestrian and vehicle traffic by day, the number of visitors for each section of the trail, or analysis data on the direction in which people move a lot. Based on this, various data can be used, such as selecting a place to install a billboard. It can be used in related industries.

이상에서 설명한 본 발명은 영상 분석, 클라우드 컴퓨팅, 개인정보 보호, 실시간 모니터링 및 고속 검색 분야에서 혁신적인 기술을 제공하며, 다양한 업종 및 응용 분야에서 활용할 수 있다.The present invention described above provides innovative technologies in the fields of video analysis, cloud computing, personal information protection, real-time monitoring, and high-speed search, and can be utilized in various industries and application fields.

이상에서, 본 발명의 실시례를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시례에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, as long as it is within the scope of the purpose of the present invention, all of the components may be operated by selectively combining one or more of them. In addition, terms such as “include,” “comprise,” or “have” described above mean that the corresponding component may be present, unless specifically stated to the contrary, and thus do not exclude other components. Rather, it should be interpreted as being able to include other components. All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Commonly used terms, such as terms defined in a dictionary, should be interpreted as consistent with the contextual meaning of the related technology, and should not be interpreted in an idealized or overly formal sense unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 게시된 실시례들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시례에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications and variations will be possible to those skilled in the art without departing from the essential characteristics of the present invention. Accordingly, the embodiments posted in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these examples. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

1: 카메라
10: 에지 디바이스 11: 메모리
12: 처리부 20: 클라우드 서버
21: 메모리 22: 제2 처리부
1: Camera
10: Edge device 11: Memory
12: Processing unit 20: Cloud server
21: memory 22: second processing unit

Claims (1)

적어도 하나의 카메라를 통해 영상 데이터를 취득하고, 취득된 상기 영상 데이터로부터 메타 데이터를 생성하는 제1 처리부를 포함하며, 상기 카메라를 통해 취득된 영상 데이터와 상기 제1 처리부를 통해 생성된 메타 데이터 중 적어도 어느 하나를 전송하는 에지 디바이스; 및
상기 에지 디바이스로부터 상기 메타 데이터를 전송받고, 전송받은 상기 메타 데이터를 통해 이벤트 발생이라고 판단한 경우에만 상기 에지 디바이스로부터 상기 영상 데이터를 전송받는 클라우드 서버를 포함하며,
상기 에지 디바이스는,
상기 영상 데이터와 상기 메타 데이터를 저장하기 위한 적어도 하나의 메모리를 더 포함하는 클라우드-에지 통합 플랫폼 시스템.
A first processing unit that acquires image data through at least one camera and generates metadata from the acquired image data, and selects one of the image data acquired through the camera and the metadata generated by the first processing unit. An edge device that transmits at least one; and
A cloud server that receives the metadata from the edge device and receives the video data from the edge device only when it is determined that an event has occurred based on the received metadata,
The edge device is,
A cloud-edge integrated platform system further comprising at least one memory for storing the image data and the metadata.
KR1020240013745A 2023-11-03 2024-01-30 Cloud-edge integrated platform system KR102641534B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020240013745A KR102641534B1 (en) 2023-11-03 2024-01-30 Cloud-edge integrated platform system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020230150771A KR102633147B1 (en) 2023-11-03 2023-11-03 Edge-cloud platform system
KR1020240013745A KR102641534B1 (en) 2023-11-03 2024-01-30 Cloud-edge integrated platform system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020230150771A Division KR102633147B1 (en) 2023-11-03 2023-11-03 Edge-cloud platform system

Publications (1)

Publication Number Publication Date
KR102641534B1 true KR102641534B1 (en) 2024-02-27

Family

ID=89900256

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020230150771A KR102633147B1 (en) 2023-11-03 2023-11-03 Edge-cloud platform system
KR1020240013745A KR102641534B1 (en) 2023-11-03 2024-01-30 Cloud-edge integrated platform system
KR1020240013747A KR102641536B1 (en) 2023-11-03 2024-01-30 Cloud-edge platform
KR1020240013746A KR102643330B1 (en) 2023-11-03 2024-01-30 Edge network cloud system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020230150771A KR102633147B1 (en) 2023-11-03 2023-11-03 Edge-cloud platform system

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020240013747A KR102641536B1 (en) 2023-11-03 2024-01-30 Cloud-edge platform
KR1020240013746A KR102643330B1 (en) 2023-11-03 2024-01-30 Edge network cloud system

Country Status (1)

Country Link
KR (4) KR102633147B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140094953A (en) * 2013-01-23 2014-07-31 케이티텔레캅 주식회사 Cloud image recording system of ip camera
KR20200021281A (en) * 2018-08-20 2020-02-28 제주대학교 산학협력단 Similarity-based CCTV Image Data Deduplication System using Big Data Analysis and method thereof
KR102152237B1 (en) * 2020-05-27 2020-09-04 주식회사 와치캠 Cctv central control system and method based on situation analysis
KR102315699B1 (en) * 2020-06-26 2021-10-21 주식회사 티앤엠테크 Method, apparatus and computer program for determining event occurrence of video data using artificial intelligence
KR20220041722A (en) 2020-09-25 2022-04-01 인텔 코포레이션 Biometric security for edge platform management

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140094953A (en) * 2013-01-23 2014-07-31 케이티텔레캅 주식회사 Cloud image recording system of ip camera
KR20200021281A (en) * 2018-08-20 2020-02-28 제주대학교 산학협력단 Similarity-based CCTV Image Data Deduplication System using Big Data Analysis and method thereof
KR102152237B1 (en) * 2020-05-27 2020-09-04 주식회사 와치캠 Cctv central control system and method based on situation analysis
KR102315699B1 (en) * 2020-06-26 2021-10-21 주식회사 티앤엠테크 Method, apparatus and computer program for determining event occurrence of video data using artificial intelligence
KR20220041722A (en) 2020-09-25 2022-04-01 인텔 코포레이션 Biometric security for edge platform management

Also Published As

Publication number Publication date
KR102643330B1 (en) 2024-03-05
KR102633147B1 (en) 2024-02-02
KR102641536B1 (en) 2024-02-27

Similar Documents

Publication Publication Date Title
Zhang et al. Edge video analytics for public safety: A review
CN107292240B (en) Person finding method and system based on face and body recognition
US8295649B2 (en) System and method for parallel processing of images from a large number of cameras
Zabłocki et al. Intelligent video surveillance systems for public spaces–a survey
US9292939B2 (en) Information processing system, information processing method and program
JPWO2016031720A1 (en) Surveillance camera system
KR102028930B1 (en) method of providing categorized video processing for moving objects based on AI learning using moving information of objects
KR20200103194A (en) Method and system for abnormal situation monitoring based on video
CN113378616A (en) Video analysis method, video analysis management method and related equipment
Purohit et al. Multi-sensor surveillance system based on integrated video analytics
KR101547255B1 (en) Object-based Searching Method for Intelligent Surveillance System
KR102641534B1 (en) Cloud-edge integrated platform system
WO2015093687A1 (en) Data processing system
Shivthare et al. Suspicious activity detection network for video surveillance using machine learning
Agarwal et al. Suspicious Activity Detection in Surveillance Applications Using Slow-Fast Convolutional Neural Network
Kulbacki et al. Intelligent video monitoring system with the functionality of online recognition of people’s behavior and interactions between people
KR102555845B1 (en) Intelligent CCTV And Surveillance System Using It
Musharaf Hussain et al. IoT Based Smart Human Traffic Monitoring System Using Raspberry Pi
Zhang et al. Critical Infrastructure Security Using Computer Vision Technologies
Chander et al. Smart Surveillance with Facial Recognition Using Inception Resnet-V1
Rawat et al. WLAN-based smart door closer design with image classification
Mokashi et al. Video Analytics Technologies Available for Surveillance Systems
KR20140087062A (en) A System AND METHOD FOR MANAGING ENTERPRISE HUMAN RESOURCE USING HYBRID RECOGNITION TECHNIQUE
CN220874562U (en) Police key personnel monitoring and analyzing big data device
US20230222692A1 (en) Systems and methods for sharing analytical resources in a camera network

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant