KR102128945B1 - Video transmission system based on edge cloud - Google Patents
Video transmission system based on edge cloud Download PDFInfo
- Publication number
- KR102128945B1 KR102128945B1 KR1020190175048A KR20190175048A KR102128945B1 KR 102128945 B1 KR102128945 B1 KR 102128945B1 KR 1020190175048 A KR1020190175048 A KR 1020190175048A KR 20190175048 A KR20190175048 A KR 20190175048A KR 102128945 B1 KR102128945 B1 KR 102128945B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- camera
- cameras
- client terminal
- video
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/222—Secondary servers, e.g. proxy server, cable television Head-end
- H04N21/2223—Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/231—Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
- H04N21/23113—Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion involving housekeeping operations for stored content, e.g. prioritizing content for deletion because of storage space restrictions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/2347—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving video stream encryption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/4405—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video stream decryption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
본원은 엣지 클라우드 기반 영상 전송 시스템에 관한 것이다. 특히, 본원은 엣지 클라우드(edge cloud) 기반 CCTV 리로케이션(Relocation) 스트리밍 및 전송이 가능한 영상 전송 시스템에 관한 것이다. The present invention relates to an edge cloud-based image transmission system. In particular, the present application relates to an image transmission system capable of streaming and transmitting edge cloud-based CCTV relocation.
인공지능(Artificial Intelligence, AI), 사물인터넷(Internet of Things, IOT), 자율 주행 등의 기술 발달에 의하면, 네트워크 망을 통해 오고 가는 데이터의 양이 폭발적으로 증가할 수 있다. 컴퓨팅 서버는 이러한 방대한 양의 데이터를 지연 없이 처리할 수 있어야 하기 때문에, 중앙에서 모든 데이터를 처리하는 클라우드 컴퓨팅(cloud computing)을 보완할 수 있는 기술로서 최근 엣지 컴퓨팅(edge computing) 관련 기술이 주목받고 있다.According to the development of technologies such as artificial intelligence (AI), the Internet of Things (IOT), and autonomous driving, the amount of data coming and going through a network may explode. Since the computing server must be able to process such a large amount of data without delay, recently, edge computing-related technologies have attracted attention as a technology that can complement cloud computing, which processes all data centrally. have.
도 1은 종래 클라우드 컴퓨팅을 설명하기 위한 도면이다.1 is a view for explaining a conventional cloud computing.
도 1을 참조하면, 클라우드 컴퓨팅(cloud computing)은 데이터를 클라우드 서버라고 불리는 데이터 센터(즉, 클라우드 데이터 센터)에 저장하여 활용함으로써 고속 무선 네트워크를 이용하여 모바일 사용자들이 이를 사용하는 방식을 의미한다. Referring to FIG. 1, cloud computing refers to a method in which mobile users use a high-speed wireless network by storing and utilizing data in a data center (ie, cloud data center) called a cloud server.
그런데, 클라우드 컴퓨팅은 모바일 사용자의 디바이스를 가볍게 하고 사용자가 손쉽게 데이터를 얻을 수 있도록 하나, 대역폭의 제한이 있는 문제가 있다. 즉, 이러한 클라우드 컴퓨팅은 클라우드와 사용자 간의 비근접성으로 인해 발생하는 지연 시간(latency) 증가, 이동성 있는 기기의 지원 능력 부족, 위치 인지성(location-awareness) 등을 제공할 수 없는 문제가 있다.However, cloud computing lightens the mobile user's device and allows the user to easily obtain data, but there is a problem of bandwidth limitation. That is, such cloud computing has a problem in that it is not possible to provide a latency increase caused by inaccessibility between a cloud and a user, a lack of support capability of a mobile device, and location-awareness.
또한, 클라우드 컴퓨팅 방식의 경우에는, 사용자가 카메라를 등록하여 카메라의 영상을 보고자 할 경우, 도1에 도시된 것과 같이 데이터센터(클라우드 데이터 센터)까지 영상 패킷을 보내고, 그 보낸 영상을 다시 사용자에게 보내주는 방식으로 작동한다. 이러한 작동 방식으로 인해, 클라우드 컴퓨팅은 딜레이 및 네트워크 불안정으로 인한 영상 누락이 발생할 확률이 높으며, 암호화 전송이 불가능함에 따라 해킹으로 인한 영상 탈취에 있어서 보안이 취약한 문제가 있다.Also, in the case of the cloud computing method, when a user registers a camera and wants to view an image of the camera, a video packet is sent to a data center (cloud data center) as shown in FIG. 1, and the transmitted image is sent back to the user It works by sending it. Due to this operation method, cloud computing has a high probability of missing images due to delays and network instability, and has a problem in that security is weak in stealing images due to hacking as encryption transmission is impossible.
사물 인터넷 시대에 본격 진입하게 되면 다양한 경로를 통해 중앙으로 수집되는 데이터의 양이 많아지고, 실시간 처리가 중요한 사물 인터넷 환경에서는 집중된 데이터를 지연 없이 처리해야 하는데, 상술한 종래의 클라우드 컴퓨팅(즉, 중앙 집중형 클라우드 컴퓨팅) 환경에서는 빠르게 결과를 받아 보는 데에 한계가 있다.When entering the Internet of Things in earnest, the amount of data collected centrally through various paths increases, and in the IoT environment where real-time processing is important, concentrated data must be processed without delay. In a concentrated cloud computing) environment, there is a limit to receiving results quickly.
이러한 클라우드 컴퓨팅의 문제를 보완하기 위해 최근 엣지 컴퓨팅(edge computing)과 엣지 클라우드(edge cloud) 기술이 주목받고 있다.In order to compensate for the problems of cloud computing, edge computing and edge cloud technologies have recently attracted attention.
IT 인프라에서 엣지(edge)라 함은 사용자와 가장 가까운 네트워크에 위치한 서버 혹은 노드를 의미하며, 사용자가 요청한 데이터 또는 콘텐츠를 사용자 가장 가까이에서 전송하고 처리할 수 있도록 인프라를 구성하는 것이 핵심이라 할 수 있다.In the IT infrastructure, the edge means a server or node located in the network closest to the user, and configuring the infrastructure to transmit and process data or content requested by the user closest to the user is the key. have.
엣지 컴퓨팅(edge computing)은 네트워크 단말 역할만 하던 엣지 장비에 컴퓨팅 능력을 부여하여 중앙으로 몰리는 데이터 부하를 줄이는 것을 주된 특징으로 하는 기술로서, 중앙에서 데이터를 집중 처리하는 클라우드 컴퓨팅(cloud computing) 방식이 아닌, 여러 지점에서 소규모 설비로 데이터를 처리하는 컴퓨팅 방식을 의미한다. 달리 말해, 엣지 컴퓨팅은 기존의 클라우드 컴퓨터가 데이터 중심부에서 모바일 네트워크를 지원한 것에 반해, 네트워크의 주변부라고 불리는 사용자들이 이용하는 서비스 장소까지 근접해서 네트워크를 지원하는 개념을 의미한다.Edge computing is a technology mainly characterized by reducing the data load that is driven to the center by giving computing power to edge equipment that was only a network terminal, and a cloud computing method that centrally processes data is used. Rather, it means a computing method that processes data from small branches to small facilities. In other words, edge computing refers to the concept of supporting a network in close proximity to a service place used by users called a periphery of a network, while the existing cloud computer supports a mobile network in the center of the data.
엣지 컴퓨팅이 분산된 소형 서버를 통해 실시간으로 정보를 처리하는 기술이라면, 엣지 클라우드는 말단에 있는 클라우드를 의미한다. 일반적으로 네트워크상에서 특정 지점이 연결되기 위해서는 수많은 라우터를 거쳐가게 되고 그 중 하나를 홉(hop)이라고 하는데, 특정 디바이스와 한 개의 홉 내에 연결된 곳에서 컴퓨팅/클라우드 서비스가 가능한 것을 엣지 컴퓨팅/엣지 클라우드라고 한다.If edge computing is a technology that processes information in real time through a small distributed server, edge cloud means a cloud at the end. In general, in order to connect a specific point on the network, it goes through a number of routers, and one of them is called a hop. Edge computing/edge cloud is a computing/cloud service that can be connected to a specific device within one hop. do.
엣지 컴퓨팅은 클라우드 컴퓨팅에 비해 지연 시간(latency)이 짧은 특징이 있다. 가장 가까운 단말 혹은 사물 인터넷 기기에서 직접 데이터를 처리하기 때문에 지연 시간 없이 상황에 대응할 수 있고, 빠른 응답속도를 보장하므로 자율 주행 산업 등에 효과적으로 적용될 수 있다.Edge computing is characterized by a shorter latency than cloud computing. Since it processes data directly from the nearest terminal or Internet of Things device, it can respond to situations without delay, and it can be effectively applied to the autonomous driving industry, etc. because it guarantees fast response speed.
클라우드 컴퓨팅은 중앙의 데이터 센터에 문제가 발생하면 그와 연결된 모든 웹/모바일 서비스에 영향을 미친다. 이에 반해, 엣지 컴퓨팅은 각각의 장비에서 대부분의 연산을 처리하기 때문에, 어느 한 시스템을 공략한다고 하여 전체 서비스에 피해를 주지는 않는다는 점에서, 클라우드 컴퓨팅 대비 안전하다고 할 수 있으나, 여전히 보안에 취약하다는 문제가 있다.Cloud computing affects all web/mobile services connected to it when a problem occurs in a central data center. On the other hand, since edge computing handles most of the computation on each device, it can be said to be safe compared to cloud computing in that attacking any one system does not damage the entire service, but it is still vulnerable to security. there is a problem.
본원의 배경이 되는 기술은 한국등록특허공보 제10-1202029호에 개시되어 있다.The background technology of the present application is disclosed in Korean Registered Patent Publication No. 10-1202029.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 클라우드 컴퓨팅의 경우 딜레이 및 네트워크 불안정으로 인한 영상 누락이 발생할 확률이 높고, 암호화 전송이 불가능함에 따라 해킹으로 인한 영상 탈취에 있어서 보안이 취약한 문제를 해소할 수 있는 엣지 클라우드 기반 영상 전송 시스템을 제공하려는 것을 목적으로 한다.The present application is intended to solve the above-mentioned problems of the prior art, and in the case of cloud computing, there is a high probability of image omission due to delay and network instability, and as the transmission of the encryption is impossible, security problems in the video deodorization due to hacking are weak. It aims to provide an edge cloud-based video transmission system that can be solved.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 영상저장과 동시에 실시간 영상을 지연 없이 시청 가능하도록 하며, 보안성을 강화하여 중간에 영상을 불법 취득한 경우에도 영상 시청을 원천적으로 차단할 수 있도록 하는 엣지 클라우드 기반 영상 전송 시스템을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the above-mentioned prior art, and enables real-time video viewing without delay at the same time as video storage, and enhances security to fundamentally block video viewing even when an illegal video is acquired in the middle. It aims to provide an edge cloud-based video transmission system.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems as described above, and other technical problems may exist.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 엣지 클라우드 기반의 영상 전송 시스템은, 복수의 카메라; 상기 복수의 카메라와 클라우드 데이터 센터 서버의 사이에 배치되고, 클라이언트 단말로부터 수신한 상기 복수의 카메라 중 제1 카메라의 제1 영상을 제공받기 위한 영상요청패킷에 응답하여, 상기 제1 카메라를 통해 획득되는 제1 영상이 라이브 영상으로서 스트리밍으로 상기 클라이언트 단말로 제공되도록 제어하고, 상기 클라이언트 단말로 제공되는 상기 라이브 영상을 녹화 영상으로서 데이터베이스부에 저장하는 엣지 로케이션 서버; 및 상기 데이터베이스부에 기 저장된 녹화 영상들 중 미리 설정된 조건을 충족하는 녹화 영상을 상기 엣지 로케이션 서버로부터 전달받아 저장하는 클라우드 데이터 센터 서버를 포함하고, 상기 미리 설정된 조건을 충족하는 녹화 영상은, 상기 데이터베이스부에 저장된 녹화 영상의 저장 시간이 미리 설정된 시간을 초과하는 것으로 판단되는 녹화 영상이고, 상기 엣지 로케이션 서버는, 엣지 클라우드를 기반으로 상기 라이브 영상에 대한 제공과 저장, 및 상기 클라우드 데이터 센터 서버로의 녹화 영상의 전달을 수행하되, 상기 기 저장된 녹화 영상들 중 상기 미리 설정된 조건을 충족하는 녹화 영상에 한하여 상기 클라우드 데이터 센터 서버로의 녹화 영상의 전달을 수행할 수 있다.As a technical means for achieving the above technical problem, the edge cloud-based video transmission system according to an embodiment of the present application, a plurality of cameras; It is disposed between the plurality of cameras and the cloud data center server, and is acquired through the first camera in response to an image request packet for receiving the first image of the first camera among the plurality of cameras received from the client terminal. An edge location server that controls the first video to be provided as the live video to the client terminal by streaming, and stores the live video provided to the client terminal as a recorded video in the database unit; And a cloud data center server that receives and stores, from the edge location server, a recorded image that satisfies a preset condition among the recorded images previously stored in the database unit, and the recorded image that satisfies the preset condition is the database. It is a recorded video which is judged to have the storage time of the recorded video stored in the unit exceeds a preset time, and the edge location server provides and stores the live video based on the edge cloud, and to the cloud data center server. The transmission of the recorded image may be performed, but only the recorded image that satisfies the preset condition among the previously stored recorded images may be delivered to the cloud data center server.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description of the invention.
전술한 본원의 과제 해결 수단에 의하면, 엣지 클라우드 기반 영상 전송 시스템의 제공을 통해, 종래에 클라우드 컴퓨팅의 경우 딜레이 및 네트워크 불안정으로 인한 영상 누락이 발생할 확률이 높고, 암호화 전송이 불가능함에 따라 해킹으로 인한 영상 탈취에 있어서 보안이 취약한 문제를 해소할 수 있다.According to the above-described problem solving means of the present application, through the provision of an edge cloud-based image transmission system, in the case of cloud computing, there is a high probability of image omission due to delay and network instability, and hacking due to hacking as encryption transmission is impossible It is possible to solve the problem of weak security in video capture.
전술한 본원의 과제 해결 수단에 의하면, 엣지 클라우드 기반 영상 전송 시스템의 제공을 통해, 영상저장과 동시에 실시간 영상을 지연 없이 시청 가능하도록 하며, 보안성을 강화하여 중간에 영상을 불법 취득한 경우에도 영상 시청을 원천적으로 차단되도록 할 수 있다.According to the above-described problem solving means of the present application, through the provision of an edge cloud-based video transmission system, it is possible to view a real-time video simultaneously with video storage without delay, and enhance security to watch the video even if the video is illegally acquired in the middle. Can be blocked by default.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the effects described above, and other effects may exist.
도 1은 종래 클라우드 컴퓨팅을 설명하기 위한 도면이다.
도 2a 내지 도 2c는 본원의 일 실시예에 따른 엣지 클라우드 기반의 영상 전송 시스템의 개략적인 구성을 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버에서 고려되는 헤대라 해시그래프의 구조를 개략적으로 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버에서 제1 영상의 확장 영상의 제공 예를 설명하기 위한 도면이다.
도 5는 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버에서 제2 카메라의 각도 제어에 의해 획득되는 각도 변경 영상을 설명하기 위한 도면이다.
도 6 내지 도 8은 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버에서 대체 영상의 획득을 위한 선택적 중첩 영상 획득 카메라의 각도 제어 예를 설명하기 위한 도면이다.1 is a view for explaining a conventional cloud computing.
2A to 2C are diagrams showing a schematic configuration of an edge cloud-based image transmission system according to an embodiment of the present application.
3 is a diagram schematically showing a structure of a Hedra hashgraph considered in an edge cloud-based image transmission server according to an embodiment of the present application.
4 is a view for explaining an example of providing an extended image of the first image in the edge cloud-based image transmission server according to an embodiment of the present application.
5 is a view for explaining an angle change image obtained by the angle control of the second camera in the edge cloud-based image transmission server according to an embodiment of the present application.
6 to 8 are diagrams for explaining an angle control example of the selective superimposed image acquisition camera for acquiring the replacement image in the edge cloud-based image transmission server according to an embodiment of the present application.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present application pertains may easily practice. However, the present application may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present application in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" to another part, it is not only "directly connected", but also "electrically connected" or "indirectly connected" with another element in between. "It includes the case where it is.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned on another member “on”, “on the top”, “top”, “bottom”, “bottom”, “bottom”, it means that a member is on another member. This includes cases where there is another member between the two members as well as when in contact.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the present specification, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless otherwise stated.
도 2a 내지 도 2c는 본원의 일 실시예에 따른 엣지 클라우드(edge cloud) 기반의 영상 전송 시스템(1000)의 개략적인 구성을 나타낸 도면이다.2A to 2C are diagrams showing a schematic configuration of an edge cloud-based
이하에서는 본원의 일 실시예에 따른 엣지 클라우드 기반의 영상 전송 시스템(1000)을 설명의 편의상 본 시스템(1000)라 하기로 한다.Hereinafter, the edge cloud-based
도 2a 내지 도 2c를 참조하면, 본 시스템(1000)은 복수의 카메라(10)(1, 2, 3, 4, …), 엣지 로케이션 서버(100), 클라이언트 단말(200) 및 클라우드 데이터 센터 서버(400)를 포함할 수 있다.2A to 2C, the
여기서, 엣지 로케이션 서버(100)는 본원의 일 실시예에 따른 엣지 클라우드 기반의 영상 전송이 가능한 서버(혹은 장치)를 의미하는 것으로서, 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버(100, 혹은 엣지 클라우드 기반 영상 전송 장치)라 지칭될 수 있다. 이하에서는 엣지 로케이션 서버(100)를 설명의 편의상 본 서버(100)라 하기로 한다.Here, the
클라우드 데이터 센터 서버(400)는 클라우드 데이터 센터, 데이터 센터 등으로 달리 지칭될 수 있다.The cloud
클라이언트 단말(200)은 본 서버(100)에 대하여 사용자가 보고자 하는 영상에 대한 영상 제공 요청을 하고, 해당 영상을 제공받는 사용자(고객)의 단말을 의미할 수 있다.The
클라이언트 단말(200)은 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(WCode Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 노트북, 웨어러블 디바이스, 데스크탑 PC 등과 같은 모든 종류의 유무선 통신 장치, 이동이나 휴대가 가능한 장치(모바일 장치)를 포함할 수 있으며, 이에 한정되는 것은 아니다.The
다른 일예로, 클라이언트 단말(200)은 IOT 디바이스, 자율주행 차량, 자율주행 드론, 스마트 카(smart car) 등을 포함할 수 있다.As another example, the
복수의 카메라(10)(1, 2, 3, 4, …)는 영상 획득 장치, 촬영 장치, CCTV 등으로 달리 표현될 수 있다. 복수의 카메라(10)(1, 2, 3, 4, …)는 정적인 영상(이미지) 및/또는 동적인 영상(동영상)을 촬영하여 획득할 수 있다. 복수의 카메라(10)에는 제1 카메라(1), 제2 카메라(2), 제3 카메라(3), 제4 카메라(4) 등이 포함될 수 있다.The plurality of cameras 10 (1, 2, 3, 4, ...) may be differently represented by an image acquisition device, a photographing device, and CCTV. The plurality of cameras 10 (1, 2, 3, 4, ...) may be obtained by photographing a static image (image) and/or a dynamic image (movie). The plurality of
이하 본원을 설명함에 있어서 복수의 카메라(10) 중 어느 하나의 카메라에 대하여 설명된 내용은, 이하 생략된 내용이라 하더라도 복수의 카메라(10) 중 상기 어느 하나의 카메라를 제외한 나머지 카메라들 각각에 대한 설명에도 동일하게 적용될 수 있다.In the following description of the present application, contents described with respect to any one camera among the plurality of
클라우드 데이터 센터 서버(400)는 일예로 서버, 네트워크, 스토리지 등 IT 서비스 제공에 필요한 장비들을 한 건물 안에 모아서 24시간 365일 운영하고 통합 관리하는 시설을 의미할 수 있다. 이러한 클라우드 데이터 센터 서버(400)는 클라우드 컴퓨팅, 빅데이터 분석, 사물인터넷 구현 등 산업에서 발생하는 모든 정보를 저장하고 처리하는 기능을 수행할 수 있다.The cloud
클라우드 데이터 센터 서버(400)는 여러 지역에 걸쳐 분산된 복수의 본 서버(100, 엣지 로케이션 서버)로부터 데이터를 수신하여 자체 구비된 데이터베이스(미도시)에 저장하고, 이를 관리하는 기능을 수행할 수 있다.The cloud
본 서버(100)는 엣지 클라우드(310)를 포함할 수 있다. 본 서버(100)는 예시적으로 엣지 노드(edge node)라고 달리 지칭될 수 있다. 도 2a에 도시된 일예에서는 일예로 본 서버(100)가 엣지 클라우드(310)와 별개의 구성인 것으로 예시하였으나, 이에 한정되는 것은 아니고, 다른 일예로 본 서버(100) 자체가 엣지 클라우드(310) 일 수 있다.The
본 서버(100)(혹은 엣지 클라우드)는, 컴퓨팅 장비, 스토리지 장비, 네트워크 장비 등을 포함할 수 있다. 이러한 본 서버(100)는 클라이언트 단말(200)로부터 전송되는 데이터를 스토리지 장비에 저장하고, 저장된 데이터를 파일 형태로 관리할 수 있다. 여기서, 본 서버(100)에 포함된 스토리지 장비라 함은 데이터베이스부(160)를 의미할 수 있다.The server 100 (or edge cloud) may include computing equipment, storage equipment, and network equipment. The
본 서버(100)는 일예로 데이터베이스부(160, 스토리지 장비)에 저장된 파일에서 메타데이터(metadata)를 추출하고, 추출된 메타데이터를 클라우드 데이터 센터 서버(400)로 전송할 수 있다. 이때, 메타데이터는 예시적으로 파일 정보, 해당 파일을 관리하고 있는 본 서버(100, 혹은 엣지 클라우드)의 식별 정보, 해당 파일을 본 서버(100)로 전송한 클라이언트 단말(200)의 식별 정보 등을 포함할 수 있다.The
여기서, 파일 정보는 파일의 크기, 종류, 생성 시간 등에 관한 정보를 포함할 수 있다. 일예로, 본 서버(100)가 클라우드 데이터 센터 서버(400)로 메타데이터만을 전송하는 경우에는, 클라우드 데이터 센터 서버(400)가 본 서버(100) 혹은 본 서버(100)를 포함하는 복수의 엣지 로케이션 서버에 대하여 과도한 트래픽이 발생하는 것을 방지할 수 있다.Here, the file information may include information regarding the size, type, and creation time of the file. For example, when the
본 서버(100)는 데이터베이스부(160)에 저장된 녹화 영상이 미리 설정된 조건을 충족하는 경우에, 미리 설정된 조건을 충족하는 녹화 영상(데이터) 또는 미리 설정된 조건을 충족하는 녹화 영상에 관한 메타데이터를 클라우드 데이터 센터 서버(400)로 전달(제공, 전송)할 수 있다. 여기서, 미리 설정된 조건에 대한 설명은 후술하여 설명하기로 한다.When the recorded image stored in the
본 서버(100)는 자신이 속한 미리 설정된 영역(혹은, 엣지 클라우드에 의하여 커버 가능한 영역) 내에 존재하는 클라이언트 단말들에 대하여 컴퓨팅 자원, 스토리지 자원, 네트워크 자원 등을 할당할 수 있다.The
본 서버(100, 엣지 로케이션 서버)는 복수의 카메라(10)와 클라우드 데이터 센터 서버(400) 사이에 배치될 수 있다.The present server 100 (edge location server) may be disposed between the plurality of
본 서버(100)는 수신부(110), 영상 전송부(120), 검증 패킷 전송부(130), 제어부(140), 선택 메뉴 제공부(150) 및 데이터베이스부(160)를 포함할 수 있다.The
수신부(110)는 일예로 클라이언트 단말(200)로부터 복수의 카메라(10) 중 제1 카메라(1)의 제1 영상을 제공받기 위한 영상요청패킷을 수신할 수 있다.The receiving
제어부(140)는 클라이언트 단말(200)로부터 수신한 제1 카메라(1)의 제1 영상을 제공받기 위한 영상요청패킷에 응답하여, 제1 카메라(1)를 통해 획득되는 제1 영상이 클라우드 데이터 센터 서버(400)에 대한 저장 없이, 라이브 영상으로서 스트리밍(streaming)으로 실시간 클라이언트 단말(200)로 제공되도록 제어(즉, 제1 카메라의 동작을 제어)할 수 있다.The
제어부(140)는 클라이언트 단말(200)에 대한 라이브 영상의 제공과 동시에, 클라이언트 단말(200)로 제공되는 제1 영상에 대한 라이브 영상을 녹화 영상으로서 데이터베이스부(160)에 저장할 수 있다.The
본원에서 제어부(140)가 제1 카메라(1)의 제1 영상을 수신시 바로 클라이언트 단말(200)로 제공하는 경우, 클라이언트 단말(200)로 제공되는 해당 제1 영상은 제1 영상의 라이브 영상이라 지칭될 수 있다. 한편, 사용자 단말(200)로 제공되는 제1 영상의 라이브 영상이 데이터베이스부(160)에 저장되는 경우, 데이터베이스부(160)에 저장된 제1 영상(특히, 클라이언트 단말로 제공되는 제1 영상의 라이브 영상)은 제1 영상의 녹화 영상이라 지칭될 수 있다.When the
본 서버(100)의 제어부(140)는 엣지 클라우드(310)를 기반으로, 제1 카메라(1)로부터 획득된 제1 영상을 클라이언트 단말(200)로 제공하거나 및/또는 데이터베이스부(160)에 저장할 수 있다. 또한, 제어부(140)는 엣지 클라우드(310)를 기반으로, 데이터베이스부(160)에 저장된 제1 영상의 녹화 영상을 클라우드 데이터 센터 서버(400)로 전달할 수 있다.The
이때, 앞서 말한 바와 같이, 본 서버(100)는 일예로 엣지 클라우드(310)와는 별개의 구성일 수도 있으나, 이에만 한정되는 것은 아니고, 본 서버(100) 자체가 엣지 클라우드일 수 있다.At this time, as described above, the
제어부(140)는 데이터베이스부(160)에 기 저장된 녹화 영상들 중 미리 설정된 조건을 충족하는 녹화 영상에 한하여 클라우드 데이터 센터 서버(400)로 녹화 영상을 전달할 수 있다.The
여기서, 미리 설정된 조건을 충족하는 녹화 영상은, 데이터베이스부(160)에 저장된 녹화 영상의 저장 시간이 미리 설정된 시간을 초과하는 것으로 판단되는 녹화 영상을 의미할 수 있다. 미리 설정된 시간은 일예로 1일(24시간)일 수 있다. 다만, 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 미리 설정된 시간은 사용자 입력에 기초하여 분, 초, 시간, 일(day) 등의 단위로 다양하게 설정될 수 있다.Here, the recorded image that satisfies the preset condition may mean a recorded image determined to be a storage time of the recorded image stored in the
예시적으로, 제어부(140)는 데이터베이스부(160)에 기 저장된 녹화 영상들 중 제1 영상의 녹화 영상이 미리 설정된 조건을 충족하는 경우, 미리 설정된 조건을 충족하는 해당 제1 영상의 녹화 영상을 클라우드 데이터 센터 서버(400)로 전달할 수 있다. 특히, 제어부(140)는 데이터베이스부(160)에 저장된 제1 영상의 녹화 영상에 대한 저장 시간이 1일(24시간) 이상이 된 경우, 해당 제1 영상의 녹화 영상이 미리 설정된 조건을 충족하는 녹화 영상인 것으로 판단하여, 미리 설정된 조건을 충족하는 제1 영상의 녹화 영상을 클라우드 데이터 센터 서버(400)로 전달(제공)할 수 있다.For example, when the recorded image of the first image among the recorded images previously stored in the
클라우드 데이터 센터 서버(400)는 데이터베이스부(160)에 기 저장된 녹화 영상들 중 미리 설정된 조건을 충족하는 녹화 영상을 엣지 로케이션 서버(본 서버, 100)로부터 전달받아 저장할 수 있다.The cloud
즉, 본 서버(100)의 데이터베이스부(160)에 저장된 제1 영상의 녹화 영상이 미리 설정된 시간(일예로 24시간)을 초과하는 경우, 클라우드 데이터 센터 서버(400)는 본 서버(100)로부터 전송되는 미리 설정된 시간을 초과하는 제1 영상의 녹화 영상을 전달받아 클라우드 데이터 센터 서버(400)에 자체 구비된 데이터베이스(미도시)에 저장할 수 있다.That is, when the recorded image of the first image stored in the
본 서버(100)는 데이터베이스부(160)에 저장된 저장 시간이 미리 설정된 시간을 초과함에 따라 데이터베이스부(160)로 전달된 녹화 영상(일예로, 제1 영상의 녹화 영상)에 대하여 삭제 처리를 수행할 수 있다.The
즉, 제어부(140)는 데이터베이스부(160)에 저장된 녹화 영상들 중 미리 설정된 시간을 초과하는 녹화 영상들을 제어부(140)에 의해 클라우드 데이터 센터 서버(400)로 전달함과 동시에, 클라우드 데이터 센터 서버(400)로 전달된 녹화 영상을 데이터베이스부(160)에서 삭제 처리 함으로써, 데이터베이스부(160)에 남아있지 않도록 할 수 있다.That is, the
이때, 본 서버(100, 엣지 로케이션 서버)의 제어부(140)는, 클라이언트 단말(200)로부터 제1 카메라(1)의 제1 영상에 대응하는 녹화 영상의 획득을 요청하는 녹화 영상 제공요청이 수신된 경우, 데이터베이스부(160)에 해당 제1 영상의 녹화 영상이 존재하는지 판단할 수 있다. At this time, the
판단 결과 데이터베이스부(160)에 제1 영상의 녹화 영상이 존재하면, 제어부(140)는 데이터베이스부(160)에 저장된 제1 영상의 녹화 영상을 클라이언트 단말(200)로 제공할 수 있다.As a result of the determination, if a recorded image of the first image exists in the
한편, 판단 결과 데이터베이스부(160)에 제1 영상의 녹화 영상이 존재하지 않으면, 제어부(140)는 데이터베이스부(160)에 저장된 제1 영상의 녹화 영상에 대한 저장 시간이 미리 설정된 시간을 초과해 클라우드 데이터 센터 서버(400)로 전달됨에 따라 클라우드 데이터 센터 서버(400)에 존재하는 것으로 인식하고, 이후 클라우드 데이터 센터 서버(400)에 저장되어 있는 제1 영상의 녹화 영상을 클라우드 데이터 센터 서버(400)로부터 전달받아 클라이언트 단말(200)로 제공할 수 있다.On the other hand, if there is no recorded image of the first image in the
이때, 본원의 일예에서는 본 서버(100)가 클라우드 데이터 센터 서버(400)에 저장되어 있는 제1 영상의 녹화 영상을 클라우드 데이터 센터 서버(400)로부터 전달받아 클라이언트 단말(200)로 제공하는 것으로 예시하였으나, 이에 한정되는 것은 아니고, 다른 일예로 본 서버(100)는 클라우드 데이터 센터 서버(400)에 저장되어 있는 제1 영상의 녹화 영상이 클라이언트 단말(200)로 직접 제공되도록 클라우드 데이터 센터 서버(400)로 클라이언트 단말(200)로의 녹화 영상의 제공을 요청하는 요청 메시지를 전송할 수 있다. 이에 따라, 클라우드 데이터 센터 서버(400)는 본 서버(100)로부터 전달받은 요청 메시지에 응답하여, 일예로 제1 영상의 녹화 영상을 네트워크(300)를 통해 클라이언트 단말(200)로 직접 제공할 수 있다. 이때, 네트워크(300)에 대한 설명은 후술하여 설명하기로 한다.At this time, in the example of the present application, the
본 시스템(1000)에서는, 복수의 카메라(10)에 대하여 일예로 2가지 유형의 IP대역이 설정될 수 있다. 여기서, 2가지 유형의 IP에는 제1 유형의 IP로서 인증용 IP(인증용 퍼블릭 IP)가 포함되고, 제2 유형의 IP로서 영상 스트리밍용 멀티캐스트 IP가 포함될 수 있다.In the
여기서 제1 유형의 IP인 인증용 IP는 카메라에 대한 초기 셋팅 및 본 서버(100)에 카메라를 등록하기 위한 IP를 의미할 수 있다. 제2 유형의 IP인 멀티캐스트 IP는 영상 전송 전용으로 사용되는 IP를 의미할 수 있다. 본 서버(100)는 일예로 멀티캐스트 IP에 대응하는 멀티캐스트 프로토콜을 이용하여 카메라로부터 영상을 전달받아 데이터베이스부(160)에 저장할 수 있다.Here, the IP for authentication, which is the first type of IP, may mean an initial setting for the camera and an IP for registering the camera to the
사용자에 대응하는 클라이언트 단말(200)은 일예로 제1 카메라(1)의 영상(제1 영상)을 제공받고자 하는 경우, 도 1에 도시된 클라우드 컴퓨팅에서와 같이 클라우드 데이터 센터 서버(400)로부터 영상을 전달받는 것이 아니라, 클라우드 데이터 센터 서버(400)를 통하지 않고 본 서버(100)에 의한 제어에 의해 제1 영상을 제1 카메라(1)로부터 라이브 영상으로서 제공받을 수 있다. 이를 통해, 클라이언트 단말(200)은 제1 카메라(1)의 제1 영상을 라이브 영상으로서 제1 카메라(1)로부터 실시간 스트리밍으로 제공받아 시청할 수 있다.When the
사용자는 클라이언트 단말(200)을 통해 자신이 소유한 카메라를 본 서버(100)에 등록할 수 있다. 이러한 등록에 의해, 본 서버(100)는 클라이언트 단말(200)의 식별정보와 해당 클라이언트 단말(200)에 의해 등록된 카메라의 식별정보(일예로, 해당 카메라에 대응하는 IP 정보)를 서로 연계하여 식별 매칭 정보로서 데이터베이스부(160)에 저장해 둘 수 있다.The user can register the camera owned by the user through the
이때, 본 서버(100)에 일예로 클라이언트 단말(200)에 의해 제1 카메라(1)가 등록되었다고 하자. 등록 이후, 본 서버(100)가 클라이언트 단말(200)로부터 제1 카메라(1)의 영상을 제공받기 위한 요청(즉, 영상요청패킷)을 수신하였다고 하자.In this case, it is assumed that the
이러한 경우, 본 서버(100)의 후술하는 검증 패킷 전송부(130)는, 일예로 데이터베이스부(160)에 저장된 식별 매칭 정보(즉, 복수의 카메라와 연계되어 저장된 식별 매칭 정보)를 클라이언트 단말(200)에 전송할 수 있다. 이러한 식별 매칭 정보의 전송을 통해 클라이언트 단말(200)로 해당 카메라의 멀티캐스팅 IP가 전달될 수 있다.In this case, the verification
이후, 본 서버(100)는 클라이언트 단말(200)로부터 수신한 영상요청패킷에 응답하여, 클라이언트 단말(200) 자체에 의한 1차 인증정보(로그인 인증정보)와 본 서버(100)에 의한 2차 인증정보를 기초로 1차 인증정보와 2차 인증정보가 모두 정상 인증되었는지 판단하고, 판단 결과 2개의 인증정보가 모두 정상 인증된 경우, 제1 카메라(1)의 제1 영상이 라이브 영상으로 클라이언트 단말(200)로 제공되도록 제1 카메라(1)의 동작을 제어할 수 있다. 이를 통해, 클라이언트 단말(200)은 제1 영상을 라이브 영상으로 제공받아 시청할 수 있다.Thereafter, the
이러한 본 서버(100)에 의하면 정상 인증이 이루어졌을 때, 제1 카메라(1)의 영상이 클라우드 데이터 센터 서버(400)를 경유하는 것 없이(즉, 클라우드 데이터 센터에 저장된 이후 클라우드 데이터 센터에서 클라이언트 단말로 제공하는 것 없이), 엣지 클라우드(310)를 통하여 본 서버(100)에 저장됨과 동시에 클라이언트 단말(200)로 직접 라이브 영상으로서 제공되어 표출되도록 할 수 있다.According to the
이러한 본 서버(100)에 의하면, 클라우드 데이터 센터 서버(400)가 클라이언트 단말(200)로부터 수신하는 패킷은 클라이언트 단말(200)이 녹화 영상 제공 요청 중 특히나 미리 설정된 조건을 충족하는 녹화 영상(즉, 데이터베이스부에 저장된 녹화 영상의 저장 시간이 미리 설정된 시간이 경과한 녹화 영상)을 제공받기 위한 요청이 이루어졌을 때에만 발생하게 되므로, 클라우드 데이터 센터 서버(400)에 대한 과도한 트래픽의 발생을 방지할 수 있다.According to the
다시 말해, 제1 카메라(1)의 제1 영상은 본 서버(100)에 저장되는 한편, 클라이언트 단말(200)로 실시간 스트리밍을 통해 라이브 영상으로 제공되기 때문에, 클라우드 데이터 센터 서버(400)에서 클라이언트 패킷(즉, 클라이언트 단말에서 클라우드 데이터 센터로 전송되는 패킷)은 인증용 IP 관련 패킷과 클라우드 데이터 센터 서버(400)에 저장된 녹화영상의 재생시에만 발생하게 되므로, 종래의 클라우드 컴퓨팅 대비 클라우드 데이터 센터 서버(400)에 대한 트래픽 발생을 줄일 수 있다.In other words, since the first image of the
본 서버(100)는 데이터베이스부(160)에 저장된 녹화 영상들 중 데이터베이스부(160)에 저장된 시간이 미리 설정된 시간(일예로, 24시간)을 초과하는(경과한) 녹화 영상을 클라우드 데이터 센터 서버(400)로 전송할 수 있다.The
또한, 본 시스템(1000)에서는 복수의 카메라(10)로부터 제공되는 영상이 압축 및/또는 암호화되어 전송(즉, 압축된 영상 및/또는 암호화된 영상이 전송)될 수 있다. 즉, 복수의 카메라(10)에서 본 서버(100) 내지 클라이언트 단말(200)로 제공되는 영상(라이브 영상), 본 서버(100)에서 클라우드 데이터 센터 서버(400)로 제공되는 영상(녹화 영상), 혹은 클라우드 데이터 센터 서버(400)에서 클라이언트 단말(200)로 제공되는 영상(녹화 영상)은 압축 및/또는 암호화되어 전송될 수 있다.In addition, in the
이러한 본 시스템(1000)은 영상 전송(송수신)에 있어서 강화된 보안성을 제공할 수 있다. 또한, 본 시스템(1000) 내 각 구성들 간에 송수신되는 영상에 대하여 중간에 영상 불법 취득이 이루어진 경우에 대해서도, 불법 취득된 영상의 시청이 원천적으로 차단되도록 할 수 있다(막을 수 있다).The
본 시스템(1000)은 암호화된 영상의 제공으로 하여금 엣지 컴퓨팅에서 개인정보나 중앙 데이터의 정보를 확인할 수 없도록 함으로써 보안성을 강화(향상)시킬 수 있다. 또한, 본 시스템(1000)에 의하면, 클라우드 데이터 센터 서버(400)가 외부 공격(일예로, DDoS공격)을 받더라도, 엣지 클라우드(310)에 의해 서비스(일예로, 영상 제공 서비스)의 이용이 가능하도록 할 수 있다.The
또한, 본 시스템(1000)은 IOT디바이스와의 연계가 가능함에 따라, 특정 이벤트 발생에 대한 사용자(고객)의 영상 송출(전송) 확인이 보다 빠르게 이루어지도록 제공할 수 있다. 또한, 본 시스템(1000)은 클라우드 데이터 센터 서버(400)로 전송되는 트래픽을 감소시킬 수 있는바, 유지비가 절감되도록 할 수 있다.In addition, as the
말단 기기에서 컴퓨팅을 수행하는 엣지 컴퓨팅에서의 영상 전송은 많은 네트워크 퍼포먼스를 필요로 한다. 이때 종래 도 1과 같은 클라우드 컴퓨팅 방식은 데이터 처리가 데이터 센터(클라우드 데이터 센터)에 집중되어 있음에 따라, 사용상 딜레이가 발생(즉, 클라이언트 단말로 제공하는 영상에 대해 딜레이가 발생)하게 되며, 네트워크 동기화시 데이터 로스가 발생하는 문제가 있다.Video transmission in edge computing, which performs computing on end devices, requires a lot of network performance. At this time, in the conventional cloud computing method as shown in FIG. 1, as data processing is concentrated in a data center (cloud data center), a delay occurs in use (that is, a delay occurs in an image provided to a client terminal). There is a problem that data loss occurs during synchronization.
이에 반해, 본 시스템(1000)은 엣지 컴퓨팅 방식을 기초로 영상 전송을 수행함으로써, 분산된 개방형 아키텍처를 이용하여 분산된 데이터를 전송할 수 있다. 이러한 본 시스템(1000)에서는 본 서버(100) 혹은 엣지 클라우드(310)에서 클라이언트 단말(200)에 대한 영상의 전송(제공)이 다이렉트로 스트리밍을 통해 멀티캐스트로 이루어질 수 있는 바, 본 서버(100)에 대한 영상 저장과 동시에 실시간으로 클라이언트 단말(200)로 영상이 딜레이 없이 라이브 영상으로 제공되도록 할 수 있다. 즉, 클라이언트 단말(200)은 엣지 클라우드(310)에 기반한 영상 획득을 통해, 카메라의 영상을 딜레이 없이 시청할 수 있다.In contrast, the
앞서 말한 바와 같이, 종래의 클라우드 컴퓨팅 방식의 CCTV 서비스는, 카메라라 획득된 영상이 다이렉트로 클라우드 데이터 센터로 제공됨에 따라, 클라우드 데이터 센터(클라우드 데이터 센터 서버)에서 카메라로부터 전달받은 영상을 저장하고 이를 클라이언트 단말(200)로 보내주는 방식으로 서비스가 이루어진다. 그렇기 때문에, 종래의 클라우드 컴퓨팅 방식을 기반으로 한 CCTV 서비스의 제공은, 딜레이가 심하게 발생하며 많은 카메라를 엣지 컴퓨팅에 설정할 수 없는 단점이 있다.As mentioned above, in the conventional cloud computing type CCTV service, as the image acquired by the camera is directly provided to the cloud data center, the cloud data center (cloud data center server) stores the image received from the camera and uses it. The service is performed by sending it to the
이러한 문제를 해소하기 위해, 본 시스템(1000)에서는 복수의 카메라(10)와 클라우드 데이터 센터 서버(400)의 사이에(중간에) 영상을 스트림 정보로(스트리밍으로) 제공할 수 있는 서버로서 본 서버(100, 엣지 로케이션 서버)를 배치시킬 수 있다.In order to solve this problem, the
이러한 본 서버(100)에 의하면, 제1 카메라(1)의 제1 영상에 대한 라이브 영상이 제1 카메라(1)에서 클라이언트 단말(200)로 직접 전달되도록 하거나 본 서버(100)를 경유하여 전달되도록 할 수 있으며, 제1 카메라(1)의 제1 영상이 본 서버(100)의 데이터베이스부(160)에 저장되도록 할 수 있다. 또한, 본 서버(100)에 저장된 영상(녹화 영상)은 미리 설정된 시간이 초과하였을 때 클라우드 데이터 센터 서버(400)로 전달(백업)되어 클라우드 데이터 센터 서버(400)에 저장(보관)되도록 할 수 있다.According to the
종래의 클라우드 컴퓨팅에서는 실시간으로 녹화 영상 혹은 라이브 영상을 송수신 하는 경우에 Tx/Rx영상 패킷이 발생(존재)하게 된다. 이에 반해, 본 시스템(1000)에서는 엣지 리로케이션 서버(본 서버, 100)를 경유하여 실시간으로 영상을 멀티캐스트로 사용자에게(클라이언트 단말로) 전달하는 패킷만 발생(존재)하게 되며, 영상 저장 서버인 클라우드 데이터 센터 서버(400)에서는 영상을 받는 패킷(즉, 본 서버로부터 녹화 영상을 전달받는 패킷)만 발생(존재)하게 될 수 있다. 이를 통해, 본 시스템(1000)은 클라우드 데이터 센터 서버(400)에 있어서, 종래의 클라우드 컴퓨팅 방식 대비 네트워크 사용률이 약 50% 이상 줄어들도록 할 수 있는 효과, 즉 데이터의 부하를 감소시킬 수 있는 효과를 제공할 수 있다.In conventional cloud computing, Tx/Rx video packets are generated (existing) when transmitting and receiving recorded or live video in real time. On the other hand, in the
본 시스템(1000)은 복수의 카메라(10)로부터 중앙 데이터 센터인 클라우드 데이터 센터 서버(400)까지 전달되는 영상에 있어서, 해당 영상이 암호화된 상태로 전달되도록 할 수 있어, 안전한 영상 전송이 이루어지도록 할 수 있다.The
또한, 본 시스템(1000)에서 본 서버(100, 혹은 엣지 클라우드)와 말단 기기인 카메라(10) 간에는 일예로 영상 전송이 보안 소켓 계층(Secure Socket Layer, SSL)을 기초로 하는 SSL 암호화 전송으로 이루어질 수 있으며, 이에 따라 본 서버(100)와 카메라(10) 간에 전송되는 영상을 중간에서 탈취하는 일이 불가능하도록 할 수 있다. 즉, 본 시스템(1000)에서는 암호화 전송을 토대로 영상 전송의 보안을 향상시킬 수 있다.In addition, in the
또한, 본 시스템(1000)에서는 장애의 발생시 강인하게 대응할 수 있다. 즉, 종래의 클라우드 컴퓨팅에서는 클라우드 데이터 센터(클라우드 데이터 센터 서버)에 장애가 발생하는 경우 치명적인 타격이 발생할 수 있다. 반면, 본 시스템(1000)에서는 클라우드 데이터 센터 서버(400)에 장애가 발생하더라도, 카메라와 클라우드 데이터 센터 서버(400) 사이에 배치(마련)된 본 서버(100, 혹은 엣지 클라우드)를 통해 엣지 서비스의 제공이 이루어지도록 할 수 있는바, 발생된 장애의 대응이 보다 단순하게 처리 가능하도록 할 수 있다.In addition, the
이하에서는 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버(100)인 엣지 로케이션 서버(100)에 대하여 보다 상세히 설명하기로 한다.Hereinafter, the
수신부(110)는 클라이언트 단말(200)로부터 복수의 카메라(10)(1, 2, 3, 4, …) 중 제1 카메라(1)의 제1 영상을 획득하기 위한 영상요청패킷을 수신할 수 있다.The receiving
즉, 클라이언트 단말(200)은 복수의 카메라(10)(1, 2, 3, 4, …)를 통해 촬영되는 영상 중 자신이 보고자 하는 영상을 획득하기 위한 영상요청패킷을 본 서버(100)로 전송할 수 있다. 일예로, 클라이언트 단말(200)이 보고자 하는 영상(혹은, 획득하고자 하는 영상)이 제1 카메라(1)를 통해 촬영되어 획득되는 제1 영상인 경우, 클라이언트 단말(200)은 제1 카메라(1)의 제1 영상을 획득하기 위한 영상요청패킷을 본 서버(100)로 전송할 수 있다. 이를 통해, 수신부(110)는 클라이언트 단말(200)로부터 전송되는 영상요청패킷을 수신할 수 있다.That is, the
본원의 일 예에서는, 수신부(110)가 수신하는 영상요청패킷이 제1 카메라(1)의 제1 영상을 획득하기 위한 패킷인 것으로 예시하였으나, 이에만 한정되는 것은 아니고, 수신부(110)가 수신하는 영상요청패킷은 복수의 카메라(10) 중 적어도 하나의 카메라를 통해 촬영되는 영상을 획득하기 위한 패킷(즉, 복수의 카메라를 통해 촬영되는 복수의 영상 중 적어도 일부를 획득하기 위한 패킷)에 관한 것일 수 있다.In an example of the present application, the video request packet received by the
이하에서는, 수신부(110)가 수신하는 영상요청패킷이 제1 카메라(1)의 제1 영상을 획득하기 위한 영상요청패킷인 것으로 예시하기로 한다. 이에 따르면, 제1 카메라(1)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 카메라(10)(1, 2, 3, 4, …) 각각에 대한 설명에도 동일하게 적용될 수 있다.Hereinafter, it will be exemplified that the video request packet received by the receiving
영상 전송부(120)는 수신부(110)에서 수신된 영상요청패킷에 응답하여 클라이언트 단말(200)에 대하여 제1 카메라(1)의 제1 영상을 암호화하여 멀티캐스트로 전송할 수 있다. 여기서, 영상요청패킷에는 클라이언트 단말(200)이 제1 카메라(1)의 제1 영상을 획득하고자 하는 영상 요청에 관한 정보가 포함되어 있을 수 있다.The
영상 전송부(120)는 수신된 영상요청패킷에 응답하여, 제1 카메라(1)를 통해 촬영되는 제1 영상을 네트워크(300)를 통해 제1 카메라(1)로부터 획득할 수 있다. 이후, 영상 전송부(120)는 제1 카메라(1)로부터 획득된 제1 영상을 암호화하여 멀티캐스트로 전송할 수 있다. 이를 통해, 클라이언트 단말(200)은 멀티캐스트를 통하여 본 서버(100)의 영상 전송부(120)로부터 암호화된 제1 카메라(1)의 제1 영상을 획득할 수 있다.The
이때, 본원의 일예에서는, 영상 전송부(120)가 제1 카메라(1)로부터 획득된 제1 영상을 암호화한 이후 클라이언트 단말(200)로 멀티캐스트를 통해 전송하는 것으로만 예시하였으나, 이에 한정되는 것은 아니다. 다른 일예로, 영상 전송부(120)는 수신된 영상요청패킷에 응답하여, 제1 카메라(1)로부터 암호화된 제1 영상을 획득하고, 획득된 암호화된 제1 영상을 멀티캐스틀 통해 클라이언트 단말(200)로 전송할 수 있다. 본원에서는 예시적으로 후자의 경우가 바람직할 수 있다.At this time, in an example of the present application, the
네트워크(300)는 일예로 상술한 엣지 클라우드(310)를 포함할 수 있다. 또한, 네트워크(300)는 일예로 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 모바일 네트워크, 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함될 수 있으며, 이에 한정된 것은 아니다.The
본 시스템(1000)에서 본 서버(100), 클라이언트 단말(200) 및 복수의 카메라(10) 간에는 서로 네트워크(300)를 통해 연결될 수 있으며, 네트워크(300)를 통해 데이터(예를 들어, 영상, 영상요청패킷, 검증 패킷, 선택 메뉴 등의 데이터)의 송수신이 이루어질 수 있다.In the
데이터베이스부(160)는 복수의 카메라(10)를 통해 촬영되는 영상이 암호화되어 저장될 수 있다. 즉, 수신부(110)는 영상요청패킷을 수신하는 것 뿐만 아니라, 수신된 영상요청패킷에 응답하여 영상요청패킷에 대응하는 카메라에 의하여 촬영되는 영상을 네트워크(300)를 통해 수신할 수 있다.In the
이때, 수신부(110)는 영상요청패킷에 대응하는 카메라에 의해 촬영된 영상을 수신하여 데이터베이스부(160)에 암호화하여 저장할 수 있다. 즉, 수신부(110)는 제1 카메라(1)의 제1 영상을 획득하기 위한 영상요청패킷을 수신한 경우, 제1 카메라(1)를 통해 촬영되는 제1 영상을 네트워크(300)를 통해 수신하여 암호화하여 데이터베이스부(160)에 저장할 수 있다.At this time, the receiving
달리 표현해, 수신부(110)는 수신된 영상요청패킷에 응답하여, 네트워크(300)를 통해 제1 카메라(1)로부터 암호화된 제1 영상을 수신하고, 수신된 암호화된 제1 영상을 데이터베이스부(160)에 저장할 수 있다. 이후, 영상 전송부(120)는 수신된 영상요청패킷에 응답하여, 클라이언트 단말(200)로 데이터베이스부(160)에 저장된 암호화된 제1 영상을 멀티캐스트로 전송할 수 있다.In other words, the receiving
복수의 카메라(10)에 의해 촬영된 영상을 암호화하여 저장하는 데이터베이스부(160)는 일예로 본 서버(100)에 마련된 것일 수 있으나, 이에 한정되는 것은 아니다. 다른 일예로, 데이터베이스부(160)는 본 서버(100)와는 별도로 마련되는 것일 수 있으며, 이러한 경우 데이터베이스부(160)는 예시적으로 도 2c에 도시된 바와 같이 영상서버의 형태로 마련될 수 있다.The
클라이언트 단말(200)은 영상 전송부(120)에 의한 멀티캐스트 전송에 의하여, 본 서버(100)로부터 제1 카메라(1)의 암호화된 제1 영상을 획득할 수 있다.The
영상 전송부(120)에서의 멀티캐스트 전송 이후, 검증 패킷 전송부(130)는 클라이언트 단말(200)로 전송된 제1 카메라(1)의 암호화된 제1 영상에 대한 영상전송 인증과 해독을 위한 해독키를 포함하는 검증 패킷을 복수의 카메라(10)(1, 2, 3, 4, …) 중 일부의 카메라와 클라이언트 단말(200)로 전송할 수 있다.After the multicast transmission in the
일예로, 검증 패킷 전송부(130)는 복수의 카메라(10) 중 영상요청패킷에 대응하는 카메라(일예로, 제1 카메라)를 제외한 나머지 카메라(2, 3, 4, …) 중 일부의 카메라와 클라이언트 단말(200)로 검증 패킷을 전송할 수 있다.As an example, the verification
제어부(140)는 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키의 이상 유무의 검증 결과 이상이 없는 것으로 검증된 경우, 클라이언트 단말(200)이 수신한 암호화된 제1 영상에 대한 암호가 해제되도록 제어할 수 있다.The
이를 통해, 클라이언트 단말(200)은 제어부(140)에 의한 암호 해제 제어를 통해, 클라이언트 단말(200)이 수신하는 암호화된 제1 영상에 대한 암호가 해제됨으로써, 암호가 해제된 제1 영상을 라이브 영상으로서 제공받을 수 있다.Through this, the
이때, 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키의 이상 유무의 검증은, 클라이언트 단말(200)로부터 미리 설정된 개수에 대응하는 복수개의 이상 유무 확인 요청이 전송된 경우에 대하여, 복수개의 이상 유무 확인 요청에 응답하여 검증 패킷을 수신한 일부의 카메라(2, 3, 4, …) 중 랜덤하게 선택되는 복수개의 랜덤 카메라에 의한 이상 유무 확인을 통해 이루어질 수 있다.In this case, verification of the presence or absence of an abnormality of the decryption key included in the verification packet received by the
이때, 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키의 이상 유무의 검증에 관여하는(이용되는) 복수개의 랜덤 카메라의 수는 클라이언트 단말(200)로부터 전송되는 복수개의 이상 유무 확인 요청의 수와 동일한 n개일 수 있다.At this time, the number of the random cameras (used) involved in the verification of whether or not the decryption key included in the verification packet received by the
또한, 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키의 이상 유무의 검증에 관여하는(이용되는) 복수개의 랜덤 카메라는, 일부의 카메라(2, 3, 4, …) 중 제1 카메라(1)와 동일 네트워크에 속하는 동일 네트워크 그룹에서 선택되는 1개의 카메라와 제1 카메라(1)와는 다른 네트워크에 속하는 이종 네트워크 그룹에서 선택되는 (n-1)개의 카메라를 포함할 수 있다. 이때, 복수개의 랜덤 카메라는, 제1 카메라(1)와 동일 네트워크에 속하는 동일 네트워크 그룹 내에서 통신 이상이 발생한 것으로 감지된 경우, 이종 네트워크 그룹에서 선택되는 n개의 카메라를 포함할 수 있다.In addition, a plurality of random cameras (used) involved in verifying whether or not the decryption key included in the verification packet received by the
구체적으로, 복수의 카메라(10)가 10개 존재한다고 하자. 일예로 제1 카메라(1) 내지 제3 카메라(3)는 제1 네트워크로 연결되고, 제4 카메라(4) 내지 제7 카메라는 제2 네트워크로 연결되고, 제8 카메라 내지 제10 카메라는 제3 네트워크로 연결될 수 있다. 예시적으로 제1 네트워크는 인터넷 네트워크, 제2 네트워크는 블루투스 네트워크, 제3 네트워크는 모바일 네트워크일 수 있으나, 이에 한정되는 것은 아니다. 이에 따르면, 네트워크(300)는 제1 네트워크, 제2 네트워크 및 제3 네트워크를 포함하는 복수 유형의 네트워크를 포함할 수 있다.Specifically, it is assumed that there are ten
이러한 복수의 카메라(10)는 네트워크의 유형(혹은 종류)에 따라 복수의 그룹으로 그룹화될 수 있다. 일예로, 제1 네트워크로 연결된 제1 카메라(1) 내지 제3 카메라(3)는 제1 그룹이고, 제2 네트워크로 연결된 제4 카메라(4) 내지 제7 카메라는 제2 그룹이고, 제3 네트워크로 연결된 제8 카메라 내지 제10 카메라는 제3 그룹이라 표현될 수 있다.The plurality of
이에 따르면, 제1 카메라(1)와 동일 네트워크에 속하는 동일 네트워크 그룹이라 함은, 제1 카메라(1)가 제1 네트워크에 속함에 따라, 제1 카메라(1) 내지 제3 카메라(3)가 포함된 제1 그룹을 의미할 수 있다. 한편, 제1 카메라와는 다른 네트워크에 속하는 이종 네트워크 그룹이라 함은 제4 카메라(4) 내지 제10 카메라가 포함된 제2 그룹과 제3 그룹을 의미할 수 있다.According to this, the same network group belonging to the same network as the
이때, 클라이언트 단말(200)이 검증 패킷 전송부(130)로부터 암호화된 제1 영상에 대한 영상전송 인증과 해독을 위한 해독키를 포함하는 검증 패킷을 수신한 이후, 클라이언트 단말(200)은 수신한 검증 패킷에 포함된 해독키에 이상이 있는지 여부를 확인하기 위해(즉, 해독키의 이상 유무를 확인하기 위해) 미리 설정된 개수에 대응하는 복수개의 이상 유무 확인 요청을 본 서버(100)로 전송할 수 있다.At this time, after the
여기서, 미리 설정된 개수가 일예로 3개라고 하자. 이러한 경우, 클라이언트 단말(200)은 3개의 이상 유무 확인 요청(이상 유무 확인 요청 패킷)을 본 서버(100)로 전송할 수 있다.Here, it is assumed that the preset number is three. In this case, the
이때, 제어부(140)는 클라이언트 단말(200)로부터 전송된 3개의 이상 유무 확인 요청에 응답하여, 해독키의 이상 유무 확인을 위해 검증 패킷을 수신한 일부의 카메라(즉, 복수개의 카메라 중 제1 카메라를 제외한 나머지 카메라들)(2, 3, 4, …) 중 랜덤하게 이상 유무 확인 요청의 개수에 대응하는 3개의 카메라를 랜덤 카메라로서 선택할 수 있다. 이에 따르면, 상술한 복수개의 랜덤 카메라의 수인 n개가 3개인 경우를 의미할 수 있다.At this time, the
이때, 제어부(140)는 3개의 랜덤 카메라의 선택시, 일부의 카메라(2, 3, 4, …) 중 제1 카메라(1)와 동일 네트워크에 속하는 동일 네트워크 그룹(즉, 제1 그룹)에서 랜덤하게 1개의 카메라를 선택할 수 있다. 일예로, 동일 네트워크 그룹에서 랜덤하게 선택된 1개의 카메라(랜덤 카메라)는 제2 카메라(2)일 수 있다. 또한, 제어부(140)는 3개의 랜덤 카메라의 선택시, 일부의 카메라(2, 3, 4, …) 중 제1 카메라(1)와는 다른 네트워크 그룹에 속하는 이종 네트워크 그룹(즉, 제2 그룹과 제3 그룹)에서 랜덤하게 2개의 카메라를 선택할 수 있다. 일예로, 이종 네트워크 그룹에서 랜덤하게 선택된 2개의 카메라(랜덤 카메라)는 제5 카메라 및 제10 카메라일 수 있다.At this time, when selecting three random cameras, the
즉, 제어부(140)는 일부의 카메라(2, 3, 4, …) 중 복수개(3개)의 랜덤 카메라를 선택함에 있어서, 복수개의 랜덤 카메라 중 일부는 수신부(110)에서 수신된 영상요청패킷에 대응하는 카메라(즉, 제1 카메라)와 동일 네트워크에 속한 그룹(동일 네트워크 그룹) 내에서 선택하는 한편, 복수개의 랜덤 카메라 중 상기 일부를 제외한 나머지는 영상요청패킷에 대응하는 카메라와 다른 네트워크에 속한 그룹(이종 네트워크 그룹)에서 선택할 수 있다.That is, the
이후, 제어부(140)에 의해 선택된 n개(3개)의 랜덤 카메라(일예로, 제2 카메라, 제5 카메라 및 제10 카메라)는 클라이언트 단말(200)로부터 전송된 3개의 이상 유무 확인 요청 각각에 응답하여 이상 유무 확인을 수행할 수 있다. 즉, 클라이언트 단말(200)로부터 전송된 3개의 이상 유무 확인 요청에 응답하여, 제어부(140)에 의해 선택된 랜덤 카메라(일예로, 제2 카메라, 제5 카메라 및 제10 카메라) 각각은, 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키에 대한 이상 유무를 확인할 수 있다. Thereafter, n (three) random cameras (eg, the second camera, the fifth camera, and the tenth camera) selected by the
이때, 일부의 카메라(2, 3, 4, …) 중 복수개(3개)의 랜덤 카메라를 선택함에 있어서, 일예로 동일 네트워크 그룹 내에서 통신 이상이 발생한 것으로 감지된 경우, 제어부(140)는 이종 네트워크 그룹 내에서 3개의 랜덤 카메라를 선택할 수 있다.At this time, in selecting a plurality of (3) random cameras among some of the cameras (2, 3, 4, ...), for example, when it is detected that a communication error has occurred in the same network group, the
여기서, 동일 네트워크 그룹 내에서 통신 이상이 발생한 것이라 함은, 동일 네트워크 그룹에 포함된 카메라들(제1 카메라 내지 제3 카메라)이 속한 동일 네트워크(일예로, 제1 네트워크)에 이상이 생겨(예시적으로, 제1 네트워크의 수신 감도가 미리 설정된 수신 감도 이하이거나 제1 네트워크 통신이 단절되어) 본 서버(100)가 동일 네트워크(일예로, 제1 네트워크)를 통해 그에 속한 카메라들(즉, 제1 카메라 내지 제3 카메라)과 데이터 송수신이 불가능한 상태를 의미할 수 있다. 즉, 동일 네트워크 그룹 내에서 통신 이상이 발생한 것이라 함은, 동일 네트워크 그룹에 해당하는 네트워크(제1 네트워크)의 이상으로 인해, 해당 네트워크와 연결된 카메라들(제1 카메라 내지 제3 카메라)에 의하여 이상 유무 확인 요청에 대한 이상 유무의 확인이 불가능한 경우를 의미할 수 있다.Here, the communication error occurs in the same network group means that an abnormality occurs in the same network (for example, the first network) to which the cameras (first camera to third camera) included in the same network group belong (eg, In general, the reception sensitivity of the first network is equal to or lower than the preset reception sensitivity, or the first network communication is disconnected). The
예시적으로, 동일 네트워크 그룹 내에서 통신 이상이 발생한 것으로 감지된 경우, 제어부(140)는 이종 네트워크 그룹 내에서 3개의 랜덤 카메라로서 제5 카메라, 제6 카메라 및 제8 카메라를 선택할 수 있다.For example, when it is detected that a communication error occurs in the same network group, the
이러한 경우, 제어부(140)에 의해 선택된 n개(3개)의 랜덤 카메라(일예로, 제5 카메라, 제6 카메라 및 제8 카메라)는 클라이언트 단말(200)로부터 전송된 3개의 이상 유무 확인 요청 각각에 응답하여 이상 유무 확인을 수행할 수 있다. 즉, 클라이언트 단말(200)로부터 전송된 3개의 이상 유무 확인 요청에 응답하여, 제어부(140)에 의해 선택된 랜덤 카메라(일예로, 제5 카메라, 제6 카메라 및 제8 카메라) 각각은, 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키에 대한 이상 유무를 확인할 수 있다. In this case, n (three) random cameras selected by the control unit 140 (for example, the fifth camera, the sixth camera, and the eighth camera) request the presence or absence of three or more transmitted from the
이에 따르면, 본 서버(100)는 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키의 이상 유무를 검증함에 있어서, 복수개의 이상 유무 확인 요청에 대한 이상 유무의 확인을 수행하는 복수개의 랜덤 카메라를, 동일 네트워크 그룹에 속한 카메라들로만 고려하는 것이 아니라, 일부는 동일 네트워크 그룹에 속한 카메라로 고려하는 한편 일부를 제외한 나머지는 이종 네트워크 그룹에 속한 카메라로 고려하되, 만약 동일 네트워크 그룹에 통신 이상이 발생하면 이종 네트워크 그룹에 속한 카메라들로만 고려할 수 있다.According to this, the
이러한 본 서버(100)는 검증 패킷 전송부(130)로부터 전송된 검증 패킷을 수신한 일부의 카메라(2, 3, 4, …) 중 적어도 일부가 네트워크 통신 이상으로 인해(예시적으로, 제1 카메라와 동일한 제1 네트워크에 속한 제2 카메라와 제3 카메라가 제1 네트워크의 통신 단절로 인해) 이상 유무 확인 요청에 대한 이상 유무 확인이 불가능한 경우(이상 유무 확인에 관한 검증을 수행하라 수 없는 경우)에 대해서도, 검증 패킷을 수신한 일부의 카메라(2, 3, 4, …) 중 이종 네트워크 그룹에 속한 카메라들로 하여금 이상 유무 확인이 안정적으로 용이하게 이루어지도록 할 수 있다.In the
이때, 제어부(140)에서의 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키의 이상 유무의 검증은, 일부의 카메라(2, 3, 4, …) 중 랜덤하게 선택된 복수개의 랜덤 카메라에 의한 이상 유무 확인 결과 이상이 없는 것으로 판단되면 클라이언트 단말(200)이 수신한 해독키에 이상이 없는 것으로 임시 검증(임시 판단)할 수 있다. 이후, 제어부(140)는 클라이언트 단말(200)에서의 자체 판단 결과 클라이언트 단말(200)이 수신한 해독키에 이상이 없는 것으로 판단되면, 클라이언트 단말(200)이 수신한 해독키에 이상이 없는 것으로 최종 검증(최종 판단)할 수 있다.At this time, the verification of whether or not the decryption key included in the verification packet received by the
클라이언트 단말(200)의 자체 판단과 관련하여, 클라이언트 단말(200)은, 검증 패킷 전송부(130)로부터 검증 패킷으로서 제1 카메라(1)의 식별정보를 포함하는 검증 패킷을 수신할 수 있다. 이후, 클라이언트 단말(200)은 검증 패킷 전송부(130)로부터 수신한 검증 패킷에 포함된 제1 카메라(1)의 식별정보와 영상 전송부(120)로부터 수신한 암호화된 제1 영상에 포함된 카메라(즉, 암호화된 제1 영상에 대응하는 카메라)의 식별정보가 일치하는지를 비교하는 자체 판단을 수행할 수 있으며, 자체 판단의 수행 결과 서로 일치하면 클라이언트 단말(200)이 수신한 해독키에 이상이 없는 것으로 판단할 수 있다.In connection with the self-determination of the
이에 따르면, 본 시스템(1000)에서는, 클라이언트 단말(200)이 본 서버(100)로부터 수신한 해독키의 이상 유무(이상 여부)의 검증을 수행함에 있어서, 복수개의 랜덤 카메라에 의한 1차 검증(임시 검증, 임시 판단)을 수행한 이후 클라이언트 단말(200)에 자체 판단에 의한 2차 검증(최종 검증, 최종 판단)을 수행하는 것과 같이 2중 검증을 적용함으로써, 클라이언트 단말(200)로 제공되는 영상에 대한 인증(즉, 클라이언트 단말로 전송되는 제1 카메라의 제1 영상에 대한 영상전송 인증)이 보다 높은 신뢰도로 이루어지도록 제공할 수 있다.According to this, in the
제어부(140)는 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키의 이상 유무의 검증 결과 이상이 없는 것으로 검증된 경우, 클라이언트 단말(200)이 수신한 암호화된 제1 영상에 대하여 1회의 재생만 허용되도록 암호화된 제1 영상에 대한 암호의 해제를 제어할 수 있다.When the
즉, 제어부(140)는 복수개의 랜덤 카메라에 의한 1차 검증(임시 검증)과 클라이언트 단말(200)의 자체 판단에 의한 2차 검증(최종 검증)을 토대로, 최종적으로 클라이언트 단말(200)이 수신한 해독키에 이상이 없는 것으로 판단(검증)된 경우, 클라이언트 단말(200)이 본 서버(100)로부터 제공받은 영상(즉, 암호화된 제1 영상)을 1회만 재생할 수 있도록, 클라이언트 단말(200)이 수신한 암호화된 제1 영상에 대해 1회의 재생만 허용되도록 하는 암호 해제(암호화된 제1 영상에 대한 암호 해제)의 제어를 수행할 수 있다.That is, the
이때, 암호화된 제1 영상에 대하여 1회의 재생이 이루어진 이후 1회의 재생이 이루어진 제1 영상을 다시 재생하기 위한 재요청이 클라이언트 단말(200)로부터 전송되었다고 하자. 이러한 경우, 제어부(140)는, 재요청에 대응하도록 생성된 복수개의 이상 유무 확인 재요청에 응답하여 일부의 카메라(2, 3, 4, …) 중 1회의 재생 허용시 고려된 복수개의 랜덤 카메라(일예로 제2 카메라와 제5 카메라와 제10 카메라, 또는 다른 일예로 제5 카메라와 제6 카메라와 제8 카메라)를 제외한 나머지 카메라들 중에서 다시 랜덤하게 선택되는 복수개의 랜덤 카메라에 의한 이상 유무 확인을 통해, 클라이언트 단말(200)이 수신한 해독키의 이상 유무를 재검증할 수 있다. 이때, 제어부(140)는 재검증 결과 이상이 없는 것으로 검증되면 제1 영상이 다시 재생 가능하도록 제어할 수 있다.In this case, suppose that a re-request for replaying the first video having been played once is transmitted from the
한편, 본 시스템(1000) 내지 본 서버(100)에서 고려되는 해독키(일예로, 제1 카메라의 암호화된 제1 영상에 대한 영상전송 인증과 해독을 위한 해독키)는, 클라이언트 단말(200)로 암호화된 영상의 전송 시마다 해시그래프(Hashgraph)를 이용하여 생성되는 값으로서, 시간의 흐름에 따라 변화되도록 생성되는 값일 수 있다. 여기서, 해시그래프는, 헤데라 해시그래프(Hedera Hashgraph)를 의미할 수 있다. 해시그래프에 대한 구체적인 설명은 다음과 같다.Meanwhile, the decryption key (for example, a video transmission authentication and decryption key for decryption of the first camera encrypted image) considered in the
도 3은 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버(100)에서 고려되는 헤데라 해시그래프의 구조를 개략적으로 나타낸 도면이다.3 is a diagram schematically showing a structure of a hedera hash graph considered in the edge cloud-based
도 3을 참조하면, 해시 그래프의 데이터 구조와 합의 알고리즘은 분산된 합의(consensus, 컨센서스)를 위한 새로운 플랫폼을 제공한다. 즉, 해시그래프의 데이터 구조를 이용한 알고리즘은 분산 된 합의를 사용하고 새로운 인증 방식을 제공한다. 분산 합의(컨센서스) 알고리즘의 목표는 단일 장비가 모든 장비를 신뢰하지 않을 때, 그 장비들 중 일부가 트랜잭션을 생성한 순서에 대해 사용내용을 동의하도록 허용하는 방식을 제공하는 것이라 할 수 있다. 이러한 해시그래프 알고리즘은 장비가 이미 서로를 신뢰하지 않을 때에 신뢰를 생성하는 시스템이라 할 수 있다. 여기서, 장비라 함은 본 시스템(1000)에서 검증 패킷의 수신이 가능한 장비로서, 예시적으로 복수의 카메라(10)와 클라이언트 단말(200)을 의미할 수 있으며, 이에만 한정되는 것은 아니다.Referring to FIG. 3, the data structure of the hash graph and the consensus algorithm provide a new platform for distributed consensus. That is, the algorithm using the data structure of the hash graph uses distributed consensus and provides a new authentication method. The goal of the distributed consensus (consensus) algorithm is to provide a way to allow some devices to agree on the order in which they generated transactions when a single device does not trust all devices. This hashgraph algorithm can be said to be a system that creates trust when the devices do not already trust each other. Here, the equipment is a device capable of receiving a verification packet in the
해시그래프는 근본적으로 새로운 방식으로 접근하며, 시간의 변화에 따르는 인증 방식을 사용함으로써 현재의 관점으로 인증방식을 구현할 수 있다. 이러한 해시그래프의 적용에 의하면, 본 서버(100)는 해시그래프를 이용하여 암호화된 영상의 전송 시마다 시간의 흐름에 따라 변화되는 해독키를 생성하여 이를 검증 패킷에 포함시켜 전송할 수 있다.Hash graphs are approached in a fundamentally new way, and by using the authentication method according to the change of time, the authentication method can be implemented from the current point of view. According to the application of such a hashgraph, the
본 서버(100)는 해시그래프를 이용한 영상전송의 암호화를 통해(즉, 해시그래프를 이용한 암호화된 영상의 전송을 통해), 모든 장비에서 트랜잭션을 생성할 수 있도록 하고, 이로부터 컨테이너(블록)가 저장되고 분산 네트워크 전체에 공유되도록 할 수 있다. 이러한 본 서버(100)에서 고려되는 해시그래프를 이용한 암호화 영상 전송 기술은, 영상 전송 중 암호화 트랜잭션 데이터가 모든 컨테이너에 포함됨에 따라 상호 인증 가능한 효율적인 방법이라 할 수 있다. 본 시스템(1000)에서는 모든 데이터 트랙잭션이 기록으로 남겨지며 이는 하나에서 전체의 기능으로 변경될 수 있다.The
다시 말해, 블록체인은 자라면서 끊임없이 가지를 치는 나무와 같은 구조를 가지는 반면, 해시그래프는 새로운 성장을 위해 가지치기하기 보다는 다시 몸통으로 돌아가 엮어짐으로 합쳐지는 구조를 가질 수 있다. 해시그래프는 어떠한 장비라도 트랜잭션이 가능하도록 하며, 이것은 블록에 반영될 수 있고, 최종적으로 분산 네트워크 전체에 퍼질 수(공유될 수) 있다. 해시그래프에서는 모든 블록이 사용되고, 그 어떤 블록도 버려지지 않을 수 있다. 해시그래프에서 모든 가지들은 영원히 계속 존재하며, 결국 다시 하나로 합쳐짐으로써 효율적일 수 있다.In other words, while a blockchain has a tree-like structure that constantly branches as it grows, the hashgraph can have a structure that merges back into the body and intertwines rather than pruning for new growth. The hashgraph allows any device to transact, which can be reflected in blocks, and finally spread (shared) across the distributed network. In the hashgraph, all blocks are used, and none of the blocks may be discarded. In a hashgraph, all branches continue to exist forever, and they can be efficient by eventually merging together.
일반적인 블록체인 네트워크에서는 특정 트랜잭션이 발생하였을 때 전체 네트워크가 합의 및 검증에 참여하는 방식인 반면, 해시그래프에서의 노드는 발생한 트랜잭션뿐만 아니라 네트워크의 현재 상태나 과거 이력에 대한 정보 조각들을 보고서 형태로 만들어서 무작위로 이웃 노드를 선택하여 전파할 수 있다. 여기서, 노드는 일예로 본 시스템(1000)에서 고려하는 복수의 카메라(10)를 의미할 수 있다. 또한, 해시그래프의 구조에서는 새로운 정보가 발생하면 이전에 전파한 보고서에 내용을 추가하고 다시 무작위로 노드를 선택하여 계속 전파할 수 있다. 해시그래프에서는 이와 같은 과정이 지속적으로 반복될 수 있는데, 이는 gossiping이라 지칭될 수 있다.In the general blockchain network, when a specific transaction occurs, the entire network participates in consensus and verification, whereas in the hashgraph, the node not only generates the transaction, but also creates pieces of information about the current state or past history of the network in the form of a report. You can propagate by selecting neighbor nodes at random. Here, the node may mean, for example, a plurality of
해시그래프는 새로운 알고리즘 방법을 통하여 합의를 이루는 방식으로서, 정확한 알고리즘의 명칭은 스월드 해시그래프 합의 알고리즘(Swirlds hashgraph consensus algorithm)이라 할 수 있다. 앞서 설명한 바와 같이, 해시그래프의 노드들은 정보를 보고서 형태로 만들어서 전파하는데 이 보고서에는 정보를 취득한 시간을 나타내는 해시값이 포함될 수 있다. 이 해시값을 레포트에 포함하는 개념을 gossip about gossip이라 할 수 있다. 이러한 해시그래프의 네트워크 작동방식(gossiping)과 gossip about gossip은 결과적으로 네트워크가 정보 발생 순서를 확인할 수 있게 할 수 있다. 이런 방식의 의의는 일반적인 블록체인 네트워크에서 상대적으로 높은 합의 권한을 가진 노드가 악의적으로 데이터를 지연시켜서 변조시킬 가능성을 막을 수 있다는 데 있다. The hashgraph is a way to achieve consensus through a new algorithm method, and the exact name of the algorithm can be called the Swirlds hashgraph consensus algorithm. As described above, the nodes of the hash graph generate and propagate the information in the form of a report, and this report may include a hash value indicating the time when the information was acquired. The concept of including this hash value in a report can be called gossip about gossip. This hashgraph's network gossiping and gossip about gossip can consequently allow the network to check the order of information generation. The implication of this method is that nodes with relatively high consensus authority in a typical blockchain network can prevent the possibility of malicious data delay and tampering.
또한, 해시그래프 네트워크는 단순히 해시값만 검사함으로써 누가 어떤 정보를 언제 발생시켰는지 알 수 있다. 특정 노드는 네트워크에 유용한 정보에 대해서 반대표를 던지지 않을 것이라는 신념에 기초하여 가상의 투표를 수행한다고 가정했을 때 자연스럽게 합의(consensus)가 도출되게 된다. 이러한 해시그래프에 의하면 블록체인 네트워크에 비하여 높은 성능, 보안, 공정성과 신뢰성을 실현할 수 있다.In addition, the hashgraph network can know who generated what information and when by simply checking the hash value. A consensus is naturally drawn when it is assumed that a specific node performs a virtual vote based on the belief that it will not vote against useful information on the network. According to this hash graph, it is possible to realize high performance, security, fairness and reliability compared to a blockchain network.
본 시스템(1000) 내지 본 서버(100)는, 복수의 카메라(10)를 통해 촬영되는 영상을 암호화하여 송수신하는 데에 있어서(즉, 암호화된 영상의 송수신에 있어서), 일예로 해시그래프 분산 합의(컨센서스) 알고리즘을 기반으로 동작할 수 있다.The
해시그래프 합의 알고리즘은 대역폭 사용에 거의 완벽한 효율성을 제공하므로, 본 시스템(1000) 내지 본 서버(100)는 해시그래프에 의해 단일 샤드(네트워크의 완전히 연결된 피어-투-피어 메쉬)에서 초당 수십만 트랜잭션을 처리할 수 있다. 합의 시간은 분, 시간 또는 일(day)이 아닌 초 단위로 측정될 수 있다.Since the hashgraph consensus algorithm provides almost perfect efficiency for bandwidth use, the
이에 따라, 본 시스템(1000) 내지 본 서버(100)는 복수의 카메라(10)를 통해 촬영되어 획득되는 영상의 암호화를 해시그래프로 프로세싱(처리)할 수 있으며, 이를 통해 모든 순간의 프레임(영상 프레임) 시간 요청 단위까지 확인 가능하고, 벡터값, 메타값, 시간데이터 및 영상표출 단계에 거쳐 사용되고 표출될 수 있다.Accordingly, the
이를 통해, 본 시스템(1000) 내지 본 서버(100)는 상술한 이러한 모든 단계가 단 하나의 컴퓨터를 사용하며 분산 처리되도록 하고 다른 노드 간에 모든 작업을 분리하여 이루어지도록 함으로써, 아무도(어느 노드도) 완전한 원본 이미지를 갖지 않게 할 수 있다. 이러한 방식에 의하면, 본 시스템(1000) 내지 본 서버(100)는 데이터(영상) 유출 및 사용에 대한 보안적인 장점으로 사용될 수 있다. 즉, 본 시스템(1000) 내지 본 서버(100)는 데이터(영상) 유출 및 사용에 강인한 특성을 가질 수 있다.Through this, the
이러한 해시그래프를 이용해 영상을 암호화하여 전송(송출)하는 본 시스템(1000) 내지 본 서버(100)에 의하면, 본 시스템(1000) 내지 본 서버(100)는 서로 상호간의 연계된 고유인증 방식의 확인을 통해 상호 데이터 간의 진위 여부를 판단할 수 있다. 또한, 본 시스템(1000) 내지 본 서버(100)는 보안 및 해킹에 대하여 안정적이며, 외부에 유출되더라도 해당 영상을 보거나 탈취하여 볼 수 없게 할 수 있다. 또한, 이러한 본 시스템(1000) 내지 본 서버(100)는 암호화된 영상을 해독하는데 최소한의 지연시간이 소요되도록 할 수 있다(즉, 최소한의 지연시간을 보장할 수 있다).According to the
본 시스템(1000) 내지 본 서버(100)는 해시그래프를 이용한 영상의 암호화 기술을 제공함으로써, 적은 비용으로 영상 암호화를 적용하면서(적은 비용으로 영상 암호화의 적용을 이루면서) 나아가 멀티캐스트를 이용한 대규모 전송에서 네트워크의 성능 이상 없이 안정적으로 영상 전송(송출)이 이루어지도록 할 수 있다.The
이러한 해시그래프를 이용해 암호화 영상을 멀티캐스트로 전송하는 본 시스템(1000) 내지 본 서버(100)는, 다른 암호화 기능인 VPN 및 SSL(Secure Sockets Layer), AES-265 등을 사용하지 않고서도, 영상을 빠르게 암호화하고 처리할 수 있다.The
본 시스템(1000) 내지 본 서버(100)는 멀티캐스트를 이용한 영상 송출(전송) 암호화 기술에 관한 것으로서, 해시그래프를 이용하여 실시간으로 영상을 암호화함으로써 일예로 비디오 감시에 사용되는 영상전송의 비용을 줄이고 효율성을 높일 수 있다. 또한, 본 시스템(1000) 내지 본 서버(100)는 이렇게 암호화된 영상을 멀티캐스트로 전송함으로써, 서버와 클라이언트 단말(200)의 부하를 줄여줄 수 있으며, 복수의 카메라(10)와 클라이언트 단말(200)에 효과적으로 사용할 수 있다. 여기서, 서버라 함은 본 서버(100)를 의미할 수 있다. 즉, 본 서버(100)는 복수의 카메라(10)로부터 획득된 영상을 클라이언트 단말(200)로 제공하는 서버일 수 있다.The
본 시스템(1000) 내지 본 서버(100)는 헤데라 해시그래프를 이용한 멀티캐스트 영상 전송(송출) 기술에 대하여 제안한다. 이러한 본원에서 제안하는 기술은 분산형 인프라에 효과적으로 적용될 수 있으며, 이로부터 본원은 전 세계의 고객 및 중소기업 등의 대상자에게 있어서 보다 저렴한 비용으로 안정적인 암호화 영상 전송 서비스를 제공받도록 할 수 있다.The
다시 말해, 해시그래프를 이용한 영상 송출 기술을 제공하는 본 시스템(1000) 내지 본 서버(100)에 의하면, 본원은 가격 및 효율성 측면에서 전 세계 모든 고객이 암호화된 시스템을 보다 저렴하게 이용하고 운용하도록 할 수 있다.In other words, according to the
일반적으로 암호화된 시스템을 설치하는 설치자의 관점에서 볼 때, 설치자들은 비용이 저렴하고 사용이 편하면서 사용시 불편함이 없는 암호화 기술을 찾을 것이다.In general, from the point of view of the installer installing the encrypted system, the installers will find an encryption technology that is inexpensive, easy to use, and has no inconvenience in use.
이에, 본 시스템(1000) 내지 본 서버(100)에 의하면, 본원은 해시그래프를 이용함으로써 영상전송 시스템뿐만 아니라 다른 암호화가 필요한 시스템에 있어서 비용을 크게 절감되도록 하고, 비디오 스트림 처리의 속도와 품질을 향상시킬 수 있다. 또한, 본 시스템(1000) 내지 본 서버(100)는 영상기술 시장에서 개인이나 기업뿐만 아니라 하드웨어 제조업체, 설치자 등에 대하여 용이하게 이용(적용)되도록 할 수 있다. 또한, 본 시스템(1000) 내지 본 서버(100)는 개인적인 삶을 안전하고 쾌적하게 할 수 있도록 제공할 수 있다.Accordingly, according to the
또한, 본 시스템(1000) 내지 본 서버(100)에 의하면, 본원은 데이터 교환 및 공유 데이터베이스의 유지 관리에 있어서 편리성을 제공할 수 있다. 이러한 본원은 일예로 사업자가 본원에서 제안하는 기술을 사용하여 영상을 암호화하여 전송하는 경우, 마케팅 분석이 가능한 회사와 실시간으로 연계되어 데이터를 수집하고 공유되도록 할 수 있고, 매 순간 고객의 요구 사항과 선호하는 물건에 대한 전체 데이터베이스를 확보할 수 있으며, 비즈니스에 효과적으로 도움되도록 제공할 수 있다.In addition, according to the
나아가, 본원에서 제안하는 기술(즉, 해시그래프를 이용한 멀티캐스트 암호화 영상 전송 기술)이 폐쇠망 영상솔루션뿐만 아니라 인터넷 오픈 플랫폼에도 적용되는 경우(즉, 인터넷 오픈 플랫폼에서도 영상에 대한 암호화가 적용되어 멀티캐스트 전송이 이루어지는 경우), 본원은 보안성이 강화되면서 외부기관(예시적으로, 경찰, 검찰 등)의 데이터베이스가 보다 쉽게 통합된 보안 네트워크를 형성(구성)하도록 할 수 있다.Furthermore, when the technology proposed in the present application (that is, a multicast encrypted video transmission technology using a hash graph) is applied not only to a closed-network video solution but also to an Internet open platform (that is, encryption of video is applied to the Internet open platform, so that multi When a cast transmission is made), the present application can make the database of an external agency (eg, police, prosecution, etc.) more easily form (configure) an integrated security network while security is enhanced.
이러한 본 시스템(1000) 내지 본 서버(100)에 의하면, 본원은 일예로 경찰이나 검찰 등에서 범죄자의 사진이나 실물사진을 영상으로 검색하여 실시간으로 범죄자를 잡고 처리할 수 있도록 할 수 있다. 또한, 일예로 클라이언트 단말(200)이 휴대폰 등의 이동/휴대 가능한 단말인 경우, 본 서버(100)는 휴대폰 등의 이동 가능한 단말과 연동 가능함에 따라(즉, 영상을 휴대 단말로 제공 가능함에 따라) 이를 통해 어린이 유괴, 도난차량 등에 관한 영상이 실시간으로 배포되도록 할 수 있어, 어린이 유괴 수사나 도난차량 등에 대한 수사가 보다 용이해지도록 할 수 있다.According to the
다시 말해, 도 2b 및 도 2c를 참조하면, 본 시스템(1000) 및 본 서버(100)에서는 복수의 카메라(10)에 의해 촬영된 영상의 전송(송출)이 암호화 방식으로 이루어질 수 있다. 또한, 본 서버(100)는 효율적인 규칙을 기반으로 하는 인증 트랜잭션 데이터를 검증하는 기능(즉, 검증 패킷에 포함된 해독키에 대한 검증 기능)을 제공할 수 있다.In other words, referring to FIGS. 2B and 2C, in the
일예로, 본 서버(100)는 클라이언트 단말(200)과 관련된 고유 키값이 입력되면, 입력된 고유 키값을 이용하여 그와 관련된 카메라들에 의해 촬영되는 영상(영상데이터)을 암호화된 영상으로 수신하여 데이터베이스부(160)에 저장할 수 있다. 여기서, 고유 키값이라 함은 클라이언트 단말(200)의 식별정보(고유식별 ID 정보)를 의미할 수 있다.For example, when the unique key value associated with the
일예로, 제1 사용자의 단말이 클라이언트 단말(200)이고, 제1 사용자가 소유한 카메라가 제1 카메라(1) 내지 제4 카메라(4)인 경우, 제1 사용자의 클라이언트 단말(200)과 관련된 카메라들이라 함은 제1 카메라(1) 내지 제4 카메라(4)를 의미할 수 있다. 다른 예로, 제5 카메라 내지 제7 카메라는 제1 사용자와는 다른 제2 사용자가 소유한 카메라일 수 있다. 이러한 경우, 제2 사용자의 클라이언트 단말과 관련된 카메라들은 제5 카메라 내지 제7 카메라를 의미할 수 있다.For example, when the terminal of the first user is the
이에 따르면, 본 서버(100)의 수신부(110)는 클라이언트 단말(200)로부터 영상요청패킷을 수신할 수 있으며, 이때 영상요청패킷에는 클라이언트 단말(200)의 식별정보와 해당 클라이언트 단말(200)과 관련된 카메라들 중 어느 카메라의 영상을 획득하고자 하는지에 대한 카메라 관련 정보가 포함될 수 있다. 이를 통해, 본 서버(100)에는 영상요청패킷에 의해 클라이언트 단말(200)과 관련된 고유 키값(즉, 클라이언트 단말의 식별정보)이 입력될 수 있다.According to this, the receiving
이후, 수신부(110)는 수신한 영상요청패킷에 응답하여, 입력된 고유 키값을 기반으로, 그와 관련된 카메라들에 의해 촬영되는 영상(일예로, 제1 클라이언트 단말과 관련된 카메라들인 제1 카메라 내지 제4 카메라를 통해 촬영되는 영상)을 암호화된 영상으로 수신하여 데이터베이스부(160)에 저장할 수 있다. Subsequently, the
영상 전송부(120)는 수신한 영상요청패킷에 응답하여, 영상요청패킷에 대응하는 카메라(특히, 영상요청패킷에 포함된 카메라 관련 정보에 대응하는 카메라)의 영상을 멀티캐스트로 전송할 수 있다.The
영상 전송부(120)는 영상요청패킷에 대응하는 카메라(일예로 제1 카메라)의 영상(제1 영상)을 실시간으로 멀티캐스트로 전송할 수 있다. 이때 실시간으로 전송되는 제1 카메라의 제1 영상은, 일예로 데이터베이스부(160)에 대한 저장 없이 제1 카메라(1)로부터 촬영된 영상이 바로 암호화되어 멀티캐스트되는 영상일 수도 있고, 또는 데이터베이스부(160)에 기 저장된 암호화된 제1 영상을 데이터베이스부(160)로부터 추출하여 멀티캐스트되는 영상일 수 있다.The
다시 말해, 클라이언트 단말(200)이 요청하는 특정 카메라에 대한 영상(일예로 제1 카메라의 제1 영상)은, 클라이언트 단말(200)의 고유 키값을 이용하여 일예로 본 서버(100)에서 멀티캐스트로 실시간 암호화되어 전송될 수 있으며, 이를 통해, 클라이언트 단말(200)은 본 서버(100)로부터 전송되는 암호화된 영상을 획득(수신)할 수 있다.In other words, the video (for example, the first video of the first camera) for a specific camera requested by the
이때, 본 서버(100)에 의한 영상전송 사항, 즉, 본 서버(100)가 클라이언트 단말(200)로 제1 카메라(1)의 암호화된 제1 영상을 제공하였음을 나타내는 영상전송 사항은, 네트워크(300)를 통해 연결된 클라이언트 단말(200), 본 서버(100) 및 복수의 카메라(10)들에게 서로 공유됨으로써, 클라이언트 단말(200), 본 서버(100) 및 복수의 카메라(10)가 알 수 있다.At this time, the video transmission information by the
이후, 본 서버(100)의 검증 패킷 전송부(130)는 클라이언트 단말(200) 및 복수의 카메라(10) 중 일부의 카메라(2, 3, 4, …)로 해독키를 포함하는 검증 패킷을 전송할 수 있다.Thereafter, the verification
이후, 본 서버(100)에서는 클라이언트 단말(200)이 수신한 검증 패킷에 포함된 해독키에 대한 이상 유무(이상 여부)의 검증이 복수의 카메라(10) 중 불특정 다수의 연계 카메라에 의해 이루어질 수 있다. 여기서, 해독키에 대한 이상 유무의 검증을 수행하는 불특정 다수 연계 카메라라 함은, 검증 패킷 전송부(130)로부터 전송되는 검증 패킷을 수신한 일부의 카메라(2, 3, 4, …) 중 특히 랜덤하게 선택되는 복수개의 랜덤 카메라를 의미할 수 있다.Thereafter, in the
본 서버(100)의 제어부(140)는 이러한 불특정 다수의 연계 카메라(즉, 복수개의 랜덤 카메라)에 의한 해독키의 이상 유무 확인을 기초로 한 검증을 통해, 해독키에 이상이 없는 것으로 검증되면, 클라이언트 단말(200)에 대응하는 사용자가 자신이 요청한 영상을 볼 수 있도록 제어할 수 있다. 본원에서 검증이라 함은 영상전송을 인증하고 해독하는 기능을 검증이라 할 수 있다.If the
이러한 본 서버(100)에 의하면, 본 서버(100)는 영상전송에 상호 다른 장비가 있더라도 검증이 가능하며, 통신 단절이나 기타 다른 문제가 발생되는 상황에서도 인증 키값으로 검증을 재구성함으로써 효과적인 검증(복원)이 이루어지도록 할 수 있다.According to this
다시 도 2c를 참조하여 간단히 예를 들면 다음과 같다. 클라이언트 단말(200)은 일예로 제1 카메라(1, 카메라 1)의 영상을 제공받기 위해, 영상서버를 통해 인증요청을 수행할 수 있다. 이때, 인증요청이라 함은 영상요청패킷의 전송을 의미할 수 있다. 영상서버는 본 서버(100)와 연동될 수 있으며, 이를 통해 영상서버가 클라이언트 단말(200)로부터 수신한 인증요청 상황(즉, 영상서버가 영상요청패킷을 수신한 상황)은 본 서버(100)가 알 수 있다. 이를 통해, 본 서버(100)는 클라이언트 단말(200)로부터 인증요청이 이루어진 경우, 인증요청에 대응하는 영상요청패킷을 수신할 수 있다.Referring back to Figure 2c, for example briefly as follows. As an example, the
본 서버(100)의 수신부(110)가 영상요청패킷을 수신한 이후, 검증 패킷 전송부(130)는 검증 패킷을 전송할 수 있다. 또한, 본 서버(100)의 영상 전송부(120)는 영상요청패킷의 수신에 응답하여, 제1 카메라(1)의 영상인 제1 영상을 클라이언트 단말(200)을 향하여 멀티캐스트로 암호화된 형태로 전송할 수 있다. 즉, 영상 전송부(120)는 제1 카메라(1)의 암호화된 제1 영상을 클라이언트 단말(200)을 향해 멀티캐스트로 전송할 수 있다.After the
이후, 클라이언트 단말(200)은 수신한 암호화된 제1 영상을 보기 위하여, 검증 패킷 전송부(130)에 의해 전송되는 검증 패킷을 수신한 카메라들 중 무작위하게(랜덤하게) 선택된 카메라들(즉, 랜덤 카메라들)에게 자신이 수신한 검증 패킷에 포함된 해독키에 대한 이상 유무의 검증을 받을 수 있다. 뿐만 아니라, 클라이언트 단말(200) 스스로가 자체 판단 하에 해독키에 대한 이상 유무의 검증을 수행할 수 있다. 이 결과를 토대로, 랜덤 카메라들에 의한 검증 결과에도 이상이 없고, 클라이언트 단말(200) 스스로에 의한 자체 판단 결과 결과에도 이상이 없으면, 암호화된 제1 영상의 암호가 해제됨에 따라, 클라이언트 단말(200)의 사용자는 클라이언트 단말(200)을 통하여 해당 제1 영상(암호화가 해제된 제1 영상)을 볼 수 있다.Thereafter, the
이때, 암호화가 해제된 제1 영상은 클라이언트 단말(200)을 통해 보여짐과 동시에, 일예로 클라이언트 단말(200) 내 저장부(미도시)에 저장될 수 있다.In this case, the first image in which the encryption is released may be viewed through the
또한, 암호화가 해제된 제1 영상이 클라이언트 단말(200)을 통해 1회 제공된 이후에(즉, 1회 재생되어 보여진 이후에), 재차 클라이언트 단말(200)이 해당 제1 영상을 다시 보고자 하는 경우(즉, 제1 영상을 다시 재생하기 위한 재요청이 이루어진 경우), 클라이언트 단말(200)은 다시 상술한 검증 과정(즉, 랜덤 카메라들에 의한 검증과 클라이언트 단말 스스로에 의한 검증)을 수행(즉, 재검증을 수행)할 수 있으며, 재검증 결과를 토대로 다시 제1 영상을 볼 수 있다.In addition, after the first image, which has been decrypted, is provided once through the client terminal 200 (that is, after it has been played and viewed once), the
이때, 본 시스템(1000)에서 송수신되는 각종 데이터에 관한 정보(기록 정보)는 네트워크(300)를 통해 연결된 각종 장비들(일예로, 복수의 카메라나 클라이언트 단말, 본 장치)과 공유될 수 있으며, 이러한 본 시스템(1000)에서는 시간단위로 변경되는 값(시간의 흐름에 따라 실시간으로 변경되는 해독키 관련 값)을 인증받고, 그를 기반으로 영상 제공 서비스가 이루어질 수 있다.At this time, information (recording information) regarding various data transmitted and received in the
여기서, 본 시스템(1000)에서 송수신되는 각종 데이터에는 클라이언트 단말(200)에 의한 요청, 재요청, 영상요청패킷, 혹은 본 서버(100)에 의한 검증 패킷, 클라이언트 단말(200)이나 본 서버(100)에서의 영상 송수신 시간, 암호화 해제가 이루어진 시간 등과 관련된 데이터가 포함될 수 있다.Here, the various data transmitted and received in the
한편, 본 서버(100)는 선택 메뉴 제공부(150)를 포함할 수 있다.Meanwhile, the
선택 메뉴 제공부(150)는 수신부(110)에서 수신된 영상요청패킷(제1 카메라의 제1 영상을 획득하기 위한 영상요청패킷)에 응답하여, 복수의 카메라(10)(1, 2, 3, 4, …) 중에 제1 카메라(1)를 통해 획득되는 제1 영상의 적어도 일부 영역을 중첩 영역으로 포함하는 제2 영상을 획득하는 제2 카메라가 존재하는 경우, 제1 영상이 포함된 확장 영상을 제공받을지 여부를 선택하는 제1 선택 메뉴를 클라이언트 단말(200)로 제공할 수 있다. 즉, 선택 메뉴 제공부(150)는 제1 선택 메뉴가 클라이언트 단말(200)의 화면 상에 표시되도록 제공할 수 있다. 이에 관한 설명은 도 4를 참조하여 보다 쉽게 이해될 수 있다.The selection
도 4는 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버(100)에서 제1 영상의 확장 영상의 제공 예를 설명하기 위한 도면이다.4 is a view for explaining an example of providing an extended image of a first image in the edge cloud-based
도 4를 참조하면, 일예로, 복수의 카메라(10)(1, 2, 3, 4, …) 중 제1 카메라(1)에 의해 촬영되어 획득되는 제1 영상(I1)과 제2 카메라(2)에 의해 촬영되어 획득되는 제2 영상(I2) 간에 서로 중첩되는 영역(r)이 존재한다고 하자. 즉, 일예로 제1 영상(I1)의 적어도 일부 영역을 중첩 영역(r)으로 포함하는 영상(I2)을 획득하는 카메라가 제2 카메라(2)라고 하자. 달리 표현해, 제2 카메라(2)가 제2 영상(I2)을 획득함에 있어서, 일예로 제1 카메라(1)를 통해 획득되는 제1 영상(I1)의 적어도 일부 영역(r)이 중첩되도록 제2 영상(I2)을 획득한다고 가정하자.Referring to FIG. 4, as an example, among the plurality of cameras 10 (1, 2, 3, 4, …), the first image I1 and the second camera (obtained and captured by the first camera 1) Suppose that there exists an area r overlapping each other between the second images I2 captured and acquired by 2). That is, for example, suppose that the camera that acquires the image I2 including at least a partial region of the first image I1 as the overlap region r is the
이때, 수신부(110)가 영상요청패킷을 수신하면, 선택 메뉴 제공부(150)는 복수의 카메라(10)(1, 2, 3, 4, …) 중에 제1 카메라(1)를 통해 획득되는 제1 영상(I1)의 적어도 일부 영역을 중첩 영역(r)으로 포함하는 제2 영상(I2)을 획득하는 제2 카메라(2)가 존재하는지 확인할 수 있다. 확인 결과, 제2 카메라(2)가 제1 영상(I1)의 적어도 일부 영역(r)에 대해 중첩되도록 영상(I2)을 획득하므로, 선택 메뉴 제공부(150)는 제1 영상(I1)이 포함된 확장 영상을 제공받을지 여부를 선택하는 제1 선택 메뉴를 클라이언트 단말(200)로 제공할 수 있다.At this time, when the receiving
이때, 영상 전송부(120)는, 제1 선택 메뉴의 제공에 응답하여 확장 영상을 제공받는 것으로 선택된 경우(즉, 제1 선택 메뉴의 제공에 응답하여, 클라이언트 단말로부터 확장 영상을 제공받고자 하는 선택 입력 정보가 수신된 경우), 제1 영상(I1)과 제2 영상(I2)을 포함하는 제1 영상의 확장 영상을 암호화하여 멀티캐스트로 전송할 수 있다.At this time, when the
이때, 영상 전송부(120)를 통해 전송되는 암호화된 제1 영상의 확장 영상은, 제2 영상(I2) 중에서 중첩 영역(r)이 제외된 나머지 영역(s)에 해당하는 영상 및 제1 영상(I1)을 포함하는 영상일 수 있다.In this case, the extended image of the encrypted first image transmitted through the
즉, 영상 전송부(120)를 통해 전송되는 암호화된 제1 영상의 확장 영상은, 단순히 제1 영상(I1)에 제2 영상(I2) 전체를 추가함으로써 생성되는 영상이 아니라, 제1 영상(I1)에 제2 영상(I2) 중 특히 제1 영상(I1)과의 중첩된 중첩 영역(r)을 제외한 나머지 영역(s)에 해당하는 제2 영상(I2)만을 추가함으로써 생성되는 영상을 의미할 수 있다.That is, the extended image of the encrypted first image transmitted through the
이에 따르면, 본 서버(100)는 암호화된 제1 영상의 확장 영상을 제공(전송)함에 있어서, 제1 영상의 확장 영상의 생성시 고려되는 두 영상 중 어느 하나의 영상에 포함된 중첩 영역(즉, 두 영상 간에 서로 중첩되는 중첩 영역)을 제거한 상태로 확장 영상을 생성하여 제공(전송)할 수 있다.According to this, the
이를 위해, 도면에 도시하지는 않았으나, 영상 전송부(120)는 확장 영상의 생성을 위한 영상 편집부(미도시)를 포함할 수 있다.To this end, although not shown in the drawings, the
영상 편집부(미도시)는 제1 선택 메뉴의 제공에 응답하여 확장 영상을 제공받는 것으로 선택된 경우, 제1 영상(I1)과 제2 영상(I2)을 포함하는 제1 영상의 확장 영상을 생성할 수 있다. 이때, 영상 편집부(미도시)는 상술한 바와 같이 중첩 영역에 대하여 복수개의 중첩 영역들 중 하나만 남기고 나머지 중첩된 영역들은 제거할 수 있다. 이를 기반으로, 영상 편집부(미도시)는 중첩 영역이 제거(제외)된 나머지 영역(s)만을 포함하는 제2 영상(I2)과 제1 영상(I1)을 하나의 영상으로 연결시키는 영상 편집을 수행함으로써, 제1 영상의 확장 영상을 생성할 수 있다.The image editing unit (not shown) generates an extended image of the first image including the first image I1 and the second image I2 when it is selected to receive the extended image in response to the provision of the first selection menu. Can. In this case, as described above, the image editing unit (not shown) may remove only the one of the plurality of overlapping regions with respect to the overlapping region and remove the other overlapping regions. Based on this, the image editing unit (not shown) performs image editing that connects the second image I2 and the first image I1 including only the remaining region s in which the overlapped region is removed (excluding) into one image. By performing it, an extended image of the first image can be generated.
또한, 영상 편집부(미도시)는 후술하는 설명에서 중첩 영상 획득 카메라를 이용한 대체 영상을 생성하기 위한 영상 편집을 수행할 수 있다. 구체적인 설명은 후술하여 설명하기로 한다.In addition, the image editing unit (not shown) may perform image editing to generate an alternative image using a superimposed image acquisition camera in the following description. The detailed description will be described later.
이러한 본 서버(100)는 중첩 영역을 제거한 상태로 확장 영상을 생성하여 암호화함으로써, 중첩 영역에 대한 제거 없이 확장 영상을 생성해 암호화하는 경우와 대비하여 암호화 시간을 줄일 수 있으며, 더불어 불필요한 영상의 획득(혹은 데이터베이스부에 대한 불필요한 영상의 저장)을 줄이고 메모리의 사용량을 줄일 수 있다. 여기서, 메모리라 함은 데이터베이스부에 대응하는 메모리를 의미할 수 있다.The
또한, 선택 메뉴 제공부(150)는 제1 카메라(1)로부터 제1 영상의 획득이 불가능한 상태인 경우, 제1 영상의 대체 영상을 제공받을지 여부를 선택하는 제2 선택 메뉴를 클라이언트 단말(200)로 제공할 수 있다.In addition, when the acquisition of the first image from the
여기서, 제1 영상의 획득이 불가능한 상태라 함은, 예시적으로 제1 카메라(1)가 고장나거나 혹은 제1 영상이 전송되는 네트워크(일예로, 제1 네트워크)에 대하여 통신 이상이 발생한 경우(즉, 네트워크의 상태가 좋지 않은 경우) 등의 이유로 제1 영상을 본 서버(100)가 획득할 수 없는 경우를 의미할 수 있다.Here, the state in which the acquisition of the first image is impossible means that, for example, the
이때, 제어부(140)는 제2 선택 메뉴의 제공에 응답하여 대체 영상을 제공받는 것으로 선택된 경우(즉, 제2 선택 메뉴의 제공에 응답하여, 클라이언트 단말로부터 제1 영상의 대체 영상을 제공받고자 하는 선택 입력 정보가 수신된 경우), 제1 영상과 중첩되는 영역(적어도 일부 중첩되는 영역)을 촬영하는 제2 카메라(2)가 제1 영상의 대체 영상을 획득하도록 하기 위해, 제2 카메라(2)의 각도를 제어할 수 있다.At this time, when the
이때, 제어부(140)는 제2 카메라(2)의 각도를 제어하기 이전의 제1 영상(I1)과 제2 영상(I2) 간에 중첩되는 중첩 영역(r)의 크기를 기준(즉, 카메라의 각도 제어 이전의 중첩 영역의 크기를 기준)으로, 제1 영상(I1)과 제2 영상(I2) 간에 중첩되는 중첩 영역(r)의 크기가 더 커지는 방향으로 제2 카메라(2)의 각도를 제어할 수 있다.At this time, the
이에 따르면, 예시적으로 제2 카메라(2)의 각도 제어가 이루어지기 이전에 제2 카메라(2)를 통해 획득되는 제2 영상(I2) 내 중첩 영역(r)의 크기를 제1 크기라 하는 경우, 제2 카메라(2)의 각도 제어가 이루어진 이후에 제2 카메라(2)를 통해 획득되는 제2 영상 내 중첩 영역의 크기는 제1 크기보다 큰 제2 크기일 수 있다. 이때, 제2 카메라(2)의 각도 제어가 이루어진 이후에 제2 카메라(2)를 통해 획득되는 제2 영상은, 제2 카메라(2)의 각도 제어에 의해 각도 제어 이전과 대비하여 촬영 영상의 각도가 변경된 영상으로서, 각도 변경 영상(특히, 각도 변경 제2 영상)이라 지칭될 수 있다.According to this, the size of the overlap region r in the second image I2 obtained through the
이후, 영상 전송부(120)는 각도 제어가 이루어진 제2 카메라(2)로부터 획득되는 각도 변경 영상(특히, 각도 변경 제2 영상)을 제1 영상(I1)의 대체 영상으로서 암호화하여 클라이언트 단말(200)을 향해 전송할 수 있다. 이는 도 5를 참조하여 보다 쉽게 이해될 수 있다.Thereafter, the
도 5는 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버(100)에서 제2 카메라의 각도 제어에 의해 획득되는 각도 변경 영상을 설명하기 위한 도면이다. 이에 대한 설명은 도 4와 대비하여 설명될 수 있다.5 is a view for explaining an angle change image obtained by the angle control of the second camera in the edge cloud-based
도 4 및 도 5를 참조하면, 선택 메뉴 제공부(150)는 제1 카메라(1)로부터 제1 영상(I1)의 획득이 불가능한 상태인 경우, 제1 영상의 대체 영상을 제공받을지 여부를 선택하는 제2 선택 메뉴를 클라이언트 단말(200)로 제공할 수 있다.4 and 5, when the selection
제2 선택 메뉴의 제공에 응답하여 대체 영상을 제공받는 것으로 선택된 경우, 제어부(140)는 제2 카메라(2)의 각도를 제어하기 이전의 제1 영상(I1)과 제2 영상(I2) 간에 중첩되는 중첩 영역(r)의 크기를 기준으로, 제1 영상(I1)과 제2 영상(I2) 간에 중첩되는 중첩 영역의 크기가 더 커지는 방향으로 제2 카메라(2)의 각도를 제어할 수 있다.When it is selected to receive an alternative image in response to the provision of the second selection menu, the
이에 따르면, 제2 카메라(2)의 각도 제어가 이루어진 이후에 제2 카메라(2)를 통해 획득되는 각도 변경 영상(각도 변경 제2 영상)(I2') 내 중첩 영역(r')의 크기, 즉 제1 영상(I1)과 중첩되는 중첩 영역(r')의 크기는, 제2 카메라(2)의 각도 제어가 이루어지기 이전의 제2 영상(I2) 내 중첩 영역(r)의 크기보다 클 수 있다.According to this, after the angle control of the
이후, 영상 전송부(120)는 각도 제어가 이루어진 제2 카메라(2)로부터 획득되는 각도 변경 영상(특히, 각도 변경 제2 영상)(I2')을 제1 영상(I1)의 대체 영상으로서 암호화하여 클라이언트 단말(200)을 향해 전송할 수 있다.Subsequently, the
이러한 본 서버(100)는 클라이언트 단말(200)이 요청한 영상(즉, 영상요청패킷에 대응하는 영상으로서 일예로 제1 카메라의 제1 영상)을 클라이언트 단말(200)로 제공할 수 없는 상황에 대해서도, 해당 영상(제1 영상)과 적어도 일부 중첩되는 영역을 촬영하는 카메라(일예로, 제2 카메라)의 각도를 제어함으로써, 각도 제어가 이루어지는 카메라(제2 카메라)로 하여금 제1 영상에 대한 대체 영상을 획득하여 클라이언트 단말(200)에 제공되도록 할 수 있다.The
즉, 본 서버(100)는 클라이언트 단말(200)이 요청한 제1 영상을 제공할 수 없는 상황에서도, 다른 카메라의 각도 제어를 통해 해당 제1 영상과 유사한 영상(대체 영상)을 제공함으로써, 영상 서비스 제공의 만족도를 높일 수 있다.That is, even in a situation in which the
또한, 제어부(140)는 복수의 카메라(10)(1, 2, 3, 4, …) 내에 제1 영상의 적어도 일부 영역을 중첩 영역으로 포함하는 영상을 획득하는 중첩 영상 획득 카메라가 복수개 존재하는 경우, 제1 영상의 대체 영상의 획득을 위해 복수개의 중첩 영상 획득 카메라 중 선택적으로 적어도 일부의 카메라의 각도를 제어할 수 있다. 이때, 제어부(140)는 대체 영상의 획득을 위하여 복수개의 중첩 영상 획득 카메라 중 선택적으로 제어 가능한 적어도 일부의 카메라의 조합 수(조합 경우의 수)가 복수개인 경우, 제어되는 카메라의 수가 최소가 되는 조합에 해당하는 적어도 일부의 카메라를 선택하여 각도를 제어할 수 있다. 이는 도 6 내지 도 8을 참조하여 보다 쉽게 이해될 수 있다.In addition, the
도 6 내지 도 8은 본원의 일 실시예에 따른 엣지 클라우드 기반 영상 전송 서버(100)에서 대체 영상의 획득을 위한 선택적 중첩 영상 획득 카메라의 각도 제어 예를 설명하기 위한 도면이다. 6 to 8 are diagrams for explaining an example of angle control of a selective superimposed image acquisition camera for acquiring an alternative image in the edge cloud-based
도 6 내지 도 8을 참조하면, 예시적으로 도 6에 도시된 바와 같이, 복수의 카메라(10)(1, 2, 3, 4, …) 중에, 제1 카메라(1)를 통해 획득되는 제1 영상(I1)의 적어도 일부 영역이 중첩되도록 영상을 획득하는 카메라가 3개 존재(즉, 제2 카메라 내지 제4 카메라가 존재)한다고 하자.Referring to FIGS. 6 to 8, as illustrated in FIG. 6, for example, a plurality of cameras 10 (1, 2, 3, 4, ...), which are obtained through the
여기서, 제2 카메라(2)가 제1 영상(I1)의 적어도 일부 영역과 중첩되는 중첩 영역(r1)을 포함하도록 제2 영상(I2)을 획득하고, 제3 카메라(3)가 제1 영상(I1)의 다른 적어도 일부 영역과 중첩되는 중첩 영역(r2)을 포함하도록 제3 영상(I3)을 획득하고, 제4 카메라(4)가 제1 영상(I1)의 또 다른 적어도 일부 영역과 중첩되는 중첩 영역(r3)을 포함하도록 제4 영상(I4)을 획득한다고 하자.Here, the
이때, 클라이언트 단말(200)이 요청한 제1 카메라(1)의 제1 영상(I1)의 획득이 불가능한 상태인 경우(즉, 클라이언트 단말이 영상요청패킷을 통해 제1 카메라의 제1 영상을 요청하였으나, 본 장치가 제1 영상을 클라이언트 단말로 제공할 수 없는 상태인 경우), 선택 메뉴 제공부(150)는 제1 영상(I1)의 대체 영상을 제공받을지 여부를 선택하는 제2 선택 메뉴를 클라이언트 단말(200)로 제공할 수 있다.At this time, when the first image I1 of the
제2 선택 메뉴의 제공에 응답하여, 클라이언트 단말(200)이 제1 영상(I1)의 대체 영상을 제공받을 것을 선택하는 입력이 이루어졌다고 하자. 즉, 제어부(140)는 클라이언트 단말(200)로부터 제1 영상(I1)의 대체 영상을 제공받는다는 응답이 수신된 경우, 복수의 카메라(10)(1, 2, 3, 4, …) 내에 제1 영상(I1)의 적어도 일부 영역을 중첩 영역으로 포함하는 영상을 획득하는 중첩 영상 획득 카메라가 존재하는지 판단할 수 있다.Suppose that in response to the provision of the second selection menu, the
이때, 복수의 카메라(10)(1, 2, 3, 4, …) 내에 중첩 영상 획득 카메라가 존재하되, 이러한 중첩 영상 획득 카메라가 복수개 존재한다고 하자. 여기서, 도 6의 도시된 예에 따르면, 복수개의 중첩 영상 획득 카메라는 제2 영상(I2)을 획득하는 제2 카메라(2), 제3 영상(I3)을 획득하는 제3 카메라(3) 및 제4 영상(I4)을 획득하는 제4 카메라(4)를 의미할 수 있다.At this time, it is assumed that an overlapping image acquisition camera exists in a plurality of cameras 10 (1, 2, 3, 4, ...), but a plurality of such overlapping image acquisition cameras exist. Here, according to the illustrated example of FIG. 6, the plurality of superimposed image acquisition cameras include a
이처럼, 제1 영상(I1)의 대체 영상을 제공함에 있어서, 일예로 복수의 카메라(10)(1, 2, 3, 4, …) 내에 복수개의 중첩 영상 획득 카메라(2, 3, 4)가 존재하는 경우, 제어부(140)는 제1 영상(I1)의 대체 영상의 획득을 위해 복수개의 중첩 영상 획득 카메라(2, 3, 4) 중 선택적으로 적어도 일부의 카메라의 각도를 제어할 수 있다.As described above, in providing an alternative image of the first image I1, for example, a plurality of superimposed
이때, 제어부(140)는, 일예로 도 7에 도시된 바와 같이 제1 영상(I1)의 대체 영상의 획득을 위해 제2 카메라(2)와 제3 카메라(3)의 각도를 제어할 수 있다. 이러한 경우, 수신부(110)는 각도 제어가 이루어진 제2 카메라(2)를 통해 각도 변경 영상(각도 변경 제2 영상, I2')과 각도 제어가 이루어진 제3 카메라(3)를 통해 각도 변경 영상(각도 변경 제3 영상, I3')을 획득(수신)할 수 있다. 이후, 상술한 영상 전송부(120) 내 영상 편집부(미도시)는, 제1 영상(I1)을 기반으로, 획득된 제2 카메라(2)의 각도 변경 영상(각도 변경 제2 영상, I2')의 적어도 일부 영역과 획득된 제3 카메라(3)의 각도 변경 영상(각도 변경 제3 영상, I3')의 적어도 일부 영역을 서로 결합시킴으로써 제1 영상(I)의 대체 영상의 획득(생성)할 수 있다.In this case, the
구체적으로, 영상 편집부(미도시)는 제2 카메라(2)의 각도 변경 영상(각도 변경 제2 영상, I2') 내에서 제1 영상(I1)과 중첩되는 중첩 영역(r1'')에 해당하는 제1 부분 영상을 추출하고, 제3 카메라(3)의 각도 변경 영상(각도 변경 제3 영상, I3') 내에서 제1 영상(I1)과 중첩되는 중첩 영역(r2'')에 해당하는 제2 부분 영상을 추출할 수 있다. 이후, 영상 편집부(미도시)는 추출된 제1 부분 영상과 제2 부분 영상을 연결(결합)시킴으로써 제1 영상(I)의 대체 영상의 획득(생성)할 수 있다.Specifically, the image editing unit (not shown) corresponds to the overlapping area r1 ″ overlapping with the first image I1 in the angle change image of the second camera 2 (second angle change image I2′). The first partial image to be extracted, and corresponds to the overlap region (r2'') overlapping with the first image I1 in the angle change image (the third angle change image, I3') of the
또한, 제어부(140)는, 다른 일예로 도 8에 도시된 바와 같이 제1 영상(I1)의 대체 영상의 획득을 위해 제2 카메라(2), 제3 카메라(3) 및 제4 카메라(4)의 각도를 제어할 수 있다. 이러한 경우, 수신부(110)는 각도 제어가 이루어진 제2 카메라(2)를 통해 각도 변경 영상(각도 변경 제2 영상, I2'')과 각도 제어가 이루어진 제3 카메라(3)를 통해 각도 변경 영상(각도 변경 제3 영상, I3'')과 각도 제어가 이루어진 제4 카메라(4)를 통해 각도 변경 영상(각도 변경 제4 영상, I4'')을 획득(수신)할 수 있다. 이후, 상술한 영상 전송부(120) 내 영상 편집부(미도시)는, 제1 영상(I1)을 기반으로, 획득된 제2 카메라(2)의 각도 변경 영상(각도 변경 제2 영상, I2'')의 적어도 일부 영역과 획득된 제3 카메라(3)의 각도 변경 영상(각도 변경 제3 영상, I3'')의 적어도 일부 영역과 제4 카메라(4)의 각도 변경 영상(각도 변경 제4 영상, I4'')의 적어도 일부 영역을 서로 결합시킴으로써 제1 영상(I)의 대체 영상의 획득(생성)할 수 있다.In addition, the
구체적으로, 영상 편집부(미도시)는 제2 카메라(2)의 각도 변경 영상(각도 변경 제2 영상, I2'') 내에서 제1 영상(I1)과 중첩되는 중첩 영역(r1''')에 해당하는 제1 부분 영상을 추출하고, 제3 카메라(3)의 각도 변경 영상(각도 변경 제3 영상, I3'') 내에서 제1 영상(I1)과 중첩되는 중첩 영역(r2''')에 해당하는 제2 부분 영상을 추출하고, 제4 카메라(4)의 각도 변경 영상(각도 변경 제4 영상, I4'') 내에서 제1 영상(I1)과 중첩되는 중첩 영역(r3''')에 해당하는 제3 부분 영상을 추출할 수 있다.Specifically, the image editing unit (not shown) overlaps the first image I1 in the angle change image (second angle change second image I2'') of the second camera 2 (r1'''). The overlapping region r2''' that overlaps with the first image I1 in the angle change image (angle change third image, I3'') of the
이후, 영상 편집부(미도시)는 추출된 제1 부분 영상, 제2 부분 영상 및 제3 부분 영상을 연결(결합)시킴으로써 제1 영상(I)의 대체 영상의 획득(생성)할 수 있다.Thereafter, the image editing unit (not shown) may acquire (generate) the replacement image of the first image I by connecting (combining) the extracted first partial image, the second partial image, and the third partial image.
이때, 상술한 도 7의 일예에서와 같이 2개의 카메라(2, 3)의 각도 제어를 통한 대체 영상의 획득 예는 제1 경우의 예라 지칭될 수 있다. 또한, 상술한 도 8의 일예에서와 같이 3개의 카메라(2, 3, 4)의 각도 제어를 통한 대체 영상의 획득 예는 제2 경우의 예라 지칭될 수 있다.At this time, as in the example of FIG. 7 described above, an example of acquiring an alternate image through angle control of two
이에 따르면, 복수의 카메라(10) 내에 복수개의 중첩 영상 획득 카메라(2, 3, 4)가 존재하는 경우, 제어부(140)는 일예로 제1 경우의 예와 같이 복수개의 중첩 영상 획득 카메라(2, 3, 4) 중 선택적으로 제2 카메라(2)와 제3 카메라(3)의 각도를 각각 제어함으로써 대체 영상을 획득할 수도 있고, 또는, 다른 일예로 제2 경우의 예와 같이 복수개의 중첩 영상 획득 카메라(2, 3, 4) 중 선택적으로 제2 카메라(2) 내지 제4 카메라(4)의 각도를 각각 제어함으로써 대체 영상을 획득할 수 있다.According to this, when a plurality of superimposed
이와 같은 본원의 일예에 따르면, 본 서버(100)에서는 대체 영상의 획득을 위하여 복수개의 중첩 영상 획득 카메라 중 선택적으로 제어 가능한 적어도 일부의 카메라의 조합 수(조합 경우의 수)가 2개(제1 경우의 예와 제2 경우의 예를 포함하는 2가지 경우)라 할 수 있다. 즉, 본원의 일예에 따르면, 선택적으로 제어 가능한 적어도 일부의 카메라의 조합 수는 제1 경우의 예와 제2 경우의 예를 포함하여 총 2개인 것이라 할 수 있다.According to this example of the present application, in the
이처럼, 대체 영상의 획득을 위하여 복수개의 중첩 영상 획득 카메라 중 선택적으로 제어 가능한 적어도 일부의 카메라의 조합 수(조합 경우의 수)가 복수개인 경우, 제어부(140)는 제어되는 카메라의 수가 최소가 되는 조합에 해당하는 적어도 일부의 카메라를 선택하여 각도를 제어할 수 있다.As described above, when there are a plurality of combinations (the number of combinations) of at least some of the cameras selectively controllable among a plurality of overlapping image acquisition cameras for acquiring the replacement image, the
제1 경우의 예에서는 대체 영상의 획득을 위해 제어되는 카메라의 수가 2개인 반면, 제2 경우의 예에서는 대체 영상의 획득을 위해 제어되는 카메라의 수가 3개일 수 있다. 이러한 경우, 제1 경우가 제2 경우보다 대체 영상의 획득을 위해 제어되는 카메라의 수가 더 적으므로, 제어부(140)는 2가지의 경우 중 제1 경우의 예와 같이, 일예로 제어되는 카메라의 수가 최소가 되는 조합에 해당하는 적어도 일부의 카메라로서 제2 카메라(2)와 제3 카메라(3)를 선택하고, 제2 카메라(2)와 제3 카메라(3)의 각도를 제어함으로써 제1 영상(I1)의 대체 영상을 획득할 수 있다.In the example of the first case, the number of cameras controlled for acquiring the substitute image is two, whereas in the example of the second case, the number of cameras controlled for the acquisition of the substitute image may be three. In this case, since the number of cameras controlled for acquiring the replacement image is less than that of the second case in the first case, the
이러한 본 서버(100)는 클라이언트 단말(200)이 요청한 제1 영상을 제공할 수 없는 상황에서 제1 영상의 대체 영상을 제공함에 있어서, 대체 영상의 생성을 위해 제어되는 카메라(중첩 영상 획득 카메라)의 수를 최소한으로 하면서 제1 영상과 유사하거나 상응하는 영상(대체 영상)의 제공이 가능하도록 할 수 있다.The
즉, 본 서버(100)는 최소한의 수로 제어되는 중첩 영상 획득 카메라를 통해 획득되는 각도 변경 영상을 토대로 대체 영상을 생성함으로써, 영상 편집 시간을 줄일 수 있고(보다 빠른 대체 영상의 생성이 가능하고), 적은 영상의 수를 이용한 영상 간 결합을 통해 클라이언트 단말(200)로 제공되는 영상(암호화된 제1 영상의 대체 영상)의 품질을 향상시킬 수 있다.That is, the
상술한 설명에 따르면, 본 시스템(1000)은 복수의 카메라(10)로부터 암호화된 영상의 제공이 이루어지도록 함으로써, 안전한 영상 전송이 이루어지도록 할 수 있다.According to the above-described description, the
또한, 본 시스템(1000)에서 본 서버(100, 혹은 엣지 클라우드)와 말단 기기인 카메라(10) 간에는 일예로 영상 전송이 보안 소켓 계층(Secure Socket Layer, SSL) 암호화 전송으로 이루어질 수 있으며, 이에 따라 본 서버(100)와 카메라(10) 간에 전송되는 영상을 중간에서 탈취하는 일이 불가능하도록 할 수 있다. 즉, 본 시스템(1000)에서는 암호화 전송을 토대로 영상 전송의 보안을 향상시킬 수 있다.In addition, in the
또한, 본 시스템(1000)에서는 장애의 발생시 강인하게 대응할 수 있다. 즉, 종래의 클라우드 컴퓨팅에서는 클라우드 데이터 센터(클라우드 데이터 센터 서버)에 장애가 발생하는 경우 치명적인 타격이 발생할 수 있다. 반면, 본 시스템(1000)에서는 클라우드 데이터 센터 서버(400)에 장애가 발생하더라도, 카메라와 클라우드 데이터 센터 서버(400) 사이에 배치(마련)된 본 서버(100, 혹은 엣지 클라우드)를 통해 엣지 서비스의 제공이 이루어지도록 할 수 있는바, 발생된 장애의 대응이 보다 단순하게 처리 가능하도록 할 수 있다.In addition, the
또한, 본원은 본 시스템(1000) 및 본 서버(100)의 제공을 통해, 대규모 전송에서 네트워크의 성능에 이상이 없으면서 적은 비용으로 영상을 암호화하여 전송할 수 있다. 또한, 본원은 복수개의 랜덤 카메라에 의한 이상 유무 확인 결과와 클라이언트 단말에 의한 자체 판단 결과를 이용해 해독키의 이상 유무를 검증함으로써, 검증 신뢰도를 향상시킬 수 있다.In addition, through the provision of the
본 서버(100)는 엣지 클라우드 기반의 멀티캐스트를 이용한 암호화 영상 전송 서버(혹은 장치)라 달리 지칭될 수 있다.The
또한, 본 시스템(1000)에서, 클라이언트 단말(200)은 제어부(140)에 의한 암호 해제 제어를 통해, 암호가 해제된 제1 카메라(1)의 제1 영상의 조작 여부를 검출하는 조작 여부 검출부(미도시)를 포함할 수 있다.In addition, in the
정보통신기술의 발달에 따라 영상을 조작하는 방식이 날로 발전하고 있는데, 영상 조작은 단순히 유희로 사용되기도 하지만, 법적 증거물의 조작, 연구결과의 조작, 허위 서류의 작성 등 불법이나 악의적인 목적으로 사용되기도 하며, 이에 따라 영상 조작을 검출하는 기술의 발전은 필수불가결하다고 할 수 있다.With the development of information and communication technology, the method of manipulating images has been developed day by day, and although manipulating images is simply used as a game, it is used for illegal or malicious purposes such as manipulation of legal evidence, manipulation of research results, and creation of false documents. It may be said that the development of a technique for detecting image manipulation is indispensable.
최근 표준화된 영상 압축 표준인 HEVC(High Efficiency Video Coding)는 영상 품질 개선으로 높은 해상도를 지원하며, 압축 효율이 우수함에 따라 기존의 영상 압축 표준인 MPEG-2(H.262)와 비교해 약 4배, H.264/AVC에 비해 약 2배의 압축 성능을 가진다.The recently standardized video compression standard, HEVC (High Efficiency Video Coding) supports high resolution by improving the image quality, and as compression efficiency is excellent, it is approximately 4 times higher than the existing video compression standard MPEG-2 (H.262). , H.264/AVC has about twice the compression performance.
종래에 공지된 영상 조작 검출 기법은 대부분 기존의 영상 압축 표준인 MPEG-2, MPEG-4, H.264/AVC 등을 이용하여 압축된 영상에 대하여 조작 여부를 검출하며, 이러한 기존의 영상 압축 표준에 적용되는 영상 조작 검출 기법은 최근 표준화된 영상 압축 표준인 HEVC에 적용할 수 없는 문제가 있다. 이에, 조작 여부 검출부(미도시)는 HEVC로 압축된 영상의 조작 여부를 검출할 수 있다.Most of the known video manipulation detection techniques detect the manipulation of compressed video by using existing video compression standards such as MPEG-2, MPEG-4, and H.264/AVC, and these existing video compression standards The image manipulation detection technique applied to has a problem that cannot be applied to the recently standardized image compression standard HEVC. Accordingly, the manipulation detection unit (not shown) may detect whether manipulation of an image compressed by HEVC is performed.
일반적으로 영상의 조작 과정은 다음과 같다. 영상 획득이 이루어진 경우 획득된 영상은 부호화(또는 압축)되어 비트스트림 형태로 기록매체 또는 메모리에 기록, 저장될 수 있다. 이후, 기록 또는 저장된 영상의 임의적인 편집, 삭제 등의 조작을 수행하기 위해서는 비트스트림 형태로 기록 또는 저장되어 있는 영상을 복호화하여 영상의 형태로 변환하는 과정이 수행될 수 있다. 이후, 복호화된 영상을 조작한 이후 다시 기록 또는 저장을 위해 부호화하는 과정이 수행될 수 있다. 이와 같이, 조작 영상은 2회 이상의 부호화 과정이 수행될 수 있으며, 반면 비조작 영상은 1회의 부호화 과정이 수행될 수 있다. 검출기는 입력된 영상의 조작 여부를 검출할 수 있다. 달리 표현하여, 검출기는 입력된 영상을 비조작 영상과 조작 영상으로 분류할 수 있다. 이때, 입력된 영상의 조작 여부를 검출하거나 입력된 영상을 비조작 영상과 조작 영상으로 구분하는 방법으로는 다양한 방법들이 존재한다.In general, the operation process of the image is as follows. When the image is acquired, the obtained image may be encoded (or compressed) and recorded and stored in a recording medium or memory in the form of a bitstream. Subsequently, in order to perform an arbitrary editing, deletion, or the like operation of the recorded or stored image, a process of decoding an image recorded or stored in the form of a bitstream and converting it into a shape of the image may be performed. Thereafter, after manipulation of the decoded image, a process of encoding for recording or storage again may be performed. As such, two or more encoding processes may be performed on the manipulated image, whereas one encoding process may be performed on the non-manipulated images. The detector can detect whether the input image is manipulated. In other words, the detector may classify the input image into a non-manipulated image and a manipulated image. At this time, various methods exist as a method of detecting whether the input image is manipulated or classifying the input image into a non-manipulated image and a manipulated image.
본원에서는 클라이언트 단말(200)의 조작 여부 검출부(미도시)가, 부호화 패턴을 이용하여 영상의 조작 여부를 검출할 수 있는 기술에 대하여 개시한다.In the present application, a description is given of a technique in which a
영상 조작을 위하여 2회 이상의 부호화(압축) 과정이 수행되면, 조작된 영상의 부호화 패턴에서 영상 조작의 영향으로 1회의 부호화 과정이 수행되었을 때와는 다른 자연스럽지 않은 패턴이 나타난다는 점에 착안하여, 조작 여부 검출부(미도시)는 이러한 상이한 압축 패턴을 이용하여 영상의 조작 여부를 검출할 수 있다. 특히, 조작 여부 검출부(미도시)는 HEVC(High Efficiency Video Coding)을 이용하여 압축된 영상에서 이중 압축시 발생하는 상이한 부호화 정보의 패턴을 이용하여 영상의 조작 여부를 검출할 수 있다.In view of the fact that when two or more encoding (compression) processes are performed for image manipulation, an unnatural pattern appears different from when one encoding process is performed due to the manipulation of the image in the encoding pattern of the manipulated image. , The manipulation detection unit (not shown) may detect whether the image is manipulated using these different compression patterns. In particular, the manipulation detection unit (not shown) may detect whether the manipulation of the image is performed using a pattern of different encoding information generated during double compression in the compressed image using HEVC (High Efficiency Video Coding).
구체적으로, 클라이언트 단말(200)의 조작 여부 검출부(미도시)는 제어부(140)에 의한 암호 해제 제어를 통해, 암호가 해제된 제1 카메라(1)의 제1 영상의 조작 여부를 검출할 수 있다. 여기서, 암호가 해지된 제1 영상, 즉 클라이언트 단말(200)이 본 서버(100)로부터 전달받는 영상(제1 영상)은 일예로 HEVC(High Efficiency Video Coding)를 이용하여 압축된 영상일 수 있다.Specifically, the manipulation detection unit (not shown) of the
조작 여부 검출부(미도시)는 암호가 해제된 제1 영상의 부호화 패턴 중 기 정의된 특징 조건을 충족하는 특징을 갖는 부호화 패턴의 존재 여부에 따라 암호가 해제된 제1 영상의 조작 여부를 검출할 수 있다.The manipulation detection unit (not shown) detects whether the encryption-decrypted first image is manipulated according to the presence or absence of an encoding pattern having a feature that satisfies a predetermined feature condition among encoding patterns of the decrypted first image. Can.
여기서, 기 정의된 특징 조건은 HEVC(High Efficiency Video Coding)를 이용한 영상의 이중 압축시 변화되는 부호화 패턴의 특징에 대한 조건을 의미할 수 있다.Here, the pre-defined feature condition may mean a condition for a feature of a coding pattern that changes during double compression of an image using HEVC (High Efficiency Video Coding).
또한, 기 정의된 특징 조건은 영상(즉, 암호가 해제된 제1 영상)의 조작 여부를 식별하는 HEVC의 부호화 패턴과 관련된 블록 구조(예를 들어, CU(Coding Unit), TU(Transform Unit), PU(Prediction Unit))의 특성 변화에 대한 조건을 의미할 수 있다.In addition, the pre-defined feature condition is a block structure (eg, a coding unit (CU), a transform unit (TU)) associated with an encoding pattern of HEVC that identifies whether to manipulate an image (ie, a first image in which the encryption is released). , It may mean a condition for a characteristic change of a PU (Prediction Unit).
또한, 기 정의된 특징 조건은, 암호가 해제된 제1 영상의 부호화 패턴의 특징이 비조작된 영상의 부호화 패턴과 관련된 블록 구조에 대한 통계적인 처리 결과의 통계적 허용 범위를 벗어나는 경우, 이를 이중 압축에 의한 급격한 변화가 발생된 특징에 해당하는 것으로 판단하여 해당 영상(즉, 암호가 해제된 제1 영상)을 조작된 것으로 검출하는 조건을 의미할 수 있다.In addition, the predefined feature condition, if the feature of the encoding pattern of the decrypted first image is out of the statistical tolerance of the statistical processing result for the block structure associated with the encoding pattern of the unmanipulated image, double compression it It may refer to a condition for determining that it corresponds to a feature in which a sudden change due to is detected and detecting the corresponding image (ie, the first image from which the password has been released) as being manipulated.
즉, HEVC의 이중 압축이 이루어진 조작 영상에서 일부 부호화 정보가 비조작 영상에 대비하여 크게 변형되어 나타날 수 있는데, 이러한 점에 착안하여, 조작 여부 검출부(미도시)는 영상 조작 여부에 대한 보다 효과적인 판단을 위해 HEVC의 부호화 패턴과 관련된 블록 구조(CU, TU, PU)의 특성 변화를 고려할 수 있다.That is, in the HEVC double-compressed manipulated image, some encoding information may be significantly changed compared to the non-manipulated image. In view of this, the manipulation detection unit (not shown) determines a more effective determination as to whether the manipulation is performed. For this, characteristics of a block structure (CU, TU, PU) related to a coding pattern of HEVC may be considered.
특히, 조작 여부 검출부(미도시)는 HEVC의 부호화 패턴과 관련된 블록 구조의 통계적 특성 변화에 대한 특징을 고려하여 영상 조작 여부를 검출할 수 있다. 보다 자세하게 조작 여부 검출부(미도시)는 블록 구조의 통계적 특성 변화의 특징을 고려하여, 암호가 해제된 제1 영상의 부호화 패턴의 특징이 비조작된 영상(비조작 영상)의 부호화 패턴과 관련된 블록 구조에 대한 통계적인 처리 결과의 통계적 허용 범위를 벗어나는 경우, 암호가 해제된 제1 영상을 조작 영상으로서 검출할 수 있다. In particular, the manipulation detection unit (not shown) may detect whether the manipulation of an image is performed in consideration of characteristics of a statistical characteristic change of a block structure related to an encoding pattern of HEVC. In more detail, the manipulation detection unit (not shown) is a block related to the encoding pattern of the unmanipulated image (non-manipulated image) in consideration of the characteristics of the statistical characteristic change of the block structure and the feature of the encoding pattern of the decrypted first image When it is out of the statistical allowable range of the statistical processing result for the structure, the first image with the decrypted code can be detected as the manipulation image.
또한, 조작 여부 검출부(미도시)는, 암호가 해제된 제1 영상의 조작 여부를 식별하기 위해, HEVC의 부호화 패턴과 관련된 블록 구조 중 CU(Coding Unit)의 통계적 특성 변화에 대한 특징을 고려할 수 있다.In addition, the manipulation presence detection unit (not shown) may consider characteristics of a statistical characteristic change of a coding unit (CU) among block structures related to an encoding pattern of HEVC, in order to identify whether the manipulation of the first image in which the encryption is released is performed. have.
달리 말해, 기 정의된 특징 조건은, HEVC의 블록 구조 중 부호화 패턴 단위인 CU(Coding Unit)와 관련하여 인트라/인터(Intra/Inter) CU 블록의 개수, 인트라/인터 CU 블록의 크기별 발생 빈도 및 인트라/인터 CU 블록의 분포 비율 중 적어도 하나에 관한 조건을 포함할 수 있다.In other words, the pre-defined feature condition is the number of intra/inter CU blocks, the frequency of occurrence by size of the intra/inter CU blocks, and the number of intra/inter CU blocks in relation to a coding unit (CU), which is a coding pattern unit, among HEVC block structures. It may include conditions related to at least one of the distribution ratio of intra/inter CU blocks.
HEVC에서는 기본적으로 부호화 패턴 단위로서 CU(Coding Unit) 블록으로 나누어 압축이 진행되며, 각각의 CU는 인트라(Intra, 화면 내 예측) 방식 또는 인터(Inter, 화면 간 예측) 방식으로 압축이 진행된다. 이때, 암호가 해제된 제1 영상의 적어도 일부가 조작되는 경우, 조작의 영향으로 인트라/인터 CU의 비율, 블록의 크기 등이 급격하게 변하는 경우가 발생하게 되며, 조작 여부 검출부(미도시)는 영상 조작으로 인한 이러한 CU의 통계적 특성 변화의 특징을 이용하여 암호가 해제된 제1 영상의 조작 여부를 검출할 수 있다.In HEVC, compression is basically divided into coding unit (CU) blocks as a coding pattern unit, and compression is performed for each CU in an intra (intra-prediction) or inter (inter-prediction) scheme. At this time, when at least a part of the decrypted first image is manipulated, an intra/inter CU ratio, a block size, etc. may rapidly change due to manipulation, and the manipulation detection unit (not shown) It is possible to detect whether the first image with the decrypted password is manipulated using the feature of the change in the statistical characteristics of the CU due to the image manipulation.
즉, 조작 여부 검출부(미도시)는 CU의 통계적 특성 변화와 관련하여, 인트라/인터 CU 블록의 개수, 인트라/인터 CU 블록의 크기별 발생 빈도(크기에 따른 빈도) 및 인트라/인터 CU 블록의 분포 비율 중 적어도 하나의 통계적인 정보를 고려하여 입력된 영상의 조작 여부를 검출할 수 있다.That is, the manipulation presence detection unit (not shown) is related to the change in the statistical characteristics of the CU, the number of intra/inter CU blocks, the frequency of occurrence of each intra/inter CU block by size (frequency according to size), and the distribution of intra/inter CU blocks. It is possible to detect whether the input image is manipulated in consideration of at least one statistical information among the ratios.
예를 들어, 기 정의된 특징은 '인트라/인터 CU 블록의 개수'이고, 조작 영상과 관련하여 기 정의된 통계적인 특징 조건은 '인트라/인터 CU 블록의 개수가 15개 내지 20개 사이의 범위 내로 나타나는 조건'이고, 비조작 영상과 관련하여 기 정의된 통계적인 특징 조건은 '인트라/인터 CU 블록의 개수가 5개 내지 10개 사이의 범위 내로 나타나는 조건'이라고 가정하자. 이때, 조작 여부 검출부(미도시)는 입력된 영상(조작 검출 대상이 되는 영상)의 인트라/인터 CU 블록의 개수가 10개인 경우, 암호가 해제된 제1 영상을 비조작 영상으로서 검출할 수 있다. 만약, 제1 영상의 인트라/인터 CU 블록의 개수가 18개인 경우, 조작 여부 검출부(미도시)는 입력된 영상을 조작 영상으로서 검출할 수 있다.For example, the pre-defined feature is'the number of intra/inter CU blocks', and the pre-determined statistical feature condition related to the manipulation image is a range in which the number of intra/inter CU blocks is between 15 and 20. Suppose that it is a condition that appears within, and that the statistical characteristic condition that is predefined in relation to a non-manipulated image is'a condition in which the number of intra/inter CU blocks is within a range between 5 and 10'. At this time, if the number of intra/inter CU blocks of the input image (not the operation detection target) is 10, the presence/absence detection unit (not shown) may detect the decrypted first image as a non-operation image. . If the number of intra/inter CU blocks of the first image is 18, the manipulation detection unit (not shown) may detect the input image as the manipulation image.
다른 예로, 기 정의된 특징은 '인트라/인터 CU 블록의 개수'이고, 기 정의된 특징 조건은 '인트라/인터 CU 블록의 개수가 15개 이상인 조건'이라고 가정하자. 이때, 조작 여부 검출부(미도시)는 입력된 영상의 인트라/인터 CU 블록의 개수가 15개인 경우, 제1 영상을 조작 영상으로서 검출할 수 있다.As another example, it is assumed that the pre-defined feature is'the number of intra/inter CU blocks', and the pre-defined feature condition is'condition where the number of intra/inter CU blocks is 15 or more'. In this case, when the number of intra/inter CU blocks of the input image is 15, the manipulation presence detection unit (not shown) may detect the first image as the manipulation image.
또한, 일예로, 비조작 영상에서는 통계적으로 인트라/인터 CU 블록의 개수가 5개 내지 10개 사이의 범위내로 나타나고, 입력된 영상의 인트라/인터 CU 블록의 개수가 15개라고 가정하자. 이러한 경우, 조작 여부 검출부(미도시)는 제1 영상의 부호화 패턴의 특징(즉, 인트라/인터 CU 블록의 개수가 15개로 나타나는 부호화 패턴의 특징)이 통계적 허용 범위(즉, 5개 내지 10개 사이의 범위)를 벗어나므로, 암호가 해제된 제1 영상을 조작 영상으로서 검출할 수 있다. 상기에 언급한 예는 본원의 이해를 돕기 위한 하나의 실시예일뿐, 이에만 한정되는 것은 아니고, 보다 다양하게 적용 가능하다.In addition, as an example, it is assumed that the number of intra/inter CU blocks statistically appears in a range between 5 and 10 in the non-manipulated image, and that the number of intra/inter CU blocks of the input image is 15. In this case, the manipulation detection unit (not shown) has a statistical allowable range (that is, 5 to 10) of characteristics of the encoding pattern of the first image (that is, characteristics of the encoding pattern in which the number of intra/inter CU blocks is 15). Out of the range), it is possible to detect the first image with the decrypted password as an operation image. The above-mentioned examples are only one embodiment to aid understanding of the present application, and are not limited thereto, and can be applied in various ways.
클라이언트 단말(200)은, 암호가 해제된 제1 영상이 조작된 영상인 것으로 검출된 경우, 클라이언트 단말의 자체 화면에 조작 알림 메시지를 표시함과 동시에 엣지 로케이션 서버(본 서버, 100)로 제1 영상의 제공을 재요청하는 영상재요청패킷을 전송할 수 있다. 이때, 제1 영상이 조작된 영상인 것으로 검출된 경우, 클라이언트 단말(200)의 화면에 조작 알림 메시지가 표시되는 것으로만 예시하였으나, 이에만 한정되는 것은 아니고, 클라이언트 단말(200)의 스피커부를 통해 조작 알림 신호가 제공될 수 있다.When the
이에 따르면, 클라이언트 단말(200)은 조작 여부 검출부(미도시)를 통해, 암호가 해제된 제1 영상의 부호화 패턴 중 HEVC(High Efficiency Video Coding)를 이용한 영상의 이중 압축시 변화되는 부호화 패턴의 특징에 대한 조건인 기 정의된 특징 조건을 충족하는 특징을 갖는 부호화 패턴의 존재 여부에 따라 해당 영상의 조작 여부를 검출할 수 있다.According to this, the
또한, 클라이언트 단말(200)은 해당 영상의 조작 여부를 식별하는 HEVC의 부호화 패턴과 관련된 블록 구조의 특성 변화에 대한 조건인 기 정의된 특징 조건을 이용하여 영상의 조작 여부를 검출함으로써, HEVC로 압축된 영상의 조작 여부를 보다 효과적으로 검출할 수 있다.In addition, the
또한, 클라이언트 단말(200)은 암호가 해제된 제1 영상의 부호화 패턴의 특징이 비조작된 영상의 부호화 패턴과 관련된 블록 구조에 대한 통계적인 처리 결과의 통계적 허용 범위를 벗어나는 경우, 해당 영상(암호가 해제된 제1 영상)을 조작된 영상인 것으로 검출함으로써, 영상의 조작 여부를 효과적으로 검출할 수 있다.In addition, when the feature of the encoding pattern of the decrypted first image is out of the statistical allowable range of the statistical processing result for the block structure associated with the encoding pattern of the unmanipulated image, the
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustrative purposes, and those skilled in the art to which the present application pertains will understand that it is possible to easily modify to other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims below, rather than the detailed description, and it should be interpreted that all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present application.
1000: 엣지 클라우드 기반의 영상 전송 시스템
100: 엣지 로케이션 서버
200: 사용자 단말
400: 클라우드 데이터 센터 서버
10: 복수의 카메라1000: Edge cloud-based video transmission system
100: edge location server
200: user terminal
400: cloud data center server
10: multiple cameras
Claims (16)
복수의 카메라;
상기 복수의 카메라와 클라우드 데이터 센터 서버의 사이에 배치되고, 클라이언트 단말로부터 수신한 상기 복수의 카메라 중 제1 카메라의 제1 영상을 제공받기 위한 영상요청패킷에 응답하여, 상기 제1 카메라를 통해 획득되는 제1 영상이 라이브 영상으로서 스트리밍으로 상기 클라이언트 단말로 제공되도록 제어하고, 상기 클라이언트 단말로 제공되는 상기 라이브 영상을 녹화 영상으로서 데이터베이스부에 저장하는 엣지 로케이션 서버; 및
상기 데이터베이스부에 기 저장된 녹화 영상들 중 미리 설정된 조건을 충족하는 녹화 영상을 상기 엣지 로케이션 서버로부터 전달받아 저장하는 클라우드 데이터 센터 서버를 포함하고,
상기 미리 설정된 조건을 충족하는 녹화 영상은, 상기 데이터베이스부에 저장된 녹화 영상의 저장 시간이 미리 설정된 시간을 초과하는 것으로 판단되는 녹화 영상이고,
상기 엣지 로케이션 서버는, 엣지 클라우드를 기반으로 상기 라이브 영상에 대한 제공과 저장, 및 상기 클라우드 데이터 센터 서버로의 녹화 영상의 전달을 수행하되, 상기 기 저장된 녹화 영상들 중 상기 미리 설정된 조건을 충족하는 녹화 영상에 한하여 상기 클라우드 데이터 센터 서버로의 녹화 영상의 전달을 수행하고,
상기 엣지 로케이션 서버는,
수신한 상기 영상요청패킷에 응답하여, 상기 제1 카메라로부터 암호화된 제1 영상을 획득하여 상기 클라이언트 단말로 전송하는 영상 전송부;
상기 클라이언트 단말로 전송된 상기 암호화된 제1 영상에 대한 영상전송 인증과 해독을 위한 해독키를 포함하는 검증 패킷을 상기 복수의 카메라 중 일부의 카메라와 상기 클라이언트 단말로 전송하는 검증 패킷 전송부;
상기 클라이언트 단말이 수신한 검증 패킷에 포함된 해독키의 이상 유무의 검증 결과 이상이 없는 것으로 검증된 경우, 상기 클라이언트 단말이 수신하는 상기 암호화된 제1 영상에 대한 암호가 해제되도록 제어하는 제어부; 및
수신한 상기 영상요청패킷에 응답하여, 상기 복수의 카메라 중에 상기 제1 카메라를 통해 획득되는 제1 영상의 적어도 일부 영역을 중첩 영역으로 포함하는 제2 영상을 획득하는 제2 카메라가 존재하는 경우, 상기 제1 영상이 포함된 확장 영상을 제공받을지 여부를 선택하는 제1 선택 메뉴를 상기 클라이언트 단말로 제공하되, 상기 제1 카메라로부터 제1 영상의 획득이 불가능한 상태인 경우, 상기 제1 영상의 대체 영상을 제공받을지 여부를 선택하는 제2 선택 메뉴를 상기 클라이언트 단말로 제공하는 선택 메뉴 제공부를 포함하고,
상기 클라이언트 단말은, 상기 제어부에 의한 암호 해제 제어를 통해, 암호가 해제된 상기 제1 영상을 상기 라이브 영상으로서 제공받으며,
상기 제어부는, 상기 제2 선택 메뉴의 제공에 응답하여 대체 영상을 제공받는 것으로 선택된 경우, 상기 제1 영상과 중첩되는 영역을 촬영하는 상기 제2 카메라가 상기 제1 영상의 대체 영상을 획득하도록 하기 위해 상기 제2 카메라의 각도를 제어하고,
상기 영상 전송부는, 상기 제1 선택 메뉴의 제공에 응답하여 확장 영상을 제공받는 것으로 선택된 경우, 상기 제1 영상과 상기 제2 영상을 포함하는 제1 영상의 확장 영상을 암호화하여 멀티캐스트로 전송하되, 상기 제2 선택 메뉴의 제공에 응답하여 대체 영상을 제공받는 것으로 선택된 경우, 각도 제어가 이루어진 상기 제2 카메라로부터 획득되는 각도 변경 영상을 상기 제1 영상의 대체 영상으로서 암호화하여 전송하고,
상기 제어부는,
상기 복수의 카메라 내에 상기 제1 영상의 적어도 일부 영역을 중첩 영역으로 포함하는 영상을 획득하는 중첩 영상 획득 카메라가 복수개 존재하는 경우, 상기 제1 영상의 대체 영상의 획득을 위해 상기 복수개의 중첩 영상 획득 카메라 중 선택적으로 적어도 일부의 카메라의 각도를 제어하되,
상기 대체 영상의 획득을 위하여 상기 복수개의 중첩 영상 획득 카메라 중 선택적으로 제어 가능한 상기 적어도 일부의 카메라의 조합 수가 복수개인 경우, 제어되는 카메라의 수가 최소가 되는 조합에 해당하는 적어도 일부의 카메라를 선택하여 각도를 제어하는 것인, 엣지 클라우드 기반의 영상 전송 시스템.As an edge cloud-based video transmission system,
A plurality of cameras;
It is disposed between the plurality of cameras and the cloud data center server, and is acquired through the first camera in response to an image request packet for receiving the first image of the first camera among the plurality of cameras received from the client terminal. An edge location server that controls the first video to be provided as the live video to the client terminal by streaming, and stores the live video provided to the client terminal as a recorded video in the database unit; And
And a cloud data center server that receives and stores a recorded image that satisfies a preset condition among the recorded images previously stored in the database unit, from the edge location server.
The recorded video that satisfies the preset condition is a recorded video that is judged as the storage time of the recorded video stored in the database unit exceeds a preset time,
The edge location server performs provision and storage of the live image and delivery of a recorded image to the cloud data center server based on the edge cloud, but satisfies the preset condition among the pre-stored recorded images. Transmission of the recorded video to the cloud data center server is performed only for the recorded video,
The edge location server,
An image transmission unit for acquiring the encrypted first image from the first camera and transmitting it to the client terminal in response to the received image request packet;
A verification packet transmission unit transmitting a verification packet including a decryption key for video transmission authentication and decryption for the encrypted first image transmitted to the client terminal to some of the cameras and the client terminal;
A control unit configured to control the decryption of the encrypted first image received by the client terminal when it is verified that there is no abnormality as a result of verification of whether or not the decryption key included in the verification packet received by the client terminal is abnormal; And
In response to the received video request packet, when there is a second camera for acquiring a second image including at least a partial region of the first image obtained through the first camera as an overlapping region among the plurality of cameras, When the client terminal is provided with a first selection menu for selecting whether or not to receive an extended image including the first image, when the first image cannot be obtained from the first camera, the first image is replaced. And a selection menu providing unit providing a second selection menu for selecting whether to receive an image to the client terminal,
The client terminal receives the first video with the decrypted password as the live video through the decryption control by the control unit,
When the controller is selected to receive the replacement image in response to the provision of the second selection menu, causing the second camera capturing an area overlapping the first image to obtain the replacement image of the first image In order to control the angle of the second camera,
When the video transmission unit is selected to receive the extended video in response to the provision of the first selection menu, the extended video of the first video including the first video and the second video is encrypted and transmitted in multicast. , When it is selected to receive an alternative image in response to the provision of the second selection menu, encrypts and transmits an angle change image obtained from the second camera with angle control as an alternative image of the first image,
The control unit,
When there are a plurality of overlapping image acquiring cameras acquiring an image including at least a portion of the first image as an overlapping region in the plurality of cameras, acquiring the plurality of overlapping images to obtain a replacement image of the first image Selectively control the angle of at least some of the cameras,
When the number of combinations of the at least some cameras selectively controllable among the plurality of superimposed image acquisition cameras is plural for acquiring the replacement image, by selecting at least some cameras corresponding to the combination where the number of controlled cameras is the smallest, Edge-based video transmission system that controls angle.
상기 엣지 로케이션 서버는, 상기 데이터베이스부로 전달된 녹화 영상에 대하여 삭제 처리를 수행하는 것인, 엣지 클라우드 기반의 영상 전송 시스템.According to claim 1,
The edge location server, which performs deletion processing on the recorded image delivered to the database unit, an edge cloud-based image transmission system.
상기 엣지 로케이션 서버는,
상기 클라이언트 단말로부터 상기 제1 카메라의 제1 영상에 대응하는 녹화 영상의 획득을 요청하는 녹화 영상 제공요청이 수신된 경우, 상기 데이터베이스부에 상기 녹화 영상이 존재하는지 판단하고,
판단 결과 존재하면 상기 데이터베이스부에 저장된 상기 녹화 영상을 상기 클라이언트 단말로 제공하되,
판단 결과 존재하지 않으면, 상기 클라우드 데이터 센터 서버에 저장되어 있는 상기 녹화 영상을 상기 클라우드 데이터 센터 서버로부터 전달받아 상기 클라이언트 단말로 제공하는 것인, 엣지 클라우드 기반의 영상 전송 시스템.According to claim 2,
The edge location server,
When a request for providing a recorded image requesting to acquire a recorded image corresponding to the first image of the first camera is received from the client terminal, it is determined whether the recorded image exists in the database unit,
If the determination result exists, the recorded image stored in the database unit is provided to the client terminal,
If the result of the determination does not exist, the cloud image center-based image transmission system that receives the recorded image stored in the cloud data center server and provides it to the client terminal.
상기 이상 유무의 검증은,
상기 클라이언트 단말로부터 미리 설정된 개수에 대응하는 복수개의 이상 유무 확인 요청이 전송된 경우에 대하여, 상기 복수개의 이상 유무 확인 요청에 응답하여 상기 검증 패킷을 수신한 상기 일부의 카메라 중 랜덤하게 선택되는 복수개의 랜덤 카메라에 의한 이상 유무 확인을 통해 이루어지는 것인, 엣지 클라우드 기반의 영상 전송 시스템.According to claim 1,
Verification of the presence or absence of the above,
When a plurality of abnormality confirmation requests corresponding to a preset number are transmitted from the client terminal, a plurality of randomly selected cameras among the partial cameras that have received the verification packet in response to the plurality of abnormality confirmation requests Edge cloud-based video transmission system, which is performed by checking for abnormality by a random camera.
상기 이상 유무의 검증은,
상기 일부의 카메라 중 상기 복수개의 랜덤 카메라에 의한 이상 유무 확인 결과 이상이 없는 것으로 판단되면 상기 클라이언트 단말이 수신한 해독키에 이상이 없는 것으로 임시 검증하고,
상기 클라이언트 단말에서의 자체 판단 결과 상기 클라이언트 단말이 수신한 해독키에 이상이 없는 것으로 판단되면, 상기 클라이언트 단말이 수신한 해독키에 이상이 없는 것으로 최종 검증하는 것인, 엣지 클라우드 기반의 영상 전송 시스템.The method of claim 5,
Verification of the presence or absence of the above,
If it is determined that there is no abnormality as a result of checking whether there is an abnormality by the plurality of random cameras among the some of the cameras, it is temporarily verified that the decryption key received by the client terminal is not abnormal,
When it is determined that the decryption key received by the client terminal has no abnormality as a result of self-determination at the client terminal, it is finally verified that the decryption key received by the client terminal has no abnormality. .
상기 클라이언트 단말은,
상기 검증 패킷 전송부로부터 상기 제1 카메라의 식별정보를 포함하는 검증 패킷을 수신하고,
상기 수신한 검증 패킷에 포함된 상기 제1 카메라의 식별정보와 상기 영상 전송부로부터 수신한 상기 암호화된 제1 영상에 포함된 카메라의 식별정보가 일치하는지를 비교하는 자체 판단의 수행 결과, 서로 일치하면 상기 해독키에 이상이 없는 것으로 판단하는 것인, 엣지 클라우드 기반의 영상 전송 시스템.The method of claim 6,
The client terminal,
A verification packet including identification information of the first camera is received from the verification packet transmission unit,
As a result of performing self-determination comparing whether the identification information of the first camera included in the received verification packet and the identification information of the camera included in the encrypted first image received from the image transmission unit match, if they match It is determined that there is no abnormality in the decryption key, an edge cloud-based video transmission system.
상기 복수개의 랜덤 카메라의 수는 상기 클라이언트 단말로부터 전송되는 상기 복수개의 이상 유무 확인 요청의 수와 동일한 n개이고,
상기 복수개의 랜덤 카메라는,
상기 일부의 카메라 중 상기 제1 카메라와 동일 네트워크에 속하는 동일 네트워크 그룹에서 선택되는 1개의 카메라와 상기 제1 카메라와는 다른 네트워크에 속하는 이종 네트워크 그룹에서 선택되는 (n-1)개의 카메라를 포함하되,
상기 동일 네트워크 그룹 내에서 통신 이상이 발생한 것으로 감지된 경우, 상기 이종 네트워크 그룹에서 선택되는 n개의 카메라를 포함하는 것인, 엣지 클라우드 기반의 영상 전송 시스템.The method of claim 6,
The number of the plurality of random cameras is n equal to the number of the plurality of abnormality confirmation requests transmitted from the client terminal,
The plurality of random cameras,
Among the some of the cameras include one camera selected from the same network group belonging to the same network as the first camera and (n-1) cameras selected from heterogeneous network groups belonging to a different network from the first camera. ,
When it is detected that a communication abnormality occurs in the same network group, and includes n cameras selected from the heterogeneous network group, the edge cloud-based video transmission system.
상기 제어부는,
상기 해독키의 이상 유무의 검증 결과 이상이 없는 것으로 검증된 경우, 상기 암호화된 제1 영상에 대하여 1회의 재생만 허용되도록 상기 암호화된 제1 영상에 대한 암호의 해제를 제어하는 것인, 엣지 클라우드 기반의 영상 전송 시스템.The method of claim 8,
The control unit,
When it is verified that there is no abnormality as a result of verifying whether or not the decryption key is abnormal, the edge cloud is to control the decryption of the encrypted first image so that only one playback of the encrypted first image is permitted. Based video transmission system.
상기 제어부는,
상기 암호화된 제1 영상에 대하여 1회의 재생이 이루어진 이후 상기 1회의 재생이 이루어진 제1 영상을 다시 재생하기 위한 재요청이 상기 클라이언트 단말로부터 전송된 경우,
상기 재요청에 대응하도록 생성된 복수개의 이상 유무 확인 재요청에 응답하여 상기 일부의 카메라 중 상기 1회의 재생 허용시 고려된 상기 복수개의 랜덤 카메라를 제외한 나머지 카메라들 중에서 다시 랜덤하게 선택되는 복수개의 랜덤 카메라에 의한 이상 유무 확인을 통해 상기 해독키의 이상 유무를 재검증하고, 재검증 결과 이상이 없는 것으로 검증되면 상기 제1 영상이 다시 재생 가능하도록 제어하는 것인, 엣지 클라우드 기반의 영상 전송 시스템.The method of claim 9,
The control unit,
When a re-request for replaying the first video having been played once is transmitted from the client terminal after the video is played once for the encrypted first video,
A plurality of randomly selected randomly from among the remaining cameras except for the plurality of random cameras considered when allowing one play among the some of the cameras in response to the re-request of a plurality of abnormalities generated to correspond to the re-request. An edge cloud-based video transmission system that re-verifies whether or not the decryption key is abnormal by confirming whether there is an abnormality by the camera and controls the first image to be replayable when it is verified that there is no abnormality as a result of re-verification.
상기 영상 전송부를 통해 전송되는 상기 암호화된 제1 영상의 확장 영상은, 상기 제2 영상 중에서 상기 중첩 영역이 제외된 나머지 영역에 해당하는 영상 및 상기 제1 영상을 포함하는 영상인 것인, 엣지 클라우드 기반의 영상 전송 시스템.According to claim 1,
The edge image of the encrypted first image transmitted through the image transmission unit is an image including the first image and the image corresponding to the remaining region excluding the overlapped region among the second images. Based video transmission system.
상기 클라이언트 단말은,
암호가 해제된 상기 제1 영상의 부호화 패턴 중 기 정의된 특징 조건을 충족하는 특징을 갖는 부호화 패턴의 존재 여부에 따라 암호가 해제된 상기 제1 영상의 조작 여부를 검출하는 조작 여부 검출부를 포함하고,
상기 기 정의된 특징 조건은,
HEVC(High Efficiency Video Coding)를 이용한 영상의 이중 압축시 변화되는 부호화 패턴의 특징에 대한 조건이고,
상기 제1 영상의 조작 여부를 식별하는 상기 HEVC의 부호화 패턴과 관련된 블록 구조의 특성 변화에 대한 조건이고,
상기 제1 영상의 부호화 패턴의 특징이 비조작된 영상의 부호화 패턴과 관련된 블록 구조에 대한 통계적인 처리 결과의 통계적 허용 범위를 벗어나는 경우, 상기 제1 영상을 조작된 것으로 검출하는 조건인 것인, 엣지 클라우드 기반의 영상 전송 시스템.According to claim 1,
The client terminal,
And an operation detection unit configured to detect whether the operation of the first image in which the password is canceled is operated according to the presence or absence of an encoding pattern having a feature that satisfies a predefined feature condition among the encoding patterns of the first image in which the password is canceled. ,
The pre-defined feature conditions,
It is a condition for the characteristics of a coding pattern that changes during double compression of an image using HEVC (High Efficiency Video Coding),
It is a condition for a characteristic change of a block structure related to the encoding pattern of the HEVC that identifies whether to manipulate the first image,
If the feature of the encoding pattern of the first image is out of the statistical tolerance of the statistical processing result of the block structure associated with the encoding pattern of the non-manipulated image, it is a condition for detecting the first image as being manipulated, Edge cloud-based video transmission system.
상기 기 정의된 특징 조건은,
상기 HEVC의 블록 구조 중 CU(Coding Unit)와 관련하여 인트라/인터 CU 블록의 개수, 인트라/인터 CU 블록의 크기별 발생 빈도 및 인트라/인터 CU 블록의 분포 비율 중 적어도 하나에 관한 조건을 포함하며,
상기 클라이언트 단말은,
상기 암호가 해제된 상기 제1 영상이 조작된 영상인 것으로 검출된 경우, 화면에 조작 알림 메시지를 표시함과 동시에 상기 엣지 로케이션 서버로 상기 제1 영상의 제공을 재요청하는 영상재요청패킷을 전송하는 것인, 엣지 클라우드 기반의 영상 전송 시스템.The method of claim 15,
The pre-defined feature conditions,
The HEVC block structure includes conditions related to at least one of the number of intra/inter CU blocks, the frequency of occurrence of each intra/inter CU block, and the distribution ratio of the intra/inter CU blocks in relation to a coding unit (CU).
The client terminal,
When it is detected that the first image in which the password is released is a manipulated image, an operation request message is displayed on the screen and at the same time, an image re-request packet is sent to the edge location server to request the provision of the first image again. Is an edge cloud-based video transmission system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190175048A KR102128945B1 (en) | 2019-12-26 | 2019-12-26 | Video transmission system based on edge cloud |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190175048A KR102128945B1 (en) | 2019-12-26 | 2019-12-26 | Video transmission system based on edge cloud |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102128945B1 true KR102128945B1 (en) | 2020-07-01 |
Family
ID=71601767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190175048A KR102128945B1 (en) | 2019-12-26 | 2019-12-26 | Video transmission system based on edge cloud |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102128945B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113778686A (en) * | 2021-09-16 | 2021-12-10 | 上海电信科技发展有限公司 | Distributed image recognition cloud service platform system |
US11343786B2 (en) | 2020-10-27 | 2022-05-24 | Electronics And Telecommunications Research Institute | Method for broadcast gateway signaling using cloud network and apparatus for the same |
KR20230058960A (en) | 2021-10-25 | 2023-05-03 | 한국전자통신연구원 | Distributed collaboration-based system and method for analyzing video stream thereof |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110104457A (en) * | 2011-07-24 | 2011-09-22 | 심동수 | Remote security control system using cloud computing |
KR101202029B1 (en) * | 2012-04-06 | 2012-11-16 | 주식회사 아이브이티 | Network image security system based on cloud computing and method thereof |
KR101778744B1 (en) * | 2017-02-24 | 2017-09-14 | 주식회사 다누시스 | Monitoring system through synthesis of multiple camera inputs |
KR20180124419A (en) * | 2017-05-11 | 2018-11-21 | 에스케이텔레콤 주식회사 | Application excution system based on distributed cloud, apparatus and control method thereof using the system |
KR101950507B1 (en) * | 2017-11-06 | 2019-02-20 | 주식회사 큐버 | blockchain-based method of providing secure processing of camera video |
KR101968101B1 (en) * | 2018-07-12 | 2019-04-11 | 천재두 | Object recognition camera module and object recognition system thereof |
KR101981128B1 (en) * | 2017-08-14 | 2019-05-22 | 한국항공대학교산학협력단 | Apparatus and method for detecting of image manipulation |
-
2019
- 2019-12-26 KR KR1020190175048A patent/KR102128945B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110104457A (en) * | 2011-07-24 | 2011-09-22 | 심동수 | Remote security control system using cloud computing |
KR101202029B1 (en) * | 2012-04-06 | 2012-11-16 | 주식회사 아이브이티 | Network image security system based on cloud computing and method thereof |
KR101778744B1 (en) * | 2017-02-24 | 2017-09-14 | 주식회사 다누시스 | Monitoring system through synthesis of multiple camera inputs |
KR20180124419A (en) * | 2017-05-11 | 2018-11-21 | 에스케이텔레콤 주식회사 | Application excution system based on distributed cloud, apparatus and control method thereof using the system |
KR101981128B1 (en) * | 2017-08-14 | 2019-05-22 | 한국항공대학교산학협력단 | Apparatus and method for detecting of image manipulation |
KR101950507B1 (en) * | 2017-11-06 | 2019-02-20 | 주식회사 큐버 | blockchain-based method of providing secure processing of camera video |
KR101968101B1 (en) * | 2018-07-12 | 2019-04-11 | 천재두 | Object recognition camera module and object recognition system thereof |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11343786B2 (en) | 2020-10-27 | 2022-05-24 | Electronics And Telecommunications Research Institute | Method for broadcast gateway signaling using cloud network and apparatus for the same |
CN113778686A (en) * | 2021-09-16 | 2021-12-10 | 上海电信科技发展有限公司 | Distributed image recognition cloud service platform system |
CN113778686B (en) * | 2021-09-16 | 2024-03-15 | 上海电信科技发展有限公司 | Distributed image recognition cloud service platform system |
KR20230058960A (en) | 2021-10-25 | 2023-05-03 | 한국전자통신연구원 | Distributed collaboration-based system and method for analyzing video stream thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11671247B2 (en) | Secure layered encryption of data streams | |
Usman et al. | Cryptography-based secure data storage and sharing using HEVC and public clouds | |
Jan et al. | SmartEdge: An end-to-end encryption framework for an edge-enabled smart city application | |
KR102128945B1 (en) | Video transmission system based on edge cloud | |
JP6893281B2 (en) | Processing methods for media data, computing devices and storage media | |
US20230216947A1 (en) | Method and System to Implement Secure Real Time Communications (SRTC) Between WebRTC and the Internet of Things (IoT) | |
US8732462B2 (en) | Methods and apparatus for secure data sharing | |
US9654445B2 (en) | Network traffic filtering and routing for threat analysis | |
US20030101253A1 (en) | Method and system for distributing data in a network | |
KR102153673B1 (en) | Method, system and recordable medium for storing and transmission processing of intelligent CCTV video data using the edge blockchain | |
US11070531B2 (en) | Data communication system and method | |
Shifa et al. | Fuzzy-logic threat classification for multi-level selective encryption over real-time video streams | |
Fitwi et al. | An agent-administrator-based security mechanism for distributed sensors and drones for smart grid monitoring | |
Mercan et al. | Blockchain‐based video forensics and integrity verification framework for wireless Internet‐of‐Things devices | |
US20210349967A1 (en) | Media content control | |
KR102097651B1 (en) | Apparatus for transmitting encoded video using multicast | |
CN107809646B (en) | Material return method and device | |
Alsaffar et al. | IPTV service framework based on secure authentication and lightweight content encryption for screen-migration in Cloud computing | |
KR102411342B1 (en) | Appratus for network separation and inter-network data transmission based on quantum cryptography communication | |
Poh et al. | An authentication framework for peer-to-peer cloud | |
CN113286177B (en) | Block chain based distributed video processing system | |
US20230199001A1 (en) | Secure streaming media based on updating hypercontent in a secure peer-to-peer data network | |
US20230224336A1 (en) | Methods and apparatus for performing targeted lawful intercept in a system including content delivery networks | |
DURSUN et al. | Video Streaming with Raspberry Pi 3, Picamera and https Implementation for Unmanned Aerial Vehicle (UAV) Data Link | |
Choi et al. | Efficient group key distribution scheme in NVR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |