KR102592989B1 - Method and device for detecting and tracking video piracy - Google Patents

Method and device for detecting and tracking video piracy Download PDF

Info

Publication number
KR102592989B1
KR102592989B1 KR1020210068830A KR20210068830A KR102592989B1 KR 102592989 B1 KR102592989 B1 KR 102592989B1 KR 1020210068830 A KR1020210068830 A KR 1020210068830A KR 20210068830 A KR20210068830 A KR 20210068830A KR 102592989 B1 KR102592989 B1 KR 102592989B1
Authority
KR
South Korea
Prior art keywords
identification image
video
area
dots
candidate
Prior art date
Application number
KR1020210068830A
Other languages
Korean (ko)
Other versions
KR20210147964A (en
Inventor
이준영
Original Assignee
(주)리마보안연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)리마보안연구소 filed Critical (주)리마보안연구소
Publication of KR20210147964A publication Critical patent/KR20210147964A/en
Application granted granted Critical
Publication of KR102592989B1 publication Critical patent/KR102592989B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0601Image watermarking whereby calibration information is embedded in the watermark, e.g. a grid, a scale, a list of transformations

Abstract

동영상 복제 검출 및 추적 방법 및 장치가 제공된다. 본 발명의 일 실시예에 따른 동영상 복제 검출 및 추적 방법은 서버가 검출 대상 동영상에서 복수의 도트를 포함하는 식별이미지를 탐색 및 추출하는 단계 및 상기 서버가 추출된 상기 식별이미지에 포함된 식별정보를 획득하는 단계를 포함하고, 상기 복수의 도트 각각은, 복수개의 픽셀을 포함하는 크기로 구성되고, 상기 식별이미지는 상기 복수의 도트의 패턴에 따라 상이한 식별정보를 포함하는 것일 수 있다.A method and device for detecting and tracking video duplication are provided. A video copy detection and tracking method according to an embodiment of the present invention includes the steps of a server searching for and extracting an identification image including a plurality of dots from a video to be detected, and the server extracting identification information included in the extracted identification image. It may include a step of obtaining, wherein each of the plurality of dots is configured to have a size including a plurality of pixels, and the identification image may include different identification information according to the pattern of the plurality of dots.

Description

동영상 복제 검출 및 추적 방법 및 장치{METHOD AND DEVICE FOR DETECTING AND TRACKING VIDEO PIRACY}Video copy detection and tracking method and device {METHOD AND DEVICE FOR DETECTING AND TRACKING VIDEO PIRACY}

본 발명은 동영상 복제 검출 및 추적 방법 및 장치에 관한 것이다.The present invention relates to a method and device for detecting and tracking video duplication.

정보통신 기술 및 네트워크가 발달됨에 따라, 오프라인을 통해 제공되던 교육, 출판, 음악, 영화, 게임 등의 다양한 콘텐츠가 디지털 데이터 형태로 제작되어 온라인을 통해 배포 및 제공되고 있다.As information and communication technologies and networks develop, various contents such as education, publishing, music, movies, and games that were provided offline are being produced in the form of digital data and distributed and provided online.

오프라인을 통한 제공방법과 달리 디지털 데이터 형태로 제작된 콘텐츠는 원본을 획득하여, 복제, 변형, 가공, 수정 및 전파가 훨씬 수월하여 콘텐츠의 원제작자가 불법 유출 등을 원인으로 피해를 입는 사례가 빈번하게 발생하고 있다.Unlike offline provision methods, content produced in the form of digital data is much easier to copy, transform, process, modify, and disseminate by obtaining the original, so there are frequent cases where the original creator of the content suffers damage due to illegal leakage, etc. It's happening a lot.

따라서, 원제작자 입장에서는 제작한 콘텐츠의 가치를 보존하고 정당한 이익 창출을 위해서, 콘텐츠가 권한없는 제3자에 의해 무단으로 복제되어 배포되는 것을 방지하고, 유출된 경우 유출자를 추적하여 합당한 보상 및 처벌을 청구할 수 있도록 하는 수단이 필수적으로 요구된다.Therefore, from the original producer's perspective, in order to preserve the value of the produced content and generate legitimate profits, the content should be prevented from being copied and distributed without permission by unauthorized third parties, and if leaked, the leaker should be tracked down and appropriate compensation and punishment provided. A means to make a claim is essential.

특히, 디지털 콘텐츠 중 동영상 콘텐츠의 경우, 불법 유출이 가장 활발한 분야 중 하나이다. 동영상 콘텐츠의 경우 해당 동영상이 있는 URL을 쉽게 획득할 수 있고, 획득한 URL을 기반으로 다양한 소프트웨어 및 프로그램들을 이용하여 불법 다운로드가 가능하기 때문이다.In particular, video content among digital content is one of the most active areas for illegal leakage. In the case of video content, the URL where the video is located can be easily obtained, and illegal downloading is possible using various software and programs based on the obtained URL.

한편, 현재 동영상 콘텐츠의 복제 방지를 위해 많이 쓰이는 방법으로는 동영상 자체를 암호화하는 방법으로 디지털 저작권 권리(DRM, Digital Rights Management)를 이용하는 방법이 있다. DRM은 디지털 콘텐츠를 암호화하여 정상적으로 구매한 고객만이 사용할 수 있도록 하는 솔루션을 의미한다. 하지만, 영상을 통째로 캡처하거나 녹화할 수 있는 프로그램과 같이 DRM을 무력화하고 회피할 수 있는 방법이 다수 존재하는 문제점이 있었다.Meanwhile, a widely used method to prevent copying of video content is to use digital rights management (DRM) by encrypting the video itself. DRM refers to a solution that encrypts digital content so that only customers who have purchased it can use it. However, there was a problem that there were many ways to neutralize and avoid DRM, such as programs that could capture or record the entire video.

또한, 동영상 프레임 내에 사용자 ID와 같이 문자열로 구성된 식별정보를 삽입하는 방식의 경우, 식별정보가 삽입된 동영상이 손실 압축 또는 해상도 변경 등의 가공을 거치면 동영상 일부가 소실되면서 식별정보의 일부가 함께 소실되어 유출자를 추적할 수 없는 문제점이 있었다.In addition, in the case of inserting identification information consisting of a string such as a user ID within a video frame, if the video with the identification information inserted goes through processing such as lossy compression or resolution change, part of the video is lost and part of the identification information is also lost. There was a problem that the leaker could not be traced.

공개특허공보 제10-1439475호, 2014.09.02Public Patent Publication No. 10-1439475, 2014.09.02

상술한 바와 같은 문제점을 해결하기 위한 본 발명은 무단복제 동영상의 유출자 추적이 가능한 동영상을 생성할 수 있는 동영상 복제 검출 및 추적 방법 및 장치를 제공하고자 한다.The present invention, in order to solve the above-mentioned problems, seeks to provide a video copy detection and tracking method and device that can generate a video that can trace the leaker of the unauthorized video copy.

또한, 본 발명은 배포된 동영상을 대상으로 무단복제 여부를 검출하고 유출자를 추적할 수 있는 동영상 복제 검출 및 추적 방법 및 장치를 제공하고자 한다.In addition, the present invention seeks to provide a video copy detection and tracking method and device that can detect unauthorized copying of distributed videos and track the leaker.

또한, 본 발명은 문자열의 식별정보 자체가 아닌 식별이미지를 동영상에 삽입하여, 동영상 가공 시 식별이미지의 일부가 소실되더라도 식별정보를 추출할 수 있는 동영상 복제 검출 및 추적 방법 및 장치를 제공하고자 한다.In addition, the present invention seeks to provide a video copy detection and tracking method and device that inserts an identification image, rather than the identification information itself of a string, into a video and extracts identification information even if part of the identification image is lost during video processing.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 보정 동영상 생성 방법은, 서버가 원본 동영상에 복수의 도트(dot)를 포함하는 식별이미지를 삽입하는 단계 및 상기 서버가 상기 식별이미지가 삽입된 보정 동영상을 생성하는 단계를 포함하고, 상기 복수의 도트 각각은, 복수개의 픽셀을 포함하는 크기로 구성되고, 상기 식별이미지는 상기 복수의 도트의 패턴에 따라 상이한 식별정보를 포함하는 것일 수 있다.The method of generating a corrected video according to an embodiment of the present invention to solve the above-described problem includes the steps of a server inserting an identification image including a plurality of dots into an original video, and the server inserting the identification image. and generating a corrected video, wherein each of the plurality of dots has a size including a plurality of pixels, and the identification image may include different identification information according to the pattern of the plurality of dots. .

또한, 상기 복수의 도트 각각은, 생성된 보정 동영상이 가공되는 경우에도 상기 식별이미지의 도트 패턴을 유지할 수 있는 크기 또는 간격으로 구성되는 것일 수 있다.Additionally, each of the plurality of dots may be configured at a size or interval that can maintain the dot pattern of the identification image even when the generated corrected video is processed.

또한, 상기 복수의 도트 각각은 하나의 비트값을 나타내고, 상기 식별이미지는, 상기 복수의 도트의 패턴에 따라 특정한 비트열을 나타내는 것일 수 있다.Additionally, each of the plurality of dots may represent one bit value, and the identification image may represent a specific bit string according to the pattern of the plurality of dots.

또한, 상기 식별이미지를 삽입하는 단계 이전에, 상기 서버가 특정한 비트열에 특정한 식별정보를 매칭하는 단계를 더 포함할 수 있다.Additionally, before inserting the identification image, the server may further include matching specific identification information to a specific bit string.

또한, 상기 식별이미지를 삽입하는 단계는, 원본 동영상의 후보 프레임에서, 기준값 차이 이내의 색상으로 구성된 후보영역을 추출하는 단계, 상기 후보영역 내의 식별이미지 입력영역을 상기 후보영역의 평균 색상으로 설정하는 단계 및 상기 식별이미지 입력영역에, 상기 평균 색상에서 최솟값만큼 차이나는 색상으로 상기 식별이미지를 삽입하는 단계를 포함할 수 있다.In addition, the step of inserting the identification image includes extracting a candidate area composed of colors within a reference value difference from a candidate frame of the original video, and setting the identification image input area within the candidate area to the average color of the candidate area. and inserting the identification image into the identification image input area with a color that differs from the average color by a minimum value.

또한, 상기 도트는, 각각 상이한 비트값을 나타내는 제1 도트 및 제2 도트를 포함하고, 상기 제1 도트 및 상기 제2 도트 중 적어도 하나는, 상기 평균 색상에서 최솟값만큼 차이나는 색상이고, 상기 제1 도트 및 상기 제2 도트는 서로 상이한 색상으로 구성되는 것일 수 있다.In addition, the dots include first dots and second dots each representing different bit values, and at least one of the first dot and the second dot is a color that differs from the average color by a minimum value, and the second dot is One dot and the second dot may be composed of different colors.

본 발명의 또 다른 실시예에 따른 보정 동영상 생성 장치는, 원본 동영상에 복수의 도트를 포함하는 식별이미지를 삽입하는 식별이미지 삽입부 및 상기 식별이미지가 삽입된 보정 동영상을 생성하는 보정동영상 생성부를 포함하고, 상기 복수의 도트 각각은, 복수개의 픽셀을 포함하는 크기로 구성되고, 상기 식별이미지는 상기 복수의 도트의 패턴에 따라 상이한 식별정보를 포함하는 것일 수 있다.A corrected video generating device according to another embodiment of the present invention includes an identification image insertion unit that inserts an identification image including a plurality of dots into an original video, and a corrected video generator that generates a corrected video with the identification image inserted. Each of the plurality of dots has a size including a plurality of pixels, and the identification image may include different identification information depending on the pattern of the plurality of dots.

본 발명의 또 다른 실시예에 따른 동영상 복제 검출 및 추적 방법은 서버가 검출 대상 동영상에서 복수의 도트를 포함하는 식별이미지를 탐색 및 추출하는 단계 및 상기 서버가 추출된 상기 식별이미지에 포함된 식별정보를 획득하는 단계를 포함하고, 상기 복수의 도트 각각은, 복수개의 픽셀을 포함하는 크기로 구성되고, 상기 식별이미지는 상기 복수의 도트의 패턴에 따라 상이한 식별정보를 포함하는 것일 수 있다.A video copy detection and tracking method according to another embodiment of the present invention includes the steps of a server searching and extracting an identification image including a plurality of dots from a video to be detected, and the server extracting identification information included in the extracted identification image. It includes the step of obtaining, wherein each of the plurality of dots is configured in a size including a plurality of pixels, and the identification image may include different identification information according to the pattern of the plurality of dots.

또한, 상기 복수의 도트 각각은 하나의 비트값을 나타내고, 상기 식별이미지는, 상기 복수의 도트의 패턴에 따라 특정한 비트열을 나타내고, 상기 식별정보를 획득하는 단계는, 상기 서버가 추출된 상기 식별이미지에 대응되는 비트열을 획득하는 단계 및 상기 서버가 획득한 상기 비트열에 매칭된 식별정보를 획득하는 단계를 포함할 수 있다.In addition, each of the plurality of dots represents one bit value, the identification image represents a specific bit string according to the pattern of the plurality of dots, and the step of obtaining the identification information includes: It may include obtaining a bit string corresponding to the image and obtaining identification information matched to the bit string acquired by the server.

또한, 상기 식별이미지를 탐색 및 추출하는 단계는, 상기 서버가 검출 대상 동영상에서 하나 이상의 후보 프레임을 추출하는 단계 및 상기 서버가 상기 후보 프레임 내의 후보영역에 대해 상기 식별이미지를 탐색 및 추출하는 단계를 포함하고, 상기 후보영역은 기준값 차이 이내의 색상으로 구성된 영역인 것일 수 있다.In addition, the step of searching and extracting the identification image includes the steps of the server extracting one or more candidate frames from the video to be detected, and the step of the server searching and extracting the identification image for a candidate area within the candidate frame. Including, the candidate area may be an area composed of a color within the difference between the reference value.

또한, 상기 후보영역에 대해 상기 식별이미지를 탐색 및 추출하는 단계는, 상기 후보영역 중 색상이 최솟값만큼 차이나는 영역에서 상기 식별이미지를 탐색 및 추출하는 것일 수 있다.Additionally, the step of searching for and extracting the identification image for the candidate area may be searching for and extracting the identification image from an area in which the colors of the candidate area differ by a minimum value.

본 발명의 또 다른 실시예에 따른 동영상 복제 검출 및 추적 장치는, 검출 대상 동영상에서 복수의 도트를 포함하는 식별이미지를 탐색 및 추출하는 식별이미지 추출부 및 추출된 상기 식별이미지에 포함된 식별정보를 획득하는 식별정보 획득부를 포함하고, 상기 복수의 도트 각각은, 복수개의 픽셀을 포함하는 크기로 구성되고, 상기 식별이미지는 상기 복수의 도트의 패턴에 따라 상이한 식별정보를 포함하는 것일 수 있다.A video copy detection and tracking device according to another embodiment of the present invention includes an identification image extraction unit that searches for and extracts an identification image including a plurality of dots from a video to be detected, and identification information included in the extracted identification image. and an identification information acquisition unit, wherein each of the plurality of dots has a size including a plurality of pixels, and the identification image may include different identification information according to the pattern of the plurality of dots.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상기와 같은 본 발명에 따르면, 동영상 저작자는 원본 동영상이 무단으로 복제되어 유출되는 것에 대비하여, 유출자를 추적할 수 있는 보정 동영상을 생성할 수 있다. 따라서, 동영상 저작자는 동영상 유출로 인해 발생하는 손해를 사전에 대비할 수 있고, 동영상 재생 요청자가 동영상을 무단복제하여 배포하는 것을 방지하는 효과가 있다.According to the present invention as described above, a video author can create a corrected video that can track the leaker in preparation for the original video being copied and leaked without permission. Therefore, video authors can prepare in advance for damages arising from video leaks, and there is an effect of preventing video playback requesters from copying and distributing the video without permission.

또한, 본 발명에 따르면, 배포된 동영상을 대상으로, 해당 동영상이 무단복제 된 것인지 여부를 판단하고, 무단복제된 동영상이라면 유출자를 검출 및 추적할 수 있다. 따라서, 동영상 저작자는 동영상 유출로 인해 손해가 발생했을 때 유출자를 추적하여 유출자에게 보상을 요구하거나, 유출자가 처벌받도록 청구할 수 있게 되는 효과가 있다.In addition, according to the present invention, it is possible to determine whether a distributed video has been copied without permission, and if so, to detect and track the person who leaked the video. Therefore, when damage occurs due to video leakage, the video author can track the leaker and demand compensation from the leaker or request that the leaker be punished.

또한, 본 발명에 따르면, 보정 동영상에 삽입된 식별이미지는 시청자가 육안으로 인식하기 어려운 방법으로 삽입되므로, 동영상을 시청하는 시청자를 불편하게 하지 않으면서도 동영상의 무단복제를 방지할 수 있는 효과가 있다.In addition, according to the present invention, the identification image inserted in the corrected video is inserted in a way that is difficult for the viewer to recognize with the naked eye, so there is an effect of preventing unauthorized copying of the video without causing inconvenience to the viewer watching the video. .

또한, 본 발명에 따르면, 식별이미지를 삽입한 동영상이 가공되어 식별이미지의 일부가 소실되더라도, 그로부터 식별정보를 추출하여 유출자를 추적할 수 있는 효과가 있다.In addition, according to the present invention, even if a video containing an identification image is processed and part of the identification image is lost, it is possible to extract identification information from it and track the leaker.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시예에 따른 동영상 복제 검출 및 추적 시스템의 개략적인 관계도이다.
도 2는 본 발명의 일 실시예에 따른 보정 동영상 생성 방법의 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 원본 동영상 및 보정 동영상의 예시도이다.
도 4는 본 발명의 일 실시예에 따른 식별이미지의 예시도이다.
도 5는 본 발명의 일 실시예에 따른 식별정보 매칭 단계를 더 포함하는 보정 동영상 생성 방법의 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 식별이미지에 대한 식별정보의 매칭을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 후보 프레임의 후보영역에 식별이미지를 삽입하는 방법의 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 후보 프레임 추출 단계를 설명하기 위한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 식별이미지 입력영역에 식별이미지를 삽입하는 방법의 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 원본 동영상 및 보정 동영상의 예시도이다.
도 11 및 도 12는 본 발명의 일 실시예에 따른 식별이미지 입력영역에 식별이미지가 삽입된 모습을 설명하기 위한 예시도이다.
도 13은 본 발명의 일 실시예에 따른 평균색상영역에 식별이미지를 삽입하는 방법의 흐름도이다.
도 14는 본 발명의 일 실시예에 따른 후보프레임 내에서 후보영역과 평균색상영역을 설명하기 예시도이다.
도 15는 본 발명의 일 실시예에 따른 식별이미지를 복수의 부분으로 분리하여 복수의 평균색상영역에 각각 삽입하는 방법의 흐름도이다.
도 16은 본 발명의 일 실시예에 따른 복수의 평균색상영역이 있는 경우를 나타내는 예시도이다.
도 17 및 도 18은 본 발명의 다른 실시예에 따른 동영상 복제 검출 및 추적 방법의 흐름도이다.
1 is a schematic diagram of a video copy detection and tracking system according to an embodiment of the present invention.
Figure 2 is a flowchart of a method for generating a corrected video according to an embodiment of the present invention.
Figure 3 is an example diagram of an original video and a corrected video according to an embodiment of the present invention.
Figure 4 is an exemplary diagram of an identification image according to an embodiment of the present invention.
Figure 5 is a flowchart of a method for generating a corrected video further including an identification information matching step according to an embodiment of the present invention.
Figure 6 is an example diagram illustrating matching of identification information to an identification image according to an embodiment of the present invention.
Figure 7 is a flowchart of a method for inserting an identification image into a candidate area of a candidate frame according to an embodiment of the present invention.
Figure 8 is an example diagram for explaining the candidate frame extraction step according to an embodiment of the present invention.
Figure 9 is a flowchart of a method for inserting an identification image into an identification image input area according to an embodiment of the present invention.
Figure 10 is an example diagram of an original video and a corrected video according to an embodiment of the present invention.
Figures 11 and 12 are exemplary diagrams to explain how an identification image is inserted into an identification image input area according to an embodiment of the present invention.
Figure 13 is a flowchart of a method for inserting an identification image into an average color area according to an embodiment of the present invention.
Figure 14 is an example diagram explaining a candidate area and an average color area within a candidate frame according to an embodiment of the present invention.
Figure 15 is a flowchart of a method of dividing an identification image into a plurality of parts and inserting each into a plurality of average color areas according to an embodiment of the present invention.
Figure 16 is an exemplary diagram showing a case where there are a plurality of average color regions according to an embodiment of the present invention.
Figures 17 and 18 are flowcharts of a video copy detection and tracking method according to another embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

명세서에서 사용되는 "부" 또는 "모듈"이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 "모듈"은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 "모듈"은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 "모듈"은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 "모듈"은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 "모듈"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 "모듈"들로 결합되거나 추가적인 구성요소들과 "부" 또는 "모듈"들로 더 분리될 수 있다.As used in the specification, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and the “unit” or “module” performs certain roles. However, “part” or “module” is not limited to software or hardware. A “unit” or “module” may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, a “part” or “module” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within components and “parts” or “modules” can be combined into smaller components and “parts” or “modules” or into additional components and “parts” or “modules”. Could be further separated.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

본 명세서에서 '원본 동영상'은 동영상의 원작자가 제작한 동영상의 배포를 위한 형태인 최종본으로서, 어떤 가공, 수정, 변경, 식별정보 삽입 및 복제 등이 되지 않은 원본 그대로의 동영상을 의미한다.In this specification, 'original video' is the final version for distribution of a video produced by the original author of the video, and refers to the original video without any processing, modification, alteration, insertion of identification information, or reproduction.

본 명세서에서 '보정 동영상'은 원본 동영상에 특정한 방법으로 사용자의 식별이미지가 삽입되어 생성되어 유출자 추적이 가능한 동영상을 의미한다.In this specification, 'corrected video' refers to a video that is created by inserting a user's identification image in a specific way into the original video, so that the leaker can be traced.

본 명세서에서 '프레임(Frame)'은 동영상에 사용하는 이미지 한 컷을 의미한다.In this specification, ‘frame’ refers to a cut of an image used in a video.

본 명세서에서 '키 프레임(Key Frame)'은 단일 동작의 시작 프레임과 끝 프레임 등 가장 중심이 되는 프레임을 의미한다.In this specification, 'Key Frame' refers to the most central frame, such as the start frame and end frame of a single action.

본 명세서에서 '식별정보'는 동영상을 재생 요청한 사용자의 식별정보를 의미한다. 예를 들어, 사용자의 식별ID, 재생장치의 식별번호, 네트워크 IP주소(Internet Protocol Address), MAC주소(Media Access Control Address), 재생 요청한 시간 등이 포함될 수 있으며 이에 한정되는 것은 아니고, 사용자를 식별할 수 있는 다양한 정보가 포함될 수 있다.In this specification, ‘identification information’ refers to the identification information of the user who requested to play the video. For example, it may include, but is not limited to, the user's identification ID, playback device identification number, network IP address (Internet Protocol Address), MAC address (Media Access Control Address), playback request time, etc. A variety of information may be included.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 동영상 복제 검출 및 추적 시스템의 개략적인 관계도이다.1 is a schematic diagram of a video copy detection and tracking system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 동영상 복제 검출 및 추적을 위한 시스템(1000)은 보정 동영상 생성 서버(100) 및 동영상 복제 검출 및 추적 서버(200)를 포함할 수 있다.Referring to FIG. 1, a system 1000 for detecting and tracking video duplication according to an embodiment of the present invention may include a corrected video creation server 100 and a video duplication detection and tracking server 200.

보정 동영상 생성 서버(100) 및 동영상 복제 검출 및 추적 서버(200)는 반드시 분리되어 있는 별도의 서버인 것은 아니고, 하나의 서버로 관리되는 경우도 포함된다.The corrected video creation server 100 and the video copy detection and tracking server 200 are not necessarily separate servers and may be managed as one server.

보정 동영상 생성 서버(100)는 원본 동영상(10)을 입력받아서, 원본 동영상(10) 내에 재생을 요청한 사용자의 식별정보에 대응되는 식별이미지(60)를 삽입하여 유출자를 추적할 수 있는 보정 동영상(20)을 생성하는 역할을 한다.The corrected video creation server 100 receives the original video 10 and inserts an identification image 60 corresponding to the identification information of the user who requested playback into the original video 10 to create a corrected video ( 20) plays a role in generating.

이를 위해, 보정 동영상 생성 서버(100)는 원본 동영상(10)에 식별이미지(60)를 삽입할 수 있다.To this end, the corrected video creation server 100 may insert the identification image 60 into the original video 10.

동영상 복제 검출 및 추적 서버(200)는 배포된 동영상을 대상으로 해당 동영상이 복제된 동영상인지 여부를 판단하고, 무단복제된 동영상이라면 유출자를 추적하는 역할을 한다.The video copy detection and tracking server 200 determines whether the distributed video is a copied video and, if it is an unauthorized video, tracks the leaker.

이를 위해 동영상 복제 검출 및 추적 서버(200)는 검출 대상 동영상에서 식별이미지(60)를 추출할 수 있다. 이어서, 동영상 복제 검출 및 추적 서버(200)는 추출된 식별이미지(60)에 포함된 식별정보(80)를 추출할 수 있다.To this end, the video copy detection and tracking server 200 can extract the identification image 60 from the video to be detected. Subsequently, the video copy detection and tracking server 200 may extract identification information 80 included in the extracted identification image 60.

이하, 보정 동영상 생성 서버(100)가 보정 동영상(20)을 생성하는 방법에 대해 상세히 설명한다.Hereinafter, a method by which the corrected video generating server 100 generates the corrected video 20 will be described in detail.

도 2는 본 발명의 일 실시예에 따른 보정 동영상 생성 방법의 흐름도이다. 도 3은 본 발명의 일 실시예에 따른 원본 동영상 및 보정 동영상의 예시도이다.Figure 2 is a flowchart of a method for generating a corrected video according to an embodiment of the present invention. Figure 3 is an example diagram of an original video and a corrected video according to an embodiment of the present invention.

도 2 및 도 3을 참조하면, 본 발명의 일 실시예에 따른 보정 동영상 생성 방법은, 보정 동영상 생성 서버가 원본 동영상에 식별이미지를 삽입하는 단계(S200), 보정 동영상 생성 서버가 상기 식별이미지가 삽입된 보정 동영상을 생성하는 단계(S300)를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.Referring to Figures 2 and 3, the method of generating a corrected video according to an embodiment of the present invention includes the step of the corrected video generating server inserting an identification image into the original video (S200), and the corrected video generating server inserting the identification image into the original video. It includes a step of generating an inserted correction video (S300). Below, a detailed description of each step is provided.

보정 동영상 생성 서버(100)가 원본 동영상(10)에 식별이미지(60)를 삽입한다(S200).The corrected video creation server 100 inserts the identification image 60 into the original video 10 (S200).

식별이미지(60)는 식별정보에 대응되는 이미지로써, 문자열 형태의 식별정보를 대신하여 원본 동영상(10)에 삽입되는 이미지를 의미한다.The identification image 60 is an image corresponding to identification information and refers to an image inserted into the original video 10 in place of identification information in the form of a string.

도 4는 본 발명의 일 실시예에 따른 식별이미지의 예시도이다.Figure 4 is an exemplary diagram of an identification image according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 식별이미지(60)는 복수개의 도트(dot)를 포함하는 이미지일 수 있다. 구체적인 예로, 식별이미지(60)는 도 4와 같이 복수개의 도트가 나열된 이미지일 수 있다. 도 4는 복수개의 도트가 연속적으로 나열된 식별이미지(60)의 예시를 도시하고 있으나, 본 발명의 식별이미지(60)는 이에 한정되지 않고, 각각의 도트가 서로 이격되어 배치되거나, 특정 형상을 형성하도록 배치될 수도 있다.Referring to FIG. 4, the identification image 60 according to an embodiment of the present invention may be an image including a plurality of dots. As a specific example, the identification image 60 may be an image in which a plurality of dots are arranged as shown in FIG. 4. Figure 4 shows an example of an identification image 60 in which a plurality of dots are sequentially arranged, but the identification image 60 of the present invention is not limited to this, and each dot is arranged spaced apart from each other or forms a specific shape. It may be arranged to do so.

식별이미지(60)는 복수의 도트가 배열된 패턴에 따라 상이한 식별정보를 포함할 수 있으며, 이에 대하여는 상세히 후술한다.The identification image 60 may include different identification information depending on the pattern in which the plurality of dots are arranged, which will be described in detail later.

일 실시예에서, 식별이미지(60)를 구성하는 각각의 도트는 1비트(bit)의 데이터를 저장할 수 있다. 즉, 식별이미지에 포함된 각각의 도트는 하나의 비트값(0 또는 1)을 나타낼 수 있다.In one embodiment, each dot constituting the identification image 60 can store 1 bit of data. That is, each dot included in the identification image can represent one bit value (0 or 1).

구체적인 예로, 복수의 도트는 각각 상이한 비트값을 나타내는 제1 도트(61) 및 제2 도트(62)를 포함할 수 있다. 예를 들어, 도 4(a)를 참조하면, 제1 도트(61)는 '0'을, 제2 도트(62)는 '1'을 의미할 수 있다.As a specific example, the plurality of dots may include a first dot 61 and a second dot 62 each representing different bit values. For example, referring to FIG. 4(a), the first dot 61 may mean '0' and the second dot 62 may mean '1'.

상술한 실시예에서, 각각의 도트가 하나의 비트값을 나타냄에 따라, 복수의 도트를 포함하는 식별이미지(60)는 특정한 비트열을 나타낼 수 있다. 예를 들어, 도 4(a)의 식별이미지(60)는 '10011010'의 비트열을 나타낼 수 있다.In the above-described embodiment, as each dot represents one bit value, the identification image 60 including a plurality of dots may represent a specific bit string. For example, the identification image 60 in FIG. 4(a) may represent a bit string of '10011010'.

또한, 일 실시예에서, 식별이미지(60)를 구성하는 도트의 개수는 보정 동영상 생성 서버(100)에 의해 다양하게 결정될 수 있다. 즉, 하나의 식별이미지(60)를 구성하는 도트의 개수가 많을수록 저장 가능한 데이터의 크기가 커지므로 많은 수의 식별정보(80)를 저장할 수 있으나, 식별이미지(60)가 원본 동영상(10)에 삽입되기 위해 필요한 영역이 넓어질 수 있다.Additionally, in one embodiment, the number of dots constituting the identification image 60 may be determined in various ways by the correction video creation server 100. In other words, the larger the number of dots that make up one identification image 60, the larger the size of data that can be stored, so a large number of identification information 80 can be stored, but the identification image 60 is not included in the original video 10. The area required for insertion may be expanded.

구체적으로, 도 4(a)와 같이 식별이미지(60)가 8개의 도트를 포함하는 경우, 저장 가능한 데이터는 8비트이며, 총 28=256개의 식별정보를 저장할 수 있다. 식별이미지(60)에 포함되는 도트의 개수는 8개, 16개, 32개, 64개 등 다양하게 결정될 수 있으나, 이하에서는 설명의 편의를 위하여 8개의 예시로 설명한다.Specifically, when the identification image 60 includes 8 dots as shown in FIG. 4(a), the storable data is 8 bits, and a total of 2 8 =256 pieces of identification information can be stored. The number of dots included in the identification image 60 can be determined in various ways, such as 8, 16, 32, or 64, but for convenience of explanation, eight examples are used below.

또한, 일 실시예에서, 복수의 도트 각각은, 생성된 보정 동영상(20)이 가공되는 경우에도 식별이미지(60)의 도트 패턴(즉, 비트열)을 유지할 수 있는 크기 또는 간격으로 구성될 수 있다.Additionally, in one embodiment, each of the plurality of dots may be configured at a size or interval that can maintain the dot pattern (i.e., bit string) of the identification image 60 even when the generated corrected video 20 is processed. there is.

구체적인 예로, 각각의 도트는 복수개의 픽셀을 포함하도록 구성될 수 있다. 식별이미지(60)가 삽입된 보정 동영상(20)이 손실 압축, 해상도 변경 등의 가공을 거치는 경우, 삽입된 식별이미지(60)의 일부 픽셀이 소실될 수 있다. 이때, 식별이미지(60)의 일부 픽셀이 소실되더라도 식별이미지(60)의 복원이 가능하도록 하기 위해(즉, 비트열 획득이 가능하도록 하기 위해) 식별이미지(60)를 구성하는 각각의 도트가 복수개의 픽셀을 포함하는 크기로 구성될 수 있다.As a specific example, each dot may be configured to include a plurality of pixels. When the corrected video 20 in which the identification image 60 is inserted undergoes processing such as lossy compression or resolution change, some pixels of the inserted identification image 60 may be lost. At this time, in order to enable restoration of the identification image 60 even if some pixels of the identification image 60 are lost (i.e., to enable acquisition of a bit string), each dot constituting the identification image 60 is divided into multiple dots. It can be configured in a size containing pixels.

각각의 도트를 구성하는 픽셀의 개수는 보정 동영상 생성 서버(100)에 의해 다양하게 결정될 수 있다. 구체적으로, 도 4(b)를 참조하면, 각각의 도트(61, 62)는 25개(5x5)의 픽셀을 포함하는 크기로 구성되나, 이는 예시에 불과하므로 이에 한정되지 않는다. 각각의 도트를 구성하는 픽셀의 개수가 많을수록 동영상 가공 시 식별이미지(60)의 복원 가능성이 높아질 수 있으나, 식별이미지(60)가 원본 동영상(10)에 삽입되기 위해 필요한 영역이 넓어질 수 있다.The number of pixels constituting each dot may be determined in various ways by the corrected video creation server 100. Specifically, referring to FIG. 4(b), each dot 61 and 62 is composed of a size including 25 pixels (5x5), but this is only an example and is not limited thereto. As the number of pixels constituting each dot increases, the possibility of restoring the identification image 60 during video processing may increase, but the area required for the identification image 60 to be inserted into the original video 10 may increase.

S200 단계에서, 식별이미지(60)는 보정 동영상(20) 시청 시 시청자가 삽입된 식별이미지를 육안으로 발견하기 어렵도록 원본 동영상(10)의 일부 영역에 삽입될 수 있다.In step S200, the identification image 60 may be inserted into a partial area of the original video 10 so that it is difficult for the viewer to visually detect the inserted identification image when watching the corrected video 20.

식별이미지(60)가 원본 동영상(10)에 삽입되면, 보정 동영상 서버(100)가 식별이미지(60)가 삽입된 동영상인 보정 동영상(20)을 생성한다(S200).When the identification image 60 is inserted into the original video 10, the corrected video server 100 generates the corrected video 20, which is a video in which the identification image 60 is inserted (S200).

도 5는 본 발명의 일 실시예에 따른 식별정보 매칭 단계를 더 포함하는 보정 동영상 생성 방법의 흐름도이다. 도 6은 본 발명의 일 실시예에 따른 식별이미지에 대한 식별정보의 매칭을 설명하기 위한 예시도이다.Figure 5 is a flowchart of a method for generating a corrected video further including an identification information matching step according to an embodiment of the present invention. Figure 6 is an example diagram illustrating matching of identification information to an identification image according to an embodiment of the present invention.

도 5 및 도 6을 참조하면, 본 발명의 일 실시예에 따른 보정 동영상 생성 방법은, S200 단계 이전에, 보정 동영상 생성 서버가 식별이미지에 식별정보를 매칭하는 단계(S100)를 더 포함할 수 있다.Referring to Figures 5 and 6, the method of generating a corrected video according to an embodiment of the present invention may further include a step (S100) in which the corrected video generating server matches identification information to an identification image before step S200. there is.

보정 동영상 생성 서버(100)가 특정한 식별이미지(60)에 특정한 식별정보(80)를 매칭한다(S100).The corrected video creation server 100 matches specific identification information 80 to a specific identification image 60 (S100).

일 실시예에서, 각각의 식별이미지(60)에는 서로 상이한 식별정보(80)가 일대일로 매칭될 수 있다. 즉, 식별이미지(60)는 복수의 도트가 배열된 패턴에 따라 상이한 식별정보를 포함할 수 있다.In one embodiment, each identification image 60 may be matched with different identification information 80 on a one-to-one basis. That is, the identification image 60 may include different identification information depending on the pattern in which the plurality of dots are arranged.

구체적인 예로, S100 단계는 보정 동영상 생성 서버(100)가 특정한 비트열에 특정한 식별정보(80)를 매칭하는 것일 수 있다.As a specific example, step S100 may involve the corrected video creation server 100 matching specific identification information 80 to a specific bit string.

예를 들어, 도 6을 참조하면, 비트열 '00000001'에는 '식별정보 A'가, 비트열 '00000010'에는 '식별정보 B'가, 비트열 '00000011'에는 '식별정보 C'가 각각 매칭될 수 있다. 이에 따라, 각각의 비트열을 나타내는 식별이미지 A, B, C는 각각 식별정보 A, B, C를 포함할 수 있다. 예컨대, 식별정보 A, B, C는 사용자 A, B, C의 식별 ID일 수 있다.For example, referring to Figure 6, 'Identification information A' matches the bit string '00000001', 'Identification information B' matches the bit string '00000010', and 'Identification information C' matches the bit string '00000011'. It can be. Accordingly, identification images A, B, and C representing each bit string may include identification information A, B, and C, respectively. For example, identification information A, B, and C may be the identification IDs of users A, B, and C.

또한, 보정 동영상 생성 서버(100)는 식별이미지(60)에 매칭된 식별정보(80)를 업데이트할 수 있다. 예를 들면, 보정 동영상 생성 서버(100)는 미리 정해진 주기마다 비트열에 매칭된 식별정보(80)를 업데이트할 수 있다. 또는, 새로운 식별정보가 등록되는 경우(예컨대, 신규 사용자 ID 등록), 기존에 매칭되지 않은 비트열에 새로운 식별정보를 매칭할 수 있다.Additionally, the corrected video creation server 100 may update the identification information 80 matched to the identification image 60. For example, the corrected video creation server 100 may update the identification information 80 matched to the bit string at predetermined intervals. Alternatively, when new identification information is registered (eg, new user ID registration), the new identification information can be matched to a previously unmatched bit string.

본 발명에 따르면 특정한 비트열을 나타내는 각각의 식별이미지(60)마다 특정한 식별정보(80)를 일대일로 매칭하되, 식별이미지를 구성하는 단위인 도트가 복수개의 픽셀을 포함하도록 식별이미지를 생성함으로써, 식별이미지의 일부가 소실되더라도 식별정보(60)의 획득이 가능한 효과가 있다.According to the present invention, each identification image 60 representing a specific bit string is matched one-to-one with specific identification information 80, and the identification image is generated so that the dot, which is a unit constituting the identification image, includes a plurality of pixels, Even if part of the identification image is lost, the identification information 60 can be obtained.

도 7은 본 발명의 일 실시예에 따른 후보 프레임의 후보영역에 식별이미지를 삽입하는 방법의 흐름도이다.Figure 7 is a flowchart of a method for inserting an identification image into a candidate area of a candidate frame according to an embodiment of the present invention.

도 7을 참조하면, 일 실시예에서, S200 단계는 원본 동영상에서 식별이미지를 삽입할 수 있는 후보 프레임을 추출하는 단계(S220), 후보 프레임에서 후보 영역을 추출하는 단계(S240), 후보영역에 식별이미지를 삽입하는 단계(S260)를 포함할 수 있다. 이하, 각 단계에 대한 상세한 설명을 기술한다.Referring to FIG. 7, in one embodiment, step S200 includes extracting a candidate frame into which an identification image can be inserted from the original video (S220), extracting a candidate area from the candidate frame (S240), and It may include inserting an identification image (S260). Below, a detailed description of each step is provided.

보정 동영상 생성 서버(100)가 원본 동영상(10)에서 식별이미지(60)를 삽입할 수 있는 후보 프레임(30)을 추출한다(S220).The corrected video creation server 100 extracts a candidate frame 30 into which the identification image 60 can be inserted from the original video 10 (S220).

도 8은 본 발명의 일 실시예에 따른 동영상을 구성하는 복수의 프레임 중에서 후보 프레임을 추출하는 단계(S220)를 설명하기 위한 예시도이다.Figure 8 is an example diagram for explaining a step (S220) of extracting a candidate frame from a plurality of frames constituting a video according to an embodiment of the present invention.

동영상은 프레임(Frame)이라 불리는 이미지를 연속으로 모아서 보여줌으로써 사람의 눈에 움직이는 것처럼 보이도록 하는 영상이다. 따라서, 하나의 동영상은 복수의 프레임으로 구성되며, 프레임이 높을수록 부드럽고 선명한 동영상이 된다. 한편, 동영상 1초를 구성하는 프레임이 얼마나 많은지는 초당x장, fps 등으로 표시한다.A video is a video that appears to be moving to the human eye by continuously collecting and displaying images called frames. Therefore, one video consists of a plurality of frames, and the higher the frame, the smoother and clearer the video becomes. Meanwhile, the number of frames that make up one second of video is expressed in terms of x frames per second, fps, etc.

S220 단계는 보정 동영상 생성 서버(100)가 원본 동영상(10)을 구성하는 복수의 프레임 중에서 사용자의 식별이미지(60)를 삽입할 수 있는 요건을 만족하는 후보영역(40)을 포함하는 후보 프레임(30)을 선별하여 추출하는 단계이다.Step S220 is a candidate frame including a candidate area 40 that satisfies the requirements for inserting the user's identification image 60 among the plurality of frames constituting the original video 10. This is the stage of selecting and extracting 30).

후보영역(40)은 프레임 내의 식별이미지(60)를 삽입할 수 있을 정도의 특정한 범위 이상의 공간으로서, 기준값 차이 이내의 색상으로 구성된 영역을 의미할 수 있다.The candidate area 40 is a space larger than a specific range in which the identification image 60 within the frame can be inserted, and may mean an area composed of colors within a difference in a reference value.

일 실시예에서, 기준값은 원본 동영상(10)의 종류에 따라 다르게 설정될 수 있으며, 프레임을 육안으로 보았을 때 색상의 차이가 느껴지지 않거나 매우 미세한 수준인 차이값을 의미할 수 있다.In one embodiment, the reference value may be set differently depending on the type of the original video 10, and may mean that no difference in color is felt when the frame is viewed with the naked eye or that it is a difference value at a very subtle level.

도 8을 참조하면, 동영상을 구성하고 있는 프레임의 일부가 예시적으로 도시되어 있다. 도시된 복수의 프레임 중, 전반부에 있는 프레임들은 동일하거나 유사한 위치에 기준값 차이 이내의 색상으로 구성된 영역인, 후보영역(40)을 포함한다. 보정 동영상 생성 서버(100)는 이러한 동일한 특징을 공유하고 있는 프레임들을 후보 프레임(30)으로 추출할 수 있다.Referring to FIG. 8, a portion of the frames constituting the video is shown as an example. Among the plurality of frames shown, the frames in the first half include a candidate area 40, which is an area composed of colors within a difference in a reference value at the same or similar position. The corrected video creation server 100 may extract frames sharing the same characteristics as candidate frames 30.

일 실시예에서, 후보 프레임(30)은 복수의 후보군을 이룰 수 있으며, 각 후보군은 동일한 색상의 식별정보를 삽입할 수 있는 후보 프레임(30)으로 구성될 수 있다. 후보군은 키 프레임(Key Frame)을 기준으로 선별될 수 있으나 이에 한정되는 것은 아니고, 기준값 이하의 색상을 공유하는 프레임을 추출하는 데는 다양한 방식이 적용될 수 있다.In one embodiment, the candidate frame 30 may form a plurality of candidate groups, and each candidate group may be composed of candidate frames 30 into which identification information of the same color can be inserted. The candidate group may be selected based on a key frame, but is not limited to this, and various methods may be applied to extract frames that share a color less than or equal to the reference value.

이어서, 보정 동영상 생성 서버(100)가 후보 프레임(30)에서 후보영역(40)을 추출한다(S240).Next, the corrected video generation server 100 extracts the candidate area 40 from the candidate frame 30 (S240).

상술한 바와 같이, 후보영역(40)은 후보 프레임(30)이 공유하고 있는 기준값 차이 이내의 색상으로 구성된 영역을 의미할 수 있다. 즉, 프레임을 구성하고 있는 화면에서 특정 영역의 색상이 인접하는 영역간 차이가 기준값 이내라면 해당 영역이 후보영역(40)이 될 수 있다. 따라서, 동일한 후보영역(40)을 공유하는 후보 프레임(30)들은 식별이미지(60)를 동일한 색상 및 크기로 동일한 위치에 삽입할 수 있게 된다.As described above, the candidate area 40 may refer to an area composed of a color within the difference between the reference values shared by the candidate frames 30. That is, if the color difference between adjacent areas of a specific area on the screen constituting the frame is within the reference value, the area may become the candidate area 40. Accordingly, the candidate frames 30 sharing the same candidate area 40 can insert the identification image 60 at the same location with the same color and size.

후보영역(40)을 추출하여 식별이미지(60)를 삽입하는 경우, 임의의 위치에 식별이미지를 삽입하였을 때와 달리, 후술하는 복제 동영상 검출 및 추적 단계에서 모든 프레임의 모든 영역을 대상으로 식별이미지를 탐지할 필요없이 식별이미지(60)가 삽입되었을만한 후보 프레임(30) 및 후보영역(40)을 선별하여 탐지할 수 있게 된다. 따라서, 본 발명에 의하면 효율적이고 신속한 복제 동영상 검출이 가능하다는 효과가 있다.When extracting the candidate area 40 and inserting the identification image 60, unlike when the identification image is inserted at a random position, the identification image is targeted to all areas of all frames in the duplicate video detection and tracking step described later. It is possible to select and detect the candidate frame 30 and candidate area 40 where the identification image 60 may be inserted without the need to detect. Therefore, the present invention has the effect of enabling efficient and rapid detection of duplicate videos.

이어서, 보정 동영상 생성 서버(100)가 후보 프레임(30) 내의 후보영역(40)에 식별이미지(60)를 삽입한다(S260).Next, the corrected video generation server 100 inserts the identification image 60 into the candidate area 40 within the candidate frame 30 (S260).

S200 단계에서, 식별이미지(60)는 보정 동영상(20) 시청 시 시청자가 삽입된 식별이미지를 육안으로 발견하기 어렵도록 후보 프레임(30) 내의 후보영역(40)에 삽입될 수 있다.In step S200, the identification image 60 may be inserted into the candidate area 40 within the candidate frame 30 so that it is difficult for the viewer to visually detect the inserted identification image when watching the corrected video 20.

도 9는 본 발명의 일 실시예에 따른 식별이미지 입력영역에 식별이미지를 삽입하는 방법의 흐름도이다.Figure 9 is a flowchart of a method for inserting an identification image into an identification image input area according to an embodiment of the present invention.

도 9를 참조하면, 일 실시예에서, S260 단계는 식별이미지 입력영역을 후보영역의 평균 색상으로 설정하는 단계(S261), 식별이미지 입력영역에 식별이미지를 삽입하는 단계(S262)를 포함할 수 있다.Referring to FIG. 9, in one embodiment, step S260 may include setting the identification image input area to the average color of the candidate area (S261) and inserting the identification image into the identification image input area (S262). there is.

보정 동영상 생성 서버(100)가 식별이미지 입력영역(50)을 후보영역(40)의 평균 색상으로 설정한다(S261).The corrected video generation server 100 sets the identification image input area 50 to the average color of the candidate area 40 (S261).

식별이미지 입력영역(50)은 식별이미지(60)가 실질적으로 위치하는 영역을 의미할 수 있다.The identification image input area 50 may refer to an area where the identification image 60 is actually located.

보정 동영상 생성 서버(100)가 식별이미지 입력영역(50)을 후보영역(40)의 평균 색상으로 설정함에 따라, 보정 동영상(20)의 시청자가 식별이미지 입력영역(50)을 육안으로 발견하기 어렵게 하여, 시청에 불편을 느끼지 않도록 할 수 있다.As the correction video creation server 100 sets the identification image input area 50 to the average color of the candidate area 40, it is difficult for viewers of the correction video 20 to discover the identification image input area 50 with the naked eye. Thus, you can avoid any inconvenience in viewing.

이어서, 보정 동영상 생성 서버(100)가 식별이미지 입력영역(50)에 식별이미지(60)를 삽입한다(S262). 즉, 식별이미지(60)는 후보영역(40)의 평균 색상으로 설정된 식별이미지 입력영역(50)에 위치하도록 삽입될 수 있다. Next, the corrected video generation server 100 inserts the identification image 60 into the identification image input area 50 (S262). That is, the identification image 60 can be inserted to be located in the identification image input area 50 set to the average color of the candidate area 40.

일 실시예에서, 식별이미지(60)는 후보영역(40)의 평균 색상에서 최소값만큼 차이나는 색상으로 구성될 수 있다.In one embodiment, the identification image 60 may be composed of a color that differs from the average color of the candidate area 40 by a minimum value.

구체적으로, 색상을 RGB(Red, Green, Blue) 시스템으로 표현할 때, 색의 농도는 0부터 255까지의 숫자로 표현될 수 있다. 255에 가까울수록 해당 계열의 색상의 농도가 높아지고, 0에 가까울수록 해당 계열의 색상의 농도가 낮아진다. 이 때, 상기 최소값은 RGB 시스템에서 1만큼의 차이를 의미할 수 있다.Specifically, when color is expressed in the RGB (Red, Green, Blue) system, the color intensity can be expressed as a number from 0 to 255. The closer it is to 255, the higher the color density of that series is, and the closer it is to 0, the lower the color density of that series is. At this time, the minimum value may mean a difference of 1 in the RGB system.

구체적인 예로, 식별이미지(60)의 색상은 후보영역(40)의 평균 색상(즉, 식별이미지 입력영역(50)의 색상)보다 1만큼 높을 수도 있고, 낮을 수도 있다.As a specific example, the color of the identification image 60 may be 1 higher or lower than the average color of the candidate area 40 (i.e., the color of the identification image input area 50).

예를 들어, 후보영역(40)의 평균 색상이 삼원색 중 녹색 계통의 색상이고 녹색(Green)의 값이 180이라면, 식별이미지(60)의 색상은 상기 평균 색상과 빨간색(Red)의 값 및 파란색(Blue)의 값은 동일하되 녹색의 값이 180과 1만큼 차이나는 181 또는 179로 설정될 수 있다.For example, if the average color of the candidate area 40 is a green color among the three primary colors and the green value is 180, the color of the identification image 60 is the average color and the values of red and blue. The value of (Blue) is the same, but the value of green can be set to 181 or 179, which is different from 180 by 1.

이는 육안으로 구별하기 어려운 색상 차이에 해당하므로, 동영상 재생 요청자의 시청을 불편하게 하지 않는다. 한편, 검출단계에서는 최소값만큼의 색상 차이가 매우 중요한 역할을 하며, 이에 대한 상세한 설명은 후술한다.Since this corresponds to a color difference that is difficult to distinguish with the naked eye, it does not cause viewing discomfort to those requesting video playback. Meanwhile, in the detection stage, the color difference as much as the minimum value plays a very important role, and a detailed description of this will be provided later.

또한, 일 실시예에서, 식별이미지(60) 내의 제1 도트(61) 및 제2 도트(62) 중 적어도 하나는, 상기 평균 색상에서 최솟값만큼 차이나는 색상으로 구성되고, 제1 도트 및 제2 도트는 서로 상이한 색상으로 구성될 수 있다. 이에 대하여는 상세히 후술한다.In addition, in one embodiment, at least one of the first dot 61 and the second dot 62 in the identification image 60 is composed of a color that differs from the average color by a minimum value, and the first dot and the second dot Dots may be composed of different colors. This will be described in detail later.

도 10은 본 발명의 일 실시예에 따른 원본 동영상 및 보정 동영상의 예시도이다.Figure 10 is an example diagram of an original video and a corrected video according to an embodiment of the present invention.

도 10에 도시된 예시에 의하면, 보정 동영상(20)에는 도 4의 식별이미지(비트열 '10011010')가 삽입될 수 있다. 상술한 바와 같이 특정한 식별이미지(60)에는 특정한 식별정보(80)가 매칭될 수 있다. 예컨대, 식별정보(80)에는 사용자의 식별ID 이외에 재생장치의 식별번호, 네트워크 IP주소(Internet Protocol Address), MAC주소(Media Access Control Address), 재생 요청한 시간 등이 포함될 수 있으나 이에 한정되는 것은 아니다. 한편, 삽입된 식별이미지(60)는 실제로 재생 요청자에게는 육안으로 보이지 않으므로 시청자는 동영상 재생 중에 이를 인지할 수 없다.According to the example shown in FIG. 10, the identification image (bit string '10011010') of FIG. 4 may be inserted into the corrected video 20. As described above, specific identification information 80 may be matched to a specific identification image 60. For example, the identification information 80 may include, but is not limited to, the identification number of the playback device, network IP address (Internet Protocol Address), MAC address (Media Access Control Address), and playback request time in addition to the user's identification ID. . Meanwhile, the inserted identification image 60 is not actually visible to the naked eye to the playback requester, so the viewer cannot recognize it during video playback.

도 11 및 도 12는 본 발명의 일 실시예에 따른 식별이미지 입력영역에 식별이미지가 삽입된 모습을 설명하기 위한 예시도이다.Figures 11 and 12 are exemplary diagrams to explain how an identification image is inserted into an identification image input area according to an embodiment of the present invention.

도 11을 참조하면, 식별이미지 입력영역(50)은 식별이미지(60)가 삽입될 수 있을 정도의 공간을 포함할 수 있다.Referring to FIG. 11, the identification image input area 50 may include a space large enough to insert the identification image 60.

일 실시예에서, 식별이미지(60)에 포함된 복수개의 도트(61, 62)는 도 11(a), (b)와 같이 일렬로 배치될 수 있다.In one embodiment, the plurality of dots 61 and 62 included in the identification image 60 may be arranged in a row as shown in FIGS. 11(a) and 11(b).

다른 실시예에서, 식별이미지(60)에 포함된 복수개의 도트(61, 62)는 식별이미지 입력영역(50)의 크기에 따라 복수의 행 또는 열을 포함하도록 미리 정해진 규칙에 의해 배치될 수 있다. In another embodiment, the plurality of dots 61 and 62 included in the identification image 60 may be arranged according to a predetermined rule to include a plurality of rows or columns depending on the size of the identification image input area 50. .

예를 들어, 도 11(c)와 같이 좌측 상단에서 우측 하단으로 순차적으로 복수개의 도트(61, 62)가 배치될 수도 있다. 이 경우 동영상 복제 검출 및 추적 시 식별이미지(60)의 좌측 상단에서 우측 하단으로 순차적으로 복수개의 도트(61, 62)를 복원하여 '10011010'의 비트열을 획득할 수 있다.For example, a plurality of dots 61 and 62 may be arranged sequentially from the upper left to the lower right as shown in FIG. 11(c). In this case, when detecting and tracking video duplication, a bit string of '10011010' can be obtained by sequentially restoring a plurality of dots 61 and 62 from the upper left to the lower right of the identification image 60.

또한, 도 11의 식별이미지(60)는 복수개의 도트(61, 62)가 연접하여 배치된 예시를 도시하고 있으나, 상술한 바와 같이 식별이미지 내의 도트는 서로 이격되어 배치될 수도 있다.In addition, the identification image 60 of FIG. 11 shows an example in which a plurality of dots 61 and 62 are arranged adjacently, but as described above, the dots in the identification image may be arranged to be spaced apart from each other.

또한, 일 실시예에서, 식별이미지(60) 내의 제1 도트(61) 및 제2 도트(62) 중 적어도 하나는, 식별이미지 입력영역(50)의 색상(즉, 후보영역(40)의 평균 색상)에서 최솟값만큼 차이나는 색상으로 구성될 수 있고, 제1 도트(61) 및 제2 도트(62)는 서로 상이한 색상으로 구성될 수 있다. Additionally, in one embodiment, at least one of the first dot 61 and the second dot 62 in the identification image 60 is the color of the identification image input area 50 (i.e., the average of the candidate area 40). Color) may be composed of colors that differ by a minimum value, and the first dot 61 and the second dot 62 may be composed of different colors.

구체적인 예로, 도 12(a)와 같이 제1 도트(61)의 색상은 식별이미지 입력영역(50)의 색상보다 1만큼 낮고, 제2 도트(62)의 색상은 식별이미지 입력영역(50)의 색상보다 1만큼 높을 수 있다.As a specific example, as shown in FIG. 12(a), the color of the first dot 61 is 1 lower than the color of the identification image input area 50, and the color of the second dot 62 is 1 lower than that of the identification image input area 50. It can be 1 higher than the color.

다른 구체적인 예로, 도 12(b)와 같이 제1 도트(61)의 색상은 식별이미지 입력영역(50)의 색상과 동일하고, 제2 도트(62)의 색상은 식별이미지 입력영역(50)의 색상보다 1만큼 높을 수 있다.As another specific example, as shown in FIG. 12(b), the color of the first dot 61 is the same as the color of the identification image input area 50, and the color of the second dot 62 is the color of the identification image input area 50. It can be 1 higher than the color.

또 다른 구체적인 예로, 도 12(c)와 같이 제1 도트(61)의 색상은 식별이미지 입력영역(50)의 색상보다 1만큼 높고, 제2 도트(62)의 색상은 식별이미지 입력영역(50)의 색상보다 2만큼 높을 수 있다(즉, 제2 도트(62)의 색상은 제1 도트(61)의 색상보다 1만큼 높을 수 있다).As another specific example, as shown in FIG. 12(c), the color of the first dot 61 is 1 higher than the color of the identification image input area 50, and the color of the second dot 62 is 1 higher than the color of the identification image input area 50. ) may be higher by 2 (that is, the color of the second dot 62 may be higher than the color of the first dot 61 by 1).

이상으로 도 12를 참조하여 식별이미지 입력영역(50)에 삽입되는 식별이미지(60)의 색상 차이를 설명하였으나 이는 예시에 불과하므로 이에 한정되지 않는다. 또한, 예시도는 설명을 위해 식별정보 입력영역(50)과 식별이미지(60)가 확연히 구별되도록 도시하였으나, 실제 재생 화면에서는 육안으로 구별할 수 없으며 삽입된 식별정보를 인지할 수 없다.The color difference of the identification image 60 inserted into the identification image input area 50 has been described above with reference to FIG. 12, but this is only an example and is not limited thereto. In addition, the example diagram shows the identification information input area 50 and the identification image 60 to be clearly distinguishable for explanation purposes, but in the actual playback screen, they cannot be distinguished with the naked eye and the inserted identification information cannot be recognized.

도 13은 본 발명의 일 실시예에 따른 평균색상영역에 식별이미지를 삽입하는 방법의 흐름도이다.Figure 13 is a flowchart of a method for inserting an identification image into an average color area according to an embodiment of the present invention.

도 13을 참조하면, 일 실시예에서, S260 단계는 후보영역에서 평균색상영역을 추출하는 단계(S265), 평균색상영역에 식별이미지를 삽입하는 단계(S266)를 포함할 수 있다. 이하, 도 9와의 차이점을 중점으로 하여 설명한다.Referring to FIG. 13, in one embodiment, step S260 may include extracting an average color area from the candidate area (S265) and inserting an identification image into the average color area (S266). Hereinafter, the description will focus on the differences from FIG. 9.

보정 동영상 생성 서버(100)가 후보영역(40)에서 평균색상영역(70)을 추출한다(S265).The corrected video generation server 100 extracts the average color area 70 from the candidate area 40 (S265).

평균색상영역(70)은 후보영역(40)내의 특정한 영역으로서, 후보영역(40)의 평균 색상으로 구성되며, 식별이미지(60)를 삽입 가능한 공간을 포함하는 영역을 의미한다.The average color area 70 is a specific area within the candidate area 40, is composed of the average color of the candidate area 40, and means an area containing a space into which the identification image 60 can be inserted.

이어서, 보정 동영상 생성 서버(100)가 평균색상영역(70)에 식별이미지(60)를 삽입한다. 즉, 본 실시예에 따르면, 별도의 식별이미지 입력영역(50)을 추출하여 후보영역(40)의 평균 색상으로 설정하는 대신, 후보영역의 평균 색상으로 구성된 평균색상영역(70)을 추출하여 식별이미지(60)를 삽입할 수 있다. 이에 따라, 식별이미지 입력영역(50)이 후보영역(40) 내의 다른 공간에 위치한 경우보다 더욱 육안으로 구별하는 것이 어려워지므로, 동영상 재생 요청자의 시청을 더욱 편안하게 할 수 있는 효과가 있다.Next, the corrected video generation server 100 inserts the identification image 60 into the average color area 70. That is, according to this embodiment, instead of extracting a separate identification image input area 50 and setting it to the average color of the candidate area 40, the average color area 70 composed of the average color of the candidate area is extracted and identified. An image 60 can be inserted. Accordingly, it becomes more difficult to distinguish with the naked eye than when the identification image input area 50 is located in another space within the candidate area 40, which has the effect of making the viewing of the video playback requester more comfortable.

도 14는 본 발명의 일 실시예에 따른 후보프레임 내의 후보영역과 평균색상영역을 설명하기 예시도이다.Figure 14 is an example diagram explaining the candidate area and average color area within the candidate frame according to an embodiment of the present invention.

후보프레임(30) 내에는 기준값 이하의 색상 차이가 나는 후보영역(40)이 존재한다. 후보영역(40)에는 후보영역(40)의 평균 색상과 정확히 일치하지 않는 색상으로 구성된 영역 및 후보영역(40)의 평균 색상으로 구성된 평균색상영역(70)이 존재한다.Within the candidate frame 30, there is a candidate area 40 with a color difference less than the reference value. In the candidate area 40, there is an area composed of a color that does not exactly match the average color of the candidate region 40 and an average color region 70 composed of the average color of the candidate region 40.

예시도는 설명을 위해 후보영역(40)과 평균색상영역(70)이 구별되도록 도시하였으나, 실제 재생 화면에서는 육안으로 구별할 수 없다.In the example diagram, the candidate area 40 and the average color area 70 are shown to be distinct for explanation purposes, but they cannot be distinguished with the naked eye in the actual playback screen.

본 발명의 다양한 실시예에 의하면, 식별이미지(60)는 별도의 식별이미지 입력영역(50) 없이 동영상의 후보프레임(30) 내의 후보영역(40)에 삽입되는 것도 가능하다. 즉, 식별이미지 입력영역(50)은 복제 동영상 검출 및 추적 단계에서 색상이 최소값만큼 차이나는 영역을 만들어서 사용자의 식별정보(60)를 탐색하는 것을 수월하게 하기 위해 이용되는 수단에 해당한다.According to various embodiments of the present invention, the identification image 60 can be inserted into the candidate area 40 within the candidate frame 30 of the video without a separate identification image input area 50. In other words, the identification image input area 50 corresponds to a means used to facilitate searching for the user's identification information 60 by creating an area where the colors differ by the minimum value in the duplicate video detection and tracking stage.

일 실시예에서, 식별이미지(60)는 후보 프레임(30)의 후보영역(40) 내에 임의의 영역에 삽입되지 않고, 평균색상영역(70)에 삽입될 수 있다. 이 때, 식별이미지(60)의 색상은 상기 평균 색상에서 최소값만큼 차이나는 색상으로 구성될 수 있다. 따라서, 상술한 평균 색상으로 설정된 식별이미지 입력영역(50)에 식별이미지(60)가 삽입된 실시예의 경우와 마찬가지로, 검출 단계에서 색상이 최소값만큼 차이나는 영역으로 감지될 수 있다.In one embodiment, the identification image 60 may not be inserted into a random area within the candidate area 40 of the candidate frame 30, but may be inserted into the average color area 70. At this time, the color of the identification image 60 may be composed of a color that differs from the average color by a minimum value. Therefore, as in the case of the embodiment in which the identification image 60 is inserted into the identification image input area 50 set to the average color described above, the area in which the color differs by the minimum value can be detected in the detection step.

다음으로, 평균색상영역(70)이 복수인 실시예의 보정 동영상 생성 방법을 설명한다.Next, a method for generating a corrected video in an embodiment with a plurality of average color areas 70 will be described.

도 15는 본 발명의 일 실시예에 따른 식별이미지를 복수의 부분으로 분리하여 복수의 평균색상영역에 각각 삽입하는 방법의 흐름도이다. 도 16은 본 발명의 일 실시예에 따른 복수의 평균색상영역이 있는 경우를 나타내는 예시도이다.Figure 15 is a flowchart of a method of dividing an identification image into a plurality of parts and inserting each into a plurality of average color areas according to an embodiment of the present invention. Figure 16 is an exemplary diagram showing a case where there are a plurality of average color regions according to an embodiment of the present invention.

도 15 및 도 16을 참조하면, 복수의 평균색상영역(70)이 존재하는 경우, S260 단계는 후보영역에서 평균색상영역을 추출하는 단계(S265), 평균색상영역에서 제1 평균색상영역 및 제2 평균색상영역을 추출하는 단계(S267), 식별이미지를 제1 부분 및 제2 부분으로 분리하는 단계(S268), 식별이미지의 제1 부분 및 제2 부분을 제1 평균색상영역 및 제2 평균색상영역에 각각 삽입하는 단계(S269)를 포함할 수 있다.Referring to Figures 15 and 16, when a plurality of average color regions 70 exist, step S260 is a step of extracting an average color region from the candidate region (S265), and extracting the first average color region and the second average color region from the average color region. 2 Step of extracting the average color area (S267), separating the identification image into a first part and a second part (S268), dividing the first and second parts of the identification image into the first average color area and the second average It may include a step (S269) of inserting each color into the color area.

전술한 S265 단계에 이어서, 보정 동영상 생성 서버(100)가 복수의 평균색상영역(70)에서 제1 평균색상영역(71) 및 제2 평균색상영역(72)을 추출한다(S267).Following the above-described step S265, the corrected video generation server 100 extracts the first average color area 71 and the second average color area 72 from the plurality of average color areas 70 (S267).

복수의 평균생상영역(70)은 모두 후보영역(40)의 평균 색상으로 구성되며, 식별이미지(60)가 삽입될 수 있는 공간을 포함한다는 점에서는 동일하다. 한편, 각각의 평균색상영역(70)의 넓이 및 위치는 모두 상이할 수 있다. 따라서, 특정한 기준에 의해 제1 평균색상영역(71) 및 제2 평균색상영역(72)을 추출할 수 있다. 예를 들어, 넓이를 기준으로 가장 넓은 평균색상영역을 제1 평균색상영역(71)으로 선별하고, 그 다음으로 넓은 평균색상영역을 제2 평균색상영역(72)으로 선택할 수 있다. 다만, 이에 한정되는 것은 아니고, 넓이 외의 다양한 기준이 적용될 수 있다.The plurality of average generated areas 70 are all composed of the average color of the candidate area 40, and are identical in that they include a space into which the identification image 60 can be inserted. Meanwhile, the area and location of each average color area 70 may be different. Accordingly, the first average color area 71 and the second average color area 72 can be extracted according to a specific standard. For example, based on area, the widest average color area can be selected as the first average color area 71, and the next wide average color area can be selected as the second average color area 72. However, it is not limited to this, and various criteria other than area may be applied.

도 16에 도시된 예시를 참조하면, 후보영역(40) 내에 후보영역의 평균색상으로 구성되며, 사용자의 식별정보(60)를 삽입할 수 있는 평균색상영역(70)이 복수로 존재한다.Referring to the example shown in FIG. 16, there are a plurality of average color areas 70 in the candidate area 40, which are composed of the average color of the candidate areas and into which the user's identification information 60 can be inserted.

도 16에 도시된 바와 같이 평균색상영역(70)이 복수로 존재하는 경우, 각 영역을 제1 평균색상영역(71) 및 제2 평균색상영역(72)으로 설정할 수 있다. 제1 평균색상영역(71) 및 제2 평균색상영역(72)은 복수의 평균색상영역(70) 중에서 가장 넓은 2개의 영역에 해당할 수 있다. 한편, 도 16은 두개의 평균색상영역을 추출한 예시를 도시하였으나, 필요에 따라 제n 평균색상영역까지 추출할 수 있다.As shown in FIG. 16, when there are multiple average color areas 70, each area can be set as the first average color area 71 and the second average color area 72. The first average color area 71 and the second average color area 72 may correspond to the two widest areas among the plurality of average color areas 70. Meanwhile, Figure 16 shows an example of extracting two average color areas, but if necessary, up to the nth average color area can be extracted.

이어서, 보정 동영상 생성 서버(100)가 식별이미지(60)를 제1 부분(65) 및 제2 부분(66)으로 분리한다(S268). 식별이미지(60)는 추출된 평균색상영역(71, 72)의 넓이, 개수에 따라 다양하게 분리될 수 있다.Next, the corrected video generation server 100 separates the identification image 60 into a first part 65 and a second part 66 (S268). The identification image 60 can be separated in various ways depending on the area and number of extracted average color regions 71 and 72.

이어서, 보정 동영상 생성 서버(100)가 식별이미지의 제1 부분(65) 및 제2 부분(66)을 제1 평균색상영역(71) 및 제2 평균색상영역(72)에 각각 삽입한다(S269).Next, the corrected video generation server 100 inserts the first part 65 and the second part 66 of the identification image into the first average color area 71 and the second average color area 72, respectively (S269) ).

예를 들어, 도 16을 참조하면, 비트열 '10011010'을 나타내는 식별이미지(60)를 '1001'의 제1 부분(65)과 '1010'의 제2 부분(66)으로 분리하여 제1 평균색상영역(71) 및 제2 평균색상영역(72)에 각각 삽입할 수 있다.For example, referring to FIG. 16, the identification image 60 representing the bit string '10011010' is divided into a first part 65 of '1001' and a second part 66 of '1010' and a first average is obtained. It can be inserted into the color area 71 and the second average color area 72, respectively.

이를 통해, 복수의 평균색상영역(70) 중에서 어느 하나도 단독으로 식별이미지(60)를 삽입할 수 있는 충분한 공간이 없는 경우, 식별이미지(60)를 분리하여 삽입함으로써 여전히 본 발명의 실시예를 통한 실시가 가능하다.Through this, if there is not enough space in any one of the plurality of average color areas 70 to insert the identification image 60 by itself, the identification image 60 is inserted separately, so that it can still be used according to the embodiment of the present invention. Implementation is possible.

본 발명의 다른 실시예에 따른 보정 동영상 생성 서버(100)는, 식별이미지 삽입부 및 보정동영상 생성부를 포함하며, 상술한 보정 동영상 생성 방법을 수행할 수 있다.The corrected video generating server 100 according to another embodiment of the present invention includes an identification image insertion unit and a corrected video generating unit, and can perform the above-described corrected video generating method.

이하에서는 동영상 복제 검출 및 추적 서버(200)가 동영상 복제를 검출하고 추적하는 방법을 설명한다.Hereinafter, a method for detecting and tracking video duplication by the video duplication detection and tracking server 200 will be described.

도 17 및 도 18은 본 발명의 다른 실시예에 따른 동영상 복제 검출 및 추적 방법의 흐름도이다.Figures 17 and 18 are flowcharts of a video copy detection and tracking method according to another embodiment of the present invention.

도 17을 참조하면, 본 발명의 다른 실시예에 따른 동영상 복제 검출 및 추적 방법은, 검출 대상 동영상에서 식별이미지를 탐색 및 추출하는 단계(S1100), 추출된 식별이미지에 포함된 식별정보를 획득하는 단계(S1200)를 포함한다.Referring to Figure 17, the video copy detection and tracking method according to another embodiment of the present invention includes the steps of searching and extracting an identification image from the video to be detected (S1100), and obtaining identification information included in the extracted identification image. Includes step S1200.

동영상 복제 검출 및 추적 서버(200)가 검출 대상 동영상에서 식별이미지를 탐색 및 추출한다(S1100). 검출 대상 동영상은 상술한 본 발명의 보정 동영상 생성 방법에 의해 생성된 보정 동영상(20)일 수 있다.The video copy detection and tracking server 200 searches for and extracts an identification image from the video to be detected (S1100). The detection target video may be the corrected video 20 generated by the corrected video generating method of the present invention described above.

이어서, 동영상 복제 검출 및 추적 서버(200)가 추출된 식별이미지(60)에 포함된 식별정보(80)를 획득한다(S1200).Next, the video copy detection and tracking server 200 obtains the identification information 80 included in the extracted identification image 60 (S1200).

상술한 실시예와 같이, 검출 대상 동영상에 삽입된 식별이미지(60)가 특정한 비트열을 나타내고, 비트열마다 상이한 식별정보가 매칭된 경우, S1200 단계는 추출된 식별이미지에 대응되는 비트열을 획득하는 단계(S1210), 획득한 비트열에 매칭된 식별정보를 획득하는 단계(S1220)를 포함할 수 있다.As in the above-described embodiment, when the identification image 60 inserted into the video to be detected represents a specific bit string, and different identification information is matched for each bit string, step S1200 obtains the bit string corresponding to the extracted identification image. It may include a step (S1210) and a step (S1220) of obtaining identification information matched to the obtained bit string.

즉, 동영상 복제 검출 및 추적 서버(200)가 S1100 단계에서 추출된 식별이미지(60)의 도트 패턴을 기초로 특정한 비트열을 획득할 수 있다(S1210). That is, the video copy detection and tracking server 200 may obtain a specific bit string based on the dot pattern of the identification image 60 extracted in step S1100 (S1210).

이어서, 동영상 복제 검출 및 추적 서버(200)가 획득한 비트열에 매칭된 특정한 식별정보(예컨대, 사용자 식별 ID)를 획득할 수 있다(S1220).Subsequently, the video copy detection and tracking server 200 may obtain specific identification information (eg, user identification ID) matched to the acquired bit string (S1220).

또한, 도 18을 참조하면, 일 실시예에서, S1100 단계는 검출 대상 동영상에서 후보 프레임을 추출하는 단계(S1110), 후보 프레임 내의 후보영역에 대해 식별이미지를 탐색 및 추출하는 단계(S1120)를 포함할 수 있다.Also, referring to FIG. 18, in one embodiment, step S1100 includes extracting a candidate frame from a video to be detected (S1110) and searching and extracting an identification image for a candidate area within the candidate frame (S1120). can do.

본 발명에 의하면, 동영상 복제 검출 및 추적을 위해 검출 대상 동영상을 구성하는 복수의 프레임 모두의 전체 영역을 탐색할 필요없이, 특정한 후보 프레임(30)을 추출하여 특정한 후보영역(40)만을 탐색하면 된다. 따라서, 보다 효율적이고 경제적인 복제 동영상 검출 및 유출자 추적이 가능하다는 효과가 있다.According to the present invention, for video copy detection and tracking, it is necessary to extract a specific candidate frame 30 and search only a specific candidate area 40, without having to search the entire area of all the plurality of frames constituting the detection target video. . Therefore, it has the effect of enabling more efficient and economical detection of duplicate videos and tracking of leakers.

S1110 단계는 앞서 보정 동영상 생성 방법에서 설명한 S100 단계의 내용과 실질적으로 동일하므로, 자세한 설명은 생략한다.Since step S1110 is substantially the same as step S100 described in the previously described correction video generation method, detailed description is omitted.

이어서, 동영상 복제 검출 및 추적 서버(200)가 후보 프레임(30) 내의 후보영역(40)에 대해 식별이미지(60)를 탐색 및 추출한다(S1120).Next, the video copy detection and tracking server 200 searches for and extracts the identification image 60 for the candidate area 40 within the candidate frame 30 (S1120).

본 발명의 일 실시예에 의하면, 후보영역(40) 내의 식별이미지 입력영역(50)은 후보영역의 평균 색상으로 설정된다. 한편 삽입된 식별이미지(60)는 상기 평균 색상에서 최소값만큼 차이나는 색상으로 구성된다. 구체적으로, 식별이미지(60) 내의 제1 도트(61) 및 제2 도트(62) 중 적어도 하나는, 식별이미지 입력영역(50)의 색상(즉, 후보영역(40)의 평균 색상)에서 최솟값만큼 차이나는 색상으로 구성될 수 있다.According to one embodiment of the present invention, the identification image input area 50 within the candidate area 40 is set to the average color of the candidate area. Meanwhile, the inserted identification image 60 consists of a color that differs from the average color by the minimum value. Specifically, at least one of the first dot 61 and the second dot 62 in the identification image 60 has the minimum value in the color of the identification image input area 50 (i.e., the average color of the candidate area 40). It can be made up of different colors.

동영상 복제 검출 및 추적 서버(200)는 식별이미지 입력영역(50)의 색상값과 식별이미지(60)의 색상값이 최소값만큼 차이나는 특징을 이용하여, 후보영역(40) 내에 삽입된 식별이미지(60)를 탐색할 수 있다. 즉, S1120 단계는 색상이 최소값만큼 차이나는 영역을 감지하는 단계 및 상기 감지된 영역에서 식별이미지(60)를 추출하는 단계를 포함할 수 있다.The video copy detection and tracking server 200 uses the characteristic that the color value of the identification image input area 50 and the color value of the identification image 60 differ by the minimum value, and detects the identification image inserted in the candidate area 40 ( 60) can be explored. That is, step S1120 may include detecting an area where colors differ by a minimum value and extracting an identification image 60 from the detected area.

상술한 바와 같이, 색상을 RGB 시스템으로 표현하는 경우, 색상의 최소값은 0부터 255까지로 표시되는 색상값에서 1만큼을 의미한다. 따라서, 동영상 복제 검출 및 추적 서버(200)는 검출 대상이 되는 후보영역(40) 내에서 색상값의 차이가 최소값인 1만큼 차이나는 영역을 탐색한다. 색상값의 차이가 최소값인 1만큼 차이나는 영역이 감지되면, 동영상 복제 검출 및 추적 서버(200)는 감지된 영역에서 식별이미지(60)를 추출하여 획득할 수 있다.As described above, when a color is expressed in the RGB system, the minimum color value is 1 in the color values displayed from 0 to 255. Accordingly, the video copy detection and tracking server 200 searches for an area in the candidate area 40 to be detected where the difference in color value is the minimum value of 1. When an area in which the difference in color value differs by the minimum value of 1 is detected, the video copy detection and tracking server 200 can extract and obtain an identification image 60 from the detected area.

예를 들어, 식별이미지 입력영역(50)의 색상값은 후보영역(40)의 평균 색상이며, 상기 평균 색상의 녹색 계열의 색상값이 180인 경우를 설명한다. 이 때, 식별이미지(60)의 색상은 빨간색 계열 및 파란색 계열의 색상값은 식별이미지 입력영역(50)의 색상값과 동일하고, 녹색 계열의 색상값은 181일 수 있다(또는, 179일 수 있다). 동영상 복제 검출 및 추적 서버(200)는 녹색 계열의 색상값 차이가 최소값인 1만큼 차이나는 영역을 탐색한다. 식별이미지 입력영역(50)과 식별이미지(60)의 녹색 계열의 색상값은 각각 180, 181로 최소값인 1만큼 차이나므로, 동영상 복제 검출 및 추적 서버(200)에 의해 감지된다.For example, the color value of the identification image input area 50 is the average color of the candidate area 40, and the case where the green color value of the average color is 180 will be described. At this time, the red and blue color values of the color of the identification image 60 are the same as the color value of the identification image input area 50, and the green color value may be 181 (or 179). there is). The video copy detection and tracking server 200 searches for an area where the difference in green color values differs by the minimum value of 1. The green color values of the identification image input area 50 and the identification image 60 are 180 and 181, respectively, which differ by the minimum value of 1, so they are detected by the video copy detection and tracking server 200.

상술한 바와 같이, 색상값의 차이가 최소값인 1만큼 차이나는 영역이 감지된 경우, 동영상 복제 검출 및 추적 서버(200)는 감지된 영역에서 식별이미지(60)를 추출하여 획득한다.As described above, when an area in which the color value difference differs by the minimum value of 1 is detected, the video copy detection and tracking server 200 extracts and obtains an identification image 60 from the detected area.

한편, 색상값의 차이가 최소값인 1만큼 차이나는 영역이 발견되지 않는 경우에는, 다른 후보프레임에 대해 새롭게 탐색 작업을 진행하거나, 색상값의 차이가 최소값인 1만큼 차이나는 영역이 발견될 때까지 탐색 작업을 멈추지 않을 수 있다.On the other hand, if an area where the color value difference differs by the minimum value of 1 is not found, a new search operation is performed for other candidate frames, or until an area where the color value difference differs by the minimum value of 1 is found. The search operation may not stop.

본 발명의 또 다른 실시예에 의하면, 검출 대상 동영상에서 후보프레임(30)을 추출하는 단계(S1110) 이후에, 평균색상영역(70)을 추출하는 단계가 더 포함될 수 있다. 이는 보정 동영상 생성 과정에서, 식별이미지(60)를 후보영역(40) 내에 존재하는 후보영역(40)의 평균 색상으로 구성된 평균색상영역(70)에 삽입한 경우이다. 이 경우, 동영상 복제 검출 및 추적 서버(200)는 검출 대상 후보영역(40) 전체를 대상으로 탐색할 필요없이, 추출된 평균색상영역(70)에 대해서만 탐색을 진행하게 된다. 따라서, 탐색 대상 영역이 더욱 좁아지므로, 보다 신속하고 효율적인 탐색이 가능해진다.According to another embodiment of the present invention, after the step of extracting the candidate frame 30 from the video to be detected (S1110), the step of extracting the average color area 70 may be further included. This is a case in which the identification image 60 is inserted into the average color area 70 composed of the average color of the candidate area 40 existing within the candidate area 40 during the process of generating the corrected video. In this case, the video copy detection and tracking server 200 does not need to search the entire candidate area 40 to be detected, but only searches the extracted average color area 70. Accordingly, the search target area becomes narrower, enabling faster and more efficient search.

다음으로, 동영상 복제 검출 및 추적 단계에서 색상값의 차이가 최소값인 영역이 복수로 발견된 경우를 설명한다.Next, a case where multiple areas with minimum color value differences are found in the video copy detection and tracking stage will be described.

다시 도 16을 참조하면, 식별이미지로서 비트열 '10011010'을 나타내는 식별이미지가 제1 부분(65)인 '1001' 및 제2 부분(66)인 '1010'으로 분리되어, 제1 평균색상영역(71)에 제1 부분(65)이, 제2 평균색상영역(72)에 제2 부분(66)이 각각 삽입되어 있다. 동영상 복제 검출 및 추적 서버(200)는 제1 평균색상영역(71) 및 제2 평균색상영역(72)에서 각각 비트열 '1001'과 '1010'을 나타내는 식별이미지의 부분들을 획득하고, 이를 조합하여 '10011010'의 전체 비트열을 획득할 수 있다.Referring again to FIG. 16, the identification image representing the bit string '10011010' is divided into '1001' as the first part 65 and '1010' as the second part 66, and is divided into the first average color area. The first part 65 is inserted at 71 and the second part 66 is inserted into the second average color area 72. The video copy detection and tracking server 200 obtains parts of the identification image representing bit strings '1001' and '1010' from the first average color area 71 and the second average color area 72, respectively, and combines them. Thus, the entire bit string of '10011010' can be obtained.

일 실시예에서, 추출한 식별이미지(또는 비트열)의 부분들을 조합하는 순서는 제1 평균색상영역(71) 및 제2 평균색상영역(72)을 선택하는 기준과 동일하게 적용될 수 있다. 상술한 실시예와 같이, 복수의 평균생삭영역(70) 중에서 넓이를 기준으로 가장 넓은 평균색상영역을 제1 평균색상영역(71)으로, 그 다음으로 넓은 평균색상영역을 제2 평균색상영역(72)으로 선택한 경우, 조합하는 순서도 그에 따른다. 즉, 제1 평균색상영역(71)에서 감지된 식별이미지를 제1 부분(65), 제2 평균색상영역(72)에서 감지된 식별이미지를 제2 부분(66)으로 하여, 제1 부분(65) 뒤에 제2 부분(66)을 조합하여 전체 식별이미지를 획득할 수 있다.In one embodiment, the order of combining parts of the extracted identification image (or bit string) may be applied in the same manner as the criteria for selecting the first average color region 71 and the second average color region 72. As in the above-described embodiment, the widest average color area based on area among the plurality of average raw color areas 70 is referred to as the first average color area 71, and the next wide average color area is referred to as the second average color area ( 72), the order of combination follows accordingly. That is, the identification image detected in the first average color area 71 is set as the first part 65, and the identification image detected in the second average color area 72 is set as the second part 66, and the first part ( 65) The entire identification image can be obtained by combining the second part 66.

본 발명의 또 다른 실시예에 따른 동영상 복제 검출 및 서버(200)는, 식별이미지 추출부 및 식별정보 획득부를 포함하며, 상술한 동영상 복제 검출 및 추적 방법을 수행할 수 있다.The video copy detection and server 200 according to another embodiment of the present invention includes an identification image extraction unit and an identification information acquisition unit, and can perform the video copy detection and tracking method described above.

또한, 상술한 본 발명의 보정 동영상 생성 방법 또는 동영상 복제 검출 및 추적 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.In addition, the corrected video generation method or video copy detection and tracking method of the present invention described above may be implemented as a program (or application) and stored in a medium in order to be executed in conjunction with a computer, which is hardware.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모델로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모델은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of the method or algorithm described in connection with embodiments of the present invention may be implemented directly in hardware, implemented in a software model executed by hardware, or a combination thereof. The software model can be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Above, embodiments of the present invention have been described with reference to the attached drawings, but those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

10: 원본 동영상
20: 보정 동영상
30: 후보프레임
40: 후보영역
50: 식별이미지 입력영역
60: 식별이미지
70: 평균색상영역
80: 사용자의 식별정보
10: Original video
20: Correction video
30: Candidate frame
40: Candidate area
50: Identification image input area
60: Identification image
70: Average color gamut
80: User identification information

Claims (10)

서버가 원본 동영상에 복수의 도트(dot)를 포함하는 식별이미지를 삽입하는 단계; 및
상기 서버가 상기 식별이미지가 삽입된 보정 동영상을 생성하는 단계를 포함하고,
상기 복수의 도트 각각은, 복수개의 픽셀을 포함하는 크기로 구성되며 하나의 비트값을 나타내고,
상기 식별이미지는, 문자열의 식별정보가 상기 복수의 도트의 패턴에 따라 특정한 비트열로 표현된 것이고,
상기 원본 동영상의 전체 프레임 중에서 동일한 후보영역을 공유하는 복수의 후보 프레임 각각에는, 상기 비트열이 동일한 색상 및 크기로 동일한 위치에 동일하게 삽입되며,
상기 비트열은, 상기 후보영역 내의 식별이미지 입력영역의 크기에 따라 좌측 상단에서 우측 하단의 순서로 복수의 행 및 열을 포함하도록 분배되는, 보정 동영상 생성 방법.
A server inserting an identification image including a plurality of dots into the original video; and
A step of the server generating a corrected video into which the identification image is inserted,
Each of the plurality of dots is composed of a size including a plurality of pixels and represents one bit value,
The identification image is a string of identification information expressed as a specific bit string according to the pattern of the plurality of dots,
In each of a plurality of candidate frames sharing the same candidate area among all frames of the original video, the bit string is inserted identically at the same position with the same color and size,
The bit string is distributed to include a plurality of rows and columns in the order from upper left to lower right according to the size of the identification image input area in the candidate area.
제1 항에 있어서,
상기 복수의 도트 각각은, 생성된 보정 동영상이 가공되는 경우에도 상기 식별이미지의 도트 패턴을 유지할 수 있는 크기 또는 간격으로 구성되는 것을 특징으로 하는, 보정 동영상 생성 방법.
According to claim 1,
Each of the plurality of dots is configured with a size or interval that allows the dot pattern of the identification image to be maintained even when the generated correction video is processed.
삭제delete 제1 항에 있어서,
상기 삽입 단계 이전에,
상기 서버가 하나의 비트열에 하나의 식별정보를 매칭하는 단계를 더 포함하는, 보정 동영상 생성 방법.
According to claim 1,
Before the insertion step,
A method of generating a corrected video further comprising the step of the server matching one piece of identification information to one bit string.
제1 항에 있어서,
상기 삽입 단계는,
상기 복수의 후보 프레임에서, 기준값 차이 이내의 색상으로 구성된 상기 후보영역을 추출하는 단계;
상기 후보영역 내의 상기 식별이미지 입력영역을 상기 후보영역의 평균 색상으로 설정하는 단계; 및
상기 식별이미지 입력영역에, 상기 평균 색상에서 최솟값만큼 차이나는 색상으로 상기 식별이미지를 삽입하는 단계를 포함하고,
상기 도트는, 각각 상이한 비트값을 나타내는 제1 도트 및 제2 도트를 포함하고,
상기 제1 도트 및 상기 제2 도트 중 적어도 하나는, 상기 평균 색상에서 최솟값만큼 차이나는 색상이고,
상기 제1 도트 및 상기 제2 도트는, 서로 상이한 색상으로 구성되는 것을 특징으로 하는, 보정 동영상 생성 방법.
According to claim 1,
The insertion step is,
extracting the candidate area composed of a color within a difference between a reference value from the plurality of candidate frames;
setting the identification image input area within the candidate area to an average color of the candidate area; and
Inserting the identification image into the identification image input area with a color that differs from the average color by a minimum value,
The dots include first dots and second dots, each representing a different bit value,
At least one of the first dot and the second dot is a color that differs from the average color by a minimum value,
A method of generating a corrected video, characterized in that the first dot and the second dot are composed of different colors.
원본 동영상에 복수의 도트를 포함하는 식별이미지를 삽입하는 식별이미지 삽입부; 및
상기 식별이미지가 삽입된 보정 동영상을 생성하는 보정동영상 생성부를 포함하고,
상기 복수의 도트 각각은, 복수개의 픽셀을 포함하는 크기로 구성되며 하나의 비트값을 나타내고,
상기 식별이미지는, 문자열의 식별정보가 상기 복수의 도트의 패턴에 따라 특정한 비트열로 표현된 것이고,
상기 원본 동영상의 전체 프레임 중에서 동일한 후보영역을 공유하는 복수의 후보 프레임 각각에는, 상기 비트열이 동일한 색상 및 크기로 동일한 위치에 동일하게 삽입되며,
상기 비트열은, 상기 후보영역 내의 식별이미지 입력영역의 크기에 따라 좌측 상단에서 우측 하단의 순서로 복수의 행 및 열을 포함하도록 분배되는, 보정 동영상 생성 장치.
An identification image insertion unit that inserts an identification image including a plurality of dots into the original video; and
Comprising a correction video generator that generates a correction video into which the identification image is inserted,
Each of the plurality of dots is composed of a size including a plurality of pixels and represents one bit value,
The identification image is a string of identification information expressed as a specific bit string according to the pattern of the plurality of dots,
In each of a plurality of candidate frames sharing the same candidate area among all frames of the original video, the bit string is inserted identically at the same position with the same color and size,
The bit string is distributed to include a plurality of rows and columns in the order from upper left to lower right according to the size of the identification image input area in the candidate area.
서버가 검출 대상 동영상에서 복수의 도트를 포함하는 식별이미지를 탐색 및 추출하는 단계; 및
상기 서버가 추출된 상기 식별이미지에 포함된 식별정보를 획득하는 단계를 포함하고,
상기 복수의 도트 각각은, 복수개의 픽셀을 포함하는 크기로 구성되며 하나의 비트값을 나타내고,
상기 식별이미지는, 문자열의 상기 식별정보가 상기 복수의 도트의 패턴에 따라 특정한 비트열로 표현된 것이고,
상기 검출 대상 동영상의 전체 프레임 중에서 동일한 후보영역을 공유하는 복수의 후보 프레임 각각에는, 상기 비트열이 동일한 색상 및 크기로 동일한 위치에 동일하게 삽입되며,
상기 비트열은, 상기 후보영역 내의 식별이미지 입력영역의 크기에 따라 좌측 상단에서 우측 하단의 순서로 복수의 행 및 열을 포함하도록 분배되는, 동영상 복제 추적 방법.
A server searching for and extracting an identification image including a plurality of dots from a video to be detected; and
Comprising the step of the server obtaining identification information included in the extracted identification image,
Each of the plurality of dots is composed of a size including a plurality of pixels and represents one bit value,
The identification image is one in which the identification information of a string is expressed as a specific bit string according to the pattern of the plurality of dots,
In each of the plurality of candidate frames sharing the same candidate area among all frames of the detection target video, the bit string is equally inserted at the same position with the same color and size,
The bit string is distributed to include a plurality of rows and columns in the order from upper left to lower right according to the size of the identification image input area in the candidate area.
제7 항에 있어서,
상기 획득 단계는,
상기 서버가 추출된 상기 식별이미지에 대응되는 상기 비트열을 획득하는 단계; 및
상기 서버가 획득한 상기 비트열에 매칭된 상기 식별정보를 획득하는 단계를 포함하는, 동영상 복제 추적 방법.
According to clause 7,
The acquisition step is,
Obtaining, by the server, the bit string corresponding to the extracted identification image; and
A video copy tracking method comprising the step of obtaining the identification information matched to the bit string acquired by the server.
제7 항에 있어서,
상기 식별이미지를 탐색 및 추출하는 단계는,
상기 서버가 상기 검출 대상 동영상에서 상기 복수의 후보 프레임을 추출하는 단계; 및
상기 서버가 상기 복수의 후보 프레임 내의 상기 후보영역 중 색상이 최솟값만큼 차이나는 영역에서 상기 식별이미지를 탐색 및 추출하는 단계를 포함하고,
상기 후보영역은, 기준값 차이 이내의 색상으로 구성된 영역인 것을 특징으로 하는, 동영상 복제 추적 방법.
According to clause 7,
The step of searching and extracting the identification image is,
The server extracting the plurality of candidate frames from the detection target video; and
A step of the server searching and extracting the identification image from an area in which colors differ by a minimum value among the candidate areas within the plurality of candidate frames,
A video copy tracking method, characterized in that the candidate area is an area composed of colors within a difference between reference values.
검출 대상 동영상에서 복수의 도트를 포함하는 식별이미지를 탐색 및 추출하는 식별이미지 추출부; 및
추출된 상기 식별이미지에 포함된 식별정보를 획득하는 식별정보 획득부를 포함하고,
상기 복수의 도트 각각은, 복수개의 픽셀을 포함하는 크기로 구성되며 하나의 비트값을 나타내고,
상기 식별이미지는, 문자열의 상기 식별정보가 상기 복수의 도트의 패턴에 따라 특정한 비트열로 표현된 것이고,
상기 검출 대상 동영상의 전체 프레임 중에서 동일한 후보영역을 공유하는 복수의 후보 프레임 각각에는, 상기 비트열이 동일한 색상 및 크기로 동일한 위치에 동일하게 삽입되며,
상기 비트열은, 상기 후보영역 내의 식별이미지 입력영역의 크기에 따라 좌측 상단에서 우측 하단의 순서로 복수의 행 및 열을 포함하도록 분배되는, 동영상 복제 추적 장치.
An identification image extraction unit that searches for and extracts an identification image including a plurality of dots from a video to be detected; and
It includes an identification information acquisition unit that acquires identification information included in the extracted identification image,
Each of the plurality of dots is composed of a size including a plurality of pixels and represents one bit value,
The identification image is one in which the identification information of a string is expressed as a specific bit string according to the pattern of the plurality of dots,
In each of the plurality of candidate frames sharing the same candidate area among all frames of the detection target video, the bit string is equally inserted at the same position with the same color and size,
The bit string is distributed to include a plurality of rows and columns in the order from upper left to lower right according to the size of the identification image input area in the candidate area.
KR1020210068830A 2020-05-28 2021-05-28 Method and device for detecting and tracking video piracy KR102592989B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200064152 2020-05-28
KR20200064152 2020-05-28

Publications (2)

Publication Number Publication Date
KR20210147964A KR20210147964A (en) 2021-12-07
KR102592989B1 true KR102592989B1 (en) 2023-10-23

Family

ID=78868559

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210068830A KR102592989B1 (en) 2020-05-28 2021-05-28 Method and device for detecting and tracking video piracy

Country Status (1)

Country Link
KR (1) KR102592989B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483204B1 (en) * 2022-08-01 2022-12-30 주식회사 팬덤코리아 Methods and systems for detection and tracking of video duplications in nft platforms

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101529082B1 (en) * 2008-12-01 2015-06-17 주식회사 케이티 Apparatus for watermarking by dividing off tracking information and method therefor
KR101439475B1 (en) 2013-04-03 2014-09-17 주식회사 마인미디어 Apparatus and method for detecting and searching illegal copies of moving pictures
KR102384008B1 (en) * 2017-01-26 2022-04-08 주식회사 마크애니 Watermark embedding method and apparatus, and system
KR102227370B1 (en) * 2018-04-24 2021-03-12 (주)리마보안연구소 Method and system for detecting and tracking video piracy

Also Published As

Publication number Publication date
KR20210147964A (en) 2021-12-07

Similar Documents

Publication Publication Date Title
US10951958B1 (en) Authenticity assessment of modified content
US11023618B2 (en) Systems and methods for detecting modifications in a video clip
US9911171B2 (en) Fingerprinting of data
Maxemchuk et al. Marking Text Documents.
US7295281B2 (en) System and method for adaptive marking and coding of film prints
MXPA05000524A (en) Desynchronized fingerprinting method and system for digital multimedia data.
CA2655195C (en) System and method for object oriented fingerprinting of digital videos
JP2005328528A (en) Processing method and system for secret mark of digital image
US11823045B2 (en) Encoding and decoding apparatus
KR102592989B1 (en) Method and device for detecting and tracking video piracy
KR102227370B1 (en) Method and system for detecting and tracking video piracy
KR102052534B1 (en) Apparatus for judging illegal duplication using object recognition based on deep learning and method thereof
Wu et al. Sepmark: Deep separable watermarking for unified source tracing and deepfake detection
KR102564187B1 (en) Security image generating display device and adapter
JP2019213184A (en) Encryption method, device and appliance using moving image gene by artificial intelligence
KR102483204B1 (en) Methods and systems for detection and tracking of video duplications in nft platforms
Vashistha et al. Nomark: A novel method for copyright protection of digital videos without embedding data
US11152034B2 (en) Chain-of-manipulation tracking of audio-video content
KR101427220B1 (en) Copyright protection service method and system using an image search
CN112383836B (en) Video verification system and method
US11734785B1 (en) Systems and methods for secure watermarking of point clouds
KR100705932B1 (en) method for encoding and decoding of digital image data
WO2019209027A1 (en) Method and system for detecting and tracking video copy
Veličković et al. The Insertion of the Encrypted Low-Resolution Watermark in the Uncompressed Video
Cao et al. Blockchain-Based Video Copyright Detection

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant