KR102268981B1 - Original image detection apparatus using feature values in 360 degree images and method thereof - Google Patents

Original image detection apparatus using feature values in 360 degree images and method thereof Download PDF

Info

Publication number
KR102268981B1
KR102268981B1 KR1020200164584A KR20200164584A KR102268981B1 KR 102268981 B1 KR102268981 B1 KR 102268981B1 KR 1020200164584 A KR1020200164584 A KR 1020200164584A KR 20200164584 A KR20200164584 A KR 20200164584A KR 102268981 B1 KR102268981 B1 KR 102268981B1
Authority
KR
South Korea
Prior art keywords
image
frame
original
frames
query
Prior art date
Application number
KR1020200164584A
Other languages
Korean (ko)
Inventor
이재청
유인재
이우섭
Original Assignee
주식회사 비욘드테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비욘드테크 filed Critical 주식회사 비욘드테크
Priority to KR1020200164584A priority Critical patent/KR102268981B1/en
Application granted granted Critical
Publication of KR102268981B1 publication Critical patent/KR102268981B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics

Abstract

The present invention relates to an apparatus for detecting an original image using feature values in a 360-degree image and method thereof. The apparatus for detecting an original image according to the present invention comprises: an image input unit for receiving an image to be judged that the image is taken in a 360-degree image form; a frame extracting unit for extracting a plurality of frames corresponding to a time point through the comparison of RGB variation between frames and characteristic information in the received image to be judged; a projection type conversion unit for converting the extracted frame into an equi-rectangular projection (ERP) type; a feature point extraction unit for extracting a feature point from the converted frame; and an image judgment unit for comparing the feature points extracted from the frame of the original image with the feature points extracted from the frame of the image to be judged to calculate the degree of agreement, and determining whether the original image matches the image to be judged using the calculated degree of agreement. According to the present invention, the identification recognition rate may be improved by providing a feature extraction method robust against attacks in consideration of the projection method and the reproduction method, which are the characteristics of a 360-degree image work.

Description

360도 영상에서의 특징값을 이용한 원본 영상 검출 장치 및 그 방법{Original image detection apparatus using feature values in 360 degree images and method thereof}Original image detection apparatus using feature values in 360 degree images and method thereof

본 발명은 360도 영상에서의 특징값을 이용한 원본 영상 검출 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 판단 대상 영상으로부터 추출한 특징값을 분석하여 해당되는 판단 대상 영상의 원본 영상을 검출하는 360도 영상에서의 특징값을 이용한 원본 영상 검출 장치 및 그 방법에 관한 것이다. The present invention relates to an apparatus and method for detecting an original image using feature values in a 360-degree image, and more particularly, to a 360-degree original image of the corresponding judgment target image by analyzing the feature values extracted from the judgment target image. The present invention relates to an apparatus and method for detecting an original image using feature values in an image.

미디어 기술은 HD 기술 이후 3D, UHD, 파노라마, 홀로그램, 360VR 등 사실감 제공을 위해 꾸준히 발전하고 있다.Media  Technology has been steadily evolving to provide realism   such as 3D, UHD, panoramic, hologram, 360 VR, etc.

여기서, 360도 영상은 다수의 카메라로 360도 전 방향을 동시에 촬영한 후, 촬영된 영상들을 중복되거나 끊어짐 없이 하나의 카메라로 촬영한 것처럼 스티칭(stitching)한 영상으로서, HMD(Head mounted Display)를 이용하여 시청할 경우, 현실 세계와 유사항 몰입감을 얻을 수 있다. Here, the 360° image is an image that is stitched as if taken with a single camera without overlapping or disconnecting after shooting all 360-degree directions with multiple cameras at the same time, and using a head mounted display (HMD). If you watch using it, you can get a sense of immersion similar to the real world.

한편, 이동통신사의 5G 서비스가 본격적으로 서비스됨에 따라 언제 어디서든지 대용량의 360도 영상저작물을 빠른 속도로 이용할 수 있게 됨으로써, DRM 해체 및 각종 영상 변형을 통해 웹하드, 토렌트 등에서 불법 유통되고 있다. On the other hand, as 5G services from mobile carriers are fully serviced, large-capacity 360-degree video works can be used at a high speed anytime, anywhere, so they are illegally distributed in web hard, torrent, etc. through the dismantling of DRM and various image modifications.

따라서, 저작권 보호를 위한 강인성이 지원되는 필터링 기술이 요구되고 있다. Accordingly, there is a demand for a filtering technology supporting robustness for copyright protection.

불법저작 영상 필터링 기술은 온라인에서 유통되는 동영상, 음악, 게임 등이 저작권자의 허락을 받지 않은 불법복제 영상인지 여부를 판별함으로써 저작권 침해물의 불법적 인터넷 전송을 차단하는 기술이다.Illegal copyrighted video filtering technology is a technology that blocks illegal Internet transmission of copyrighted materials by determining whether videos, music, games, etc. distributed online are illegally reproduced videos without the permission of the copyright holder.

이러한 불법저작 영상 필터링 기술은 기본적으로 콘텐츠를 식별하는 기능을 가지고 있어야 한다. 즉, 각각의 원본 영상 콘텐츠로부터 고유의 특성이 될 수 있는 특징정보(feature)를 추출한 후 불법 유통되는 저작물의 특징정보와 비교하여 동일한 콘텐츠 여부를 판별하게 된다. 여기서 어떠한 특징정보를 어떻게 이용하는지가 필터링 기술의 성능, 즉 불법복제 영상 차단율을 결정하는 중요한 역할을 하게 된다.This illegal video filtering technology should have a function to identify content basically. That is, after extracting feature information that can be a unique characteristic from each original video content, it is compared with the feature information of an illegally distributed work to determine whether the content is the same. Here, what kind of characteristic information is used and how it plays an important role in determining the performance of filtering technology, that is, the blocking rate of illegally copied images.

특히, 360도 영상은 크기 변화, 밝기 변화, 해상도 변화 및 회전 변화 등에 강인해야 함은 물론, 360도 영상에서의 새로운 변형인 투영법 변형 및 시점 변형 등에도 강인해야 한다. 그러나 종래의 블법저작 영상 필터링 기술은 2D 영상의 불법 복제 여부를 판단하는데 주로 사용된 것으로, 360도 VR(virtual reality) 영상과 같은 3D 영상에는 적용하지 못하는 문제점이 있다.In particular, a 360-degree image must be robust to size change, brightness change, resolution change, and rotation change, as well as be robust against projection transformation and viewpoint transformation, which are new transformations in 360-degree images. However, the conventional illegal copyrighted image filtering technology is mainly used to determine whether a 2D image is illegally copied, and has a problem in that it cannot be applied to a 3D image such as a 360-degree virtual reality (VR) image.

본 발명의 배경이 되는 기술은 대한민국 등록특허공보 제10-1439475호(2014.09.17. 공고)에 개시되어 있다.The technology that is the background of the present invention is disclosed in Republic of Korea Patent Publication No. 10-1439475 (2014.09.17. Announcement).

본 발명이 이루고자 하는 기술적 과제는 판단 대상 영상으로부터 추출한 특징값을 분석하여 해당되는 판단 대상 영상의 원본 영상을 검출하는 360도 영상에서의 특징값을 이용한 원본 영상 검출 장치 및 그 방법을 제공하기 위한 것이다.An object of the present invention is to provide an apparatus and method for detecting an original image using feature values in a 360-degree image for detecting the original image of the corresponding judgment target image by analyzing the feature values extracted from the judgment target image. .

이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따른 360도 영상에서의 특징값을 이용한 원본 영상 검출 장치에 있어서, 360도 영상형태로 촬영된 판단 대상 영상을 입력받는 영상입력부, 상기 입력된 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 프레임을 복수개 추출하는 프레임 추출부, 상기 추출된 프레임을 ERP(Equi-Rectangular Projection) 타입으로 변환하는 프로젝션 타입 변환부, 상기 변환된 프레임으로부터 특징점을 추출하는 특징점 추출부, 그리고 원본 영상의 프레임에서 추출된 특징점과 상기 판단 대상 영상의 프레임에서 추출된 특징점을 비교하여 일치도를 산출하고, 상기 산출된 일치도를 이용하여 상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 영상 판단부를 포함한다. In the original image detection apparatus using a feature value in a 360-degree image according to an embodiment of the present invention for achieving this technical problem, an image input unit for receiving a judgment target image photographed in a 360-degree image form, the input judgment target A frame extraction unit that extracts a plurality of frames corresponding to the point in time at which a scene is changed through comparison of inter-frame RGB variation and feature information in an image, a projection type conversion unit that converts the extracted frames into an ERP (Equi-Rectangular Projection) type; a feature point extracting unit for extracting feature points from the converted frame, and comparing the feature points extracted from the frame of the original image with the feature points extracted from the frame of the judgment target image to calculate a degree of agreement, and using the calculated degree of agreement to calculate the match and an image determination unit that determines whether the image matches the image to be determined.

상기 원본 영상로부터 추출된 원본 프레임에 필터링 성능 평가 항목에 따라 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하는 프레임 변형부, 그리고 유클리디안 알고리즘을 이용하여 상기 원본 프레임에서 추출한 특징점과 복수의 변형 프레임에서 각각 추출한 특징점을 서로 매칭하여 동일하게 존재하는 기준 특징점을 추출하고, 상기 기준 특징점에 대한 정보와 원본 영상의 저작권 정보가 포함된 원본 데이터셋을 복수개의 원본 프레임별로 각각 생성하는 원본 데이터셋 생성부를 더 포함할 수 있다. A frame transforming unit that generates each transformed frame by applying a plurality of transforming attacks to the original frame extracted from the original image according to the filtering performance evaluation items, and a feature point extracted from the original frame using the Euclidean algorithm and a plurality of transforms Create an original dataset that matches each extracted feature point with each other to extract the same existing reference feature point, and creates an original dataset including information on the reference feature point and copyright information of the original image for each of a plurality of original frames It may include more wealth.

상기 복수의 변형 공격은, 로고 삽입, 자막 삽입, 영상 압축율 변환, 코덱 변환, 화면 비율 변환, 해상도 변환, 프레임 비율 감소, 회전, 반전, 흑백 변환, 밝기 변환, 대조 효과 변화, 투영법 변환, 모노 스코픽 크롭핑, 스테리오 스코픽 크롭핑 및 기본 시점 이동 중에서 적어도 하나를 포함할 수 있다. The plurality of transformation attacks include logo insertion, subtitle insertion, image compression ratio conversion, codec conversion, aspect ratio conversion, resolution conversion, frame rate reduction, rotation, inversion, black and white conversion, brightness conversion, contrast effect change, projection conversion, monoscopic It may include at least one of cropping, stereoscopic cropping, and basic view movement.

상기 프레임 추출부는, 상기 입력된 영상이 원본 영상이면, 장면이 변화되는 시점에 해당하는 원본 프레임을 연속적으로 복수개 추출하고, 상기 입력된 영상이 판단 대상 영상이면, 장면이 변화되는 시점에 해당하는 질의 프레임을 랜덤으로 설정된 개수만큼 추출할 수 있다. If the input image is the original image, the frame extractor sequentially extracts a plurality of original frames corresponding to the time point at which the scene is changed, and if the input image is the image to be determined, a query corresponding to the time point at which the scene is changed Frames can be extracted as many as a randomly set number.

상기 특징점 추출부는, ERP 타입으로 변환된 상기 원본 프레임, 변형 프레임 및 질의 프레임을 동일한 비율의 해상도로 다운샘플링하고, 상기 원본 프레임, 변형 프레임 및 질의 프레임의 중심으로부터 상하 45도에 해당하는 중앙 영역을 특징점 추출 영역으로 선정하며, 상기 선정된 특징점 추출 영역에 포함된 객체로부터 특징점을 추출할 수 있다. The feature point extraction unit down-samples the original frame, the modified frame, and the query frame converted to the ERP type at the same rate of resolution, and selects a central area corresponding to 45 degrees up and down from the center of the original frame, the modified frame, and the query frame. A feature point extraction region is selected, and a feature point can be extracted from an object included in the selected feature point extraction region.

상기 영상 판단부는, 유클리디안(Euclidean) 알고리즘을 이용하여 상기 저장된 복수개의 원본 데이터셋의 기준 특징점과 질의 프레임의 특징점을 각각 비교하여 일치도를 산출하고, 산출된 일치도에 따라 해당되는 질의 프레임에 가중치를 부여할 수 있다. The image determination unit, using a Euclidean algorithm, the reference feature points of the stored plurality of original datasets and A degree of agreement may be calculated by comparing feature points of the query frame, and a weight may be assigned to a corresponding query frame according to the calculated degree of agreement.

상기 영상 판단부는, 상기 일치도가 기준값 이상이면 1의 가중치를 부여하고, 일치도가 기준값보다 작으면 가중치를 0으로 부여하여 초기화할 수 있다. The image determining unit may initialize by assigning a weight of 1 when the degree of matching is equal to or greater than a reference value, and assigning a weight of 0 when the degree of matching is less than the reference value.

상기 영상 판단부는, 상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 연속적이면, 상기 판단 대상 영상과 원본 영상이 일치하는 것으로 판단하고, 상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 비연속적이면, 상기 판단 대상 영상이 변형된 것으로 최종 판단할 수 있다. The image determination unit may be configured to determine that, if the query frames weighted by 1 among the plurality of query frames are consecutive, the determination target image and the original image are identical, and a query weighted by 1 among the plurality of query frames If the frames are non-consecutive, it may be finally determined that the judgment target image is deformed.

또한, 본 발명의 실시예에 따른 원본 영상 검출 장치를 이용한 360도 영상에서의 원본 영상 검출 방법에 있어서, 360도 영상 형태로 촬영된 원본 영상으로부터 장면이 변화되는 시점에 해당하는 원본 프레임을 연속적으로 복수개 추출하고, 상기 추출된 각 원본 프레임에 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하고, 상기 각 원본 프레임에서 추출된 객체의 특징점과 상기 각 원본 프레임에 대응하는 복수의 변형 프레임으로부터 추출된 객체의 특징점에서 공통적으로 나타나는 기준 특징점을 추출한 다음, 상기 기준 특징점과 360도 영상의 저작권 정보가 포함된 원본 데이터셋을 복수개의 원본 프레임별로 데이터베이스에 저장하는 단계, 사용자로부터 판단 대상 영상을 입력받는 단계, 상기 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 질의 프레임을 추출하는 단계, 상기 추출된 질의 프레임을 ERP 타입으로 변환하는 단계, 상기 변환된 질의 프레임으로부터 특징점을 추출하는 단계, 그리고 상기 원본 데이터셋에 포함된 기준 특징점과 상기 질의 프레임에서 추출된 특징점을 비교하여 일치도를 산출하고, 상기 산출된 일치도를 이용하여 상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계를 포함한다. In addition, in the method for detecting an original image from a 360-degree image using the original image detection apparatus according to an embodiment of the present invention, the original frame corresponding to the time point at which the scene changes from the original image captured in the form of a 360-degree image is continuously generated. Extracting a plurality of frames, applying a plurality of transformation attacks to each of the extracted original frames to generate each transformed frame, extracted from the feature points of the object extracted from each original frame and a plurality of transformed frames corresponding to each of the original frames. After extracting the reference feature points that appear in common from the feature points of the object, storing the original dataset including the reference feature points and the copyright information of the 360-degree image in a database for each of a plurality of original frames, receiving a judgment target image from the user , extracting a query frame corresponding to a time point when a scene is changed by comparing the RGB variation between frames and feature information in the judgment target image, converting the extracted query frame to an ERP type, from the converted query frame extracting the feature points, and calculating the degree of agreement by comparing the reference feature points included in the original dataset with the feature points extracted from the query frame, and determining whether the original image matches the judgment target image using the calculated coincidence degree including judging.

이와 같이 본 발명에 따르면, 360도 영상저작물의 특징인 투영방법 및 재생 방법을 고려한 공격에 강인한 특징 추출 방법을 제공함으로써 식별 인식률을 개선할 수 있다. As described above, according to the present invention, it is possible to improve the identification recognition rate by providing a feature extraction method that is robust against attacks in consideration of the projection method and the reproduction method, which are characteristics of a 360-degree image work.

또한, 본 발명에 따르면, 2D 형태로 가공하는 공격 및 360도 영상의 형태로 가공하는 공격에 대하여 필터링하기 위한 특징 추출방법을 제공할 수 있으며, 360도 영상에서 영상의 기준이 되는 시점 정보를 변경하는 공격에 대해서도 필터링하기 위한 특징 추출 방법을 제공할 수 있다. In addition, according to the present invention, it is possible to provide a feature extraction method for filtering an attack processing in the form of a 2D image and an attack processing in the form of a 360-degree image, and changing the viewpoint information that is the standard of the image in the 360-degree image It is also possible to provide a feature extraction method for filtering attacks.

또한, 본 발명에 따르면, 미디어 특징 기반의 필터링 성능을 평가할 수 있는 항목에 따라 총 16가지의 변형 영상 프레임을 생성하고, 유클리디언 알고리즘을 이용하여 변형 영상 프레임에서 추출된 특징점의 차원을 감소시킴으로써, 필터링 하는데 소요되는 시간 및 복잡도를 낮추는 효과가 있다. In addition, according to the present invention, a total of 16 transformed image frames are generated according to the items that can evaluate the filtering performance based on media features, and the dimension of the feature points extracted from the transformed image frame is reduced by using the Euclidean algorithm. , it has the effect of reducing the time and complexity required for filtering.

도 1은 본 발명의 실시예에 따른 원본 영상 검출 장치를 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 원본 영상 검출 장치를 이용한 360도 영상에서의 원본 영상 검출 방법을 설명하기 위한 순서도이다.
도 3은 도 2에 도시된 S250단계를 설명하기 위한 순서도이다.
도 4는 도 3에 도시된 s251단계를 설명하기 위한 예시도이다.
도 5는 도 3에 도시된 S252단계를 설명하기 위한 예시도이다.
도 6은 도 2에 도시된 S270단계를 설명하기 위한 도면이다.
도 7은 도 2에 도시된 S300단계를 설명하기 위한 순서도이다.
1 is a block diagram illustrating an original image detection apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method of detecting an original image in a 360 degree image using the original image detecting apparatus according to an embodiment of the present invention.
FIG. 3 is a flowchart for explaining step S250 shown in FIG. 2 .
FIG. 4 is an exemplary diagram for explaining step s251 shown in FIG. 3 .
FIG. 5 is an exemplary diagram for explaining step S252 shown in FIG. 3 .
FIG. 6 is a view for explaining step S270 shown in FIG. 2 .
FIG. 7 is a flowchart for explaining step S300 shown in FIG. 2 .

이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In this process, the thickness of the lines or the size of the components shown in the drawings may be exaggerated for clarity and convenience of explanation.

또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the terms described below are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

이하에서는 도 1을 이용하여 본 발명의 실시예에 따른 원본 영상 검출 장치(100)에 대해 더욱 상세하게 설명한다. Hereinafter, the original image detection apparatus 100 according to an embodiment of the present invention will be described in more detail with reference to FIG. 1 .

도 1은 본 발명의 실시예에 따른 원본 영상 검출 장치를 설명하기 위한 구성도이다. 1 is a block diagram illustrating an original image detection apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 원본 영상 검출 장치(100)는 영상입력부(110), 프레임 추출부(120), 프로젝션 타입 변환부(130), 프레임 변형부(140), 특징점 추출부(150), 원본 데이터셋 생성부(160) 및 영상 판단부(170)을 포함한다. As shown in FIG. 1 , the original image detection apparatus 100 according to an embodiment of the present invention includes an image input unit 110 , a frame extraction unit 120 , a projection type conversion unit 130 , and a frame transformation unit 140 . , a feature point extraction unit 150 , an original data set generation unit 160 , and an image determination unit 170 .

먼저, 영상입력부(110)는 360도 영상형태로 촬영된 영상을 입력받는다. 여기서 영상은 원본 영상일 수도 있고 판단 대상 영상일 수도 있다. First, the image input unit 110 receives an image captured in the form of a 360-degree image. Here, the image may be an original image or a judgment target image.

그 다음, 프레임 추출부(120)는 원본 영상 또는 판단 대상 영상으로부터 프레임을 추출한다. 부연하자면, 프레임 추출부(120)는 원본 영상 또는 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 프레임을 복수개 추출한다. 이하에서는 원본 영상으로부터 추출된 프레임을 원본 프레임이라고 하고, 판단 대상 영상으로부터 추출된 프레임을 질의 프레임이라고 한다. Next, the frame extraction unit 120 extracts a frame from the original image or the judgment target image. In other words, the frame extraction unit 120 extracts a plurality of frames corresponding to the time point at which the scene changes from the original image or the judgment target image by comparing the RGB variation between frames and the characteristic information. Hereinafter, a frame extracted from the original image is referred to as an original frame, and a frame extracted from the judgment target image is referred to as a query frame.

프로젝션 타입 변환부(130)는 영상입력부(110)에 입력된 360도 영상의 프로젝션 타입을 판단하고, ERP(Equirectangular Projection) 타입의 영상으로 변환한다. The projection type conversion unit 130 determines the projection type of the 360-degree image input to the image input unit 110 , and converts it into an ERP (Equirectangular Projection) type image.

프레임 변형부(140)는 ERP 타입의 원본 프레임에 필터링 성능 평가 항목을 이용하여 변형 공격을 가하여 각각의 변형 프레임을 생성한다. 여기서 복수의 변형 공격은 로고 삽입, 자막 삽입, 영상 압축율 변환, 코덱 변환, 화면 비율 변환, 해상도 변환, 프레임 비율 감소, 회전, 반전, 흑백 변환, 밝기 변환, 대조 효과 변화, 투영법 변환, 모노 스코픽 크롭핑, 스테리오 스코픽 크롭핑 및 기본 시점 이동 중에서 적어도 하나를 포함한다. The frame transforming unit 140 applies a transform attack to the ERP type original frame by using the filtering performance evaluation item to generate each transformed frame. Here, multiple transformation attacks include logo insertion, subtitle insertion, image compression ratio conversion, codec conversion, aspect ratio conversion, resolution conversion, frame rate reduction, rotation, inversion, black and white conversion, brightness conversion, contrast effect change, projection conversion, monoscopic crop. It includes at least one of ping, stereoscopic cropping, and basic view movement.

특징점 추출부(150)는 프레임에 포함된 객체로부터 특징점을 추출한다. 부연하자면, 특징점 추출부(140)는 ERP 타입으로 변환된 원본 프레임, 질의 프레임 및 변형 프레임에서 특징점 추출 영역을 선정한다. 그 다음, 특징점 추출부(140)는 선정된 특징점 추출 영역에 포함된 객체로부터 특징점을 추출한다. The feature point extraction unit 150 extracts a feature point from an object included in the frame. In other words, the keypoint extraction unit 140 selects a keypoint extraction area from the original frame, the query frame, and the modified frame converted to the ERP type. Next, the keypoint extraction unit 140 extracts a keypoint from an object included in the selected keypoint extraction area.

원본 데이터셋 생성부(160)는 원본 프레임에서 추출된 특징점과 원본 프레임에 대응하는 복수개의 변형 프레임에서 추출된 특징점을 서로 매칭하여 동일하게 존재하는 기준 특징점을 추출한다. 그리고 원본 데이터셋 생성부(160)는 추출된 기준 특징점에 대한 정보와 원본 영상의 저작권 정보가 포함된 원본 데이터셋을 생성한다. 그 다음, 원본 데이터셋 생성부(160)는 복수개의 원본 프레임별로 생성된 원본 데이터셋을 데이터 베이스에 저장한다. The original dataset generator 160 extracts the same existing reference feature points by matching the feature points extracted from the original frame with the feature points extracted from a plurality of deformed frames corresponding to the original frame. In addition, the original dataset generating unit 160 generates an original dataset including information on the extracted reference feature points and copyright information of the original image. Next, the original dataset generating unit 160 stores the original dataset generated for each of the plurality of original frames in the database.

마지막으로 영상 판단부(170)는 판단 대상 영상과 원본 영상과의 일치 여부를 판단한다. 이를 다시 설명하면, 영상 판단부(170)는 판단 대상 영상의 질의 프레임으로부터 추출된 특징점을 복수의 원본 데이터셋에 포함된 기준 특징점과 각각 비교하여 일치도를 산출한다. 그리고, 영상 판단부(160)는 산출된 일치도를 이용하여 판단 대상 영상과 원본 영상의 일치 여부를 판단한다. Finally, the image determination unit 170 determines whether the determination target image matches the original image. In other words, the image determination unit 170 compares the feature points extracted from the query frame of the image to be judged with the reference feature points included in the plurality of original datasets, respectively, and calculates the degree of agreement. Then, the image determination unit 160 determines whether the determination target image and the original image match using the calculated degree of matching.

이하에서는 도 2 내지 도 6을 이용하여 본 발명의 실시예에 따른 원본 영상 검출 장치(100)를 이용한 360도 영상에서의 원본 영상 검출 방법에 대해 더욱 상세하게 설명한다.Hereinafter, a method of detecting an original image in a 360-degree image using the original image detecting apparatus 100 according to an embodiment of the present invention will be described in more detail with reference to FIGS. 2 to 6 .

도 2는 본 발명의 실시예에 따른 원본 영상 검출 장치를 이용한 360도 영상에서의 원본 영상 검출 방법을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a method of detecting an original image in a 360 degree image using the original image detecting apparatus according to an embodiment of the present invention.

본 발명의 실시예에 따른 360도 영상에서의 원본 영상 검출 방법은, 기준 특징점을 추출하는 단계와, 기준 특징점을 이용하여 판단 대상이 되는 영상에 대응하는 원본 영상을 검출하는 단계를 포함한다. 도 2에 도시된 바와 같이, 원본 데이터셋 생성 단계는 S210 내지 S260단계를 포함하고, 원본 영상을 검출하는 단계는 S270 내지 S300 단계를 포함한다. A method of detecting an original image from a 360-degree image according to an embodiment of the present invention includes extracting a reference feature point and detecting an original image corresponding to an image to be judged by using the reference feature point. As shown in FIG. 2 , the step of generating the original dataset includes steps S210 to S260, and the step of detecting the original image includes steps S270 to S300.

먼저, 영상입력부(110)는 360도 영상형태로 촬영된 원본 영상을 입력받는다(S210). First, the image input unit 110 receives an original image captured in the form of a 360-degree image (S210).

여기서 360도 영상은 다수의 카메라로 360도의 전 방향을 동시에 촬영한 후, 촬영된 영상들을 중복되거나 끊어짐 없이 하나의 카메라로 촬영한 것처럼 스티 칭(stitching)한 영상을 나타낸다. Here, the 360-degree image represents an image in which all 360-degree directions are simultaneously captured by multiple cameras, and then the captured images are stitched together as if they were captured by a single camera without overlapping or interruption.

따라서, 영상입력부(110)는 사용자로부터 편집이 완료된 360도의 원본 영상을 입력받는다. Accordingly, the image input unit 110 receives an original 360-degree edited image from the user.

그 다음, 프레임 추출부(120)는 입력된 원본 영상으로부터 복수개의 원본 프레임을 추출한다(S220). Then, the frame extraction unit 120 extracts a plurality of original frames from the input original image (S220).

부연하자면, 프레임 간 변화율이 클수록 다른 장면(scene)에 해당할 확률이 높으므로, 프레임 추출부(120)는 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 원본 프레임을 추출한다. 이때, 프레임 추출부(120)는 판단 대상 영상의 불법 복제 여부를 정확하게 판단하기 위해 장면이 바뀔 때 마다 각각의 원본 프레임을 추출한다. 그리고 추출되는 프레임은 연속성을 가진다. In other words, the higher the rate of change between frames, the higher the probability of corresponding to a different scene. Therefore, the frame extraction unit 120 extracts the original frame corresponding to the point at which the scene is changed by comparing the RGB change amount between frames and the characteristic information. do. In this case, the frame extraction unit 120 extracts each original frame whenever a scene is changed in order to accurately determine whether the image to be judged is illegally copied. And the extracted frames have continuity.

S220단계가 완료되면, 프로젝션 타입 변환부(130)는 추출된 복수의 원본 프레임을 ERP(Equirectangular Projection) 타입으로 변환한다(S230). When the step S220 is completed, the projection type conversion unit 130 converts the plurality of extracted original frames into an ERP (Equirectangular Projection) type (S230).

이를 다시 설명하면, 프로젝션 타입 변환부(130)는 영상입력부(110)로부터 입력된 360도 원본 영상의 프로젝션 타입을 판단한다. 판단 결과 입력된 원본 영상이 ERP(Equirectangular Projection) 타입이 아닌 경우, 프로젝션 타입 변환부(130)는 프레임 추출부(120)에서 추출된 복수개의 프레임을 ERP 타입으로 각각 변환한다.In other words, the projection type conversion unit 130 determines the projection type of the 360-degree original image input from the image input unit 110 . As a result of the determination, when the input original image is not an ERP (Equirectangular Projection) type, the projection type conversion unit 130 converts the plurality of frames extracted by the frame extraction unit 120 into the ERP type, respectively.

본 발명의 실시예에서는 ERP 타입의 영상을 기준으로 프레임을 추출하므로, 만약, 입력된 360도 영상이 CMP(cube-map projection) 타입이면 ERP 타입으로 변환하여 프레임을 추출하고, 어안렌즈(Fisheye) 타입이면 각 이미지를 스티칭 한 후 구형 좌표계를 이용하여 이미지를 변환한 후 ERP 타입으로 변환하여 프레임을 추출하는 것이 바람직하다.In the embodiment of the present invention, since frames are extracted based on the ERP type image, if the input 360-degree image is a CMP (cube-map projection) type, the frame is extracted by converting it to the ERP type, and a fisheye lens is used. If it is a type, after stitching each image, it is preferable to convert the image using the spherical coordinate system and then convert it to the ERP type to extract the frame.

그 다음, 프레임 변형부(140)는 ERP 타입으로 변환된 각 원본 프레임마다 16가지의 변형 공격을 가하여 총 16개의 프레임을 생성한다(S240). Then, the frame transforming unit 140 generates a total of 16 frames by applying 16 transforming attacks to each original frame converted to the ERP type (S240).

프레임 변형부(140)는 실감형 미디어 특징을 기반으로 하는 필터링 성능 평가 항목에 따라 변형 공격을 수행한다. The frame transforming unit 140 performs a transforming attack according to a filtering performance evaluation item based on immersive media features.

표 1에 기재된 바와 같이, 변형 공격은 16가지로 구성된다. As shown in Table 1, the transformation attack consists of 16 types.

Figure 112020129261300-pat00001
Figure 112020129261300-pat00001

변형 공격 항목 중에서 로고 삽입(logo Insert), 자막 삽입(Caption Insert), 영상 압축율 변환(Severe compression), 코덱 변환(Codec Change), 화면 비율 변환(Aspect ratio Change), 해상도 변환(Resolution Change), 프레임 비율 감소(Frame-rate reduction), 회전(Rotation), 반전(Flip), 흑백 변환(Color to monochrome conversion), 밝기 변환(Brightness Change) 및 대조 효과 변환(Contrast Change)은 종래의 2D 영상에서 필터링 성능 평가하기 위한 항목에 해당한다. Among the variant attack items, logo Insert, Caption Insert, Severe compression, Codec Change, Aspect ratio Change, Resolution Change, Frame Frame-rate reduction, Rotation, Flip, Color to monochrome conversion, Brightness Change, and Contrast Change provide filtering performance in conventional 2D images. It corresponds to the item for evaluation.

따라서, 본 발명에서는 12개의 필터링 성능 평가 항목 이외에 360도 영상에 적용 가능한 4가지의 필터링 성능 평가 항목을 추가적으로 적용한다. Therefore, in the present invention, in addition to the 12 filtering performance evaluation items, four filtering performance evaluation items applicable to a 360-degree image are additionally applied.

이를 더욱 상세하게 설명하면, 먼저 투영법 변환(Projection conversion)은 투영 방식인 등방형, 등직각 투영법(Equirectangular Projection)과 큐브 맵 투영법(Cube Map Projection)의 상호변환 과정에서 발생할 수 있는 공격을 필터링하기 위한 공격 방법이다. To explain this in more detail, first, the projection conversion is used to filter attacks that may occur during the interconversion process between the projection method isotropic, Equirectangular Projection, and Cube Map Projection. attack method.

그리고 모노 스코픽 크롭핑(Monoscopic Cropping)은 360도 영상의 일부분을 녹화하여 2D 형태로 가공하는 공격에 대하여 필터링하기 위한 공격 방법이다.And monoscopic cropping (Monoscopic Cropping) is an attack method for filtering against an attack of recording a part of a 360-degree image and processing it in a 2D form.

그리고 스테리오 스코픽 크롭핑(Stereoscopic Cropping)은 360도 영상의 일부분을 녹화하여 360도 영상의 형태로 가공하는 공격에 대하여 필터링하기 위한 공격 방법이다.And stereoscopic cropping (Stereoscopic Cropping) is an attack method for filtering against an attack that records a part of a 360-degree image and processes it in the form of a 360-degree image.

마지막으로 기본 시점 이동(Move the base point)은 360도 영상에서 영상의 기준이 되는 시점 정보를 변경하는 공격에 대하여 필터링하기 위한 공격 방법이다.Lastly, move the base point is an attack method for filtering attacks that change viewpoint information that is a reference point of an image in a 360-degree image.

즉, 프레임 변형부(140)는 각 원본 프레임에 16가지의 변형 공격을 가하여 16개의 변형 프레임을 생성한다. That is, the frame transforming unit 140 generates 16 transformed frames by applying 16 transforming attacks to each original frame.

그 다음, 특징점 추출부(150)는 원본 프레임과 16개의 변형 프레임으로부터 각각의 특징점을 추출한다(S250).Next, the feature point extraction unit 150 extracts each feature point from the original frame and 16 modified frames (S250).

이하에서는 도 3을 이용하여 S250단계에 대해 더욱 상세하게 설명한다. Hereinafter, step S250 will be described in more detail with reference to FIG. 3 .

도 3은 도 2에 도시된 S250단계를 설명하기 위한 순서도이다. FIG. 3 is a flowchart for explaining step S250 shown in FIG. 2 .

도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 특징점 추출부(150)는 원본 프레임과 16개의 변형 프레임을 다운 샘플링한다(S251). As shown in FIG. 3 , the feature extraction unit 150 according to an embodiment of the present invention down-samples an original frame and 16 modified frames ( S251 ).

도 4는 도 3에 도시된 s251단계를 설명하기 위한 예시도이다. FIG. 4 is an exemplary diagram for explaining step s251 shown in FIG. 3 .

도 4에 도시된 바와 같이, 특징점 추출부(150)는 특징점 추출 속도와 특징 정보의 수를 축소하기 위하여 원본 프레임 및 16개의 변형 프레임을 동일한 비율의 해상도로 다운 샘플링하여 인식률을 향상시킨다. As shown in FIG. 4 , the keypoint extraction unit 150 improves the recognition rate by down-sampling the original frame and 16 modified frames at the same rate of resolution in order to reduce the keypoint extraction speed and the number of characteristic information.

그 다음, 특징점 추출부(150)는 다운 샘플링된 원본 프레임 및 16개의 변형 프레임에서 특징 추출 영역을 선정한다(S252).Next, the feature extraction unit 150 selects a feature extraction region from the down-sampled original frame and 16 modified frames (S252).

도 5는 도 3에 도시된 S252단계를 설명하기 위한 예시도이다. FIG. 5 is an exemplary diagram for explaining step S252 shown in FIG. 3 .

도 5에 도시된 바와 같이, 구형상(sphere)인 프레임을 ERP 타입을 적용하여 평면 형상으로 펼치게 되면 프레임의 상단과 하단에 왜곡이 크게 발생된다. 따라서, 특징점 추출부(150)는 왜곡이 가장 작고 가장 많은 정보가 집중되는 중앙 영역을 특징 추출 영역으로 선정한다. 즉, 특징점 추출부(150)는 프레임의 중심에서 상하 45도에 해당하는 영역을 특징 추출 영역으로 선정한다As shown in FIG. 5 , when a sphere-shaped frame is spread in a planar shape by applying the ERP type, large distortion occurs at the upper and lower portions of the frame. Accordingly, the feature extraction unit 150 selects the central region in which the distortion is smallest and the most information is concentrated as the feature extraction region. That is, the feature point extraction unit 150 selects an area corresponding to 45 degrees up and down from the center of the frame as the feature extraction area.

그 다음, 특징점 추출부(150)는 선정된 특징 추출 영역에서 객체를 추출하고, 추출된 객체로부터 특징점을 획득한다(S253).Next, the feature point extraction unit 150 extracts an object from the selected feature extraction area, and acquires a feature point from the extracted object (S253).

특징점 추출부(150)는 선정된 특징 추출 영역에 포함된 객체를 추출하고, 추출된 객체 이외의 배경을 제거한다. 그 다음, 특징점 추출부(150)는 객체로부터 특징점을 추출한다. The feature point extraction unit 150 extracts an object included in the selected feature extraction area, and removes a background other than the extracted object. Next, the feature point extraction unit 150 extracts a feature point from the object.

S250단계가 완료되면, 원본 데이터셋 생성부(160)는 원본 프레임의 객체에서 추출된 특징점과 16개의 변형 프레임의 객체에서 각각 추출된 특징점을 매칭하여 기준 특징점을 추출하고, 추출된 기준 특징점을 이용하여 원본 데이터셋을 생성한다(S260).When step S250 is completed, the original dataset generating unit 160 extracts the reference feature points by matching the feature points extracted from the object of the original frame with the feature points extracted from the objects of 16 modified frames, and uses the extracted reference feature points to create an original dataset (S260).

이를 다시 설명하면, 원본 데이터셋 생성부(160)는 원본 프레임에서 추출된 특징점과 16개의 변형 프레임에서 추출된 각각의 특징점을 비교하여 매칭되는 특징 정보만을 선별한다. In other words, the original data set generator 160 selects only matching feature information by comparing the feature points extracted from the original frame with each feature point extracted from 16 modified frames.

그 다음, 원본 데이터셋 생성부(160)는 선별된 특징정보에 유클리디안(Euclidean) 알고리즘을 적용하여 원본 프레임과 16개의 변형 프레임에서 동일하게 존재하는 특징점을 기준 특징점으로 추출한다. Next, the original data set generator 160 applies the Euclidean algorithm to the selected feature information to extract feature points that are identically present in the original frame and the 16 modified frames as reference feature points.

그리고 원본 데이터셋 생성부(160)는 추출된 기준 특징점과 원본 영상의 저작권 정보를 포함하는 원본 데이터셋을 생성한다. 원본 데이터셋은 원본 영상에서 추출된 원본 프레임의 개수만큼 반복하여 생성된다. 그리고, 원본 데이터셋 생성부(160)는 생성된 원본 데이터셋을 데이터베이스에 저장한다. In addition, the original dataset generating unit 160 generates an original dataset including the extracted reference feature points and copyright information of the original image. The original dataset is repeatedly generated as many as the number of original frames extracted from the original image. Then, the original data set generating unit 160 stores the generated original data set in the database.

원본 데이터셋의 생성이 완료되면, 영상입력부(110)는 사용자로부터 판단 대상 영상을 입력받고, 입력된 판단 대상 영상으로부터 5개의 질의 프레임을 추출한다(S270).When the creation of the original dataset is completed, the image input unit 110 receives a judgment target image from the user and extracts five query frames from the input judgment target image (S270).

도 6은 도 2에 도시된 S270단계를 설명하기 위한 도면이다. FIG. 6 is a view for explaining step S270 shown in FIG. 2 .

먼저, 프레임 추출부(120)는 판단 대상 영상의 인트로(intro)부분인 전반부를 대략 20초 정도 잘라낸다.First, the frame extractor 120 cuts the first half of the image to be judged, which is an intro part, for about 20 seconds.

그 다음, 도 6에 도시된 바와 같이, 프레임 추출부(120)는 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 프레임을 질의 프레임으로 추출한다. 그리고 프레임 추출부(120)는 판단 대상 영상의 총 미디어 길이에서 랜덤으로 "a", "b", "c", "d", "e"의 질의 프레임을 추출한다. Next, as shown in FIG. 6 , the frame extraction unit 120 extracts a frame corresponding to a time point at which a scene is changed as a query frame by comparing the RGB change amount and feature information. In addition, the frame extraction unit 120 randomly extracts query frames of “a”, “b”, “c”, “d”, and “e” from the total media length of the image to be judged.

본 발명에서는 오류 확률을 줄이기 위하여 총 5개의 질의 프레임을 추출하였으나, 이에 한정하지 않고, 질의 프레임의 개수를 5개보다 많거나 적게 추출할 수도 있다. In the present invention, a total of five query frames are extracted to reduce the error probability, but the present invention is not limited thereto, and more or less than five query frames may be extracted.

S270 단계가 완료되면, 프로젝션 타입 변환부(130)는 추출된 질의 프레임을 ERP 타입으로 변환한다(S280).When step S270 is completed, the projection type conversion unit 130 converts the extracted query frame into an ERP type (S280).

이를 다시 설명하면, 프로젝션 타입 변환부(130)는 영상입력부(110)로부터 입력된 판단 대상 영상의 프로젝션 타입을 판단한다. 판단 결과 입력된 판단 대상 영상이 ERP(Equirectangular Projection) 타입이 아닌 경우, 프로젝션 타입 변환부(130)는 프레임 추출부(120)에서 추출된 복수개의 프레임을 ERP 타입으로 각각 변환한다.In other words, the projection type conversion unit 130 determines the projection type of the determination target image input from the image input unit 110 . As a result of the determination, when the input determination target image is not an ERP (Equirectangular Projection) type, the projection type conversion unit 130 converts the plurality of frames extracted by the frame extraction unit 120 into the ERP type, respectively.

그 다음, 특징점 추출부(150)는 5개의 질의 프레임에서 특징점을 추출한다(S290).Next, the keypoint extraction unit 150 extracts keypoints from five query frames (S290).

특징점 추출부(150)는 S250 단계와 동일한 방법으로 5개의 질의 프레임에서 특징점을 추출한다. 부연자하면, 특징점 추출부(150)는 5개의 질의 프레임을 다운 샘플링한 다음, 질의 프레임의 중앙 영역을 특징 추출 영역으로 선정한다. 그리고, 특징점 추출부(150)는 선정된 특징 추출 영역에 포함된 객체로부터 특징점을 추출한다. The keypoint extraction unit 150 extracts keypoints from five query frames in the same way as in step S250 . In other words, the feature extraction unit 150 down-samples five query frames, and then selects a central region of the query frame as the feature extraction region. Then, the feature point extraction unit 150 extracts a feature point from an object included in the selected feature extraction area.

특징점 추출이 완료되면, 영상 판단부(170)는 데이터베이스에 저장된 원본 데이터셋을 전달받는다. 그리고 영상 판단부(170)는 원본 데이터셋의 기준 특징점과 5개의 질의 프레임의 특징점을 각각 비교하여 판단 대상 영상과 원본 영상의 일치 여부를 판단한다(S300).When the feature point extraction is completed, the image determination unit 170 receives the original dataset stored in the database. Then, the image determination unit 170 compares the reference feature points of the original dataset with the feature points of the five query frames to determine whether the judgment target image matches the original image (S300).

이하에서는 도 7을 이용하여 도 2에 도시된 S300단계에 대해 더욱 상세하게 설명한다. Hereinafter, the step S300 shown in FIG. 2 will be described in more detail with reference to FIG. 7 .

도 7은 도 2에 도시된 S300단계를 설명하기 위한 순서도이다. FIG. 7 is a flowchart for explaining step S300 shown in FIG. 2 .

도 7에 도시된 바와 같이, 영상판단부(170)는 복수의 원본 데이터셋을 전달받는다(S301). As shown in FIG. 7 , the image determination unit 170 receives a plurality of original data sets ( S301 ).

영상판단부(170)는 데이터베이스에 기 저장된 복수의 원본 데이터셋을 수신한다. 예를 들어 원본 영상으로부터 50개의 원본 프레임을 추출하였다고 가정하면, 영상판단부(170)는 50개의 원본 데이터셋을 수신받는다. The image determination unit 170 receives a plurality of original data sets pre-stored in the database. For example, assuming that 50 original frames are extracted from the original image, the image determining unit 170 receives 50 original datasets.

그 다음 영상 판단부(170)는 50개의 원본 데이터셋에 포함된 각각의 기준 특징점과 5개의 질의 프레임으로부터 추출된 특징점을 각각 비교하여 유사도를 산출한다(S302).Next, the image determination unit 170 compares each reference feature point included in the 50 original datasets with the feature points extracted from five query frames to calculate a similarity (S302).

즉, 영상판단부(170)는 유클리디안(Euclidean) 알고리즘을 이용하여 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "a"프레임의 특징점을 비교하여 유사도를 산출하고, 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "b"프레임의 특징점을 비교하여 유사도를 산출한다. 또한, 영상판단부(170)는 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "c"프레임의 특징점을 비교하여 유사도를 산출하고, 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "d"프레임의 특징점을 비교하여 유사도를 산출하며, 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "e"프레임의 특징점을 비교하여 유사도를 산출한다. That is, the image determination unit 170 compares the reference feature points included in the first original dataset with the feature points of the “a” frame using the Euclidean algorithm to calculate the similarity, and to the first original dataset. A similarity is calculated by comparing the included reference feature points with the feature points of the “b” frame. In addition, the image determining unit 170 compares the reference feature points included in the first original dataset with the feature points of the “c” frame to calculate the similarity, and compares the reference feature points included in the first original dataset with the reference feature points included in the first original dataset and the “d” frame. The similarity is calculated by comparing the feature points, and the similarity is calculated by comparing the reference feature points included in the first original dataset with the feature points of the “e” frame.

그 다음, 영상판단부(170)는 두 번째 원본 데이터셋에 포함된 기준 특징점과 "a"프레임의 특징점을 비교하여 유사도를 산출하고, 두 번째 원본 데이터셋에 포함된 기준 특징점과 "b"프레임의 특징점을 비교하여 유사도를 산출한다. 또한, 영상판단부(170)는 두 번째 원본 데이터셋에 포함된 기준 특징점과 "c"프레임의 특징점을 비교하여 유사도를 산출하고, 두 번째 원본 데이터셋에 포함된 기준 특징점과 "d"프레임의 특징점을 비교하여 유사도를 산출하며, 두 번째 원본 데이터셋에 포함된 기준 특징점과 "e"프레임의 특징점을 비교하여 유사도를 산출한다. Next, the image determining unit 170 calculates similarity by comparing the reference feature points included in the second original dataset with the feature points of the “a” frame, and compares the reference feature points included in the second original dataset with the reference feature points included in the second original dataset and the “b” frame. The similarity is calculated by comparing the feature points of . In addition, the image determining unit 170 calculates a similarity by comparing the reference feature points included in the second original dataset with the feature points of the “c” frame, and compares the reference feature points included in the second original dataset with the reference feature points included in the second original dataset and the “d” frame. The similarity is calculated by comparing the feature points, and the similarity is calculated by comparing the reference feature points included in the second original dataset with the feature points of the “e” frame.

상기와 같은 방법으로 50번째 원본 데이터셋까지 반복 수행하여 유사도를 산출한다. The similarity is calculated by iteratively performing until the 50th original dataset in the same way as above.

S302단계가 완료되면, 영상판단부(170)는 산출된 유사도에 가중치를 부여한다(S303).When step S302 is completed, the image determination unit 170 assigns a weight to the calculated similarity (S303).

영상판단부(170)는 산출된 유사도가 80% 이상이면 1의 가중치를 부여하고, 산출된 유사도가 80% 미만이면 0의 가중치를 부여한다. The image determining unit 170 assigns a weight of 1 if the calculated similarity is 80% or more, and gives a weight of 0 if the calculated similarity is less than 80%.

예를 들어, 첫번째 원본 데이터셋의 포함된 기준 특징점과 "a"프레임의 특징점을 비교하여 80%의 유사도를 획득하였다고 가정하면, 영상판단부(170)는 "a"프레임에 가중치 1을 부여한다. For example, assuming that 80% similarity is obtained by comparing the reference feature points included in the first original dataset with the feature points of the “a” frame, the image determining unit 170 assigns a weight of 1 to the “a” frame .

그 다음, 영상판단부(170)는 원본 데이터셋에 대응하는 5개의 질의 프레임에 각각 부여된 가중치를 이용하여 판단 대상 영상과 원본 영상의 일치 여부를 판단한다(S304)Next, the image determination unit 170 determines whether the judgment target image matches the original image by using the weights assigned to each of the five query frames corresponding to the original dataset (S304).

이를 다시 설명하면, 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 3개 이상 연속적이면, 영상판단부(170)는 판단 대상 영상과 원본 영상이 일치하는 것으로 판단한다. In other words, if three or more query frames given a weight of 1 among the plurality of query frames are consecutive, the image determination unit 170 determines that the judgment target image matches the original image.

반면에 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 비연속적이면, 영상판단부(170)는 판단 대상 영상이 변형된 것으로 최종 판단한다. On the other hand, if the query frames given the weight of 1 among the plurality of query frames are non-consecutive, the image determination unit 170 finally determines that the determination target image is deformed.

예를 들어, 첫 번째 원본 데이터셋에 대응하여 "a" 질의 프레임, "c" 질의 프레임, "d" 질의 프레임 및 "e"질의 프레임의 가중치는 1이고, "b" 질의 프레임의 가중치는 0이라고 가정한다. 그러면, 1의 가중치를 부여받은 질의 프레임의 개수가 3개 이상이고, "c", "d", "e"의 질의 프레임이 연속적이므로 영상판단부(170)는 판단 대상 영상과 원본 영상이 일치하는 것으로 판단한다. For example, corresponding to the first original dataset, query frame "a", query frame "c", query frame "d", and query frame "e" have a weight of 1, and query frame "b" has a weight of 0. Assume that Then, since the number of query frames weighted by 1 is three or more, and the query frames of “c”, “d”, and “e” are continuous, the image determination unit 170 determines that the judgment target image matches the original image. judge to do

또한, "a" 질의 프레임, "b" 질의 프레임, "d" 질의 프레임 및 "e"질의 프레임의 가중치는 1이고, "c" 질의 프레임의 가중치는 0이라고 가정한다. 따라서, 1의 가중치를 부여받은 질의 프레임의 개수가 3개 이상인 조건에는 충족하지만 가중치를 부여받은 질의 프레임이 비연속적이므로, 영상판단부(170)는 판단 대상 영상이 변형된 것으로 최종 판단한다.Also, it is assumed that the weight of the query frame "a", the query frame "b", the query frame "d" and the query frame "e" is 1, and the weight of the query frame "c" is 0. Therefore, although the condition that the number of query frames weighted by 1 is 3 or more is satisfied, the weighted query frames are non-consecutive, so the image determination unit 170 finally determines that the determination target image is deformed.

이와 같이 본 발명에 따른 원본 영상 검출 장치는 360도 영상저작물의 특징인 투영방법 및 재생 방법을 고려한 공격에 강인한 특징 추출 방법을 제공함으로써 식별 인식률을 개선할 수 있다. As described above, the original image detection apparatus according to the present invention can improve the identification recognition rate by providing a feature extraction method that is robust against attacks in consideration of the projection method and the reproduction method, which are characteristics of a 360-degree image work.

또한, 본 발명에 따른 원본 영상 검출 장치는 2D 형태로 가공하는 공격 및 360도 영상의 형태로 가공하는 공격에 대하여 필터링하기 위한 특징 추출방법을 제공할 수 있으며, 360도 영상에서 영상의 기준이 되는 시점 정보를 변경하는 공격에 대해서도 필터링하기 위한 특징 추출 방법을 제공할 수 있다. In addition, the original image detection device according to the present invention can provide a feature extraction method for filtering an attack processing in the form of a 2D image and an attack processing in the form of a 360-degree image. It is also possible to provide a feature extraction method for filtering attacks that change viewpoint information.

또한, 본 발명에 따른 원본 영상 검출 장치는 미디어 특징 기반의 필터링 성능을 평가할 수 있는 항목에 따라 총 16가지의 변형 영상 프레임을 생성하고, 유클리디언 알고리즘을 이용하여 변형 영상 프레임에서 추출된 특징점의 차원을 감소시킴으로써, 필터링 하는데 소요되는 시간 및 복잡도를 낮추는 효과가 있다. In addition, the original image detection apparatus according to the present invention generates a total of 16 types of modified image frames according to the items that can evaluate the filtering performance based on media features, and uses the Euclidean algorithm to determine the feature points extracted from the modified image frames. By reducing the dimension, there is an effect of reducing the time and complexity required for filtering.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiment shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. will be. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the following claims.

100 : 원본 영상 검출 장치
110 : 영상입력부
120 : 프레임 추출부
130 : 프로젝션 타입 변환부
140 : 프레임 변형부
150 : 특징점 추출부
160 : 원본 데이터셋 생성부
170 : 영상 판단부
100: original image detection device
110: video input unit
120: frame extraction unit
130: projection type conversion unit
140: frame deformation part
150: feature point extraction unit
160: original data set generation unit
170: image judgment unit

Claims (16)

360도 영상에서의 특징값을 이용한 원본 영상 검출 장치에 있어서,
360도 영상형태로 촬영된 판단 대상 영상을 입력받는 영상입력부,
상기 입력된 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 프레임을 복수개 추출하는 프레임 추출부,
상기 추출된 프레임을 ERP(Equi-Rectangular Projection) 타입으로 변환하는 프로젝션 타입 변환부,
상기 변환된 프레임으로부터 특징점을 추출하는 특징점 추출부,
원본 영상의 프레임에서 추출된 특징점과 상기 판단 대상 영상의 프레임에서 추출된 특징점을 비교하여 일치도를 산출하고, 상기 산출된 일치도를 이용하여 상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 영상 판단부를 포함하며,
상기 원본 영상로부터 추출된 원본 프레임에 필터링 성능 평가 항목에 따라 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하는 프레임 변형부, 그리고
유클리디안 알고리즘을 이용하여 상기 원본 프레임에서 추출한 특징점과 복수의 변형 프레임에서 각각 추출한 특징점을 서로 매칭하여 동일하게 존재하는 기준 특징점을 추출하고, 상기 기준 특징점에 대한 정보와 원본 영상의 저작권 정보가 포함된 원본 데이터셋을 복수개의 원본 프레임별로 각각 생성하는 원본 데이터셋 생성부를 포함하며,
상기 영상 판단부는,
유클리디안(Euclidean) 알고리즘을 이용하여 상기 생성된 복수개의 원본 데이터셋의 기준 특징점과 질의 프레임의 특징점을 각각 비교하여 일치도를 산출하고, 산출된 일치도에 따라 해당되는 질의 프레임에 가중치를 부여하는 원본 영상 검출 장치.
In the original image detection apparatus using a feature value in a 360 degree image,
An image input unit for receiving an image to be judged, which is taken in the form of a 360-degree image,
a frame extracting unit for extracting a plurality of frames corresponding to the time point at which a scene is changed through comparison of the inter-frame RGB change amount and feature information from the input judgment target image;
A projection type conversion unit that converts the extracted frame into an ERP (Equi-Rectangular Projection) type,
a feature point extraction unit for extracting feature points from the converted frame;
An image determination unit that compares the feature points extracted from the frame of the original image with the feature points extracted from the frame of the judgment target image to calculate a degree of agreement, and determines whether the original image matches the judgment target image using the calculated degree of agreement includes,
a frame transforming unit for generating each transformed frame by applying a plurality of transforming attacks to the original frame extracted from the original image according to the filtering performance evaluation item; and
By using the Euclidean algorithm, the feature points extracted from the original frame and the feature points extracted from a plurality of modified frames are matched with each other to extract the same reference feature points, and information about the reference feature points and copyright information of the original image are included. Includes an original dataset generator that generates the original dataset for each of a plurality of original frames,
The image determination unit,
An original that compares the reference feature points of the generated plurality of original datasets with the feature points of the query frame using the Euclidean algorithm to calculate the degree of agreement, and weights the corresponding query frame according to the calculated degree of agreement image detection device.
삭제delete 제1항에 있어서,
상기 복수의 변형 공격은,
로고 삽입, 자막 삽입, 영상 압축율 변환, 코덱 변환, 화면 비율 변환, 해상도 변환, 프레임 비율 감소, 회전, 반전, 흑백 변환, 밝기 변환, 대조 효과 변화, 투영법 변환, 모노 스코픽 크롭핑, 스테리오 스코픽 크롭핑 및 기본 시점 이동 중에서 적어도 하나를 포함하는 원본 영상 검출 장치.
According to claim 1,
The plurality of transformation attacks are
Logo Insertion, Subtitle Insertion, Video Compression Rate Conversion, Codec Conversion, Aspect Ratio Conversion, Resolution Conversion, Frame Rate Reduction, Rotation, Invert, B&W Conversion, Brightness Conversion, Contrast Effect Conversion, Projection Conversion, Monoscopic Cropping, Stereoscopic Crop An original image detection apparatus comprising at least one of a ping and a basic viewpoint movement.
제1항에 있어서,
상기 프레임 추출부는,
상기 입력된 영상이 원본 영상이면, 장면이 변화되는 시점에 해당하는 원본 프레임을 연속적으로 복수개 추출하고,
상기 입력된 영상이 판단 대상 영상이면, 장면이 변화되는 시점에 해당하는 질의 프레임을 랜덤으로 설정된 개수만큼 추출하는 원본 영상 검출 장치.
According to claim 1,
The frame extraction unit,
If the input image is an original image, sequentially extracting a plurality of original frames corresponding to the time when the scene is changed,
If the input image is the image to be determined, the original image detection apparatus for extracting a randomly set number of query frames corresponding to the time when the scene is changed.
제1항에 있어서,
상기 특징점 추출부는,
ERP 타입으로 변환된 상기 원본 프레임, 변형 프레임 및 질의 프레임을 동일한 비율의 해상도로 다운샘플링하고, 상기 원본 프레임, 변형 프레임 및 질의 프레임의 중심으로부터 상하 45도에 해당하는 중앙 영역을 특징점 추출 영역으로 선정하며,
상기 선정된 특징점 추출 영역에 포함된 객체로부터 특징점을 추출하는 원본 영상 검출 장치.
According to claim 1,
The feature point extraction unit,
The original frame, the modified frame, and the query frame converted to the ERP type are down-sampled at the same rate of resolution, and the central area corresponding to 45 degrees up and down from the center of the original frame, the modified frame and the query frame is selected as the feature point extraction area. and
An original image detection apparatus for extracting a feature point from an object included in the selected feature point extraction area.
삭제delete 제1항에 있어서,
상기 영상 판단부는,
상기 일치도가 기준값 이상이면 1의 가중치를 부여하고, 일치도가 기준값보다 작으면 가중치를 0으로 부여하여 초기화하는 원본 영상 검출 장치.
According to claim 1,
The image determination unit,
The original image detection apparatus initializes by assigning a weight of 1 when the degree of agreement is greater than or equal to a reference value, and assigning a weight of 0 when the degree of agreement is less than the reference value.
제7항에 있어서,
상기 영상 판단부는,
상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 연속적이면, 상기 판단 대상 영상과 원본 영상이 일치하는 것으로 판단하고, 상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 비연속적이면, 상기 판단 대상 영상이 변형된 것으로 최종 판단하는 원본 영상 검출 장치.
8. The method of claim 7,
The image determination unit,
If the query frames given a weight of 1 among the plurality of query frames are continuous, it is determined that the judgment target image and the original image match, and among the plurality of query frames, if the query frames given a weight of 1 are non-consecutive , an original image detection apparatus that finally determines that the determination target image is deformed.
원본 영상 검출 장치를 이용한 360도 영상에서의 원본 영상 검출 방법에 있어서,
360도 영상 형태로 촬영된 원본 영상으로부터 장면이 변화되는 시점에 해당하는 원본 프레임을 연속적으로 복수개 추출하고, 상기 추출된 각 원본 프레임에 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하고, 상기 각 원본 프레임에서 추출된 객체의 특징점과 상기 각 원본 프레임에 대응하는 복수의 변형 프레임으로부터 추출된 객체의 특징점에서 공통적으로 나타나는 기준 특징점을 추출한 다음, 상기 기준 특징점과 360도 영상의 저작권 정보가 포함된 원본 데이터셋을 복수개의 원본 프레임별로 데이터베이스에 저장하는 단계,
사용자로부터 판단 대상 영상을 입력받는 단계,
상기 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 질의 프레임을 추출하는 단계,
상기 추출된 질의 프레임을 ERP 타입으로 변환하는 단계,
상기 변환된 질의 프레임으로부터 특징점을 추출하는 단계, 그리고
상기 원본 데이터셋에 포함된 기준 특징점과 상기 질의 프레임에서 추출된 특징점을 비교하여 일치도를 산출하고, 상기 산출된 일치도를 이용하여 상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계를 포함하며,
원본 데이터셋을 복수개의 원본 프레임별로 생성하여 저장하는 단계는,
상기 원본 영상로부터 추출된 원본 프레임에 필터링 성능 평가 항목에 따라 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하고,
유클리디안 알고리즘을 이용하여 상기 원본 프레임에서 추출한 특징점과 복수의 변형 프레임에서 각각 추출한 특징점을 서로 매칭하여 동일하게 존재하는 특징점을 기준 특징점으로 확정하며,
상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계는,
유클리디안(Euclidean) 알고리즘을 이용하여 상기 저장된 복수개의 원본 데이터셋의 기준 특징점과 질의 프레임의 특징점을 각각 비교하여 일치도를 산출하고, 산출된 일치도에 따라 해당되는 질의 프레임에 가중치를 부여하는 원본 영상 검출 방법.
In the original image detection method in a 360 degree image using the original image detection device,
A plurality of original frames corresponding to a scene change point are successively extracted from an original image taken in the form of a 360-degree image, and a plurality of transformation attacks are applied to each of the extracted original frames to generate each transformed frame, After extracting a reference feature point that appears in common in the feature point of the object extracted from the original frame and the feature point of the object extracted from a plurality of modified frames corresponding to each of the original frame, the reference feature point and the copyright information of the 360-degree image are extracted Storing the dataset in a database for each of a plurality of original frames;
receiving a judgment target image from a user;
extracting a query frame corresponding to a time point at which a scene is changed by comparing the RGB variation between frames and feature information in the judgment target image;
converting the extracted query frame into an ERP type;
extracting feature points from the transformed query frame; and
Comparing the reference feature points included in the original dataset with the feature points extracted from the query frame to calculate a degree of agreement, and using the calculated degree of agreement to determine whether the original image matches the judgment target image,
The step of creating and saving the original dataset for each of a plurality of original frames is:
Applying a plurality of deformation attacks to the original frame extracted from the original image according to the filtering performance evaluation item to generate each modified frame,
By using the Euclidean algorithm, the feature points extracted from the original frame and the feature points extracted from a plurality of modified frames are matched with each other to determine the same existing feature points as the reference feature points,
The step of determining whether the original image and the judgment target image match,
The original image in which the degree of agreement is calculated by comparing the reference feature points of the plurality of stored original datasets with the feature points of the query frame using the Euclidean algorithm, and weight is given to the query frame according to the calculated degree of agreement detection method.
삭제delete 제9항에 있어서,
상기 복수의 변형 공격은,
로고 삽입, 자막 삽입, 영상 압축율 변환, 코덱 변환, 화면 비율 변환, 해상도 변환, 프레임 비율 감소, 회전, 반전, 흑백 변환, 밝기 변환, 대조 효과 변화, 투영법 변환, 모노 스코픽 크롭핑, 스테리오 스코픽 크롭핑 및 기본 시점 이동 중에서 적어도 하나를 포함하는 원본 영상 검출 방법.
10. The method of claim 9,
The plurality of transformation attacks are
Logo Insertion, Subtitle Insertion, Video Compression Rate Conversion, Codec Conversion, Aspect Ratio Conversion, Resolution Conversion, Frame Rate Reduction, Rotation, Invert, B&W Conversion, Brightness Conversion, Contrast Effect Conversion, Projection Conversion, Monoscopic Cropping, Stereoscopic Crop An original image detection method comprising at least one of ping and basic viewpoint movement.
제9항에 있어서,
상기 질의 프레임을 추출하는 단계는,
장면이 변화되는 시점에 해당하는 질의 프레임을 랜덤으로 설정된 개수만큼 추출하는 원본 영상 검출 방법.
10. The method of claim 9,
Extracting the query frame comprises:
An original image detection method that extracts a randomly set number of query frames corresponding to a scene change point.
제9항에 있어서,
상기 특징점을 추출하는 단계는,
ERP 타입으로 변환된 상기 질의 프레임을 동일한 비율의 해상도로 다운샘플링하고, 상기 질의 프레임의 중심으로부터 상하 45도에 해당하는 중앙 영역을 특징점 추출 영역으로 선정하며,
상기 선정된 특징점 추출 영역에 포함된 객체로부터 특징점을 추출하는 원본 영상 검출 방법.
10. The method of claim 9,
The step of extracting the feature point,
Downsampling the query frame converted to the ERP type at the same rate of resolution, and selecting a central area corresponding to 45 degrees up and down from the center of the query frame as a feature point extraction area,
An original image detection method for extracting a feature point from an object included in the selected feature point extraction area.
삭제delete 제9항에 있어서,
상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계는,
상기 일치도가 기준값 이상이면 1의 가중치를 부여하고, 일치도가 기준값보다 작으면 가중치를 0으로 부여하여 초기화하는 원본 영상 검출 방법.
10. The method of claim 9,
The step of determining whether the original image and the judgment target image match,
An original image detection method in which a weight of 1 is given if the degree of agreement is equal to or greater than a reference value, and a weight of 0 is assigned if the degree of agreement is less than a reference value to initialize the original image.
제15항에 있어서,
상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계는,
상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 연속적이면, 상기 판단 대상 영상과 원본 영상이 일치하는 것으로 판단하고, 상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 비연속적이면, 상기 판단 대상 영상이 변형된 것으로 최종 판단하는 원본 영상 검출 방법.
16. The method of claim 15,
The step of determining whether the original image and the judgment target image match,
If the query frames given a weight of 1 among the plurality of query frames are continuous, it is determined that the judgment target image and the original image match, and among the plurality of query frames, if the query frames given a weight of 1 are non-consecutive , an original image detection method for finally determining that the judgment target image is deformed.
KR1020200164584A 2020-11-30 2020-11-30 Original image detection apparatus using feature values in 360 degree images and method thereof KR102268981B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200164584A KR102268981B1 (en) 2020-11-30 2020-11-30 Original image detection apparatus using feature values in 360 degree images and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200164584A KR102268981B1 (en) 2020-11-30 2020-11-30 Original image detection apparatus using feature values in 360 degree images and method thereof

Publications (1)

Publication Number Publication Date
KR102268981B1 true KR102268981B1 (en) 2021-06-25

Family

ID=76629344

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200164584A KR102268981B1 (en) 2020-11-30 2020-11-30 Original image detection apparatus using feature values in 360 degree images and method thereof

Country Status (1)

Country Link
KR (1) KR102268981B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100105578A (en) * 2007-12-17 2010-09-29 인터내셔널 비지네스 머신즈 코포레이션 Temporal segment based extraction and robust matching of video fingerprints
KR102052535B1 (en) * 2018-12-05 2020-01-08 주식회사 비욘드테크 Apparatus for judging illegal duplication using feature point and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100105578A (en) * 2007-12-17 2010-09-29 인터내셔널 비지네스 머신즈 코포레이션 Temporal segment based extraction and robust matching of video fingerprints
KR102052535B1 (en) * 2018-12-05 2020-01-08 주식회사 비욘드테크 Apparatus for judging illegal duplication using feature point and method thereof

Similar Documents

Publication Publication Date Title
Verdoliva Media forensics and deepfakes: an overview
US11023618B2 (en) Systems and methods for detecting modifications in a video clip
EP4154511A1 (en) Maintaining fixed sizes for target objects in frames
KR100645300B1 (en) Method and apparatus for summarizing and indexing the contents of an audio-visual presentation
US11343591B2 (en) Method and system of presenting moving images or videos corresponding to still images
US20200213532A1 (en) Video processing method and apparatus based on augmented reality, and electronic device
CN104618803A (en) Information push method, information push device, terminal and server
JP2020115351A (en) Method and device for generating extrapolation image based on object detection
KR20130120175A (en) Apparatus, method and computer readable recording medium for generating a caricature automatically
KR101812103B1 (en) Method and program for setting thumbnail image
US8731326B2 (en) Object recognition system and method
KR102052535B1 (en) Apparatus for judging illegal duplication using feature point and method thereof
CN106997366B (en) Database construction method, augmented reality fusion tracking method and terminal equipment
KR102268981B1 (en) Original image detection apparatus using feature values in 360 degree images and method thereof
CN111654747A (en) Bullet screen display method and device
JP6340675B1 (en) Object extraction device, object recognition system, and metadata creation system
Saif et al. Deepfake videos: synthesis and detection techniques–a survey
Pan et al. Facial biometric presentation attack detection using temporal texture co-occurrence
Chittapur et al. Video forgery detection using motion extractor by referring block matching algorithm
CN110996173B (en) Image data processing method and device and storage medium
Lian et al. Multimedia forensics for detecting forgeries
KR102498383B1 (en) Method representative frame extraction method for filtering of 3d images and apparatuses operating the same
Kim et al. Proposition of Rubustness Indicators for Immersive Content Filtering
Jegaveerapandian et al. A survey on passive digital video forgery detection techniques.
Garboan Towards camcorder recording robust video fingerprinting

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant