KR102268981B1 - Original image detection apparatus using feature values in 360 degree images and method thereof - Google Patents
Original image detection apparatus using feature values in 360 degree images and method thereof Download PDFInfo
- Publication number
- KR102268981B1 KR102268981B1 KR1020200164584A KR20200164584A KR102268981B1 KR 102268981 B1 KR102268981 B1 KR 102268981B1 KR 1020200164584 A KR1020200164584 A KR 1020200164584A KR 20200164584 A KR20200164584 A KR 20200164584A KR 102268981 B1 KR102268981 B1 KR 102268981B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- frame
- original
- frames
- query
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
-
- G06K9/46—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
Abstract
Description
본 발명은 360도 영상에서의 특징값을 이용한 원본 영상 검출 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 판단 대상 영상으로부터 추출한 특징값을 분석하여 해당되는 판단 대상 영상의 원본 영상을 검출하는 360도 영상에서의 특징값을 이용한 원본 영상 검출 장치 및 그 방법에 관한 것이다. The present invention relates to an apparatus and method for detecting an original image using feature values in a 360-degree image, and more particularly, to a 360-degree original image of the corresponding judgment target image by analyzing the feature values extracted from the judgment target image. The present invention relates to an apparatus and method for detecting an original image using feature values in an image.
미디어 기술은 HD 기술 이후 3D, UHD, 파노라마, 홀로그램, 360VR 등 사실감 제공을 위해 꾸준히 발전하고 있다.Media Technology has been steadily evolving to provide realism such as 3D, UHD, panoramic, hologram, 360 VR, etc.
여기서, 360도 영상은 다수의 카메라로 360도 전 방향을 동시에 촬영한 후, 촬영된 영상들을 중복되거나 끊어짐 없이 하나의 카메라로 촬영한 것처럼 스티칭(stitching)한 영상으로서, HMD(Head mounted Display)를 이용하여 시청할 경우, 현실 세계와 유사항 몰입감을 얻을 수 있다. Here, the 360° image is an image that is stitched as if taken with a single camera without overlapping or disconnecting after shooting all 360-degree directions with multiple cameras at the same time, and using a head mounted display (HMD). If you watch using it, you can get a sense of immersion similar to the real world.
한편, 이동통신사의 5G 서비스가 본격적으로 서비스됨에 따라 언제 어디서든지 대용량의 360도 영상저작물을 빠른 속도로 이용할 수 있게 됨으로써, DRM 해체 및 각종 영상 변형을 통해 웹하드, 토렌트 등에서 불법 유통되고 있다. On the other hand, as 5G services from mobile carriers are fully serviced, large-capacity 360-degree video works can be used at a high speed anytime, anywhere, so they are illegally distributed in web hard, torrent, etc. through the dismantling of DRM and various image modifications.
따라서, 저작권 보호를 위한 강인성이 지원되는 필터링 기술이 요구되고 있다. Accordingly, there is a demand for a filtering technology supporting robustness for copyright protection.
불법저작 영상 필터링 기술은 온라인에서 유통되는 동영상, 음악, 게임 등이 저작권자의 허락을 받지 않은 불법복제 영상인지 여부를 판별함으로써 저작권 침해물의 불법적 인터넷 전송을 차단하는 기술이다.Illegal copyrighted video filtering technology is a technology that blocks illegal Internet transmission of copyrighted materials by determining whether videos, music, games, etc. distributed online are illegally reproduced videos without the permission of the copyright holder.
이러한 불법저작 영상 필터링 기술은 기본적으로 콘텐츠를 식별하는 기능을 가지고 있어야 한다. 즉, 각각의 원본 영상 콘텐츠로부터 고유의 특성이 될 수 있는 특징정보(feature)를 추출한 후 불법 유통되는 저작물의 특징정보와 비교하여 동일한 콘텐츠 여부를 판별하게 된다. 여기서 어떠한 특징정보를 어떻게 이용하는지가 필터링 기술의 성능, 즉 불법복제 영상 차단율을 결정하는 중요한 역할을 하게 된다.This illegal video filtering technology should have a function to identify content basically. That is, after extracting feature information that can be a unique characteristic from each original video content, it is compared with the feature information of an illegally distributed work to determine whether the content is the same. Here, what kind of characteristic information is used and how it plays an important role in determining the performance of filtering technology, that is, the blocking rate of illegally copied images.
특히, 360도 영상은 크기 변화, 밝기 변화, 해상도 변화 및 회전 변화 등에 강인해야 함은 물론, 360도 영상에서의 새로운 변형인 투영법 변형 및 시점 변형 등에도 강인해야 한다. 그러나 종래의 블법저작 영상 필터링 기술은 2D 영상의 불법 복제 여부를 판단하는데 주로 사용된 것으로, 360도 VR(virtual reality) 영상과 같은 3D 영상에는 적용하지 못하는 문제점이 있다.In particular, a 360-degree image must be robust to size change, brightness change, resolution change, and rotation change, as well as be robust against projection transformation and viewpoint transformation, which are new transformations in 360-degree images. However, the conventional illegal copyrighted image filtering technology is mainly used to determine whether a 2D image is illegally copied, and has a problem in that it cannot be applied to a 3D image such as a 360-degree virtual reality (VR) image.
본 발명의 배경이 되는 기술은 대한민국 등록특허공보 제10-1439475호(2014.09.17. 공고)에 개시되어 있다.The technology that is the background of the present invention is disclosed in Republic of Korea Patent Publication No. 10-1439475 (2014.09.17. Announcement).
본 발명이 이루고자 하는 기술적 과제는 판단 대상 영상으로부터 추출한 특징값을 분석하여 해당되는 판단 대상 영상의 원본 영상을 검출하는 360도 영상에서의 특징값을 이용한 원본 영상 검출 장치 및 그 방법을 제공하기 위한 것이다.An object of the present invention is to provide an apparatus and method for detecting an original image using feature values in a 360-degree image for detecting the original image of the corresponding judgment target image by analyzing the feature values extracted from the judgment target image. .
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따른 360도 영상에서의 특징값을 이용한 원본 영상 검출 장치에 있어서, 360도 영상형태로 촬영된 판단 대상 영상을 입력받는 영상입력부, 상기 입력된 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 프레임을 복수개 추출하는 프레임 추출부, 상기 추출된 프레임을 ERP(Equi-Rectangular Projection) 타입으로 변환하는 프로젝션 타입 변환부, 상기 변환된 프레임으로부터 특징점을 추출하는 특징점 추출부, 그리고 원본 영상의 프레임에서 추출된 특징점과 상기 판단 대상 영상의 프레임에서 추출된 특징점을 비교하여 일치도를 산출하고, 상기 산출된 일치도를 이용하여 상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 영상 판단부를 포함한다. In the original image detection apparatus using a feature value in a 360-degree image according to an embodiment of the present invention for achieving this technical problem, an image input unit for receiving a judgment target image photographed in a 360-degree image form, the input judgment target A frame extraction unit that extracts a plurality of frames corresponding to the point in time at which a scene is changed through comparison of inter-frame RGB variation and feature information in an image, a projection type conversion unit that converts the extracted frames into an ERP (Equi-Rectangular Projection) type; a feature point extracting unit for extracting feature points from the converted frame, and comparing the feature points extracted from the frame of the original image with the feature points extracted from the frame of the judgment target image to calculate a degree of agreement, and using the calculated degree of agreement to calculate the match and an image determination unit that determines whether the image matches the image to be determined.
상기 원본 영상로부터 추출된 원본 프레임에 필터링 성능 평가 항목에 따라 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하는 프레임 변형부, 그리고 유클리디안 알고리즘을 이용하여 상기 원본 프레임에서 추출한 특징점과 복수의 변형 프레임에서 각각 추출한 특징점을 서로 매칭하여 동일하게 존재하는 기준 특징점을 추출하고, 상기 기준 특징점에 대한 정보와 원본 영상의 저작권 정보가 포함된 원본 데이터셋을 복수개의 원본 프레임별로 각각 생성하는 원본 데이터셋 생성부를 더 포함할 수 있다. A frame transforming unit that generates each transformed frame by applying a plurality of transforming attacks to the original frame extracted from the original image according to the filtering performance evaluation items, and a feature point extracted from the original frame using the Euclidean algorithm and a plurality of transforms Create an original dataset that matches each extracted feature point with each other to extract the same existing reference feature point, and creates an original dataset including information on the reference feature point and copyright information of the original image for each of a plurality of original frames It may include more wealth.
상기 복수의 변형 공격은, 로고 삽입, 자막 삽입, 영상 압축율 변환, 코덱 변환, 화면 비율 변환, 해상도 변환, 프레임 비율 감소, 회전, 반전, 흑백 변환, 밝기 변환, 대조 효과 변화, 투영법 변환, 모노 스코픽 크롭핑, 스테리오 스코픽 크롭핑 및 기본 시점 이동 중에서 적어도 하나를 포함할 수 있다. The plurality of transformation attacks include logo insertion, subtitle insertion, image compression ratio conversion, codec conversion, aspect ratio conversion, resolution conversion, frame rate reduction, rotation, inversion, black and white conversion, brightness conversion, contrast effect change, projection conversion, monoscopic It may include at least one of cropping, stereoscopic cropping, and basic view movement.
상기 프레임 추출부는, 상기 입력된 영상이 원본 영상이면, 장면이 변화되는 시점에 해당하는 원본 프레임을 연속적으로 복수개 추출하고, 상기 입력된 영상이 판단 대상 영상이면, 장면이 변화되는 시점에 해당하는 질의 프레임을 랜덤으로 설정된 개수만큼 추출할 수 있다. If the input image is the original image, the frame extractor sequentially extracts a plurality of original frames corresponding to the time point at which the scene is changed, and if the input image is the image to be determined, a query corresponding to the time point at which the scene is changed Frames can be extracted as many as a randomly set number.
상기 특징점 추출부는, ERP 타입으로 변환된 상기 원본 프레임, 변형 프레임 및 질의 프레임을 동일한 비율의 해상도로 다운샘플링하고, 상기 원본 프레임, 변형 프레임 및 질의 프레임의 중심으로부터 상하 45도에 해당하는 중앙 영역을 특징점 추출 영역으로 선정하며, 상기 선정된 특징점 추출 영역에 포함된 객체로부터 특징점을 추출할 수 있다. The feature point extraction unit down-samples the original frame, the modified frame, and the query frame converted to the ERP type at the same rate of resolution, and selects a central area corresponding to 45 degrees up and down from the center of the original frame, the modified frame, and the query frame. A feature point extraction region is selected, and a feature point can be extracted from an object included in the selected feature point extraction region.
상기 영상 판단부는, 유클리디안(Euclidean) 알고리즘을 이용하여 상기 저장된 복수개의 원본 데이터셋의 기준 특징점과 질의 프레임의 특징점을 각각 비교하여 일치도를 산출하고, 산출된 일치도에 따라 해당되는 질의 프레임에 가중치를 부여할 수 있다. The image determination unit, using a Euclidean algorithm, the reference feature points of the stored plurality of original datasets and A degree of agreement may be calculated by comparing feature points of the query frame, and a weight may be assigned to a corresponding query frame according to the calculated degree of agreement.
상기 영상 판단부는, 상기 일치도가 기준값 이상이면 1의 가중치를 부여하고, 일치도가 기준값보다 작으면 가중치를 0으로 부여하여 초기화할 수 있다. The image determining unit may initialize by assigning a weight of 1 when the degree of matching is equal to or greater than a reference value, and assigning a weight of 0 when the degree of matching is less than the reference value.
상기 영상 판단부는, 상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 연속적이면, 상기 판단 대상 영상과 원본 영상이 일치하는 것으로 판단하고, 상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 비연속적이면, 상기 판단 대상 영상이 변형된 것으로 최종 판단할 수 있다. The image determination unit may be configured to determine that, if the query frames weighted by 1 among the plurality of query frames are consecutive, the determination target image and the original image are identical, and a query weighted by 1 among the plurality of query frames If the frames are non-consecutive, it may be finally determined that the judgment target image is deformed.
또한, 본 발명의 실시예에 따른 원본 영상 검출 장치를 이용한 360도 영상에서의 원본 영상 검출 방법에 있어서, 360도 영상 형태로 촬영된 원본 영상으로부터 장면이 변화되는 시점에 해당하는 원본 프레임을 연속적으로 복수개 추출하고, 상기 추출된 각 원본 프레임에 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하고, 상기 각 원본 프레임에서 추출된 객체의 특징점과 상기 각 원본 프레임에 대응하는 복수의 변형 프레임으로부터 추출된 객체의 특징점에서 공통적으로 나타나는 기준 특징점을 추출한 다음, 상기 기준 특징점과 360도 영상의 저작권 정보가 포함된 원본 데이터셋을 복수개의 원본 프레임별로 데이터베이스에 저장하는 단계, 사용자로부터 판단 대상 영상을 입력받는 단계, 상기 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 질의 프레임을 추출하는 단계, 상기 추출된 질의 프레임을 ERP 타입으로 변환하는 단계, 상기 변환된 질의 프레임으로부터 특징점을 추출하는 단계, 그리고 상기 원본 데이터셋에 포함된 기준 특징점과 상기 질의 프레임에서 추출된 특징점을 비교하여 일치도를 산출하고, 상기 산출된 일치도를 이용하여 상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계를 포함한다. In addition, in the method for detecting an original image from a 360-degree image using the original image detection apparatus according to an embodiment of the present invention, the original frame corresponding to the time point at which the scene changes from the original image captured in the form of a 360-degree image is continuously generated. Extracting a plurality of frames, applying a plurality of transformation attacks to each of the extracted original frames to generate each transformed frame, extracted from the feature points of the object extracted from each original frame and a plurality of transformed frames corresponding to each of the original frames. After extracting the reference feature points that appear in common from the feature points of the object, storing the original dataset including the reference feature points and the copyright information of the 360-degree image in a database for each of a plurality of original frames, receiving a judgment target image from the user , extracting a query frame corresponding to a time point when a scene is changed by comparing the RGB variation between frames and feature information in the judgment target image, converting the extracted query frame to an ERP type, from the converted query frame extracting the feature points, and calculating the degree of agreement by comparing the reference feature points included in the original dataset with the feature points extracted from the query frame, and determining whether the original image matches the judgment target image using the calculated coincidence degree including judging.
이와 같이 본 발명에 따르면, 360도 영상저작물의 특징인 투영방법 및 재생 방법을 고려한 공격에 강인한 특징 추출 방법을 제공함으로써 식별 인식률을 개선할 수 있다. As described above, according to the present invention, it is possible to improve the identification recognition rate by providing a feature extraction method that is robust against attacks in consideration of the projection method and the reproduction method, which are characteristics of a 360-degree image work.
또한, 본 발명에 따르면, 2D 형태로 가공하는 공격 및 360도 영상의 형태로 가공하는 공격에 대하여 필터링하기 위한 특징 추출방법을 제공할 수 있으며, 360도 영상에서 영상의 기준이 되는 시점 정보를 변경하는 공격에 대해서도 필터링하기 위한 특징 추출 방법을 제공할 수 있다. In addition, according to the present invention, it is possible to provide a feature extraction method for filtering an attack processing in the form of a 2D image and an attack processing in the form of a 360-degree image, and changing the viewpoint information that is the standard of the image in the 360-degree image It is also possible to provide a feature extraction method for filtering attacks.
또한, 본 발명에 따르면, 미디어 특징 기반의 필터링 성능을 평가할 수 있는 항목에 따라 총 16가지의 변형 영상 프레임을 생성하고, 유클리디언 알고리즘을 이용하여 변형 영상 프레임에서 추출된 특징점의 차원을 감소시킴으로써, 필터링 하는데 소요되는 시간 및 복잡도를 낮추는 효과가 있다. In addition, according to the present invention, a total of 16 transformed image frames are generated according to the items that can evaluate the filtering performance based on media features, and the dimension of the feature points extracted from the transformed image frame is reduced by using the Euclidean algorithm. , it has the effect of reducing the time and complexity required for filtering.
도 1은 본 발명의 실시예에 따른 원본 영상 검출 장치를 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 원본 영상 검출 장치를 이용한 360도 영상에서의 원본 영상 검출 방법을 설명하기 위한 순서도이다.
도 3은 도 2에 도시된 S250단계를 설명하기 위한 순서도이다.
도 4는 도 3에 도시된 s251단계를 설명하기 위한 예시도이다.
도 5는 도 3에 도시된 S252단계를 설명하기 위한 예시도이다.
도 6은 도 2에 도시된 S270단계를 설명하기 위한 도면이다.
도 7은 도 2에 도시된 S300단계를 설명하기 위한 순서도이다. 1 is a block diagram illustrating an original image detection apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method of detecting an original image in a 360 degree image using the original image detecting apparatus according to an embodiment of the present invention.
FIG. 3 is a flowchart for explaining step S250 shown in FIG. 2 .
FIG. 4 is an exemplary diagram for explaining step s251 shown in FIG. 3 .
FIG. 5 is an exemplary diagram for explaining step S252 shown in FIG. 3 .
FIG. 6 is a view for explaining step S270 shown in FIG. 2 .
FIG. 7 is a flowchart for explaining step S300 shown in FIG. 2 .
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In this process, the thickness of the lines or the size of the components shown in the drawings may be exaggerated for clarity and convenience of explanation.
또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the terms described below are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.
이하에서는 도 1을 이용하여 본 발명의 실시예에 따른 원본 영상 검출 장치(100)에 대해 더욱 상세하게 설명한다. Hereinafter, the original
도 1은 본 발명의 실시예에 따른 원본 영상 검출 장치를 설명하기 위한 구성도이다. 1 is a block diagram illustrating an original image detection apparatus according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 원본 영상 검출 장치(100)는 영상입력부(110), 프레임 추출부(120), 프로젝션 타입 변환부(130), 프레임 변형부(140), 특징점 추출부(150), 원본 데이터셋 생성부(160) 및 영상 판단부(170)을 포함한다. As shown in FIG. 1 , the original
먼저, 영상입력부(110)는 360도 영상형태로 촬영된 영상을 입력받는다. 여기서 영상은 원본 영상일 수도 있고 판단 대상 영상일 수도 있다. First, the
그 다음, 프레임 추출부(120)는 원본 영상 또는 판단 대상 영상으로부터 프레임을 추출한다. 부연하자면, 프레임 추출부(120)는 원본 영상 또는 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 프레임을 복수개 추출한다. 이하에서는 원본 영상으로부터 추출된 프레임을 원본 프레임이라고 하고, 판단 대상 영상으로부터 추출된 프레임을 질의 프레임이라고 한다. Next, the
프로젝션 타입 변환부(130)는 영상입력부(110)에 입력된 360도 영상의 프로젝션 타입을 판단하고, ERP(Equirectangular Projection) 타입의 영상으로 변환한다. The projection
프레임 변형부(140)는 ERP 타입의 원본 프레임에 필터링 성능 평가 항목을 이용하여 변형 공격을 가하여 각각의 변형 프레임을 생성한다. 여기서 복수의 변형 공격은 로고 삽입, 자막 삽입, 영상 압축율 변환, 코덱 변환, 화면 비율 변환, 해상도 변환, 프레임 비율 감소, 회전, 반전, 흑백 변환, 밝기 변환, 대조 효과 변화, 투영법 변환, 모노 스코픽 크롭핑, 스테리오 스코픽 크롭핑 및 기본 시점 이동 중에서 적어도 하나를 포함한다. The
특징점 추출부(150)는 프레임에 포함된 객체로부터 특징점을 추출한다. 부연하자면, 특징점 추출부(140)는 ERP 타입으로 변환된 원본 프레임, 질의 프레임 및 변형 프레임에서 특징점 추출 영역을 선정한다. 그 다음, 특징점 추출부(140)는 선정된 특징점 추출 영역에 포함된 객체로부터 특징점을 추출한다. The feature
원본 데이터셋 생성부(160)는 원본 프레임에서 추출된 특징점과 원본 프레임에 대응하는 복수개의 변형 프레임에서 추출된 특징점을 서로 매칭하여 동일하게 존재하는 기준 특징점을 추출한다. 그리고 원본 데이터셋 생성부(160)는 추출된 기준 특징점에 대한 정보와 원본 영상의 저작권 정보가 포함된 원본 데이터셋을 생성한다. 그 다음, 원본 데이터셋 생성부(160)는 복수개의 원본 프레임별로 생성된 원본 데이터셋을 데이터 베이스에 저장한다. The
마지막으로 영상 판단부(170)는 판단 대상 영상과 원본 영상과의 일치 여부를 판단한다. 이를 다시 설명하면, 영상 판단부(170)는 판단 대상 영상의 질의 프레임으로부터 추출된 특징점을 복수의 원본 데이터셋에 포함된 기준 특징점과 각각 비교하여 일치도를 산출한다. 그리고, 영상 판단부(160)는 산출된 일치도를 이용하여 판단 대상 영상과 원본 영상의 일치 여부를 판단한다. Finally, the
이하에서는 도 2 내지 도 6을 이용하여 본 발명의 실시예에 따른 원본 영상 검출 장치(100)를 이용한 360도 영상에서의 원본 영상 검출 방법에 대해 더욱 상세하게 설명한다.Hereinafter, a method of detecting an original image in a 360-degree image using the original
도 2는 본 발명의 실시예에 따른 원본 영상 검출 장치를 이용한 360도 영상에서의 원본 영상 검출 방법을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a method of detecting an original image in a 360 degree image using the original image detecting apparatus according to an embodiment of the present invention.
본 발명의 실시예에 따른 360도 영상에서의 원본 영상 검출 방법은, 기준 특징점을 추출하는 단계와, 기준 특징점을 이용하여 판단 대상이 되는 영상에 대응하는 원본 영상을 검출하는 단계를 포함한다. 도 2에 도시된 바와 같이, 원본 데이터셋 생성 단계는 S210 내지 S260단계를 포함하고, 원본 영상을 검출하는 단계는 S270 내지 S300 단계를 포함한다. A method of detecting an original image from a 360-degree image according to an embodiment of the present invention includes extracting a reference feature point and detecting an original image corresponding to an image to be judged by using the reference feature point. As shown in FIG. 2 , the step of generating the original dataset includes steps S210 to S260, and the step of detecting the original image includes steps S270 to S300.
먼저, 영상입력부(110)는 360도 영상형태로 촬영된 원본 영상을 입력받는다(S210). First, the
여기서 360도 영상은 다수의 카메라로 360도의 전 방향을 동시에 촬영한 후, 촬영된 영상들을 중복되거나 끊어짐 없이 하나의 카메라로 촬영한 것처럼 스티 칭(stitching)한 영상을 나타낸다. Here, the 360-degree image represents an image in which all 360-degree directions are simultaneously captured by multiple cameras, and then the captured images are stitched together as if they were captured by a single camera without overlapping or interruption.
따라서, 영상입력부(110)는 사용자로부터 편집이 완료된 360도의 원본 영상을 입력받는다. Accordingly, the
그 다음, 프레임 추출부(120)는 입력된 원본 영상으로부터 복수개의 원본 프레임을 추출한다(S220). Then, the
부연하자면, 프레임 간 변화율이 클수록 다른 장면(scene)에 해당할 확률이 높으므로, 프레임 추출부(120)는 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 원본 프레임을 추출한다. 이때, 프레임 추출부(120)는 판단 대상 영상의 불법 복제 여부를 정확하게 판단하기 위해 장면이 바뀔 때 마다 각각의 원본 프레임을 추출한다. 그리고 추출되는 프레임은 연속성을 가진다. In other words, the higher the rate of change between frames, the higher the probability of corresponding to a different scene. Therefore, the
S220단계가 완료되면, 프로젝션 타입 변환부(130)는 추출된 복수의 원본 프레임을 ERP(Equirectangular Projection) 타입으로 변환한다(S230). When the step S220 is completed, the projection
이를 다시 설명하면, 프로젝션 타입 변환부(130)는 영상입력부(110)로부터 입력된 360도 원본 영상의 프로젝션 타입을 판단한다. 판단 결과 입력된 원본 영상이 ERP(Equirectangular Projection) 타입이 아닌 경우, 프로젝션 타입 변환부(130)는 프레임 추출부(120)에서 추출된 복수개의 프레임을 ERP 타입으로 각각 변환한다.In other words, the projection
본 발명의 실시예에서는 ERP 타입의 영상을 기준으로 프레임을 추출하므로, 만약, 입력된 360도 영상이 CMP(cube-map projection) 타입이면 ERP 타입으로 변환하여 프레임을 추출하고, 어안렌즈(Fisheye) 타입이면 각 이미지를 스티칭 한 후 구형 좌표계를 이용하여 이미지를 변환한 후 ERP 타입으로 변환하여 프레임을 추출하는 것이 바람직하다.In the embodiment of the present invention, since frames are extracted based on the ERP type image, if the input 360-degree image is a CMP (cube-map projection) type, the frame is extracted by converting it to the ERP type, and a fisheye lens is used. If it is a type, after stitching each image, it is preferable to convert the image using the spherical coordinate system and then convert it to the ERP type to extract the frame.
그 다음, 프레임 변형부(140)는 ERP 타입으로 변환된 각 원본 프레임마다 16가지의 변형 공격을 가하여 총 16개의 프레임을 생성한다(S240). Then, the
프레임 변형부(140)는 실감형 미디어 특징을 기반으로 하는 필터링 성능 평가 항목에 따라 변형 공격을 수행한다. The
표 1에 기재된 바와 같이, 변형 공격은 16가지로 구성된다. As shown in Table 1, the transformation attack consists of 16 types.
변형 공격 항목 중에서 로고 삽입(logo Insert), 자막 삽입(Caption Insert), 영상 압축율 변환(Severe compression), 코덱 변환(Codec Change), 화면 비율 변환(Aspect ratio Change), 해상도 변환(Resolution Change), 프레임 비율 감소(Frame-rate reduction), 회전(Rotation), 반전(Flip), 흑백 변환(Color to monochrome conversion), 밝기 변환(Brightness Change) 및 대조 효과 변환(Contrast Change)은 종래의 2D 영상에서 필터링 성능 평가하기 위한 항목에 해당한다. Among the variant attack items, logo Insert, Caption Insert, Severe compression, Codec Change, Aspect ratio Change, Resolution Change, Frame Frame-rate reduction, Rotation, Flip, Color to monochrome conversion, Brightness Change, and Contrast Change provide filtering performance in conventional 2D images. It corresponds to the item for evaluation.
따라서, 본 발명에서는 12개의 필터링 성능 평가 항목 이외에 360도 영상에 적용 가능한 4가지의 필터링 성능 평가 항목을 추가적으로 적용한다. Therefore, in the present invention, in addition to the 12 filtering performance evaluation items, four filtering performance evaluation items applicable to a 360-degree image are additionally applied.
이를 더욱 상세하게 설명하면, 먼저 투영법 변환(Projection conversion)은 투영 방식인 등방형, 등직각 투영법(Equirectangular Projection)과 큐브 맵 투영법(Cube Map Projection)의 상호변환 과정에서 발생할 수 있는 공격을 필터링하기 위한 공격 방법이다. To explain this in more detail, first, the projection conversion is used to filter attacks that may occur during the interconversion process between the projection method isotropic, Equirectangular Projection, and Cube Map Projection. attack method.
그리고 모노 스코픽 크롭핑(Monoscopic Cropping)은 360도 영상의 일부분을 녹화하여 2D 형태로 가공하는 공격에 대하여 필터링하기 위한 공격 방법이다.And monoscopic cropping (Monoscopic Cropping) is an attack method for filtering against an attack of recording a part of a 360-degree image and processing it in a 2D form.
그리고 스테리오 스코픽 크롭핑(Stereoscopic Cropping)은 360도 영상의 일부분을 녹화하여 360도 영상의 형태로 가공하는 공격에 대하여 필터링하기 위한 공격 방법이다.And stereoscopic cropping (Stereoscopic Cropping) is an attack method for filtering against an attack that records a part of a 360-degree image and processes it in the form of a 360-degree image.
마지막으로 기본 시점 이동(Move the base point)은 360도 영상에서 영상의 기준이 되는 시점 정보를 변경하는 공격에 대하여 필터링하기 위한 공격 방법이다.Lastly, move the base point is an attack method for filtering attacks that change viewpoint information that is a reference point of an image in a 360-degree image.
즉, 프레임 변형부(140)는 각 원본 프레임에 16가지의 변형 공격을 가하여 16개의 변형 프레임을 생성한다. That is, the
그 다음, 특징점 추출부(150)는 원본 프레임과 16개의 변형 프레임으로부터 각각의 특징점을 추출한다(S250).Next, the feature
이하에서는 도 3을 이용하여 S250단계에 대해 더욱 상세하게 설명한다. Hereinafter, step S250 will be described in more detail with reference to FIG. 3 .
도 3은 도 2에 도시된 S250단계를 설명하기 위한 순서도이다. FIG. 3 is a flowchart for explaining step S250 shown in FIG. 2 .
도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 특징점 추출부(150)는 원본 프레임과 16개의 변형 프레임을 다운 샘플링한다(S251). As shown in FIG. 3 , the
도 4는 도 3에 도시된 s251단계를 설명하기 위한 예시도이다. FIG. 4 is an exemplary diagram for explaining step s251 shown in FIG. 3 .
도 4에 도시된 바와 같이, 특징점 추출부(150)는 특징점 추출 속도와 특징 정보의 수를 축소하기 위하여 원본 프레임 및 16개의 변형 프레임을 동일한 비율의 해상도로 다운 샘플링하여 인식률을 향상시킨다. As shown in FIG. 4 , the
그 다음, 특징점 추출부(150)는 다운 샘플링된 원본 프레임 및 16개의 변형 프레임에서 특징 추출 영역을 선정한다(S252).Next, the
도 5는 도 3에 도시된 S252단계를 설명하기 위한 예시도이다. FIG. 5 is an exemplary diagram for explaining step S252 shown in FIG. 3 .
도 5에 도시된 바와 같이, 구형상(sphere)인 프레임을 ERP 타입을 적용하여 평면 형상으로 펼치게 되면 프레임의 상단과 하단에 왜곡이 크게 발생된다. 따라서, 특징점 추출부(150)는 왜곡이 가장 작고 가장 많은 정보가 집중되는 중앙 영역을 특징 추출 영역으로 선정한다. 즉, 특징점 추출부(150)는 프레임의 중심에서 상하 45도에 해당하는 영역을 특징 추출 영역으로 선정한다As shown in FIG. 5 , when a sphere-shaped frame is spread in a planar shape by applying the ERP type, large distortion occurs at the upper and lower portions of the frame. Accordingly, the
그 다음, 특징점 추출부(150)는 선정된 특징 추출 영역에서 객체를 추출하고, 추출된 객체로부터 특징점을 획득한다(S253).Next, the feature
특징점 추출부(150)는 선정된 특징 추출 영역에 포함된 객체를 추출하고, 추출된 객체 이외의 배경을 제거한다. 그 다음, 특징점 추출부(150)는 객체로부터 특징점을 추출한다. The feature
S250단계가 완료되면, 원본 데이터셋 생성부(160)는 원본 프레임의 객체에서 추출된 특징점과 16개의 변형 프레임의 객체에서 각각 추출된 특징점을 매칭하여 기준 특징점을 추출하고, 추출된 기준 특징점을 이용하여 원본 데이터셋을 생성한다(S260).When step S250 is completed, the original
이를 다시 설명하면, 원본 데이터셋 생성부(160)는 원본 프레임에서 추출된 특징점과 16개의 변형 프레임에서 추출된 각각의 특징점을 비교하여 매칭되는 특징 정보만을 선별한다. In other words, the original
그 다음, 원본 데이터셋 생성부(160)는 선별된 특징정보에 유클리디안(Euclidean) 알고리즘을 적용하여 원본 프레임과 16개의 변형 프레임에서 동일하게 존재하는 특징점을 기준 특징점으로 추출한다. Next, the original
그리고 원본 데이터셋 생성부(160)는 추출된 기준 특징점과 원본 영상의 저작권 정보를 포함하는 원본 데이터셋을 생성한다. 원본 데이터셋은 원본 영상에서 추출된 원본 프레임의 개수만큼 반복하여 생성된다. 그리고, 원본 데이터셋 생성부(160)는 생성된 원본 데이터셋을 데이터베이스에 저장한다. In addition, the original
원본 데이터셋의 생성이 완료되면, 영상입력부(110)는 사용자로부터 판단 대상 영상을 입력받고, 입력된 판단 대상 영상으로부터 5개의 질의 프레임을 추출한다(S270).When the creation of the original dataset is completed, the
도 6은 도 2에 도시된 S270단계를 설명하기 위한 도면이다. FIG. 6 is a view for explaining step S270 shown in FIG. 2 .
먼저, 프레임 추출부(120)는 판단 대상 영상의 인트로(intro)부분인 전반부를 대략 20초 정도 잘라낸다.First, the
그 다음, 도 6에 도시된 바와 같이, 프레임 추출부(120)는 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 프레임을 질의 프레임으로 추출한다. 그리고 프레임 추출부(120)는 판단 대상 영상의 총 미디어 길이에서 랜덤으로 "a", "b", "c", "d", "e"의 질의 프레임을 추출한다. Next, as shown in FIG. 6 , the
본 발명에서는 오류 확률을 줄이기 위하여 총 5개의 질의 프레임을 추출하였으나, 이에 한정하지 않고, 질의 프레임의 개수를 5개보다 많거나 적게 추출할 수도 있다. In the present invention, a total of five query frames are extracted to reduce the error probability, but the present invention is not limited thereto, and more or less than five query frames may be extracted.
S270 단계가 완료되면, 프로젝션 타입 변환부(130)는 추출된 질의 프레임을 ERP 타입으로 변환한다(S280).When step S270 is completed, the projection
이를 다시 설명하면, 프로젝션 타입 변환부(130)는 영상입력부(110)로부터 입력된 판단 대상 영상의 프로젝션 타입을 판단한다. 판단 결과 입력된 판단 대상 영상이 ERP(Equirectangular Projection) 타입이 아닌 경우, 프로젝션 타입 변환부(130)는 프레임 추출부(120)에서 추출된 복수개의 프레임을 ERP 타입으로 각각 변환한다.In other words, the projection
그 다음, 특징점 추출부(150)는 5개의 질의 프레임에서 특징점을 추출한다(S290).Next, the
특징점 추출부(150)는 S250 단계와 동일한 방법으로 5개의 질의 프레임에서 특징점을 추출한다. 부연자하면, 특징점 추출부(150)는 5개의 질의 프레임을 다운 샘플링한 다음, 질의 프레임의 중앙 영역을 특징 추출 영역으로 선정한다. 그리고, 특징점 추출부(150)는 선정된 특징 추출 영역에 포함된 객체로부터 특징점을 추출한다. The
특징점 추출이 완료되면, 영상 판단부(170)는 데이터베이스에 저장된 원본 데이터셋을 전달받는다. 그리고 영상 판단부(170)는 원본 데이터셋의 기준 특징점과 5개의 질의 프레임의 특징점을 각각 비교하여 판단 대상 영상과 원본 영상의 일치 여부를 판단한다(S300).When the feature point extraction is completed, the
이하에서는 도 7을 이용하여 도 2에 도시된 S300단계에 대해 더욱 상세하게 설명한다. Hereinafter, the step S300 shown in FIG. 2 will be described in more detail with reference to FIG. 7 .
도 7은 도 2에 도시된 S300단계를 설명하기 위한 순서도이다. FIG. 7 is a flowchart for explaining step S300 shown in FIG. 2 .
도 7에 도시된 바와 같이, 영상판단부(170)는 복수의 원본 데이터셋을 전달받는다(S301). As shown in FIG. 7 , the
영상판단부(170)는 데이터베이스에 기 저장된 복수의 원본 데이터셋을 수신한다. 예를 들어 원본 영상으로부터 50개의 원본 프레임을 추출하였다고 가정하면, 영상판단부(170)는 50개의 원본 데이터셋을 수신받는다. The
그 다음 영상 판단부(170)는 50개의 원본 데이터셋에 포함된 각각의 기준 특징점과 5개의 질의 프레임으로부터 추출된 특징점을 각각 비교하여 유사도를 산출한다(S302).Next, the
즉, 영상판단부(170)는 유클리디안(Euclidean) 알고리즘을 이용하여 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "a"프레임의 특징점을 비교하여 유사도를 산출하고, 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "b"프레임의 특징점을 비교하여 유사도를 산출한다. 또한, 영상판단부(170)는 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "c"프레임의 특징점을 비교하여 유사도를 산출하고, 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "d"프레임의 특징점을 비교하여 유사도를 산출하며, 첫 번째 원본 데이터셋에 포함된 기준 특징점과 "e"프레임의 특징점을 비교하여 유사도를 산출한다. That is, the
그 다음, 영상판단부(170)는 두 번째 원본 데이터셋에 포함된 기준 특징점과 "a"프레임의 특징점을 비교하여 유사도를 산출하고, 두 번째 원본 데이터셋에 포함된 기준 특징점과 "b"프레임의 특징점을 비교하여 유사도를 산출한다. 또한, 영상판단부(170)는 두 번째 원본 데이터셋에 포함된 기준 특징점과 "c"프레임의 특징점을 비교하여 유사도를 산출하고, 두 번째 원본 데이터셋에 포함된 기준 특징점과 "d"프레임의 특징점을 비교하여 유사도를 산출하며, 두 번째 원본 데이터셋에 포함된 기준 특징점과 "e"프레임의 특징점을 비교하여 유사도를 산출한다. Next, the
상기와 같은 방법으로 50번째 원본 데이터셋까지 반복 수행하여 유사도를 산출한다. The similarity is calculated by iteratively performing until the 50th original dataset in the same way as above.
S302단계가 완료되면, 영상판단부(170)는 산출된 유사도에 가중치를 부여한다(S303).When step S302 is completed, the
영상판단부(170)는 산출된 유사도가 80% 이상이면 1의 가중치를 부여하고, 산출된 유사도가 80% 미만이면 0의 가중치를 부여한다. The
예를 들어, 첫번째 원본 데이터셋의 포함된 기준 특징점과 "a"프레임의 특징점을 비교하여 80%의 유사도를 획득하였다고 가정하면, 영상판단부(170)는 "a"프레임에 가중치 1을 부여한다. For example, assuming that 80% similarity is obtained by comparing the reference feature points included in the first original dataset with the feature points of the “a” frame, the
그 다음, 영상판단부(170)는 원본 데이터셋에 대응하는 5개의 질의 프레임에 각각 부여된 가중치를 이용하여 판단 대상 영상과 원본 영상의 일치 여부를 판단한다(S304)Next, the
이를 다시 설명하면, 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 3개 이상 연속적이면, 영상판단부(170)는 판단 대상 영상과 원본 영상이 일치하는 것으로 판단한다. In other words, if three or more query frames given a weight of 1 among the plurality of query frames are consecutive, the
반면에 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 비연속적이면, 영상판단부(170)는 판단 대상 영상이 변형된 것으로 최종 판단한다. On the other hand, if the query frames given the weight of 1 among the plurality of query frames are non-consecutive, the
예를 들어, 첫 번째 원본 데이터셋에 대응하여 "a" 질의 프레임, "c" 질의 프레임, "d" 질의 프레임 및 "e"질의 프레임의 가중치는 1이고, "b" 질의 프레임의 가중치는 0이라고 가정한다. 그러면, 1의 가중치를 부여받은 질의 프레임의 개수가 3개 이상이고, "c", "d", "e"의 질의 프레임이 연속적이므로 영상판단부(170)는 판단 대상 영상과 원본 영상이 일치하는 것으로 판단한다. For example, corresponding to the first original dataset, query frame "a", query frame "c", query frame "d", and query frame "e" have a weight of 1, and query frame "b" has a weight of 0. Assume that Then, since the number of query frames weighted by 1 is three or more, and the query frames of “c”, “d”, and “e” are continuous, the
또한, "a" 질의 프레임, "b" 질의 프레임, "d" 질의 프레임 및 "e"질의 프레임의 가중치는 1이고, "c" 질의 프레임의 가중치는 0이라고 가정한다. 따라서, 1의 가중치를 부여받은 질의 프레임의 개수가 3개 이상인 조건에는 충족하지만 가중치를 부여받은 질의 프레임이 비연속적이므로, 영상판단부(170)는 판단 대상 영상이 변형된 것으로 최종 판단한다.Also, it is assumed that the weight of the query frame "a", the query frame "b", the query frame "d" and the query frame "e" is 1, and the weight of the query frame "c" is 0. Therefore, although the condition that the number of query frames weighted by 1 is 3 or more is satisfied, the weighted query frames are non-consecutive, so the
이와 같이 본 발명에 따른 원본 영상 검출 장치는 360도 영상저작물의 특징인 투영방법 및 재생 방법을 고려한 공격에 강인한 특징 추출 방법을 제공함으로써 식별 인식률을 개선할 수 있다. As described above, the original image detection apparatus according to the present invention can improve the identification recognition rate by providing a feature extraction method that is robust against attacks in consideration of the projection method and the reproduction method, which are characteristics of a 360-degree image work.
또한, 본 발명에 따른 원본 영상 검출 장치는 2D 형태로 가공하는 공격 및 360도 영상의 형태로 가공하는 공격에 대하여 필터링하기 위한 특징 추출방법을 제공할 수 있으며, 360도 영상에서 영상의 기준이 되는 시점 정보를 변경하는 공격에 대해서도 필터링하기 위한 특징 추출 방법을 제공할 수 있다. In addition, the original image detection device according to the present invention can provide a feature extraction method for filtering an attack processing in the form of a 2D image and an attack processing in the form of a 360-degree image. It is also possible to provide a feature extraction method for filtering attacks that change viewpoint information.
또한, 본 발명에 따른 원본 영상 검출 장치는 미디어 특징 기반의 필터링 성능을 평가할 수 있는 항목에 따라 총 16가지의 변형 영상 프레임을 생성하고, 유클리디언 알고리즘을 이용하여 변형 영상 프레임에서 추출된 특징점의 차원을 감소시킴으로써, 필터링 하는데 소요되는 시간 및 복잡도를 낮추는 효과가 있다. In addition, the original image detection apparatus according to the present invention generates a total of 16 types of modified image frames according to the items that can evaluate the filtering performance based on media features, and uses the Euclidean algorithm to determine the feature points extracted from the modified image frames. By reducing the dimension, there is an effect of reducing the time and complexity required for filtering.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiment shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. will be. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the following claims.
100 : 원본 영상 검출 장치
110 : 영상입력부
120 : 프레임 추출부
130 : 프로젝션 타입 변환부
140 : 프레임 변형부
150 : 특징점 추출부
160 : 원본 데이터셋 생성부
170 : 영상 판단부100: original image detection device
110: video input unit
120: frame extraction unit
130: projection type conversion unit
140: frame deformation part
150: feature point extraction unit
160: original data set generation unit
170: image judgment unit
Claims (16)
360도 영상형태로 촬영된 판단 대상 영상을 입력받는 영상입력부,
상기 입력된 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 프레임을 복수개 추출하는 프레임 추출부,
상기 추출된 프레임을 ERP(Equi-Rectangular Projection) 타입으로 변환하는 프로젝션 타입 변환부,
상기 변환된 프레임으로부터 특징점을 추출하는 특징점 추출부,
원본 영상의 프레임에서 추출된 특징점과 상기 판단 대상 영상의 프레임에서 추출된 특징점을 비교하여 일치도를 산출하고, 상기 산출된 일치도를 이용하여 상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 영상 판단부를 포함하며,
상기 원본 영상로부터 추출된 원본 프레임에 필터링 성능 평가 항목에 따라 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하는 프레임 변형부, 그리고
유클리디안 알고리즘을 이용하여 상기 원본 프레임에서 추출한 특징점과 복수의 변형 프레임에서 각각 추출한 특징점을 서로 매칭하여 동일하게 존재하는 기준 특징점을 추출하고, 상기 기준 특징점에 대한 정보와 원본 영상의 저작권 정보가 포함된 원본 데이터셋을 복수개의 원본 프레임별로 각각 생성하는 원본 데이터셋 생성부를 포함하며,
상기 영상 판단부는,
유클리디안(Euclidean) 알고리즘을 이용하여 상기 생성된 복수개의 원본 데이터셋의 기준 특징점과 질의 프레임의 특징점을 각각 비교하여 일치도를 산출하고, 산출된 일치도에 따라 해당되는 질의 프레임에 가중치를 부여하는 원본 영상 검출 장치.In the original image detection apparatus using a feature value in a 360 degree image,
An image input unit for receiving an image to be judged, which is taken in the form of a 360-degree image,
a frame extracting unit for extracting a plurality of frames corresponding to the time point at which a scene is changed through comparison of the inter-frame RGB change amount and feature information from the input judgment target image;
A projection type conversion unit that converts the extracted frame into an ERP (Equi-Rectangular Projection) type,
a feature point extraction unit for extracting feature points from the converted frame;
An image determination unit that compares the feature points extracted from the frame of the original image with the feature points extracted from the frame of the judgment target image to calculate a degree of agreement, and determines whether the original image matches the judgment target image using the calculated degree of agreement includes,
a frame transforming unit for generating each transformed frame by applying a plurality of transforming attacks to the original frame extracted from the original image according to the filtering performance evaluation item; and
By using the Euclidean algorithm, the feature points extracted from the original frame and the feature points extracted from a plurality of modified frames are matched with each other to extract the same reference feature points, and information about the reference feature points and copyright information of the original image are included. Includes an original dataset generator that generates the original dataset for each of a plurality of original frames,
The image determination unit,
An original that compares the reference feature points of the generated plurality of original datasets with the feature points of the query frame using the Euclidean algorithm to calculate the degree of agreement, and weights the corresponding query frame according to the calculated degree of agreement image detection device.
상기 복수의 변형 공격은,
로고 삽입, 자막 삽입, 영상 압축율 변환, 코덱 변환, 화면 비율 변환, 해상도 변환, 프레임 비율 감소, 회전, 반전, 흑백 변환, 밝기 변환, 대조 효과 변화, 투영법 변환, 모노 스코픽 크롭핑, 스테리오 스코픽 크롭핑 및 기본 시점 이동 중에서 적어도 하나를 포함하는 원본 영상 검출 장치.According to claim 1,
The plurality of transformation attacks are
Logo Insertion, Subtitle Insertion, Video Compression Rate Conversion, Codec Conversion, Aspect Ratio Conversion, Resolution Conversion, Frame Rate Reduction, Rotation, Invert, B&W Conversion, Brightness Conversion, Contrast Effect Conversion, Projection Conversion, Monoscopic Cropping, Stereoscopic Crop An original image detection apparatus comprising at least one of a ping and a basic viewpoint movement.
상기 프레임 추출부는,
상기 입력된 영상이 원본 영상이면, 장면이 변화되는 시점에 해당하는 원본 프레임을 연속적으로 복수개 추출하고,
상기 입력된 영상이 판단 대상 영상이면, 장면이 변화되는 시점에 해당하는 질의 프레임을 랜덤으로 설정된 개수만큼 추출하는 원본 영상 검출 장치.According to claim 1,
The frame extraction unit,
If the input image is an original image, sequentially extracting a plurality of original frames corresponding to the time when the scene is changed,
If the input image is the image to be determined, the original image detection apparatus for extracting a randomly set number of query frames corresponding to the time when the scene is changed.
상기 특징점 추출부는,
ERP 타입으로 변환된 상기 원본 프레임, 변형 프레임 및 질의 프레임을 동일한 비율의 해상도로 다운샘플링하고, 상기 원본 프레임, 변형 프레임 및 질의 프레임의 중심으로부터 상하 45도에 해당하는 중앙 영역을 특징점 추출 영역으로 선정하며,
상기 선정된 특징점 추출 영역에 포함된 객체로부터 특징점을 추출하는 원본 영상 검출 장치.According to claim 1,
The feature point extraction unit,
The original frame, the modified frame, and the query frame converted to the ERP type are down-sampled at the same rate of resolution, and the central area corresponding to 45 degrees up and down from the center of the original frame, the modified frame and the query frame is selected as the feature point extraction area. and
An original image detection apparatus for extracting a feature point from an object included in the selected feature point extraction area.
상기 영상 판단부는,
상기 일치도가 기준값 이상이면 1의 가중치를 부여하고, 일치도가 기준값보다 작으면 가중치를 0으로 부여하여 초기화하는 원본 영상 검출 장치.According to claim 1,
The image determination unit,
The original image detection apparatus initializes by assigning a weight of 1 when the degree of agreement is greater than or equal to a reference value, and assigning a weight of 0 when the degree of agreement is less than the reference value.
상기 영상 판단부는,
상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 연속적이면, 상기 판단 대상 영상과 원본 영상이 일치하는 것으로 판단하고, 상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 비연속적이면, 상기 판단 대상 영상이 변형된 것으로 최종 판단하는 원본 영상 검출 장치.8. The method of claim 7,
The image determination unit,
If the query frames given a weight of 1 among the plurality of query frames are continuous, it is determined that the judgment target image and the original image match, and among the plurality of query frames, if the query frames given a weight of 1 are non-consecutive , an original image detection apparatus that finally determines that the determination target image is deformed.
360도 영상 형태로 촬영된 원본 영상으로부터 장면이 변화되는 시점에 해당하는 원본 프레임을 연속적으로 복수개 추출하고, 상기 추출된 각 원본 프레임에 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하고, 상기 각 원본 프레임에서 추출된 객체의 특징점과 상기 각 원본 프레임에 대응하는 복수의 변형 프레임으로부터 추출된 객체의 특징점에서 공통적으로 나타나는 기준 특징점을 추출한 다음, 상기 기준 특징점과 360도 영상의 저작권 정보가 포함된 원본 데이터셋을 복수개의 원본 프레임별로 데이터베이스에 저장하는 단계,
사용자로부터 판단 대상 영상을 입력받는 단계,
상기 판단 대상 영상에서 프레임간 RGB 변화량과 특징 정보 비교를 통하여 장면이 변화되는 시점에 해당하는 질의 프레임을 추출하는 단계,
상기 추출된 질의 프레임을 ERP 타입으로 변환하는 단계,
상기 변환된 질의 프레임으로부터 특징점을 추출하는 단계, 그리고
상기 원본 데이터셋에 포함된 기준 특징점과 상기 질의 프레임에서 추출된 특징점을 비교하여 일치도를 산출하고, 상기 산출된 일치도를 이용하여 상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계를 포함하며,
원본 데이터셋을 복수개의 원본 프레임별로 생성하여 저장하는 단계는,
상기 원본 영상로부터 추출된 원본 프레임에 필터링 성능 평가 항목에 따라 복수의 변형 공격을 가하여 각각의 변형 프레임을 생성하고,
유클리디안 알고리즘을 이용하여 상기 원본 프레임에서 추출한 특징점과 복수의 변형 프레임에서 각각 추출한 특징점을 서로 매칭하여 동일하게 존재하는 특징점을 기준 특징점으로 확정하며,
상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계는,
유클리디안(Euclidean) 알고리즘을 이용하여 상기 저장된 복수개의 원본 데이터셋의 기준 특징점과 질의 프레임의 특징점을 각각 비교하여 일치도를 산출하고, 산출된 일치도에 따라 해당되는 질의 프레임에 가중치를 부여하는 원본 영상 검출 방법.In the original image detection method in a 360 degree image using the original image detection device,
A plurality of original frames corresponding to a scene change point are successively extracted from an original image taken in the form of a 360-degree image, and a plurality of transformation attacks are applied to each of the extracted original frames to generate each transformed frame, After extracting a reference feature point that appears in common in the feature point of the object extracted from the original frame and the feature point of the object extracted from a plurality of modified frames corresponding to each of the original frame, the reference feature point and the copyright information of the 360-degree image are extracted Storing the dataset in a database for each of a plurality of original frames;
receiving a judgment target image from a user;
extracting a query frame corresponding to a time point at which a scene is changed by comparing the RGB variation between frames and feature information in the judgment target image;
converting the extracted query frame into an ERP type;
extracting feature points from the transformed query frame; and
Comparing the reference feature points included in the original dataset with the feature points extracted from the query frame to calculate a degree of agreement, and using the calculated degree of agreement to determine whether the original image matches the judgment target image,
The step of creating and saving the original dataset for each of a plurality of original frames is:
Applying a plurality of deformation attacks to the original frame extracted from the original image according to the filtering performance evaluation item to generate each modified frame,
By using the Euclidean algorithm, the feature points extracted from the original frame and the feature points extracted from a plurality of modified frames are matched with each other to determine the same existing feature points as the reference feature points,
The step of determining whether the original image and the judgment target image match,
The original image in which the degree of agreement is calculated by comparing the reference feature points of the plurality of stored original datasets with the feature points of the query frame using the Euclidean algorithm, and weight is given to the query frame according to the calculated degree of agreement detection method.
상기 복수의 변형 공격은,
로고 삽입, 자막 삽입, 영상 압축율 변환, 코덱 변환, 화면 비율 변환, 해상도 변환, 프레임 비율 감소, 회전, 반전, 흑백 변환, 밝기 변환, 대조 효과 변화, 투영법 변환, 모노 스코픽 크롭핑, 스테리오 스코픽 크롭핑 및 기본 시점 이동 중에서 적어도 하나를 포함하는 원본 영상 검출 방법.10. The method of claim 9,
The plurality of transformation attacks are
Logo Insertion, Subtitle Insertion, Video Compression Rate Conversion, Codec Conversion, Aspect Ratio Conversion, Resolution Conversion, Frame Rate Reduction, Rotation, Invert, B&W Conversion, Brightness Conversion, Contrast Effect Conversion, Projection Conversion, Monoscopic Cropping, Stereoscopic Crop An original image detection method comprising at least one of ping and basic viewpoint movement.
상기 질의 프레임을 추출하는 단계는,
장면이 변화되는 시점에 해당하는 질의 프레임을 랜덤으로 설정된 개수만큼 추출하는 원본 영상 검출 방법.10. The method of claim 9,
Extracting the query frame comprises:
An original image detection method that extracts a randomly set number of query frames corresponding to a scene change point.
상기 특징점을 추출하는 단계는,
ERP 타입으로 변환된 상기 질의 프레임을 동일한 비율의 해상도로 다운샘플링하고, 상기 질의 프레임의 중심으로부터 상하 45도에 해당하는 중앙 영역을 특징점 추출 영역으로 선정하며,
상기 선정된 특징점 추출 영역에 포함된 객체로부터 특징점을 추출하는 원본 영상 검출 방법.10. The method of claim 9,
The step of extracting the feature point,
Downsampling the query frame converted to the ERP type at the same rate of resolution, and selecting a central area corresponding to 45 degrees up and down from the center of the query frame as a feature point extraction area,
An original image detection method for extracting a feature point from an object included in the selected feature point extraction area.
상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계는,
상기 일치도가 기준값 이상이면 1의 가중치를 부여하고, 일치도가 기준값보다 작으면 가중치를 0으로 부여하여 초기화하는 원본 영상 검출 방법.10. The method of claim 9,
The step of determining whether the original image and the judgment target image match,
An original image detection method in which a weight of 1 is given if the degree of agreement is equal to or greater than a reference value, and a weight of 0 is assigned if the degree of agreement is less than a reference value to initialize the original image.
상기 원본 영상과 판단 대상 영상의 일치 여부를 판단하는 단계는,
상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 연속적이면, 상기 판단 대상 영상과 원본 영상이 일치하는 것으로 판단하고, 상기 복수의 질의 프레임 중에서 1의 가중치를 부여 받은 질의 프레임이 비연속적이면, 상기 판단 대상 영상이 변형된 것으로 최종 판단하는 원본 영상 검출 방법.16. The method of claim 15,
The step of determining whether the original image and the judgment target image match,
If the query frames given a weight of 1 among the plurality of query frames are continuous, it is determined that the judgment target image and the original image match, and among the plurality of query frames, if the query frames given a weight of 1 are non-consecutive , an original image detection method for finally determining that the judgment target image is deformed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200164584A KR102268981B1 (en) | 2020-11-30 | 2020-11-30 | Original image detection apparatus using feature values in 360 degree images and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200164584A KR102268981B1 (en) | 2020-11-30 | 2020-11-30 | Original image detection apparatus using feature values in 360 degree images and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102268981B1 true KR102268981B1 (en) | 2021-06-25 |
Family
ID=76629344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200164584A KR102268981B1 (en) | 2020-11-30 | 2020-11-30 | Original image detection apparatus using feature values in 360 degree images and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102268981B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100105578A (en) * | 2007-12-17 | 2010-09-29 | 인터내셔널 비지네스 머신즈 코포레이션 | Temporal segment based extraction and robust matching of video fingerprints |
KR102052535B1 (en) * | 2018-12-05 | 2020-01-08 | 주식회사 비욘드테크 | Apparatus for judging illegal duplication using feature point and method thereof |
-
2020
- 2020-11-30 KR KR1020200164584A patent/KR102268981B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100105578A (en) * | 2007-12-17 | 2010-09-29 | 인터내셔널 비지네스 머신즈 코포레이션 | Temporal segment based extraction and robust matching of video fingerprints |
KR102052535B1 (en) * | 2018-12-05 | 2020-01-08 | 주식회사 비욘드테크 | Apparatus for judging illegal duplication using feature point and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Verdoliva | Media forensics and deepfakes: an overview | |
US11023618B2 (en) | Systems and methods for detecting modifications in a video clip | |
EP4154511A1 (en) | Maintaining fixed sizes for target objects in frames | |
KR100645300B1 (en) | Method and apparatus for summarizing and indexing the contents of an audio-visual presentation | |
US11343591B2 (en) | Method and system of presenting moving images or videos corresponding to still images | |
US20200213532A1 (en) | Video processing method and apparatus based on augmented reality, and electronic device | |
CN104618803A (en) | Information push method, information push device, terminal and server | |
JP2020115351A (en) | Method and device for generating extrapolation image based on object detection | |
KR20130120175A (en) | Apparatus, method and computer readable recording medium for generating a caricature automatically | |
KR101812103B1 (en) | Method and program for setting thumbnail image | |
US8731326B2 (en) | Object recognition system and method | |
KR102052535B1 (en) | Apparatus for judging illegal duplication using feature point and method thereof | |
CN106997366B (en) | Database construction method, augmented reality fusion tracking method and terminal equipment | |
KR102268981B1 (en) | Original image detection apparatus using feature values in 360 degree images and method thereof | |
CN111654747A (en) | Bullet screen display method and device | |
JP6340675B1 (en) | Object extraction device, object recognition system, and metadata creation system | |
Saif et al. | Deepfake videos: synthesis and detection techniques–a survey | |
Pan et al. | Facial biometric presentation attack detection using temporal texture co-occurrence | |
Chittapur et al. | Video forgery detection using motion extractor by referring block matching algorithm | |
CN110996173B (en) | Image data processing method and device and storage medium | |
Lian et al. | Multimedia forensics for detecting forgeries | |
KR102498383B1 (en) | Method representative frame extraction method for filtering of 3d images and apparatuses operating the same | |
Kim et al. | Proposition of Rubustness Indicators for Immersive Content Filtering | |
Jegaveerapandian et al. | A survey on passive digital video forgery detection techniques. | |
Garboan | Towards camcorder recording robust video fingerprinting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |