KR20200016119A - 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램 - Google Patents

이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램 Download PDF

Info

Publication number
KR20200016119A
KR20200016119A KR1020180091447A KR20180091447A KR20200016119A KR 20200016119 A KR20200016119 A KR 20200016119A KR 1020180091447 A KR1020180091447 A KR 1020180091447A KR 20180091447 A KR20180091447 A KR 20180091447A KR 20200016119 A KR20200016119 A KR 20200016119A
Authority
KR
South Korea
Prior art keywords
content
matching
cuts
cut
damaged
Prior art date
Application number
KR1020180091447A
Other languages
English (en)
Other versions
KR102112768B1 (ko
Inventor
박상민
서충현
이진서
김승익
이요섭
Original Assignee
네이버웹툰 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버웹툰 주식회사 filed Critical 네이버웹툰 주식회사
Priority to KR1020180091447A priority Critical patent/KR102112768B1/ko
Priority to JP2021506306A priority patent/JP7277562B2/ja
Priority to CN201980051523.XA priority patent/CN112654981A/zh
Priority to PCT/KR2019/007958 priority patent/WO2020032392A1/ko
Publication of KR20200016119A publication Critical patent/KR20200016119A/ko
Application granted granted Critical
Publication of KR102112768B1 publication Critical patent/KR102112768B1/ko
Priority to US17/168,526 priority patent/US20210158573A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따르면, 복수개의 컷들로 이루어진 원본 컨텐츠에 기반하여 생성된 손상 컨텐츠를 획득하는 손상 컨텐츠 획득부; 상기 손상 컨텐츠에 포함된 하나 이상의 이미지들을 병합하거나 상기 손상 컨텐츠에 포함된 하나 이상의 컷의 일부 영역을 제거하여 전처리 컨텐츠를 생성하는 전처리 컨텐츠 생성부; 상기 원본 컨텐츠에 포함된 하나 이상의 컷들과 대조하여 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들의 크기 또는 위치를 조정한 매칭용 컨텐츠를 생성하는 매칭용 컨텐츠 생성부; 상기 원본 컨텐츠와 상기 매칭용 컨텐츠를 컷 별로 매칭하는 매칭부; 를 포함하는 이미지 매칭을 이용한 표식 검출 장치가 제공된다.

Description

이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM FOR DETECTING MARKER USING IMAGE MATCHING}
본 발명은 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램에 관한 것으로, 보다 상세하게는 원본 컨텐츠와 유출 시 손상된 컨텐츠를 컷 별로 대조하여 유출 컨텐츠에 포함된 컷들의 크기 및 위치를 조정함으로써, 유출 컨텐츠에 부가된 표식을 용이하게 검출할 수 있는 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램에 관한 것이다.
온라인 컨텐츠 시장이 비약적으로 발전함에 따라, 디지털 데이터의 복제 용이성에 기인한 컨텐츠 유출 및 무단 불법복제 시장 역시 날로 커지고 있다. 컨텐츠 무단 복제를 방지하기 위해 컨텐츠에 워터마크를 추가하는 방법 등이 사용되고 있지만, 워터마크는 컨텐츠의 시인성을 떨어뜨리고, 워터마크 삭제는 어려운 기술을 요하지 않으며, 워터마크가 표시된 컨텐츠로 유출자를 검출하는 것은 어렵다는 문제점이 존재한다.
한편, 일반적으로 만화는 인물, 동물, 사물 등의 모습을 간결하고 익살스럽게 그리거나 과장하여 나타낸 그림을 말하며, 짤막한 지문을 넣어 유머나 풍자 또는 일정한 줄거리를 담아 읽을거리를 제공한다. 최근에는 온라인 만화가 출시되어 많은 유저들이 만화 열람을 통해 즐거움과 정보를 얻고 있다. 예컨대, 한국공개특허 제10-2011-0123393호(공개일 2011년 11월 15일)에는 온라인 상의 직거래를 통해 모바일 디지털 컨텐츠 형태의 만화를 제공하는 기술이 개시되어 있다.
본 발명은 원본 컨텐츠와 유출 시 손상된 컨텐츠를 컷 별로 대조하여, 유출 컨텐츠에 포함된 컷들의 크기 및 위치가 조정된 매칭용 컨텐츠를 생성하는 것을 일 목적으로 한다.
본 발명은 매칭용 컨텐츠를 원본 컨텐츠와 매칭하여 유출된 컨텐츠로부터 표식을 검출하는 것을 다른 목적으로 한다.
본 발명의 일 실시예에 따르면, 복수개의 컷들로 이루어진 원본 컨텐츠에 기반하여 생성된 손상 컨텐츠를 획득하는 손상 컨텐츠 획득부; 상기 손상 컨텐츠에 포함된 하나 이상의 이미지들을 병합하거나 상기 손상 컨텐츠에 포함된 하나 이상의 컷의 일부 영역을 제거하여 전처리 컨텐츠를 생성하는 전처리 컨텐츠 생성부; 상기 원본 컨텐츠에 포함된 하나 이상의 컷들과 대조하여 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들의 크기 또는 위치를 조정한 매칭용 컨텐츠를 생성하는 매칭용 컨텐츠 생성부; 상기 원본 컨텐츠와 상기 매칭용 컨텐츠를 컷 별로 매칭하는 매칭부; 를 포함하는 이미지 매칭을 이용한 표식 검출 장치가 제공된다.
본 발명에 있어서, 상기 원본 컨텐츠의 특정 컷에 존재하지 않지만 상기 원본 컨텐츠의 특정 컷에 매칭된 상기 매칭용 컨텐츠의 특정 컷에 존재하는 표식을 검출하는 표식 검출부; 를 추가적으로 포함할 수 있다.
본 발명에 있어서, 상기 매칭부는, 상기 원본 컨텐츠와 상기 매칭용 컨텐츠가 동일한 부분은 제1 색상으로 표시하고, 상기 원본 컨텐츠와 상기 매칭용 컨텐츠가 상이한 부분은 제2 색상으로 표시할 수 있다.
본 발명에 있어서, 상기 매칭용 컨텐츠 생성부는, 상기 원본 컨텐츠에 포함된 하나 이상의 컷들과 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들을 대조하여 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들 각각에 대한 컷 위치를 결정하고, 상기 원본 컨텐츠의 하나 이상의 이미지와 동일한 크기의 하나 이상의 빈 이미지를 생성하고, 상기 결정된 컷 위치에 기초하여 상기 하나 이상의 빈 이미지 상에 상기 전처리 컨텐츠에 포함된 상기 하나 이상의 컷을 배치할 수 있다.
본 발명에 있어서, 상기 매칭용 컨텐츠 생성부는, 상기 원본 컨텐츠의 컷들과 상기 손상 컨텐츠의 컷들을 비교하여 컷 별로 스케일 비(比)를 산정한 후, 상기 산정된 스케일 비에 기초하여 상기 손상 컨텐츠의 하나 이상의 컷들의 크기를 조정할 수 있다.
본 발명에 있어서, 상기 전처리 컨텐츠 생성부는, 상기 손상 컨텐츠에 포함된 개별 이미지를 병합하여 병합 이미지를 생성하고, 상기 병합 이미지의 컷의 외부 영역을 제거하여 컷들로만 이루어진 전처리 컨텐츠를 생성할 수 있다.
본 발명에 있어서, 상기 매칭용 컨텐츠 생성부는, 세로형 컨텐츠일 경우 컷의 가로 길이에 기초하여 상기 스케일 비를 산정하고, 가로형 컨텐츠일 경우 컷의 세로 길이에 기초하여 상기 스케일 비를 산정할 수 있다.
본 발명에 있어서, 상기 매칭용 컨텐츠 생성부는, 상기 손상 컨텐츠의 특정 컷의 상기 산정된 스케일 비에 기초하여 상기 손상 컨텐츠의 다른 컷들의 크기를 조정할 수 있다.
본 발명에 있어서, 상기 표식 검출부는, 상기 원본 컨텐츠와 상기 매칭용 컨텐츠가 매칭된 컨텐츠에서 상기 표식이 부가될 수 있는 영역을 확대하여 표시할 수 있다.
본 발명의 일 실시예에 따르면, 복수개의 컷들로 이루어진 원본 컨텐츠에 기반하여 생성된 손상 컨텐츠를 획득하는 손상 컨텐츠 획득 단계; 상기 손상 컨텐츠에 포함된 하나 이상의 이미지들을 병합하거나 상기 손상 컨텐츠에 포함된 하나 이상의 컷의 일부 영역을 제거하여 전처리 컨텐츠를 생성하는 전처리 컨텐츠 생성 단계; 상기 원본 컨텐츠에 포함된 하나 이상의 컷들과 대조하여 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들의 크기 또는 위치를 조정한 매칭용 컨텐츠를 생성하는 매칭용 컨텐츠 생성 단계; 상기 원본 컨텐츠와 상기 매칭용 컨텐츠를 컷 별로 매칭하는 매칭 단계; 를 포함하는 이미지 매칭을 이용한 표식 검출 방법이 제공된다.
본 발명에 있어서, 상기 원본 컨텐츠의 특정 컷에 존재하지 않지만 상기 원본 컨텐츠의 특정 컷에 매칭된 상기 매칭용 컨텐츠의 특정 컷에 존재하는 표식을 검출하는 표식 검출 단계; 를 추가적으로 포함할 수 있다.
본 발명에 있어서, 상기 매칭용 컨텐츠 생성 단계는, 상기 원본 컨텐츠에 포함된 하나 이상의 컷들과 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들을 대조하여 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들 각각에 대한 컷 위치를 결정하는 단계; 상기 원본 컨텐츠의 하나 이상의 이미지와 동일한 크기의 하나 이상의 빈 이미지를 생성하는 단계; 상기 결정된 컷 위치에 기초하여 상기 하나 이상의 빈 이미지 상에 상기 전처리 컨텐츠에 포함된 상기 하나 이상의 컷을 배치하는 단계; 를 포함할 수 있다.
본 발명에 있어서, 상기 전처리 컨텐츠 생성 단계는, 상기 손상 컨텐츠에 포함된 개별 이미지를 병합하여 병합 이미지를 생성하는 단계; 상기 병합 이미지의 컷의 외부 영역을 제거하여 컷들로만 이루어진 전처리 컨텐츠를 생성하는 단계; 를 포함할 수 있다.
본 발명에 있어서, 상기 매칭용 컨텐츠 생성 단계는, 상기 원본 컨텐츠의 컷들과 상기 손상 컨텐츠의 컷들을 비교하여 컷 별로 스케일 비(比)를 산정한 후, 상기 산정된 스케일 비에 기초하여 상기 손상 컨텐츠의 하나 이상의 컷들의 크기를 조정할 수 있다.
또한, 본 발명에 따른 방법을 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램이 제공된다.
본 발명에 의하면, 유출된 컨텐츠에 열람자 정보를 나타내는 표식이 부가되어 있으므로, 부가된 표식을 이용하여 컨텐츠 유출자를 용이하게 검출할 수 있다.
본 발명에 의하면, 유출 컨텐츠에 포함된 컷들의 크기 및 위치가 조정된 매칭용 컨텐츠를 생성함으로써, 유출 시 컨텐츠가 손상된 경우라도 정확도 높은 매칭 결과를 제공할 수 있다.
본 발명은 매칭용 컨텐츠를 원본 컨텐츠와 매칭하여 표식을 검출함으로써, 검출된 표식을 이용하여 유출자 정보를 획득할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2 는 본 발명의 일 실시예에 있어서, 사용자 단말 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 3 은 본 발명의 일 실시예에 따른 프로세서의 내부 구성을 나타낸 것이다.
도 4 는 본 발명의 일 실시예에 따른 이미지 매칭을 이용한 표식 검출 방법을 시계열적으로 나타낸 도면이다.
도 5 는 본 발명의 일 실시예에 따라 손상된 유출 컨텐츠가 생성되는 과정을 설명하기 위한 예시이다.
도 6 은 원본 컨텐츠와 손상 컨텐츠를 예시한 것이다.
도 7 은 본 발명의 일 실시예에 따라 컨텐츠의 이미지들을 병합하는 일 예이다.
도 8 은 본 발명의 일 실시예에 따라 컷의 외부 영역을 제거하는 일 예이다.
도 9 는 본 발명의 일 실시예에 따라 컷들의 크기를 조정하는 일 예이다.
도 10 은 본 발명의 일 실시예에 따라 컷의 위치를 조정하는 일 예이다.
도 11 는 본 발명의 일 실시예에 따라 원본 컨텐츠와 매칭용 컨텐츠를 매칭하는 일 예이다.
도 12 는 본 발명의 일 실시예에 따라 표식을 검출하는 일 예이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
도 1 은 본 발명의 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 1의 네트워크 환경은 복수의 사용자 단말들(110, 120, 130, 140), 서버(150) 및 네트워크(160)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 사용자 단말의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.
복수의 사용자 단말들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 사용자 단말들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 사용자 단말 1(110)은 무선 또는 유선 통신 방식을 이용하여 네트워크(160)를 통해 다른 사용자 단말들(120, 130, 140) 및/또는 서버(150)와 통신할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(160)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(160)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(160)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(150)는 복수의 사용자 단말들(110, 120, 130, 140)과 네트워크(160)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.
일례로, 서버(150)는 네트워크(160)를 통해 접속한 사용자 단말 1(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 사용자 단말 1(110)은 서버(150)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한 사용자 단말 1(110)이 포함하는 운영체제(Operating System, OS) 및 적어도 하나의 프로그램(일례로 브라우저나 설치된 어플리케이션)의 제어에 따라 서버(150)에 접속하여 서버(150)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 예를 들어, 사용자 단말1(110)이 어플리케이션의 제어에 따라 네트워크(160)를 통해 표식 검출 요청을 서버(150)로 전송하면, 서버(150)는 유출 컨텐츠와 원본 컨텐츠를 대조하여 매칭을 위한 매칭용 컨텐츠를 생성하고, 매칭용 컨텐츠와 원본 컨텐츠의 매칭 결과 및 검출된 표식 정보를 사용자 단말 1(110)로 전송할 수 있고, 사용자 단말 1(110)은 어플리케이션의 제어에 따라 매칭 결과 및 검출된 표식 정보를 표시할 수 있다. 다른 예로, 서버(150)는 데이터 송수신을 위한 통신 세션을 설정하고, 설정된 통신 세션을 통해 복수의 사용자 단말들(110, 120, 130, 140)간의 데이터 송수신을 라우팅할 수도 있다.
도 2 는 본 발명의 일 실시예에 있어서, 사용자 단말 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 2에서는 하나의 사용자 단말에 대한 예로서 사용자 단말 1(110), 그리고 하나의 서버에 대한 예로서 서버(150)의 내부 구성을 설명한다. 다른 사용자 단말들(120, 130, 140)들 역시 동일한 또는 유사한 내부 구성을 가질 수 있다.
사용자 단말 1(110)과 서버(150)는 메모리(211, 221), 프로세서(212, 222), 통신 모듈(213, 223) 그리고 입출력 인터페이스(214, 224)를 포함할 수 있다. 메모리(211, 221)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(211, 221)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 사용자 단말 1(110)에 설치되어 구동되는 브라우저나 상술한 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism)을 이용하여 메모리(211, 221)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(213, 223)을 통해 메모리(211, 221)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 상술한 서버(150))이 네트워크(160)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(211, 221)에 로딩될 수 있다.
프로세서(212, 222)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(211, 221) 또는 통신 모듈(213, 223)에 의해 프로세서(212, 222)로 제공될 수 있다. 예를 들어 프로세서(212, 222)는 메모리(211, 221)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(213, 223)은 네트워크(160)를 통해 사용자 단말 1(110)과 서버(150)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 사용자 단말(일례로 사용자 단말 2(120)) 또는 다른 서버(일례로 서버(150))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 사용자 단말 1(110)의 프로세서(212)가 메모리(211)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(213)의 제어에 따라 네트워크(160)를 통해 서버(150)로 전달될 수 있다. 역으로, 서버(150)의 프로세서(222)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(223)과 네트워크(160)를 거쳐 사용자 단말 1(110)의 통신 모듈(213)을 통해 사용자 단말 1(110)로 수신될 수 있다. 예를 들어 통신 모듈(213)을 통해 수신된 서버(150)의 제어 신호나 명령 등은 프로세서(212)나 메모리(211)로 전달될 수 있고, 컨텐츠나 파일 등은 사용자 단말 1(110)이 더 포함할 수 있는 저장 매체로 저장될 수 있다.
입출력 인터페이스(214, 224)는 입출력 장치(215)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(214)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 사용자 단말 1(110)의 프로세서(212)는 메모리(211)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(150)나 사용자 단말 2(120)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(214)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 사용자 단말 1(110) 및 서버(150)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 사용자 단말 1(110)은 상술한 입출력 장치(215) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
도 3 은 본 발명의 일 실시예에 따른 프로세서의 내부 구성을 나타낸 것이다.
프로세서(212)는 웹 페이지를 온라인으로부터 제공받아 출력할 수 있는 웹 브라우저(web browser) 또는 어플리케이션을 포함할 수 있다. 프로세서(212) 내에서 본 발명의 일 실시예에 따른 이미지 매칭을 이용한 표식 검출 기능을 수행하는 구성은 도 3 에 도시된 바와 같이 손상 컨텐츠 획득부(310), 전처리 컨텐츠 생성부(320), 매칭용 컨텐츠 생성부(330), 매칭부(340) 및 표식 검출부(350)를 포함할 수 있다. 실시예에 따라 프로세서(212)의 구성요소들은 선택적으로 프로세서(212)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(212)의 구성요소들은 프로세서(212)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.
여기서, 프로세서(212)의 구성요소들은 사용자 단말 1(110)에 저장된 프로그램 코드가 제공하는 명령(일례로, 사용자 단말 1(110)에서 구동된 웹 브라우저가 제공하는 명령)에 따라 프로세서(212)에 의해 수행되는 프로세서(212)의 서로 다른 기능들(different functions)의 표현들일 수 있다.
이러한 프로세서(212) 및 프로세서(212)의 구성요소들은 도 4 의 이미지 매칭을 이용한 표식 검출 방법이 포함하는 단계들(S1 내지 S5)을 수행하도록 사용자 단말 1(110)을 제어할 수 있다. 예를 들어, 프로세서(212) 및 프로세서(212)의 구성요소들은 메모리(211)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
도 4 는 본 발명의 일 실시예에 따른 이미지 매칭을 이용한 표식 검출 방법을 시계열적으로 나타낸 도면이다. 이하에서는, 도 3 및 도 4 를 함께 참조하여 본 발명의 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램을 구체적으로 살펴보기로 한다.
먼저, 손상 컨텐츠 획득부(310)는 복수개의 컷들로 이루어진 원본 컨텐츠에 기반하여 생성된 손상 컨텐츠를 획득한다(S1).
컨텐츠 유출자들이 유출하는 컨텐츠는 다양한 이유로 원본 컨텐츠에 비해 손상된 컨텐츠일 수 있다. 일 예로, 유출된 컨텐츠는 확대 또는 축소되거나, 컨텐츠가 단절되거나, 컷들간의 배열이 원본 컨텐츠와 다르거나, 일부가 소실되거나, 중첩되는 등 다양한 경우로 손상된 컨텐츠일 수 높다. 이때, 열람된 컨텐츠의 어느 위치에 표식을 부가하였는지에 대한 정보가 존재하여야 유출자에 대한 정보를 얻을 수 있으나, 유출 컨텐츠가 손상된 경우, 유출 컨텐츠와 원본 컨텐츠를 매칭하더라도 올바른 표식 위치에 대한 정보를 알기가 어려울 수 있다. 이에, 본원 발명은 유출 컨텐츠와 원본 컨텐츠를 매칭하기 위하여 유출 컨텐츠의 크기 또는 위치를 조정하여 매칭용 컨텐츠를 생성하고, 매칭용 컨텐츠를 원본 컨텐츠와 매칭하여 표식을 검출하는 것을 특징으로 한다.
도 5 는 본 발명의 일 실시예에 따라 손상된 유출 컨텐츠가 생성되는 과정을 설명하기 위한 예시이다.
도 5 의 예시에서, (a) 는 원본 컨텐츠, (b) 는 원본 컨텐츠에 표식이 부가된 표식 컨텐츠, (c) 는 사용자에 의해 유출된 유출 컨텐츠를 나타낸다. 또한, (d) 내지 (e)는 사용자 단말(110)의 화면의 디스플레이의 일 예이다.
먼저, 도 5 의 (d)를 참조하면, 사용자는 컨텐츠 목록(53) 중에서 열람하고자 원하는 열람 대사 컨텐츠(51)를 선택할 수 있다. 상술한 바와 같이, 본 발명의 열람 대상 컨텐츠(51)는 컷(51c1, 51c2)으로 이루어진 컨텐츠일 수 있으며, 각 컨텐츠는 시리즈 컨텐츠의 일부 회차일 수 있다. 예를 들어, 도 5 에 도시된 컨텐츠 목록에서 '인터넷 친구 5화'는 1화 내지 5화로 이루어진 시리즈 컨텐츠의 5회차 컨텐츠일 수 있다. 사용자는 디스플레이된 컨텐츠들 중 '인터넷 친구 5화'를 열람 대상 컨텐츠로 선택할 수 있으며, 선택된 열람 대상 컨텐츠 정보 및 열람자 정보가 수신될 수 있다.
다음으로, 프로세서(212, 222)는 열람 대상 컨텐츠(51)로부터 표식 컨텐츠(52)를 생성할 수 있다. 표식 컨텐츠의 각 컷(52c1, 52c2)에는 열람자 정보에 기초한 표식(52s1, 52s2)이 부가될 수 있다. 즉, 컨텐츠의 배포권을 가지지 않은 컨텐츠 열람자가 컨텐츠를 무단으로 유출하는 상황이 발생할 경우 유출자를 검출하기 위해, 유출자 정보에 기초한 표식이 부가된 표식 컨텐츠를 원본 컨텐츠 대신 사용자 단말에 제공할 수 있다. 또한, 유출된 컨텐츠의 표식을 검출하여 유출자 정보를 획득할 수 있다.
보다 상세히, 도 5 의 (e)와 같이, 사용자 단말에는 표식 컨텐츠(52)가 표시될 수 있으며 표식 컨텐츠 (b) 는 원본 컨텐츠 (a)에 유출자 검출용 표식(52s1, 52s2)이 포함될 수 있다. 한편, 사용자가 사용자 단말에 표시된 표식 컨텐츠(52)를 다운로드하거나 캡처하여 자신의 SNS 계정 등 다른 곳에 유출할 때, 유출 컨텐츠는 손상될 수 있다. 즉, 도 5 의 (f)에 나타난 바와 같이, 사용자가 자신의 SNS 계정(My Blog)에 유출한 컨텐츠(53)는 표식 컨텐츠가 손상된 컨텐츠일 수 있다. 이는, 표식 컨텐츠를 다운로드 혹은 캡처하여 다시 업로드하는 과정에서 일부 컨텐츠가 소실되거나 크기가 변경되거나 배치가 달라질 수 있기 때문이다. 즉, 도 5 의 (c) 와 같은 유출 컨텐츠는 원래의 표식 컨텐츠보다 첫번째 컷(53c1)이 외곽 부분이 크롭(crop) 되었거나, 두번째 컷(53c2)의 중간 부분이 소실되었을 수 있다.
본 발명에 따르면, 원본 컨텐츠와 표식 컨텐츠를 매칭하여 표식의 위치를 검출한 후, 표식의 위치로부터 유출자에 대한 정보를 획득하는 것을 일 목적으로 한다. 그러나, 도 5 의 (c)와 같이 유출된 컨텐츠가 손상된 경우, 원본 컨텐츠와 매칭을 통해 정확한 표식의 위치를 검출하기 어려울 수 있다. 이에, 본 발명에서는 원본 컨텐츠와의 매칭을 통해 표식을 검출할 수 있도록, 유출된 컨텐츠의 크기 및 위치를 조정하여 매칭용 컨텐츠를 생성하며, 매칭용 컨텐츠를 원본 컨텐츠와 매칭하여 표식의 위치를 검출할 수 있다.
도 6 은 원본 컨텐츠와 손상 컨텐츠를 예시한 것이다.
도 6 의 (a) 는 원본 컨텐츠이고, 도 6 의 (b) 는 유출된 손상 컨텐츠일 수 있다. 보다 상세히, 원본 컨텐츠는 4 개의 이미지(6a1, 6a2, 6a3, 6a4)로 이루어져 있으며, 각 이미지는 각각 하나의 컷을 포함할 수 있다. 이때, 컷은 컷 라인 및 컷 라인 내부의 컷 컨텐츠로 이루어질 수 있다. 또한, 유출된 손상 컨텐츠 역시 4개의 이미지(6b1, 6b2, 6b3, 6b4)를 포함하지만, 유출된 손상 컨텐츠는 3개의 이미지(6b1, 6b3, 6b4)만 각각 하나의 컷을 포함할 수 있다. 즉, 손상 컨텐츠는 제2 컷(6a2의 컷)이 소실되어 실질적으로 3개의 컷으로 이루어질 수 있다. 보다 상세히, 유출된 손상 컨텐츠의 제1 이미지(6b1)의 컷은 원본 컨텐츠의 제1 이미지(6a1)의 컷의 중간이 잘리고, 잘린 부분들이 서로 어긋난 것일 수 있다. 또한, 유출된 손상 컨텐츠의 제3 이미지(6b3)는 원본 컨텐츠의 제3 이미지(6a1)가 그대로 유지된 것일 수 있다. 또한, 유출된 손상 컨텐츠의 제4 이미지(6b4)의 컷은 원본 컨텐츠의 제4 이미지(6a4)의 컷이 중간 부분이 일부 중첩되어 소실된 컷일 수 있다. 즉, 손상 컨텐츠의 컷들은 원본 컨텐츠의 컷들이 변형된 것일 수 있으며, 이하의 명세서에서는 손상 컨텐츠를 조정하여 매칭용 컨텐츠를 생성하는 방법을 설명하기로 한다.
먼저, 전처리 컨텐츠 생성부(320)는 손상 컨텐츠에 포함된 하나 이상의 이미지들을 병합하거나, 손상 컨텐츠에 포함된 하나 이상의 컷의 일부 영역을 제거하여 전처리 컨텐츠를 생성한다(S2). 보다 상세히, 전처리 컨텐츠 생성부(320)는 손상 컨텐츠에 포함된 개별 이미지를 병합하여 병합 이미지를 생성하고, 병합 이미지의 컷의 외부 영역을 제거하여 컷들로만 이루어진 전처리 컨텐츠를 생성한다. 본 발명의 일 실시예에 따르면, 전처리 컨텐츠 생성부(320)는 이미지들을 병합하고 컷 외부의 빈공간을 제거하는 등의 전처리를 행하여 보다 원본 이미지와의 매칭이 빠르게 되도록 할 수 있다.
보다 상세히, 전처리 컨텐츠 생성부(320)는 손상 컨텐츠에 포함된 하나 이상의 이미지들을 병합하기 위하여, 이미지들을 순서대로 가로 혹은 세로로 이어붙일 수 있다. 컨텐츠가 세로로 진행하는 것일 경우 세로로 이미지들을 이어붙이고, 컨텐츠가 가로로 진행하는 것일 경우 가로로 이미지들을 이어붙일 수 있다. 이때, 전처리 컨텐츠 생성부(320)는 원본 컨텐츠에 포함된 복수개의 이미지들 역시 가로 혹은 세로로 이어붙일 수 있다
도 7 은 본 발명의 일 실시예에 따라 컨텐츠의 이미지들을 병합하는 일 예이다.
도 7 을 참조하면, 도 6 에서 예시되었던 손상 컨텐츠의 제1 내지 제4 이미지들(6b1 내지 6b4)을 세로로 이어붙인 병합 컨텐츠(7b)가 예시되어 있다. 도 7 에서 볼 수 있는 바와 같이, 병합 컨텐츠(7b)는 이미지들 간의 간격이 존재하지 않는다. 또한, 전처리 컨텐츠 생성부(320)는 원본 컨텐츠의 제1 내지 제4 이미지들(6a1 내지 6a4)이 속한 이미지들을 세로로 이어붙여 병합 컨텐츠(7a)를 생성할 수도 있다.
또한, 전처리 컨텐츠 생성부(320)는 손상 컨텐츠에 포함된 하나 이상의 컷의 외부 영역을 제거하여 컷으로만 이루어진 전처리 컨텐츠를 생성할 수 있다. 보다 상세히, 전처리 컨텐츠 생성부(320)는 손상 컨텐츠에 속한 각 이미지들의 컷 라인 외부의 영역을 제거할 수 있다. 만약, 손상 컨텐츠에 속한 컷이 존재하지 않는 경우, 전처리 컨텐츠 생성부(320)는 해당 이미지 자체를 제거할 수 있다. 더불어, 전처리 컨텐츠 생성부(320)는 원본 컨텐츠에 포함된 복수개의 컷들의 외부 영역을 제거할 수 있다.
본 발명의 일 실시예에 따르면, 컷으로 이루어진 컨텐츠의 특성 상 컷 라인 외부의 영역은 컨텐츠를 포함하지 않는 빈(empty) 공간일 가능성이 높으므로, 매칭용 컨텐츠를 생성하기 위해 빈 공간을 제거할 수 있다. 이때, 컷의 외부 영역이란 일반적으로는 컷 라인의 외부 영역을 의미할 수 있다. 컷 라인이란, 만화와 같이 컷으로 이루어진 컨텐츠에서 각 장면을 나타내기 위해 창작자가 구획한 구역이라 할 수 있다.
도 8 은 본 발명의 일 실시예에 따라 컷의 외부 영역을 제거하는 일 예이다.
도 8 을 참조하면, 도 7 과 같은 실시예에서 생성된 병합 컨텐츠(7a, 7b)의 컷들의 외부 영역을 제거하여 전처리 컨텐츠를 생성할 수 있다. 보다 상세히, 손상 컨텐츠에 기초한 병합 컨텐츠(7b)의 컷들의 외부 영역, 즉 컷 라인의 외부 영역을 제거하여, 컷들(8b1, 8b3, 8b4)로 이루어진 전처리 컨텐츠(8b)를 생성할 수 있다. 이때, 병합 컨텐츠(7b)의 첫번째 컷과 같이 컷이 여러 조각으로 분할되어 있고 조각들의 정렬이 맞지 않는 경우, 전처리 컨텐츠(8b)를 생성하면서 제1 컷(8b1)과 같이 정렬을 맞출 수 있다. 마찬가지로, 원본 컨텐츠에 기초한 병합 컨텐츠(7a)의 컷들의 외부 영역을 제거하여, 컷 들(8a1, 8b2, 8b3, 8b4)로 이루어진 전처리 컨텐츠(8a)를 생성할 수 있다.
다음으로, 매칭용 컨텐츠 생성부(330)는 원본 컨텐츠에 포함된 하나 이상의 컷들과 대조하여 전처리 컨텐츠에 포함된 하나 이상의 컷들의 크기 또는 위치를 조정한 매칭용 컨텐츠를 생성한다(S3). 보다 상세히, 매칭용 컨텐츠 생성부(330)는 원본 컨텐츠의 컷들과 손상 컨텐츠의 컷들을 비교하여 스케일 비(比)를 산정한 후, 산정된 스케일에 기초하여 손상 컨텐츠의 컷들의 크기를 조정할 수 있다.
본 발명의 일 실시예에 따르면, 전처리 과정에서 컷의 외부 영역이 제거된 순수한 컷들만 존재하는 전처리 컨텐츠가 생성되었으므로, 전처리 컨텐츠에 포함된 컷들의 크기 비교를 통해 손상 컨텐츠의 컷들의 크기를 원본 컨텐츠의 컷들의 크기에 일치시킬 수 있다. 예를 들어, 원본 컨텐츠에 기초한 전처리 컨텐츠의 첫번째 컷의 크기와, 손상 컨텐츠에 기초한 전처리 컨텐츠의 첫번째 크기를 컷의 크기를 비교하여 스케일 비를 산정할 수 있으며, 스케일 비에 기초하여 손상 컨텐츠의 첫번째 컷의 크기를 조정할 수 있다.
선택적 실시예에서, 매칭용 컨텐츠 생성부(330)는 컨텐츠의 유형에 따라 컷의 가로 혹은 세로 길이에 기초하여 스케일 비를 산정할 수 있다. 보다 상세히, 매칭용 컨텐츠 생성부(330)는 원본 컨텐츠가 세로형 컨텐츠일 경우 컷의 가로 길이에 기초하여 상기 스케일 비를 산정하고, 원본 컨텐츠가 가로형 컨텐츠일 경우 컷의 세로 길이에 기초하여 상기 스케일 비를 산정할 수 있다. 이는, 세로형 컨텐츠일 경우 가로 방향으로 컨텐츠의 소실 또는 중첩이 발생할 가능성이 높고(도 6 의 예시에서 제1 이미지(6b1) 또는 제2 이미지(6b4)의 컷), 가로형 컨텐츠일 경우 세로 방향으로 컨텐츠의 소실 또는 중첩이 발생할 가능성이 높기 때문이다.
선택적 실시예에서, 매칭용 컨텐츠 생성부(330)는 특정 컷의 산정된 스케일 비에 기초하여 손상 컨텐츠의 다른 컷들의 크기를 조정할 수 있다. 예를 들어, 매칭용 컨텐츠 생성부(330)는 가장 변형 정도가 작은 컷의 산정된 스케일 비에 기초하여 손상 컷텐츠의 다른 컷들의 크기를 조정할 수 있다. 이는, 손상 컨텐츠 내의 컷들의 스케일 비는 컷들 간에 차이가 거의 없거나 동일할 가능성이 높기 때문에, 하나의 컷의 스케일 비에 기초하여 다른 컷들의 스케일 비도 결정함으로써 모든 컷들의 스케일 비를 계산하는 수고를 덜기 위함이다.
도 9 는 본 발명의 일 실시예에 따라 컷들의 크기를 조정하는 일 예이다.
도 9 를 참조하면, 상술한 도 8 에서 예시한 바와 같이 원본 컨텐츠에 기초한 컷들(8a1, 8a2, 8a3, 8a4)과, 손상 컨텐츠에 기초한 컷들(8b1, 8b3, 8b4)이 도시되어 있다. 본 발명의 일 실시예에 따르면, 컷 별로 원본 컨텐츠에 기초한 컷과 손상 컨텐츠에 기초한 컷의 스케일 비를 산정할 수 있다. 이때, 도 9 는 세로로 진행하는 세로형 컨텐츠이므로, 스케일 비는 컷의 가로 길이를 기준으로 산정될 수 있다. 예를 들어, 원본 컨텐츠와 손상 컨텐츠의 제1 컷(8a1, 8b1)의 스케일 비는 1:0.5 일 수 있다. 즉, 유출자가 손상 컨텐츠를 유출할 때 제1 컷의 크기를 반으로 축소하여 유출하였을 수 있다. 이 경우 손상 컨텐츠의 제1 컷(8b1)의 크기를 2배로 확대하여 크기가 조정된 제1 컷(9b1)을 생성함으로써, 유출 컨텐츠의 제1 컷(8a1)과 크기를 일치시킬 수 있다.
한편, 본 발명의 일 실시예에 따르면, 도 9의 실시예에서, 손상 정도가 가장 적은 손상 컨텐츠의 제3 컷(8b3)의 스케일 비를 기준으로, 다른 손상 컨텐츠의 컷들의 크기를 조정할 수 있다. 예를 들어, 원본 컨텐츠와 손상 컨텐츠의 제3 컷(8a1, 8b1)의 스케일 비가 1:0.25 인 경우, 손상 컨텐츠의 컷들(8b1, 8b3, 8b4)의 크기를 모두 4배로 확대하여 크기가 조정된 컷들(9b1, 9b3, 9b4)를 생성할 수 있다.
또한, 매칭용 컨텐츠 생성부(330)는 원본 컨텐츠의 컷들과 전처리 컨텐츠의 컷들을 대조하여, 손상 컨텐츠의 컷 별로 이미지 상에 컷이 배치되는 위치를 결정할 수 있다. 이때, 전처리 컨텐츠의 컷들은 상술한 바와 같이 크기가 조정된 컷들일 수 있다. 크기가 조정된 컨처리 컨텐츠의 컷들은, 원본 컨텐츠의 컷들과 대조 시 이미지의 어느 위치에 위치하는지 결정될 수 있다. 상술한 도 6 에서 살펴본 바와 같이, 본 발명의 원본 컨텐츠는 컷을 포함하는 하나 이상의 이미지들로 구성될 수 있으며, 이미지 상에 컷이 배치된 위치 역시 컨텐츠를 구성하는 주요 특징 중에 하나이다. 따라서, 본 발명의 일 실시예에 따르면 전처리 컨텐츠의 컷들을 원본 컨텐츠의 컷들과 대조하여, 각 컷별로 이미지 상에 컷이 배치되는 위치를 결정할 수 있다.
더불어, 매칭용 컨텐츠 생성부(330)는 원본 컨텐츠의 이미지들과 동일한 크기의 빈 이미지들을 생성하고, 결정된 컷 위치에 기초하여 생성된 빈 이미지 상에 전처리 이미지의 컷들을 배치한다. 이때, 손상 컨텐츠에서 소실된 컷은 빈 이미지를 그대로 남겨둘 수 있다.
도 10 은 본 발명의 일 실시예에 따라 컷의 위치를 조정하는 일 예이다.
도 10 을 참조하면, 도 9 의 크기가 조정된 전처리 컨텐츠의 컷들(9b1, 9b3, 9b4)가 도시되어 있다. 또한, 원본 컨텐츠의 이미지들(6a1, 6a2, 6a3, 6a4)이 도시되어 있다. 원본 컨텐츠의 제1 이미지(6a1)는 좌상으로 치우치게 배치된 컷을 포함하고 있다. 이를 반영하여, 본 발명의 일 실시예에 따르면 전처리 컨텐츠의 제1 컷(9b1)을 원본 컨텐츠의 제1 이미지(6a1)의 컷과 대조하여, 이미지의 왼쪽으로 컷이 치우치도록, 제1 컷(9b1)의 정확한 위치를 결정할 수 있다.
또한, 원본 컨텐츠의 이미지들(6a1, 6a2, 6a3, 6a4)과 동일한 빈 이미지를 생성하고, 빈 이미지들 상에 각 컷들(9b1, 9b3, 9b4)의 결정된 위치에 기초하여 각 컷들을 배치하여 매칭용 컨텐츠의 이미지들(10b1, 10b2, 10b3, 10b4)를 생성한다. 도 10 에서 볼 수 있은 바와 같이, 제2 이미지(10b2)에 대응하는 손상 컨텐츠의 컷은 존재하지 않으므로, 제2 이미지(10b2)는 빈 이미지로 남아있을 수 있다. 또한, 제1 이미지(10b1)를 참조하면, 제1 컷(9b1)과 같이 컷의 중간 부분이 절단된 상태이더라도, 위치 조정을 통해 원본 컨텐츠의 제1 컷(6a1)과 마찬가지로 연속된 컷이 생성될 수 있다. 또한, 제4 이미지(10b4)를 참조하면, 제4 컷(9b4)의 중첩되어 소실된 부분이 반영되도록 빈 이미지 상에 제4 컷(9b4)을 배치할 수 있다. 이로써, 컷들의 크기와 위치가 조정된 매칭용 컨텐츠가 생성될 수 있다.
다음으로, 매칭부(340)는 원본 컨텐츠와 매칭용 컨텐츠를 컷 별로 매칭한다(S4). 원본 컨텐츠와 매칭용 컨텐츠를 매칭한다는 것은, 원본 컨텐츠와 매칭용 컨텐츠를 컷 별로 대조하여 다른 부분이 있는지를 판단한다는 것이다. 또한, 매칭부(340)는 원본 컨텐츠와 매칭용 컨텐츠를 컷 별로 매칭하여, 원본 컨텐츠와 매칭용 컨텐츠가 동일한 부분과 상이한 부분을 다르게 표시하여 사용자 단말에 제공할 수 있다. 선택적 실시예에서, 매칭부(340)는 원본 컨텐츠와 매칭용 컨텐츠가 동일한 부분은 제1 색상으로 표시하고, 원본 컨텐츠와 매칭용 컨텐츠가 상이한 부분은 제2 색상으로 표시할 수 있다. 예를 들어, 원본 컨텐츠와 매칭용 컨텐츠가 동일한 부분은 회색으로 표시하고, 상이한 부분은 검은색으로 표시하여 사용자에게 제공할 수 있다.
도 11 는 본 발명의 일 실시예에 따라 원본 컨텐츠와 매칭용 컨텐츠를 매칭하는 일 예이다.
도 11 을 참조하면, (a)는 원본 컨텐츠이고 (b)는 매칭용 컨텐츠의 일 예시이다. 원본 컨텐츠인 (a) 는 유출자 정보를 나타낼 수 있는 문자열을 표시하기 위한 표식이 부가되는 위치가 지정될 수 있다. 예를 들어, 도 11 의 (a) 에 나타난 바와 같이, 11a1 영역은 알파벳 A 에 대응하고, 다른 영역들 역시 알파벳 B 내지 I 에 대응할 수 있다. 비록 도 11 에서는 설명의 편의를 위해 알파벳 A 내지 I 에 해당하는 영역만을 도시하였지만, 하나의 컷에는 모든 알파벳 및 숫자에 대응하는 영역이 지정될 수 있다. 지정된 영역은 별도의 관리 시스템에 저장되며, 원본 이미지에는 나타나지 않는다.
또한, 매칭용 컨텐츠인 (b) 는 표식 컨텐츠에 기초하여 생성된 손상 컨텐츠의 크기 및 위치를 조정한 것이므로, 표식(11b1)이 부가되어 있을 수 있다. 본 발명의 일 실시예에 따르면 원본 컨텐츠와 매칭용 컨텐츠를 컷 별로 매칭함으로써, 원본 컨텐츠에는 없지만 매칭용 컨텐츠에는 존재하는 표식을 검출할 수 있다. 이를 위해, 도 11 의 (c)와 같은 원본 컨텐츠와 매칭용 컨텐츠가 매칭된 컨텐츠가 생성될 수 있다. 본 발명의 선택적 실시예에 따르면, 도 11 의 (c)와 같이 매칭된 컨텐츠를 사용자에게 제공할 때, 원본 컨텐츠와 매칭용 컨텐츠가 일치하는 컨텐츠의 부분은 회색으로 표시하거나 표시하지 않고, 원본 컨텐츠와 매칭용 컨텐츠가 일치지 않는 부분만 흰색 또는 검은색으로 표시하여, 서로 상이한 부분은 용이하게 검출하도록 할 수 있다.
다음으로, 표식 검출부(350)는 원본 컨텐츠와 매칭용 컨텐츠의 컷 별로, 원본 컨텐츠의 특정 컷에는 존재하지 않지만 매칭용 컨텐츠의 특정 컷에는 존재하는 표식을 검출할다(S5). 표식이 매칭용 컨텐츠의 특정 컷에만 존재하고 대응되는 원본 컨텐츠의 특정 컷에 존재하지 않는 것은, 매칭용 컨텐츠가 원본 컨텐츠에 유출자 검출용 표식을 부가한 표식 컨텐츠에 기초한 것이기 때문이다. 따라서, 이러한 표식을 검출하여 표식이 부가되는 위치를 참고하면 유출자 정보를 획득할 수 있다.
계속하여 도 11 의 예시를 살펴보면, 매칭용 컨텐츠 (b)에 표시된 표식(11b1)은 유출자의 정보를 나타낼 수 있다. 일 예로, 도 11 의 (c) 와 같이 원본 컨텐츠와 매칭용 컨텐츠를 매칭시키면, 원본 컨텐츠의 11c1 에 해당하는 영역에는 표식이 없고, 원본 컨텐츠의 11c2 에 해당하는 영역에 표식이 존재하므로, 본 매칭용 컨텐츠는 알파벳 F 에 해당하는 유출자 정보를 나타냄을 알 수 있다.
도 12 는 본 발명의 일 실시예에 따라 표식을 검출하는 일 예이다.
도 12 의 (a) 내지 (i)는 본 발명의 일 실시예에 따라 원본 컨텐츠의 특정 컷과 매칭용 컨텐츠의 특정 컷을 매칭한 후, 알파벳 A 내지 I 에 대응하는 영역을 확대한 예시이다. 즉, 본 발명의 일 실시예에 따르면, 표식이 부가되는 위치를 확대 분석하여 표식을 검출한 후, 대응되는 유출자 정보를 결정할 수 있다. 본 발명의 다른 실시예에 따르면, 사용자의 조작에 따라, 알파벳 A 내지 I 에 대응하는 영역을 확대하여 도 12 와 같이 사용자에게 제공할 수 있다. 사용자는 도 12 의 (a) 내지 (i) 의 이미지를 본 후, (f)에 점이 있는 것을 발견하고, 해당 컷에 대응하는 유출자의 정보는 알파벳 F 임을 유추할 수 있다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (15)

  1. 복수개의 컷들로 이루어진 원본 컨텐츠에 기반하여 생성된 손상 컨텐츠를 획득하는 손상 컨텐츠 획득부;
    상기 손상 컨텐츠에 포함된 하나 이상의 이미지들을 병합하거나 상기 손상 컨텐츠에 포함된 하나 이상의 컷의 일부 영역을 제거하여 전처리 컨텐츠를 생성하는 전처리 컨텐츠 생성부;
    상기 원본 컨텐츠에 포함된 하나 이상의 컷들과 대조하여 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들의 크기 또는 위치를 조정한 매칭용 컨텐츠를 생성하는 매칭용 컨텐츠 생성부;
    상기 원본 컨텐츠와 상기 매칭용 컨텐츠를 컷 별로 매칭하는 매칭부;
    를 포함하는 이미지 매칭을 이용한 표식 검출 장치.
  2. 제 1 항에 있어서,
    상기 원본 컨텐츠의 특정 컷에 존재하지 않지만 상기 원본 컨텐츠의 특정 컷에 매칭된 상기 매칭용 컨텐츠의 특정 컷에 존재하는 표식을 검출하는 표식 검출부;
    를 추가적으로 포함하는, 이미지 매칭을 이용한 표식 검출 장치.
  3. 제 1 항에 있어서,
    상기 매칭부는, 상기 원본 컨텐츠와 상기 매칭용 컨텐츠가 동일한 부분은 제1 색상으로 표시하고, 상기 원본 컨텐츠와 상기 매칭용 컨텐츠가 상이한 부분은 제2 색상으로 표시하는, 이미지 매칭을 이용한 표식 검출 장치.
  4. 제 1 항에 있어서,
    상기 매칭용 컨텐츠 생성부는,
    상기 원본 컨텐츠에 포함된 하나 이상의 컷들과 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들을 대조하여 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들 각각에 대한 컷 위치를 결정하고,
    상기 원본 컨텐츠의 하나 이상의 이미지와 동일한 크기의 하나 이상의 빈 이미지를 생성하고,
    상기 결정된 컷 위치에 기초하여 상기 하나 이상의 빈 이미지 상에 상기 전처리 컨텐츠에 포함된 상기 하나 이상의 컷을 배치하는, 이미지 매칭을 이용한 표식 검출 장치.
  5. 제 1 항에 있어서,
    상기 매칭용 컨텐츠 생성부는,
    상기 원본 컨텐츠의 컷들과 상기 손상 컨텐츠의 컷들을 비교하여 컷 별로 스케일 비(比)를 산정한 후, 상기 산정된 스케일 비에 기초하여 상기 손상 컨텐츠의 하나 이상의 컷들의 크기를 조정하는, 이미지 매칭을 이용한 표식 검출 장치.
  6. 제 1 항에 있어서,
    상기 전처리 컨텐츠 생성부는,
    상기 손상 컨텐츠에 포함된 개별 이미지를 병합하여 병합 이미지를 생성하고, 상기 병합 이미지의 컷의 외부 영역을 제거하여 컷들로만 이루어진 전처리 컨텐츠를 생성하는, 이미지 매칭을 이용한 표식 검출 장치.
  7. 제 1 항에 있어서,
    상기 매칭용 컨텐츠 생성부는, 세로형 컨텐츠일 경우 컷의 가로 길이에 기초하여 상기 스케일 비를 산정하고, 가로형 컨텐츠일 경우 컷의 세로 길이에 기초하여 상기 스케일 비를 산정하는, 이미지 매칭을 이용한 표식 검출 장치.
  8. 제 1 항에 있어서,
    상기 매칭용 컨텐츠 생성부는, 상기 손상 컨텐츠의 특정 컷의 상기 산정된 스케일 비에 기초하여 상기 손상 컨텐츠의 다른 컷들의 크기를 조정하는, 이미지 매칭을 이용한 표식 검출 장치.
  9. 제 2 항에 있어서,
    상기 표식 검출부는, 상기 원본 컨텐츠와 상기 매칭용 컨텐츠가 매칭된 컨텐츠에서 상기 표식이 부가될 수 있는 영역을 확대하여 표시하는, 이미지 매칭을 이용한 표식 검출 장치.
  10. 복수개의 컷들로 이루어진 원본 컨텐츠에 기반하여 생성된 손상 컨텐츠를 획득하는 손상 컨텐츠 획득 단계;
    상기 손상 컨텐츠에 포함된 하나 이상의 이미지들을 병합하거나 상기 손상 컨텐츠에 포함된 하나 이상의 컷의 일부 영역을 제거하여 전처리 컨텐츠를 생성하는 전처리 컨텐츠 생성 단계;
    상기 원본 컨텐츠에 포함된 하나 이상의 컷들과 대조하여 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들의 크기 또는 위치를 조정한 매칭용 컨텐츠를 생성하는 매칭용 컨텐츠 생성 단계;
    상기 원본 컨텐츠와 상기 매칭용 컨텐츠를 컷 별로 매칭하는 매칭 단계;
    를 포함하는 이미지 매칭을 이용한 표식 검출 방법.
  11. 제 10 항에 있어서,
    상기 원본 컨텐츠의 특정 컷에 존재하지 않지만 상기 원본 컨텐츠의 특정 컷에 매칭된 상기 매칭용 컨텐츠의 특정 컷에 존재하는 표식을 검출하는 표식 검출 단계;
    를 추가적으로 포함하는, 이미지 매칭을 이용한 표식 검출 방법.
  12. 제 10 항에 있어서,
    상기 매칭용 컨텐츠 생성 단계는,
    상기 원본 컨텐츠에 포함된 하나 이상의 컷들과 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들을 대조하여 상기 전처리 컨텐츠에 포함된 하나 이상의 컷들 각각에 대한 컷 위치를 결정하는 단계;
    상기 원본 컨텐츠의 하나 이상의 이미지와 동일한 크기의 하나 이상의 빈 이미지를 생성하는 단계;
    상기 결정된 컷 위치에 기초하여 상기 하나 이상의 빈 이미지 상에 상기 전처리 컨텐츠에 포함된 상기 하나 이상의 컷을 배치하는 단계; 를 포함하는, 이미지 매칭을 이용한 표식 검출 방법.
  13. 제 10 항에 있어서,
    상기 전처리 컨텐츠 생성 단계는,
    상기 손상 컨텐츠에 포함된 개별 이미지를 병합하여 병합 이미지를 생성하는 단계;
    상기 병합 이미지의 컷의 외부 영역을 제거하여 컷들로만 이루어진 전처리 컨텐츠를 생성하는 단계; 를 포함하는, 이미지 매칭을 이용한 표식 검출 방법.
  14. 제 10 항에 있어서,
    상기 매칭용 컨텐츠 생성 단계는,
    상기 원본 컨텐츠의 컷들과 상기 손상 컨텐츠의 컷들을 비교하여 컷 별로 스케일 비(比)를 산정한 후, 상기 산정된 스케일 비에 기초하여 상기 손상 컨텐츠의 하나 이상의 컷들의 크기를 조정하는, 이미지 매칭을 이용한 표식 검출 방법.
  15. 제 10 항 내지 제 14 항 중 어느 한 항에 따른 방법을 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램.
KR1020180091447A 2018-08-06 2018-08-06 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램 KR102112768B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020180091447A KR102112768B1 (ko) 2018-08-06 2018-08-06 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램
JP2021506306A JP7277562B2 (ja) 2018-08-06 2019-07-01 イメージマッチングを利用したマーカー検出方法、その装置及びそのプログラム
CN201980051523.XA CN112654981A (zh) 2018-08-06 2019-07-01 利用图像匹配的标志检测方法、装置及程序
PCT/KR2019/007958 WO2020032392A1 (ko) 2018-08-06 2019-07-01 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램
US17/168,526 US20210158573A1 (en) 2018-08-06 2021-02-05 Method, apparatus, and program for detecting mark by using image matching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180091447A KR102112768B1 (ko) 2018-08-06 2018-08-06 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램

Publications (2)

Publication Number Publication Date
KR20200016119A true KR20200016119A (ko) 2020-02-14
KR102112768B1 KR102112768B1 (ko) 2020-06-04

Family

ID=69415318

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180091447A KR102112768B1 (ko) 2018-08-06 2018-08-06 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램

Country Status (5)

Country Link
US (1) US20210158573A1 (ko)
JP (1) JP7277562B2 (ko)
KR (1) KR102112768B1 (ko)
CN (1) CN112654981A (ko)
WO (1) WO2020032392A1 (ko)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110068795A (ko) * 2009-12-14 2011-06-22 삼성전자주식회사 이미지 처리 장치의 사용자 인터페이스 처리 방법 및 장치
KR20130052334A (ko) * 2011-11-11 2013-05-22 서강대학교산학협력단 표지판 인식장치, 표지판 인식방법, 및 이미지 인식방법
KR20140015460A (ko) * 2011-04-11 2014-02-06 마이크로소프트 코포레이션 조정가능한 통지
KR20150020390A (ko) * 2013-08-13 2015-02-26 에스케이플래닛 주식회사 컨텐츠 추천 방법과 이를 제공하는 장치 및 시스템
KR101676575B1 (ko) * 2015-07-24 2016-11-15 주식회사 카카오 만화 컨텐츠의 공유 영역 추출 장치 및 그 방법
US20170098122A1 (en) * 2010-06-07 2017-04-06 Affectiva, Inc. Analysis of image content with associated manipulation of expression presentation
KR101744614B1 (ko) * 2015-12-21 2017-06-09 주식회사 디알엠인사이드 불법 복제된 온라인 만화 식별 시스템 및 방법
KR101841192B1 (ko) * 2016-11-16 2018-03-22 주식회사 디알엠인사이드 온라인 만화 식별 시스템 및 방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7751596B2 (en) * 1996-11-12 2010-07-06 Digimarc Corporation Methods and arrangements employing digital content items
JP4395933B2 (ja) 1999-08-31 2010-01-13 パナソニック株式会社 画像検索装置、画像検索方法および記録媒体
JP2004213128A (ja) * 2002-12-27 2004-07-29 Panasonic Communications Co Ltd 文書管理装置及び文書管理方法
JP2004271958A (ja) 2003-03-10 2004-09-30 Sony Corp データ処理方法およびその装置
JP4634399B2 (ja) * 2004-12-14 2011-02-16 パナソニック株式会社 管理サーバ装置、管理方法及び管理プログラム
JP2006234554A (ja) 2005-02-24 2006-09-07 Dainippon Screen Mfg Co Ltd パターン検査方法およびパターン検査装置
KR100741519B1 (ko) * 2005-12-08 2007-07-20 연세대학교 산학협력단 워터마킹을 이용한 생체 영상의 인증/유출 방지 방법
US7444230B2 (en) * 2006-03-31 2008-10-28 Transonic Combustion, Inc. Fuel injector having algorithm controlled look-ahead timing for injector-ignition operation
JP2008258938A (ja) 2007-04-05 2008-10-23 Fuji Xerox Co Ltd 画像処理装置、画像処理システム、通信端末および画像処理プログラム
JP4997179B2 (ja) * 2008-06-11 2012-08-08 富士通エレクトロニクス株式会社 画像処理装置、方法およびプログラム
JP2011008579A (ja) 2009-06-26 2011-01-13 Sanyo Electric Co Ltd 画像処理装置、撮像装置及び再生装置
KR20110020147A (ko) * 2009-08-21 2011-03-02 삼성전자주식회사 네트워크를 통한 컨텐츠 제공 방법 및 장치, 컨텐츠 수신 방법 및 장치
JP2011114455A (ja) 2009-11-25 2011-06-09 Mitsubishi Electric Corp 画像位置推定装置、電子透かし検出装置及び方法並びにプログラム
CN102377960B (zh) * 2010-08-24 2014-11-05 腾讯科技(深圳)有限公司 视频画面显示方法及装置
US20130194301A1 (en) * 2012-01-30 2013-08-01 Burn Note, Inc. System and method for securely transmiting sensitive information
US9396518B2 (en) * 2012-05-15 2016-07-19 Salvadore Ragusa System of organizing digital images
KR101966925B1 (ko) * 2012-12-07 2019-04-08 주식회사 케이티 컨텐츠를 식별하는 장치 및 방법
JP6197340B2 (ja) * 2013-04-05 2017-09-20 オムロン株式会社 画像処理装置、画像処理方法、およびプログラム
CN103268287B (zh) * 2013-06-05 2017-03-15 福州瑞芯微电子股份有限公司 检测内存泄露的方法与装置
JP6368997B2 (ja) * 2013-08-28 2018-08-08 沖電気工業株式会社 画像切り出し装置、および画像切り出しプログラム
EP3121792B1 (en) 2014-03-17 2019-07-03 Panasonic Intellectual Property Management Co., Ltd. Processing device for label information for multi-viewpoint images and processing method for label information
JP6397284B2 (ja) 2014-09-16 2018-09-26 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
SE1550828A1 (en) * 2015-06-16 2016-12-17 Precise Biometrics Ab Method of enrolling a biometric template, mechanism and computer program
KR101803066B1 (ko) * 2015-12-24 2017-11-29 주식회사 디알엠인사이드 불법 복제된 서적의 통합 식별 시스템 및 방법
JP6476145B2 (ja) 2016-02-02 2019-02-27 日本電信電話株式会社 画面差異合否判定装置、画面差異合否判定方法、及びプログラム
US10698986B2 (en) * 2016-05-12 2020-06-30 Markany Inc. Method and apparatus for embedding and extracting text watermark
CN107657259A (zh) * 2017-09-30 2018-02-02 平安科技(深圳)有限公司 图像篡改检测方法、电子装置及可读存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110068795A (ko) * 2009-12-14 2011-06-22 삼성전자주식회사 이미지 처리 장치의 사용자 인터페이스 처리 방법 및 장치
US20170098122A1 (en) * 2010-06-07 2017-04-06 Affectiva, Inc. Analysis of image content with associated manipulation of expression presentation
KR20140015460A (ko) * 2011-04-11 2014-02-06 마이크로소프트 코포레이션 조정가능한 통지
KR20130052334A (ko) * 2011-11-11 2013-05-22 서강대학교산학협력단 표지판 인식장치, 표지판 인식방법, 및 이미지 인식방법
KR20150020390A (ko) * 2013-08-13 2015-02-26 에스케이플래닛 주식회사 컨텐츠 추천 방법과 이를 제공하는 장치 및 시스템
KR101676575B1 (ko) * 2015-07-24 2016-11-15 주식회사 카카오 만화 컨텐츠의 공유 영역 추출 장치 및 그 방법
KR101744614B1 (ko) * 2015-12-21 2017-06-09 주식회사 디알엠인사이드 불법 복제된 온라인 만화 식별 시스템 및 방법
KR101841192B1 (ko) * 2016-11-16 2018-03-22 주식회사 디알엠인사이드 온라인 만화 식별 시스템 및 방법

Also Published As

Publication number Publication date
JP2021532496A (ja) 2021-11-25
JP7277562B2 (ja) 2023-05-19
WO2020032392A1 (ko) 2020-02-13
KR102112768B1 (ko) 2020-06-04
US20210158573A1 (en) 2021-05-27
CN112654981A (zh) 2021-04-13

Similar Documents

Publication Publication Date Title
KR20170141224A (ko) 개발자 교환 시스템
KR101823464B1 (ko) 지역 사진 및 거리뷰의 간판 이미지를 활용한 지역 정보 검출 및 보정 방법 및 시스템
US20110313779A1 (en) Augmentation and correction of location based data through user feedback
CN105517679B (zh) 用户地理位置的确定
US9058501B2 (en) Method, apparatus, and computer program product for determining media item privacy settings
US11790476B2 (en) Method, apparatus, and program for preventing content from leaking out
KR102112768B1 (ko) 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램
KR101870423B1 (ko) 지오태깅 정보를 이용한 지도 정보 제공방법 이를 위한 컴퓨터 프로그램 및 기록매체
KR102282993B1 (ko) 컨텐츠 유출 방지 방법, 장치 및 프로그램
CN115114302A (zh) 道路标牌数据更新方法、装置、电子设备及存储介质
KR101995535B1 (ko) 웹툰 무단 복사 방지 방법 및 프로그램
KR101874049B1 (ko) 소셜 네트워크 서비스 제공 방법 및 시스템
CN112015416A (zh) 开发网页的校验方法、装置、电子设备及计算机可读介质
KR20150013372A (ko) 모바일 마케팅 어플리케이션 통합 시스템
US20230108484A1 (en) User Terminal and Control Method Thereof
US20230206408A1 (en) Method and system for adjusting a digital elevation model
JP6509280B2 (ja) 機種情報を活用したイメージ検索結果を提供する方法およびシステム
JP2006163446A (ja) 情報処理装置およびデータ検索方法およびプログラムおよび記録媒体
KR20240061265A (ko) Poi 변화 자동 탐지를 위한 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
KR20230090511A (ko) 서버 및 그 제어 방법
KR20190056948A (ko) 지오태깅 정보를 이용한 지도 정보 제공방법 이를 위한 컴퓨터 프로그램 및 기록매체
CN116680485A (zh) 基于社交媒体实体定位和搜索匹配的文本标记方法及装置
CN114385900A (zh) 页面中推荐信息遮挡确定方法和装置
CN116756033A (zh) 页面测试方法、装置、电子设备及存储介质
CN116594886A (zh) 测试脚本生成方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant