KR20220107952A - Appratus and method for monitoring creator`s copyright - Google Patents

Appratus and method for monitoring creator`s copyright Download PDF

Info

Publication number
KR20220107952A
KR20220107952A KR1020220006542A KR20220006542A KR20220107952A KR 20220107952 A KR20220107952 A KR 20220107952A KR 1020220006542 A KR1020220006542 A KR 1020220006542A KR 20220006542 A KR20220006542 A KR 20220006542A KR 20220107952 A KR20220107952 A KR 20220107952A
Authority
KR
South Korea
Prior art keywords
image
character
check algorithm
user
similarity
Prior art date
Application number
KR1020220006542A
Other languages
Korean (ko)
Inventor
이효섭
정동석
천애리
오상은
Original Assignee
주식회사 플랫팜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 플랫팜 filed Critical 주식회사 플랫팜
Publication of KR20220107952A publication Critical patent/KR20220107952A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services
    • G06Q50/184Intellectual property management

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Technology Law (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Economics (AREA)
  • Computer Hardware Design (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

In accordance with one aspect of the present disclosure, a copyright monitoring apparatus includes: at least one memory storing at least one instruction; and at least one processor connected with the memory. The at least one processor can be configured to execute the at least one instruction: receive a user identification (ID), a first image created by the user, and a character tag for the first image from the user; calculate the number of accumulated images while mapping the first image with each user ID and each character tag; determine a copyright check algorithm based on the number of accumulated images; receive a second image created by another user; and determine whether the second image violates the copyright of the first image based on the copyright check algorithm. The copyright check algorithm includes a first copyright check algorithm based on supervised learning, and a second copyright check algorithm based on similarity. Therefore, the present invention is capable of efficiently monitoring copyrights through the application of different copyright check algorithms.

Description

창작자의 저작권 모니터링 장치 및 방법{APPRATUS AND METHOD FOR MONITORING CREATOR`S COPYRIGHT}Apparatus and method for copyright monitoring of creators

본 개시 (present disclosure)는 창작자의 저작권 모니터링 장치 및 방법에 관한 것이다.The present disclosure relates to a copyright monitoring apparatus and method of a creator.

콘텐츠 분석, 검색 및 제공은 딥러닝 기반의 인공지능 기술 발전으로 급격한 발전이 이루어지고 있으며, 다양한 플랫폼 분야에 적용되어 활용될 것으로 전망된다. 예를 들어, 경험재 콘텐츠의 질과 취향에 대한 불확실성을 줄이기 위하여, 디지털 콘텐츠의 소비 의사결정과정에 있어서 사용자 맞춤형 콘텐츠가 인공지능 기술에 기반하여 제공될 수 있다. 사용자 맞춤형 콘텐츠는 인공지능 기술, 특히 콘텐츠 관련 기술에서 중요한 키워드로 부각되고 있다. 이와 같이 규모의 경제가 중요한 콘텐츠 시장에 인공지능 기술은 필수적인 요소이다.Content analysis, search, and provision are rapidly developing due to the development of deep learning-based artificial intelligence technology, and are expected to be applied and utilized in various platform fields. For example, in order to reduce uncertainty about the quality and taste of experiential contents, user-customized contents may be provided based on artificial intelligence technology in the decision-making process of consumption of digital contents. User-customized content is emerging as an important keyword in artificial intelligence technology, especially content-related technology. Artificial intelligence technology is an essential element in the content market where economies of scale are important.

디지털 콘텐츠의 예로서 창작자들에 의해 업로드되는 창작물이 있다. 창작자들은 다양한 이미지 플랫폼을 통하여 자신이 창작한 캐릭터나 일러스트 등의 이미지를 업로드하여 이미지 포트폴리오를 구축하고 있다. 한편, 이러한 이미지 플랫폼에 업로드되는 창작물을 보호할 필요성이 있으나, 기존의 이미지 플랫폼에서는 업로드되는 창작물에 대한 저작권 검사 등을 통해 창작물을 보호하는 기능을 제공하고 있지는 않다.An example of digital content is creations uploaded by creators. Creators are building their image portfolios by uploading images such as characters and illustrations they have created through various image platforms. On the other hand, there is a need to protect creations uploaded to such image platforms, but the existing image platforms do not provide a function of protecting creations through copyright inspection of uploaded creations.

대한민국 등록특허 10-1557321Republic of Korea Patent Registration 10-1557321 대한민국 등록특허 10-2052534Korean Patent Registration 10-2052534

본 개시의 다양한 예들은 로데이터(raw data)의 개수에 따라 서로 다른 저작권 검사 알고리즘을 적용하여 효율적으로 저작권 모니터링이 가능한 저작권 모니터링 장치 및 방법을 제공하기 위함이다.Various examples of the present disclosure are intended to provide a copyright monitoring apparatus and method capable of efficiently monitoring copyright by applying different copyright checking algorithms according to the number of raw data.

본 개시의 다양한 예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 다양한 예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.Technical problems to be achieved in various examples of the present disclosure are not limited to those mentioned above, and other technical problems not mentioned are to those of ordinary skill in the art from various examples of the present disclosure to be described below. can be considered by

본 개시의 일 양상으로, 적어도 하나의 명령어(instruction)를 저장하는 적어도 하나의 메모리(memory); 및 상기 메모리에 연결되는 적어도 하나의 프로세서(processor)를 포함하고, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여: 사용자로부터 사용자 ID(identification), 상기 사용자가 창작한 제1 이미지 및 상기 제1 이미지에 대한 캐릭터 태그를 수신하고; 상기 사용자 ID 및 상기 캐릭터 태그 별로 상기 제1 이미지를 매핑하면서 누적 이미지 개수를 산출하고; 상기 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정하고; 다른 사용자가 창작한 제2 이미지를 수신하고; 및 상기 저작권 검사 알고리즘에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하도록 구성되고, 상기 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하는, 저작권 모니터링 장치이다.In one aspect of the present disclosure, at least one memory (memory) for storing at least one instruction (instruction); and at least one processor coupled to the memory, wherein the at least one processor executes the at least one instruction: a user identification from a user, a first image created by the user and the receive a character tag for the first image; calculating the accumulated number of images while mapping the first image for each of the user ID and the character tag; determine a copyright checking algorithm based on the accumulated number of images; receive a second image created by another user; and to determine whether the second image violates the copyright of the first image based on the copyright check algorithm, wherein the copyright check algorithm is a first copyright check algorithm based on supervised learning and a second copyright based on similarity It is a copyright monitoring device, including a checking algorithm.

예를 들어, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여: 상기 누적 이미지 개수가 기 설정된 임계값 이상이면 상기 제1 저작권 검사 알고리즘으로 결정하고, 상기 누적 이미지 개수가 상기 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정하도록 더 구성될 수 있다.For example, the at least one processor executes the at least one instruction: if the number of accumulated images is greater than or equal to a preset threshold, it is determined by the first copyright check algorithm, and the number of accumulated images is equal to or greater than the preset threshold. If less than, it may be further configured to determine with the second copyright check algorithm.

예를 들어, 상기 제1 저작권 검사 알고리즘은, 상기 사용자 ID 및 상기 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성하고, 상기 특징맵을 분류기에 입력하여 상기 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성하고, 상기 출력값의 손실 함수가 최소가 될 때까지 상기 컨볼루션 필터 및 상기 분류기를 학습시키고, 상기 컨볼루션 필터 및 상기 분류기에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단할 수 있다.For example, the first copyright check algorithm generates a feature map based on a convolution filter for the user ID and the accumulated images for each character tag and pre-stored training data, and classifies the feature map as a classifier. to generate an output value indicating whether or not the user is a character, train the convolution filter and the classifier until the loss function of the output value is minimized, and based on the convolution filter and the classifier, the It may be determined whether the second image violates the copyright of the first image.

예를 들어, 상기 제2 저작권 검사 알고리즘은, 상기 제1 이미지 및 상기 제2 이미지 별로 에지 및 특징점을 추출하고, 상기 에지 및 상기 특징점에 기초하여 상기 제1 이미지 및 상기 제2 이미지 간 유사도를 산출하고, 상기 유사도가 기 설정된 임계 유사도 값 이상인 경우 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는 것으로 판단할 수 있다.For example, the second copyright check algorithm extracts an edge and a feature point for each of the first image and the second image, and calculates a similarity between the first image and the second image based on the edge and the feature point and, when the similarity is equal to or greater than a preset threshold similarity value, it may be determined that the second image violates the copyright of the first image.

예를 들어, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여: 상기 제1 이미지 및 상기 제2 이미지에 포함된 캐릭터 객체로부터 통합 AU(action unit)을 추출하고, 여기서 상기 통합 AU는 인간적 AU 및 캐릭터적 AU를 포함하고; 및 상기 제1 이미지 및 상기 제2 이미지로부터 상기 인간적 AU를 필터링한 전처리 이미지를 생성하도록 더 구성되고, 상기 저작권 검사 알고리즘은 상기 전처리 이미지에 대하여 수행될 수 있다.For example, the at least one processor executes the at least one instruction to: extract a unified action unit (AU) from a character object included in the first image and the second image, wherein the unified AU is a human includes AUs and character AUs; and generating a pre-processed image obtained by filtering the human AU from the first image and the second image, wherein the copyright check algorithm may be performed on the pre-processed image.

예를 들어, 상기 인간적 AU는 상기 캐릭터 객체의 눈썹, 눈, 코, 입 및 볼 각각에 포함된 복수의 특징점 간 거리 및 비율 중 적어도 하나를 달리 갖는 복수의 눈썹 AU, 복수의 눈 AU, 복수의 코 AU, 복수의 입 AU 및 복수의 볼 AU 중 적어도 하나를 포함하고, 상기 캐릭터적 AU는 상기 제1 이미지 및 상기 제2 이미지에 포함된 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 포함할 수 있다.For example, the human AU may include a plurality of eyebrows AUs, a plurality of eyes AUs, and a plurality of eyebrows AUs having different distances and ratios between a plurality of feature points included in each of the eyebrows, eyes, nose, mouth, and cheeks of the character object. at least one of a nose AU, a plurality of mouth AUs, and a plurality of cheeks AU, wherein the character AU may include at least one of a background object AU and an emotion object AU included in the first image and the second image have.

예를 들어, 상기 감정 객체 AU는 상기 제1 이미지 및 상기 제2 이미지에서 상기 캐릭터 객체를 제외한 나머지 객체 중 상기 캐릭터 객체와 적어도 일부가 중첩되는 에지를 포함하는 객체에 대응되고, 상기 배경 객체 AU는 상기 제1 이미지 및 상기 제2 이미지에서 상기 캐릭터 객체 및 상기 감정 객체 AU를 제외한 나머지 객체에 대응될 수 있다.For example, the emotion object AU corresponds to an object including an edge at least partially overlapping with the character object among objects other than the character object in the first image and the second image, and the background object AU is The first image and the second image may correspond to objects other than the character object and the emotion object AU.

본 개시의 다른 일 양상으로, 저작권 모니터링 장치에 의해 수행되는 저작권 모니터링 방법으로서, 사용자로부터 사용자 ID(identification), 상기 사용자가 창작한 제1 이미지 및 상기 제1 이미지에 대한 캐릭터 태그를 수신하는 단계; 상기 사용자 ID 및 상기 캐릭터 태그 별로 상기 제1 이미지를 매핑하면서 누적 이미지 개수를 산출하는 단계; 상기 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정하는 단계; 다른 사용자가 창작한 제2 이미지를 수신하는 단계; 및 상기 저작권 검사 알고리즘에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하는 단계를 포함하고, 상기 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하는, 저작권 모니터링 방법이다.In another aspect of the present disclosure, there is provided a copyright monitoring method performed by a copyright monitoring device, comprising: receiving a user ID (identification) from a user, a first image created by the user, and a character tag for the first image; calculating the accumulated number of images while mapping the first image for each of the user ID and the character tag; determining a copyright check algorithm based on the accumulated number of images; receiving a second image created by another user; and determining whether the second image violates the copyright of the first image based on the copyright check algorithm, wherein the copyright check algorithm is a first copyright check algorithm based on supervised learning and a first copyright check algorithm based on similarity. 2 It is a copyright monitoring method, including a copyright check algorithm.

예를 들어, 상기 저작권 검사 알고리즘을 결정하는 단계는 상기 누적 이미지 개수가 기 설정된 임계값 이상이면 상기 제1 저작권 검사 알고리즘으로 결정하고, 상기 누적 이미지 개수가 상기 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정할 수 있다.For example, in the determining of the copyright check algorithm, if the number of accumulated images is greater than or equal to a preset threshold, it is determined by the first copyright check algorithm, and if the number of accumulated images is less than the preset threshold, the second copyright It can be determined by the inspection algorithm.

예를 들어, 상기 제1 저작권 검사 알고리즘은, 상기 사용자 ID 및 상기 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성하고, 상기 특징맵을 분류기에 입력하여 상기 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성하고, 상기 출력값의 손실 함수가 최소가 될 때까지 상기 컨볼루션 필터 및 상기 분류기를 학습시키고, 상기 컨볼루션 필터 및 상기 분류기에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하고, 상기 제2 저작권 검사 알고리즘은, 상기 제1 이미지 및 상기 제2 이미지 별로 에지 및 특징점을 추출하고, 상기 에지 및 상기 특징점에 기초하여 상기 제1 이미지 및 상기 제2 이미지 간 유사도를 산출하고, 상기 유사도가 기 설정된 임계 유사도 값 이상인 경우 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는 것으로 판단할 수 있다.For example, the first copyright check algorithm generates a feature map based on a convolution filter for the user ID and the accumulated images for each character tag and pre-stored training data, and classifies the feature map as a classifier. to generate an output value indicating whether or not the user is a character, train the convolution filter and the classifier until the loss function of the output value is minimized, and based on the convolution filter and the classifier, the 2 It is determined whether the image violates the copyright of the first image, and the second copyright check algorithm extracts an edge and a feature point for each of the first image and the second image, and based on the edge and the feature point The similarity between the first image and the second image may be calculated, and when the similarity is equal to or greater than a preset threshold similarity value, it may be determined that the second image violates the copyright of the first image.

상술한 본 개시의 다양한 예들은 본 개시의 바람직한 예들 중 일부에 불과하며, 본 개시의 다양한 예들의 기술적 특징들이 반영된 여러 가지 예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 상세한 설명을 기반으로 도출되고 이해될 수 있다.The various examples of the present disclosure described above are only some of the preferred examples of the present disclosure, and various examples in which the technical features of various examples of the present disclosure are reflected are detailed descriptions to be detailed below by those of ordinary skill in the art. can be derived and understood based on

본 개시의 다양한 예들에 따르면 다음과 같은 효과가 있다.According to various examples of the present disclosure, the following effects are obtained.

본 개시의 다양한 예들에 따르면, 로데이터(raw data)의 개수에 따라 서로 다른 저작권 검사 알고리즘을 적용하여 효율적으로 저작권 모니터링이 가능한 저작권 모니터링 장치 및 방법이 제공될 수 있다.According to various examples of the present disclosure, a copyright monitoring apparatus and method capable of efficiently monitoring copyright by applying different copyright checking algorithms according to the number of raw data may be provided.

본 개시의 다양한 예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects that can be obtained from various examples of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are clearly derived to those of ordinary skill in the art based on the detailed description below. and can be understood

이하에 첨부되는 도면들은 본 개시의 다양한 예들에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시의 다양한 예들을 제공한다. 다만, 본 개시의 다양한 예들의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시예로 구성될 수 있다. 각 도면에서의 참조 번호 (reference numerals) 들은 구조적 구성요소 (structural elements) 를 의미한다.
도 1은 본 개시의 일 예에 따른 저작권 모니터링 장치의 블록도이다.
도 2는 본 개시의 일 예에 따른 저작권 모니터링 장치의 기능 블록도이다.
도 3은 본 개시의 다른 일 예에 따른 저작권 모니터링 장치의 기능 블록도이다.
도 4 내지 도 7은 본 개시의 다양한 예들에 따라 정의되는 AU(action unit)를 설명하기 위한 것이다.
도 8은 본 개시의 일 예에 따른 서버의 블록도이다.
도 9는 감정 카테고리 라벨링(labeling)을 설명하기 위한 것이다.
도 10은 본 개시의 일 예에 따른 저작권 모니터링 방법의 순서도이다.
도 11은 본 개시의 일 예에 따른 제1 저작권 검사 알고리즘의 순서도이다.
도 12는 본 개시의 일 예에 따른 제2 저작권 검사 알고리즘의 순서도이다.
The accompanying drawings are provided to help understanding of various examples of the present disclosure, and various examples of the present disclosure are provided together with the detailed description. However, the technical features of various examples of the present disclosure are not limited to specific drawings, and the features disclosed in each drawing may be combined with each other to constitute a new embodiment. Reference numerals in each drawing refer to structural elements.
1 is a block diagram of a copyright monitoring apparatus according to an example of the present disclosure.
2 is a functional block diagram of a copyright monitoring apparatus according to an example of the present disclosure.
3 is a functional block diagram of a copyright monitoring apparatus according to another example of the present disclosure.
4 to 7 are for explaining an action unit (AU) defined according to various examples of the present disclosure.
8 is a block diagram of a server according to an example of the present disclosure.
9 is for explaining emotion category labeling.
10 is a flowchart of a copyright monitoring method according to an example of the present disclosure.
11 is a flowchart of a first copyright check algorithm according to an example of the present disclosure.
12 is a flowchart of a second copyright check algorithm according to an example of the present disclosure.

이하, 본 발명에 따른 구현들을 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 구현을 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 구현 형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나 당업자는 본 개시가 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.Hereinafter, implementations according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary implementations of the present invention, and is not intended to represent the only implementation forms in which the present invention may be practiced. The following detailed description includes specific details in order to provide a thorough understanding of the present invention. However, it will be apparent to one of ordinary skill in the art that the present disclosure may be practiced without these specific details.

본 발명의 개념에 따른 다양한 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 다양한 예들을 도면에 예시하고 본 개시에 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 다양한 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Since various examples according to the concept of the present invention can have various changes and have various forms, various examples are illustrated in the drawings and described in detail in the present disclosure. However, this is not intended to limit various examples according to the concept of the present invention to specific disclosed forms, and includes changes, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named as a second component, Similarly, the second component may also be referred to as the first component.

본 개시의 다양한 예에서, “/” 및 “,”는 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A/B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A, B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A/B/C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다. 나아가, “A, B, C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다.In various examples of the present disclosure, “/” and “,” should be construed as indicating “and/or”. For example, “A/B” may mean “A and/or B”. Furthermore, “A, B” may mean “A and/or B”. Furthermore, “A/B/C” may mean “at least one of A, B, and/or C”. Furthermore, “A, B, and C” may mean “at least one of A, B and/or C”.

본 개시의 다양한 예에서, “또는”은 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A 또는 B”는 “오직 A”, “오직 B”, 및/또는 “A 및 B 모두”를 포함할 수 있다. 다시 말해, “또는”은 “부가적으로 또는 대안적으로”를 나타내는 것으로 해석되어야 한다.In various examples of the present disclosure, “or” should be construed as indicating “and/or”. For example, “A or B” may include “only A”, “only B”, and/or “both A and B”. In other words, “or” should be construed as indicating “additionally or alternatively”.

도 1은 본 개시의 일 예에 따른 저작권 모니터링 장치의 블록도이다.1 is a block diagram of a copyright monitoring apparatus according to an example of the present disclosure.

도 1을 참조하면, 본 개시의 일 예에 따른 저작권 모니터링 장치(100)는 창작자에 의해 업로드되는 창작물의 저작권 위반 여부를 모니터링할 수 있는 저작권 모니터링 서비스를 제공하기 위함이며, 이를 위해 적어도 하나의 송수신기(110), 적어도 하나의 메모리(120) 및 적어도 하나의 프로세서(130)를 포함한다.Referring to FIG. 1 , the copyright monitoring apparatus 100 according to an example of the present disclosure is to provide a copyright monitoring service capable of monitoring whether a copyright of a creation uploaded by a creator is violated, and for this purpose, at least one transceiver 110 , at least one memory 120 , and at least one processor 130 .

송수신기(110)는 프로세서(130)와 연결될 수 있고, 유/무선 신호나 데이터를 전송 및/또는 수신할 수 있다. 예를 들어, 송수신기(110)는 유/무선 통신망을 통해 사용자 단말 및/또는 서버와 연결될 수 있다.The transceiver 110 may be connected to the processor 130 and may transmit and/or receive wired/wireless signals or data. For example, the transceiver 110 may be connected to a user terminal and/or a server through a wired/wireless communication network.

여기서, 무선 통신망은 이동 통신망, 무선 LAN, 근거리 무선 통신망 등을 포함할 수 있다. 예를 들어, 무선 통신망은 LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 및 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 예를 들어, 무선 통신망은 WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비 (Zigbee), NFC(near field communication), 및 라디오 프리퀀시(RF) 중 적어도 하나를 포함할 수 있다. Here, the wireless communication network may include a mobile communication network, a wireless LAN, a local area wireless communication network, and the like. For example, wireless communication networks include LTE, LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), Wireless Broadband (WiBro), and Global System (GSM). for Mobile Communications) and the like. For example, the wireless communication network may include at least one of wireless fidelity (WiFi), Bluetooth, Bluetooth low energy (BLE), Zigbee, near field communication (NFC), and radio frequency (RF).

여기서, 유선 통신망은 USB(Universal Serial Bus), USART(Universal Synchronous/Asynchronous Receiver Transmitter), 및 이더넷(ethernet) 중 적어도 하나를 포함할 수 있다.Here, the wired communication network may include at least one of a Universal Serial Bus (USB), a Universal Synchronous/Asynchronous Receiver Transmitter (USART), and an Ethernet.

적어도 하나의 송수신기(110) 각각은 상술한 유/무선 통신망에 대응될 수 있다.Each of the at least one transceiver 110 may correspond to the above-described wired/wireless communication network.

송수신기(110)는 송신기 및 수신기를 포함할 수 있다. 송수신기(110)는 RF(radio frequency) 유닛과 혼용될 수 있다. 송수신기(110)는 프로세서(130)의 제어를 통해 사용자 단말 및/또는 서버와 다양한 신호나 데이터를 송수신할 수 있다.The transceiver 110 may include a transmitter and a receiver. The transceiver 110 may be used interchangeably with a radio frequency (RF) unit. The transceiver 110 may transmit and receive various signals or data with the user terminal and/or the server under the control of the processor 130 .

메모리(120)는 프로세서(130)와 연결될 수 있고, 프로세서(130)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(120)는 프로세서(130)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령어들(instructions)을 포함하는 소프트웨어 코드를 저장할 수 있다.The memory 120 may be connected to the processor 130 and may store various information related to the operation of the processor 130 . For example, the memory 120 provides instructions for performing some or all of the processes controlled by the processor 130 , or for performing the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts of the present disclosure. It may store software code including (instructions).

프로세서(130)는 송수신기(110) 및/또는 메모리(120)를 제어하며, 메모리(120)에 저장된 명령어를 실행하여 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(130)는 송수신기(110)를 통해 신호를 수신하고, 신호에 포함된 정보를 메모리(120)에 저장할 수 있다. 또한, 프로세서(130)는 메모리(120)에 저장된 명령어에 기초하여 저작권 모니터링 서비스를 제공할 수 있다. 또한, 프로세서(130)는 메모리(120)에 저장된 정보를 처리하여 신호를 생성한 뒤, 생성한 무선 신호를 송수신기(110)를 통해 전송할 수 있다.The processor 130 controls the transceiver 110 and/or the memory 120 , and executes instructions stored in the memory 120 to implement the descriptions, functions, procedures, suggestions, methods, and/or operational flowcharts of the present disclosure. can be configured. For example, the processor 130 may receive a signal through the transceiver 110 and store information included in the signal in the memory 120 . In addition, the processor 130 may provide a copyright monitoring service based on the instructions stored in the memory 120 . In addition, the processor 130 may generate a signal by processing information stored in the memory 120 , and then transmit the generated wireless signal through the transceiver 110 .

이하에서는, 저작권 모니터링 장치(100) 및 방법에 대한 다양한 실시예들에 대하여 설명한다. 이하에서 개시되는 저작권 모니터링 장치(100) 및 방법과 관련된 다양한 실시예들은 프로세서(130)가 상술한 명령어를 실행하는 것에 기초하여 수행될 수 있다.Hereinafter, various embodiments of the copyright monitoring apparatus 100 and method will be described. Various embodiments related to the copyright monitoring apparatus 100 and method disclosed below may be performed based on the processor 130 executing the above-described instructions.

이하에서 개시되는 저작권 모니터링 장치(100)에 포함되는 기능 단위들은 상술한 송수신기(110), 메모리(120) 및 프로세서(130)를 포함하는 하드웨어나 명령어들을 구현하기 위한 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.The functional units included in the copyright monitoring device 100 disclosed below are software or a combination of hardware and software for implementing hardware or instructions including the above-described transceiver 110, memory 120, and processor 130. can be implemented.

도 2는 본 개시의 일 예에 따른 저작권 모니터링 장치의 기능 블록도이다.2 is a functional block diagram of a copyright monitoring apparatus according to an example of the present disclosure.

도 2를 참조하면, 본 개시의 일 예에 따른 저작권 모니터링 장치(100)는 통신부(140), 이미지 매핑부(150), 저작권 검사 알고리즘 결정부(160) 및 저작권 모니터링부(170)를 포함한다.Referring to FIG. 2 , the copyright monitoring apparatus 100 according to an example of the present disclosure includes a communication unit 140 , an image mapping unit 150 , a copyright check algorithm determining unit 160 , and a copyright monitoring unit 170 . .

통신부(140)는 상술한 송수신기(110)에 대응될 수 있다. 통신부(140)는 사용자로부터 사용자 ID, 사용자가 창작한 제1 이미지 및 제1 이미지에 대한 캐릭터 태그를 수신한다. 본 개시에서는, 다른 사용자가 창작한 이미지와의 구별을 위해 편의상 사용자가 창작한 모든 이미지를 제1 이미지로 통칭하며, 제1 이미지는 사용자가 창작한 특정 이미지만 칭하는 것이 아니라 사용자가 창작한 모든 이미지를 칭하는 개념이다. 캐릭터 태그는 제1 이미지에 포함된 캐릭터를 나타내기 위하여 사용자가 지정하거나 선택하는 태그일 수 있다.The communication unit 140 may correspond to the above-described transceiver 110 . The communication unit 140 receives a user ID, a first image created by the user, and a character tag for the first image from the user. In the present disclosure, all images created by a user are collectively referred to as a first image for convenience of distinction from images created by other users, and the first image does not refer to only a specific image created by the user, but all images created by the user. is a concept that refers to The character tag may be a tag designated or selected by a user to indicate a character included in the first image.

통신부(140)는 수신한 데이터를 이미지 매핑부(150)로 전달한다.The communication unit 140 transmits the received data to the image mapping unit 150 .

이미지 매핑부(150)는 수신한 사용자 ID 및 캐릭터 태그 별로 제1 이미지를 매핑하면서 누적 이미지 개수를 산출한다. 즉, 제1 이미지는 동일한 사용자에 대하여 사용자가 지정한 캐릭터 태그 별로 저장되며, 누적 이미지는 동일한 사용자에 대하여 캐릭터 태그 별로 저장된 제1 이미지를 의미한다.The image mapping unit 150 calculates the accumulated number of images while mapping the first image for each received user ID and character tag. That is, the first image is stored for each character tag designated by the user for the same user, and the accumulated image means the first image stored for each character tag for the same user.

저작권 검사 알고리즘 결정부(160)는 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정한다. 본 개시에서, 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하며, 이에 대한 상세한 설명은 후술한다.The copyright check algorithm determining unit 160 determines a copyright check algorithm based on the number of accumulated images. In the present disclosure, the copyright check algorithm includes a first copyright check algorithm based on supervised learning and a second copyright check algorithm based on similarity, and a detailed description thereof will be described later.

구체적으로, 저작권 검사 알고리즘 결정부(160)는 누적 이미지 개수가 기 설정된 임계값 이상이면 제1 저작권 검사 알고리즘으로 결정하고, 누적 이미지 개수가 기 설정된 임계값 미만이면 제2 저작권 검사 알고리즘으로 결정한다. 따라서, 저작권 모니터링 장치(100)는 누적 이미지의 개수가 충분할 경우 지도 학습에 기반하여 저작권 위반 여부를 판단하고, 그렇지 않을 경우 유사도에 기반하여 저작권 위반 여부를 판단하므로 로데이터(raw data)의 개수에 따라 서로 다른 저작권 검사 알고리즘을 적용할 수 있어 효율적으로 저작권 모니터링이 가능하다. 특히, 로데이터의 개수가 지도 학습의 성능을 끌어낼 수 있을 정도로 충분치 못한 경우에는 유사도 기반의 알고리즘으로 대체할 수 있다.Specifically, if the number of accumulated images is greater than or equal to a preset threshold value, the copyright check algorithm determining unit 160 determines with the first copyright check algorithm, and if the number of accumulated images is less than a preset threshold, it is determined with the second copyright check algorithm. Therefore, the copyright monitoring device 100 determines whether the copyright is violated based on supervised learning if the number of accumulated images is sufficient, and if not, determines whether the copyright is violated based on the similarity, so the number of raw data Different copyright check algorithms can be applied accordingly, enabling efficient copyright monitoring. In particular, when the number of raw data is insufficient to derive the performance of supervised learning, a similarity-based algorithm can be used.

저작권 검사 알고리즘 결정부(160)는 누적 이미지 개수가 충분치 못하여 제2 저작권 검사 알고리즘으로 결정한 이후에, 저장된 제1 이미지가 증가하여 누적 이미지 개수가 충분해진 경우에는 제2 저작권 검사 알고리즘에서 제1 저작권 검사 알고리즘으로 결정할 수 있다.The copyright check algorithm determining unit 160 determines that the number of accumulated images is insufficient and, after determining with the second copyright check algorithm, when the number of accumulated images increases due to an increase in the number of stored first images, the first copyright check in the second copyright check algorithm can be determined by an algorithm.

계속해서, 통신부(140)는 다른 사용자가 창작한 제2 이미지를 수신하고, 제2 이미지를 저작권 모니터링부(170)로 전달한다.Subsequently, the communication unit 140 receives the second image created by another user, and transmits the second image to the copyright monitoring unit 170 .

저작권 모니터링부(170)는 저작권 검사 알고리즘 결정부(160)에 의해 결정된 저작권 검사 알고리즘에 기초하여 제2 이미지가 제1 이미지의 저작권을 위반하는지 여부를 판단한다. The copyright monitoring unit 170 determines whether the second image violates the copyright of the first image based on the copyright inspection algorithm determined by the copyright inspection algorithm determining unit 160 .

일 실시예에 따르면, 저작권 모니터링부(170)는 제1 이미지 및 제2 이미지를 이용하여 저작권 위반 여부를 판단할 수 있다.According to an embodiment, the copyright monitoring unit 170 may determine whether a copyright is violated by using the first image and the second image.

예를 들어, 저작권 모니터링부(170)는 제1 저작권 검사 알고리즘으로 결정된 경우 제1 저작권 검사 알고리즘을 수행한다. 제1 저작권 검사 알고리즘은 지도 학습에 기반한다.For example, the copyright monitoring unit 170 performs the first copyright check algorithm when it is determined as the first copyright check algorithm. The first copyright checking algorithm is based on supervised learning.

먼저, 저작권 모니터링부(170)는 사용자 ID 및 캐릭터 태그 별 누적 이미지(즉, 제1 이미지) 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성한다. 여기서, 기 저장된 훈련 데이터는 메모리에 저장된 훈련 데이터로서, 특히 동일한 캐릭터 태그에 대응되는 이미지일 수 있다. First, the copyright monitoring unit 170 generates a feature map based on a convolution filter with respect to the accumulated image (ie, the first image) and pre-stored training data for each user ID and character tag. Here, the pre-stored training data is training data stored in the memory, and in particular, may be an image corresponding to the same character tag.

다음으로, 저작권 모니터링부(170)는 특징맵을 분류기에 입력하여 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성한다. 구체적으로, 분류기는 입력 레이어, 복수의 히든 레이어 및 출력 레이어를 포함하며, 출력 레이어는 사용자의 캐릭터인지와 아닌지를 나타내기 위해 2개의 뉴런을 포함할 수 있다. 출력값은 각각의 뉴런으로부터 생성된다.Next, the copyright monitoring unit 170 generates an output value indicating whether the user's character by inputting the feature map to the classifier. Specifically, the classifier includes an input layer, a plurality of hidden layers, and an output layer, and the output layer may include two neurons to indicate whether the user is a character or not. An output value is generated from each neuron.

다음으로, 저작권 모니터링부(170)는 출력값의 손실 함수가 최소가 될 때까지 컨볼루션 필터 및 분류기를 학습시킨다. 예를 들어, 저작권 모니터링부(170)는 알려진 역전파(back propagation) 동작을 통해 학습을 수행할 수 있다. 학습을 통하여 컨볼루션 필터의 필터 값은 누적 이미지를 가장 잘 나타낼 수 있는 특징을 추출할 수 있도록 학습되며, 분류기에 포함된 각 레이어의 가중치 및 바이어스(bias)가 분류 성능을 높일 수 있도록 학습된다. 특히, 컨볼루션 필터의 필터 값은 누적 이미지에 포함된 캐릭터 객체를 가장 잘 나타낼 수 있는 특징을 추출할 수 있도록 학습될 수 있다.Next, the copyright monitoring unit 170 trains the convolution filter and the classifier until the loss function of the output value is minimized. For example, the copyright monitoring unit 170 may perform learning through a known back propagation operation. Through learning, the filter value of the convolution filter is learned to extract the feature that can best represent the accumulated image, and the weight and bias of each layer included in the classifier are learned to improve classification performance. In particular, the filter value of the convolution filter may be learned to extract a feature that can best represent the character object included in the accumulated image.

마지막으로, 저작권 모니터링부(170)는 학습된 컨볼루션 필터 및 학습된 분류기에 기초하여 제2 이미지가 제1 이미지의 저작권을 위반하는지 여부를 판단한다. Finally, the copyright monitoring unit 170 determines whether the second image violates the copyright of the first image based on the learned convolution filter and the learned classifier.

예를 들어, 저작권 모니터링부(170)는 제2 저작권 검사 알고리즘으로 결정된 경우 제2 저작권 검사 알고리즘을 수행한다. 제2 저작권 검사 알고리즘은 유사도에 기반한다.For example, the copyright monitoring unit 170 performs a second copyright check algorithm when it is determined as the second copyright check algorithm. The second copyright checking algorithm is based on similarity.

먼저, 저작권 모니터링부(170)는 제1 이미지 및 제2 이미지 별로 에지 및 특징점을 추출한다.First, the copyright monitoring unit 170 extracts edges and feature points for each of the first image and the second image.

다음으로, 저작권 모니터링부(170)는 에지 및 특징점에 기초하여 제1 이미지 및 제2 이미지 간 유사도를 산출한다. 예를 들어, 저작권 모니터링부(170)는 각 에지 별로 유사도 판단을 수행하고, 각 특징점 별로 유사도 판단을 수행하고, 산출된 유사도를 종합하여 제1 이미지 및 제2 이미지 간 유사도를 산출할 수 있다.Next, the copyright monitoring unit 170 calculates a similarity between the first image and the second image based on the edge and the feature point. For example, the copyright monitoring unit 170 may determine the similarity for each edge, determine the similarity for each feature point, and calculate the similarity between the first image and the second image by synthesizing the calculated similarity.

저작권 모니터링부(170)는 유사도가 기 설정된 임계 유사도 값 이상인 경우 제2 이미지가 제1 이미지의 저작권을 위반하는 것으로 판단한다. The copyright monitoring unit 170 determines that the second image violates the copyright of the first image when the similarity is greater than or equal to a preset threshold similarity value.

도 3은 본 개시의 다른 일 예에 따른 저작권 모니터링 장치의 기능 블록도이다. 이하에서는, 상술한 내용과 중복되는 내용에 대한 상세한 설명은 생략한다.3 is a functional block diagram of a copyright monitoring apparatus according to another example of the present disclosure. Hereinafter, a detailed description of the content overlapping with the above-described content will be omitted.

도 3을 참조하면, 본 개시의 다른 일 예에 따른 저작권 모니터링 장치(100)는 도 2의 통신부(140), 이미지 매핑부(150), 저작권 검사 알고리즘 결정부(160) 및 저작권 모니터링부(170)를 포함하고, 추가로 AU 추출부(151) 및 전처리부(152)를 포함할 수 있다.Referring to FIG. 3 , the copyright monitoring apparatus 100 according to another example of the present disclosure includes the communication unit 140 , the image mapping unit 150 , the copyright check algorithm determining unit 160 and the copyright monitoring unit 170 of FIG. 2 . ), and may further include an AU extractor 151 and a preprocessor 152 .

AU 추출부(151)는 제1 이미지 및 제2 이미지에서 통합 AU(action unit)을 추출한다. 저작권 모니터링부(170)는 AU 추출부(151)로부터 추출한 AU에 기초하여 저작권 위반 여부를 판단할 수 있다. 이하에서는, 본 개시에 정의되는 통합 AU에 대하여 보다 구체적으로 설명한다.The AU extraction unit 151 extracts an integrated action unit (AU) from the first image and the second image. The copyright monitoring unit 170 may determine whether the copyright is violated based on the AU extracted from the AU extraction unit 151 . Hereinafter, the integrated AU defined in the present disclosure will be described in more detail.

도 4 내지 도 7은 본 개시의 다양한 예들에 따라 정의되는 AU를 설명하기 위한 것이다.4 to 7 are for explaining an AU defined according to various examples of the present disclosure.

통합 AU는 이미지(예, 제1 이미지, 제2 이미지 등 본 개시에 포함된 모든 이미지 데이터)로부터 추출되는 것으로서, 인간적 AU 및 캐릭터적 AU를 포함할 수 있다. The integrated AU is extracted from an image (eg, all image data included in the present disclosure, such as a first image and a second image), and may include human AU and character AU.

인간적 AU는 얼굴의 이목구비 등과 같이 표정을 나타내는 요소에 대응되는 것일 수 있고, 캐릭터적 AU는 얼굴의 표정과는 관련 없으나 직간접적으로 캐릭터의 감정을 나타내는 요소에 대응되는 것이며, 편의상 각각 인간적 AU 및 캐릭터적 AU로 칭해질 수 있다.The human AU may correspond to an element representing an expression, such as facial features, etc., and the character AU corresponds to an element that is not related to the expression of the face but directly or indirectly represents the emotion of the character, and for convenience, each of the human AU and the character It may be referred to as an enemy AU.

도 4를 참조하면, 인간적 AU는 이미지에 포함된 캐릭터 객체의 눈썹, 눈, 코, 입 및 볼 각각에 포함된 복수의 특징점 간 거리 및 비율 중 적어도 하나를 달리 갖는 복수의 눈썹 AU, 복수의 눈 AU, 복수의 코 AU, 복수의 입 AU 및 복수의 볼 AU 중 적어도 하나를 포함할 수 있다.Referring to FIG. 4 , the human AU is a plurality of eyebrow AUs and a plurality of eyes having different distances and ratios between a plurality of feature points included in each of the eyebrows, eyes, nose, mouth, and cheeks of the character object included in the image. It may include at least one of an AU, a plurality of nose AUs, a plurality of mouth AUs, and a plurality of cheek AUs.

눈썹 AU, 눈 AU, 코 AU, 입 AU 및 볼 AU는 캐릭터 객체의 눈썹, 눈, 코, 입 및 볼 각각에 포함된 복수의 특징점 및 에지 중 적어도 하나를 포함하는 것일 수 있다. 눈썹 AU, 눈 AU, 코 AU, 입 AU 및 볼 AU는 감정에 따라 다양하게 설정되거나 정의될 수 있다.The eyebrow AU, eye AU, nose AU, mouth AU, and cheek AU may include at least one of a plurality of feature points and edges included in each of the eyebrows, eyes, nose, mouth, and cheeks of the character object. Eyebrow AU, eye AU, nose AU, mouth AU, and cheek AU may be variously set or defined according to emotions.

도 5를 참조하면, 예를 들어, 슬픔 감정 카테고리에 해당하는 캐릭터 객체는 찡그러진 눈썹 AU(311), 감은 눈 AU(321), 커진 코 AU(331) 및/또는 M자형 입 AU(341) 등을 포함할 수 있다.Referring to FIG. 5 , for example, the character object corresponding to the sadness emotion category is a frown eyebrow AU 311 , closed eyes AU 321 , an enlarged nose AU 331 , and/or an M-shaped mouth AU 341 ). and the like.

예를 들어, 화남 감정 카테고리에 해당하는 캐릭터 객체는 화난 눈 AU(322), 커진 코 AU(332) 및/또는 벌린 입 AU(342) 등을 포함할 수 있다.For example, the character object corresponding to the angry emotion category may include angry eyes AU 322 , enlarged nose AU 332 , and/or open mouth AU 342 .

예를 들어, 기쁨 감정 카테고리에 해당하는 캐릭터 객체는 웃는 눈 AU(323) 및/또는 U자형 입 AU(343) 등을 포함할 수 있다.For example, the character object corresponding to the joy emotion category may include a smiling eye AU 323 and/or a U-shaped mouth AU 343 .

도 6 및 도 7을 참조하면, 캐릭터적 AU는 이미지에 포함된 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 포함할 수 있다. 배경 객체 AU 및 감정 객체 AU는 각각 상술한 배경 객체 및 감정 객체 각각에 포함된 복수의 특징점 및 에지 중 적어도 하나를 포함하는 것일 수 있다. 배경 객체 AU 및 감정 객체 AU는 감정에 따라 다양하게 설정되거나 정의될 수 있다.6 and 7 , the character AU may include at least one of a background object AU and an emotion object AU included in an image. The background object AU and the emotion object AU may each include at least one of a plurality of feature points and edges included in each of the above-described background object and emotion object. The background object AU and the emotion object AU may be variously set or defined according to emotions.

보다 구체적으로, 감정 객체 AU는 이미지에서 캐릭터 객체를 제외한 나머지 객체 중 캐릭터 객체와 적어도 일부가 중첩되는 에지를 포함하는 객체에 대응되는 것일 수 있다. 또한, 배경 객체 AU는 이미지에서 캐릭터 객체 및 감정 객체 AU를 제외한 나머지 객체에 대응되는 것일 수 있다.More specifically, the emotion object AU may correspond to an object including an edge at least partially overlapping with the character object among objects other than the character object in the image. Also, the background object AU may correspond to objects other than the character object and the emotion object AU in the image.

예를 들어, 감정 객체 AU는 눈물 AU(411), 화남 표시 AU(412), 불남 AU(413) 및 땀방울 AU(414) 등을 포함할 수 있다.For example, the emotional object AU may include a tear AU 411 , an angry display AU 412 , an angry AU 413 , and a sweat drop AU 414 .

예를 들어, 배경 객체 AU는 꽃 문양 AU(421) 및 텍스트 AU(422) 등을 포함할 수 있다. 여기서, 텍스트 AU(422)는 예를 들어 기쁨 감정 카테고리에 해당하는 경우 도시된 바와 같이 'I`m so happy'와 같이 기쁨을 나타내는 텍스트를 포함할 수 있다.For example, the background object AU may include a flower pattern AU 421 , a text AU 422 , and the like. Here, the text AU 422 may include, for example, a text representing joy, such as 'I'm so happy', as illustrated in the case of a joy emotion category.

상술한 통합 AU들은 예시적인 것에 불과하고, 그 밖에 각 감정 카테고리 별로 해당 감정을 효과적으로 나타낼 수 있는 다양한 요소들이 통합 AU로서 설정되거나 정의될 수 있다.The above-described integrated AUs are merely exemplary, and in addition, various elements capable of effectively expressing a corresponding emotion for each emotion category may be set or defined as the integrated AU.

다시 도 3으로 돌아와서, AU 추출부(151)는 상술한 다양한 통합 AU를 제1 이미지 및 제2 이미지에 포함된 캐릭터 객체로부터 추출한다. 추출된 각 통합 AU는 상술한 인간적 AU 및 캐릭터적 AU에 따라 분류될 수 있다.Referring back to FIG. 3 , the AU extraction unit 151 extracts the above-described various integrated AUs from the character objects included in the first image and the second image. Each extracted integrated AU may be classified according to the above-described human AU and character AU.

전처리부(152)는 제1 이미지 및 제2 이미지로부터 인간적 AU를 필터링한 전처리 이미지를 생성한다. 다시 말해서, 전처리부(152)는 추출한 통합 AU 중 캐릭터적 AU를 제거하고 인간적 AU만 필터링하여 전처리 이미지를 생성한다.The preprocessor 152 generates a preprocessed image obtained by filtering human AUs from the first image and the second image. In other words, the preprocessor 152 generates a preprocessed image by removing the character AU from among the extracted integrated AU and filtering only the human AU.

이후, 상술한 저작권 검사 알고리즘은 전처리부(152)로부터 생성된 전처리 이미지에 대하여 수행된다. 즉, 저작권 모니터링부(170)는 제1 저작권 검사 알고리즘 또는 제2 저작권 검사 알고리즘을 제1 이미지 및 제2 이미지가 아닌 전처리 이미지에 대하여 수행할 수 있다. Thereafter, the above-described copyright check algorithm is performed on the pre-processed image generated by the pre-processing unit 152 . That is, the copyright monitoring unit 170 may perform the first copyright check algorithm or the second copyright check algorithm on the pre-processed image other than the first image and the second image.

예를 들어, 저작권 모니터링부(170)는 제1 저작권 검사 알고리즘을 전처리 이미지에 대하여 수행할 수 있다. 저작권 모니터링부(170)는 전처리 이미지에 기초하여 상술한 특징맵 및 출력값 생성, 컨볼루션 필터 및 분류기의 학습 동작 및 저작권 위반 여부를 판단할 수 있다.For example, the copyright monitoring unit 170 may perform the first copyright check algorithm on the preprocessed image. The copyright monitoring unit 170 may determine whether the above-described feature map and output value generation, the learning operation of the convolution filter and the classifier, and copyright violation, based on the pre-processed image.

예를 들어, 저작권 모니터링부(170)는 제2 저작권 검사 알고리즘을 전처리 이미지에 대하여 수행할 수 있다. 저작권 모니터링부(170)의 유사도 판단은 상술한 AU 단위로 수행될 수 있다. 예를 들어, 저작권 모니터링부(170)는 인간적 AU에 포함된 복수의 AU 별로 에지 및/또는 특징점의 유사도를 판단하고, 복수의 AU 별 유사도 값을 산출할 수 있다.For example, the copyright monitoring unit 170 may perform the second copyright check algorithm on the preprocessed image. The similarity determination of the copyright monitoring unit 170 may be performed in units of the above-described AUs. For example, the copyright monitoring unit 170 may determine the similarity of edges and/or feature points for each of a plurality of AUs included in the human AU, and calculate a similarity value for each of the plurality of AUs.

산출된 유사도 값들 중 기 설정된 임계 유사도 값을 넘는 유사도 값의 비율이 전체 비율의 A[%]인 경우(여기서, A는 0 내지 100에 포함되는 실수), 저작권 모니터링부(170)는 제2 이미지가 제1 이미지의 저작권에 위배되는 것으로 판단할 수 있다.When the ratio of the similarity value exceeding the preset threshold similarity value among the calculated similarity values is A[%] of the total ratio (where A is a real number included in 0 to 100), the copyright monitoring unit 170 controls the second image may be determined to violate the copyright of the first image.

상술한 본 개시의 다양한 예들에 따른 저작권 모니터링 장치(100)는 로데이터의 개수를 고려하여 상이한 저작권 검사 알고리즘을 적용하여 저작권 검사의 효율성을 향상시킬 수 있다. 또한, AU를 추출한 전처리 이미지에 대하여 저작권 검사 알고리즘을 수행할 경우 저작권 검사 알고리즘의 연산 속도가 향상될 수 있다.The copyright monitoring apparatus 100 according to various examples of the present disclosure described above may improve the efficiency of copyright inspection by applying different copyright inspection algorithms in consideration of the number of raw data. In addition, when the copyright check algorithm is performed on the pre-processed image from which the AU is extracted, the operation speed of the copyright check algorithm may be improved.

이하에서는, 상술한 저작권 모니터링 장치(100)를 포함하는 서버에 대하여 설명한다.Hereinafter, a server including the above-described copyright monitoring apparatus 100 will be described.

도 8은 본 개시의 일 예에 따른 서버의 블록도이다.8 is a block diagram of a server according to an example of the present disclosure.

도 8을 참조하면, 서버는 저작권 모니터링 장치(100) 및 캐릭터 감정 인식 및 태깅 장치(200)를 포함한다.Referring to FIG. 8 , the server includes a copyright monitoring device 100 and a character emotion recognition and tagging device 200 .

서버(10)는, 저작권 모니터링 장치(100)에 기초하여 사용자 단말로부터 업로드된 이미지가 저작권을 위반하는지 여부를 검사하거나, 또는 캐릭터 감정 인식 및 태깅 장치(200)에 기초하여 사용자 단말로부터 업로드된 이미지에 포함된 캐릭터의 감정을 인식하고, 인식된 감정을 태깅할 수 있다.The server 10, based on the copyright monitoring device 100, checks whether the uploaded image from the user terminal violates the copyright, or based on the character emotion recognition and tagging device 200, the image uploaded from the user terminal It is possible to recognize the emotion of the character included in the , and tag the recognized emotion.

이하에서는, 캐릭터 감정 인식 및 태깅 장치(200)의 다양한 동작 예들에 대하여 설명한다. Hereinafter, various operation examples of the character emotion recognition and tagging apparatus 200 will be described.

캐릭터 감정 인식 및 태깅 장치(200)는 사용자 단말로로부터 캐릭터 객체를 포함하는 입력 이미지 데이터를 수신한다. 본 개시에서, 캐릭터 객체는 실사가 아닌 창작자에 의해 창작된 캐릭터나 이모티콘 등에 해당하는 객체일 수 있다. 입력 이미지 데이터는 캐릭터 객체를 포함하고, 여기에 해당 캐릭터의 감정 상태를 나타내기 위한 감정 객체 및/또는 배경 이미지에 해당하는 배경 객체를 포함할 수도 있다.The character emotion recognition and tagging apparatus 200 receives input image data including a character object from a user terminal. In the present disclosure, the character object may be an object corresponding to a character or emoticon created by a creator rather than a live action. The input image data includes a character object, and may include an emotion object for indicating the emotional state of the corresponding character and/or a background object corresponding to a background image.

캐릭터 감정 인식 및 태깅 장치(200)는, 사용자 단말로부터 수신한 입력 이미지 데이터의 특징(feature) 및 기 학습된 분류 모델에 기초하여 입력 이미지 데이터에 포함된 캐릭터 객체를 복수의 감정 카테고리 중 하나의 감정 카테고리로 분류할 수 있다. 다시 말해서, 캐릭터 감정 인식 및 태깅 장치(200)는 입력 이미지 데이터의 특징을 기 학습된 분류 모델의 입력 데이터로 하여 캐릭터 객체의 감정을 인식 및 분류할 수 있다.Character emotion recognition and tagging apparatus 200, based on a feature of the input image data received from the user terminal and a pre-learned classification model, the character object included in the input image data, the emotion of one of a plurality of emotion categories can be classified into categories. In other words, the character emotion recognition and tagging apparatus 200 may recognize and classify the emotion of the character object by using the characteristics of the input image data as input data of the pre-learned classification model.

캐릭터 객체의 감정 인식 및 분류를 위한 복수의 감정 카테고리는 다양하게 설정되거나 정의될 수 있다. 예를 들어, 감정 카테고리는 기쁨, 간절함, 신남, 놀람, 화남, 두려움, 슬픔, 지루함, 피곤함, 실망스러움, 부끄러움, 삐짐, 편안함, 걱정스러움, 아낌, 음흉함, 배고픔, 아픔, 당황함 및 장난스러움 등으로 설정되거나 정의될 수 있다.A plurality of emotion categories for emotion recognition and classification of character objects may be set or defined in various ways. For example, the emotion categories are Joy, Desire, Excitement, Surprise, Angry, Fear, Sadness, Boredom, Tiredness, Disappointment, Shame, Spout, Comfort, Worry, Lovingness, Insidiousness, Hunger, Pain, Embarrassment, and Playfulness. etc. may be set or defined.

상술한 예와 같은 감정 카테고리들 중 어느 하나의 감정 카테고리로 분류될지 여부는, 다양한 AI(artificial intelligence) 알고리즘에 기반하여 수행될 수 있다. 다시 말해서, 상술한 기 학습된 분류 모델의 학습을 위한 학습 알고리즘은 지도 학습, 비지도 학습, 강화 학습 및 전이 학습 등과 같이 다양한 기계 학습(machine learning) 알고리즘을 포함할 수 있다.Whether to be classified into any one emotion category among the emotion categories as in the above example may be performed based on various artificial intelligence (AI) algorithms. In other words, the learning algorithm for learning the previously learned classification model may include various machine learning algorithms such as supervised learning, unsupervised learning, reinforcement learning, and transfer learning.

분류 모델의 학습을 위한 특징은 상술한 캐릭터 객체의 통합 AU일 수 있다. 즉, 캐릭터 감정 인식 및 태깅 장치(200)는, 캐릭터 객체의 통합 AU를 특징으로 하여 분류 모델을 학습하고, 학습 결과로 기 학습된 분류 모델을 생성할 수 있다. 본 개시에서, AU는 캐릭터 객체로부터 추출되는 에지 및 에지에 포함되는 특징점 중 적어도 하나가 이루는 하나의 요소를 의미할 수 있다.The feature for learning the classification model may be the above-described integrated AU of the character object. That is, the character emotion recognition and tagging apparatus 200 may learn a classification model based on the integrated AU of the character object, and may generate a pre-learned classification model as a result of the learning. In the present disclosure, AU may mean one element formed by at least one of an edge extracted from a character object and a feature point included in the edge.

도 9는 감정 카테고리 라벨링(labeling)을 설명하기 위한 것이다.9 is for explaining emotion category labeling.

도 9를 참조하면, 상술한 통합 AU 각각은 복수의 감정 카테고리 중 적어도 하나에 라벨링(labeling)될 수도 있다. 이러한 경우, 분류 모델의 훈련 이미지 데이터는 예를 들어 (감정 카테고리, 통합 AU) 쌍이 될 수 있다. 즉, 분류 모델의 학습 시 감정 카테고리에 라벨링되어 있는 통합 AU를 훈련 이미지 데이터로 하는 지도 학습이 사용될 수 있다.Referring to FIG. 9 , each of the above-described integrated AUs may be labeled with at least one of a plurality of emotion categories. In this case, the training image data of the classification model may be, for example, (emotion category, unified AU) pairs. That is, when training the classification model, supervised learning using the integrated AU labeled in the emotion category as training image data may be used.

캐릭터 감정 인식 및 태깅 장치(200)는, 분류된 하나의 감정 카테고리를 입력 이미지 데이터에 태깅(tagging)하여 태깅된 입력 이미지 데이터를 생성할 수 있다. 여기서, 태깅된 입력 이미지 데이터는 입력 이미지 데이터와 분류된 하나의 감정 카테고리 정보를 함께 포함하는 것일 수 있다.The character emotion recognition and tagging apparatus 200 may generate tagged input image data by tagging one classified emotion category to input image data. Here, the tagged input image data may include input image data and classified information on one emotion category.

캐릭터 감정 인식 및 태깅 장치(200)는 생성된 태깅된 입력 이미지 데이터를 사용자 단말에 전송할 수 있다.The character emotion recognition and tagging apparatus 200 may transmit the generated tagged input image data to the user terminal.

상술한 캐릭터 감정 인식 및 태깅 장치(200)에 따르면, 실사가 아닌 특히 캐릭터나 이모티콘과 같은 창작물에 포함된 객체의 감정이 효과적으로 인식 및 분류될 수 있다. 구체적으로, 캐릭터 감정 인식 및 태깅 장치(200)는 기계 학습과 같은 AI 알고리즘 시에 사용되는 특징에 캐릭터적 요소를 고려함으로써 캐릭터 객체의 감정을 보다 정밀하게 인식 및 분류할 수 있다.According to the above-described character emotion recognition and tagging apparatus 200 , emotions of objects included in creations, such as characters or emoticons, in particular, not in real life, can be effectively recognized and classified. Specifically, the character emotion recognition and tagging apparatus 200 may more precisely recognize and classify the emotion of a character object by considering a character element in a feature used in an AI algorithm such as machine learning.

또는, 본 개시의 다른 일 예에 따르면 캐릭터 감정 인식 및 태깅 장치(200)는 입력 이미지 데이터의 감정 분류 시 감정 분류에 사용할 특징을 선택할 수도 있다. 여기서, 선택되는 특징은 캐릭터적 AU 중 어느 하나일 수 있다.Alternatively, according to another example of the present disclosure, the character emotion recognition and tagging apparatus 200 may select a feature to be used for emotion classification when emotion classification of input image data is performed. Here, the selected feature may be any one of character AUs.

구체적으로, 캐릭터 감정 인식 및 태깅 장치(200)는, 사용자 단말로부터 분류 옵션 데이터를 수신할 수 있다. 여기서, 분류 옵션 데이터는 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 선택하기 위한 선택 정보일 수 있다.Specifically, the character emotion recognition and tagging apparatus 200 may receive classification option data from the user terminal. Here, the classification option data may be selection information for selecting at least one of the background object AU and the emotion object AU.

캐릭터 감정 인식 및 태깅 장치(200)는, 배경 객체 AU 및 상기 감정 객체 AU 중 수신한 선택 정보에 대응되는 AU를 선택할 수 있다.The character emotion recognition and tagging apparatus 200 may select an AU corresponding to the received selection information among the background object AU and the emotion object AU.

캐릭터 감정 인식 및 태깅 장치(200)는, 인간적 AU, 수신한 선택 정보에 대응되는 AU 및 기 학습된 분류 모델에 기초하여 캐릭터 객체를 하나의 감정 카테고리로 분류할 수 있다.The character emotion recognition and tagging apparatus 200 may classify the character object into one emotion category based on the human AU, the AU corresponding to the received selection information, and a pre-learned classification model.

이에 따라, 본 개시의 다른 일 예에 따른 캐릭터 감정 인식 및 태깅 장치(200)는 창작자에게 감정 인식 및 분류를 위한 특징을 선택하게 할 수 있고, 선택된 특징에 기반하여 감정 인식 및 분류를 수행함으로써 기계 학습의 만족도를 올릴 수 있다.Accordingly, the character emotion recognition and tagging apparatus 200 according to another example of the present disclosure may allow a creator to select a feature for emotion recognition and classification, and perform emotion recognition and classification based on the selected feature, thereby making the machine It can increase the satisfaction of learning.

서버는 콘텐츠의 시장 조사를 위하여, 캐릭터 감정 인식 및 태깅 장치(200)를 통해 분류 및 태깅된 감정 카테고리에 해당하는 유사 이미지를 검색하고, 검색된 유사 이미지를 사용자 단말에 전송할 수도 있다.The server may search for similar images corresponding to the classified and tagged emotion categories through the character emotion recognition and tagging apparatus 200 for market research of content, and transmit the searched similar images to the user terminal.

또한, 서버는 저작권 모니터링 장치(100)를 통해 검색된 유사 이미지와 업로드된 이미지 간 유사도 검사를 수행하여 콘텐츠 저작권의 위배 여부를 판단할 수도 있다. 이에 따라, 만약 유사도 검사를 통해 콘텐츠 저작권이 위배되는 것으로 판단되면, 서버는 사용자 단말에 별도의 경고 메시지를 전송할 수도 있다.Also, the server may determine whether content copyright is violated by performing a similarity check between the similar image searched for through the copyright monitoring device 100 and the uploaded image. Accordingly, if it is determined through the similarity check that the content copyright is violated, the server may transmit a separate warning message to the user terminal.

또는, 본 개시의 또 다른 일 예에 따르면 캐릭터 감정 인식 및 태깅 장치(200)는 분류된 감정의 평가도에 따라 특징을 추가하여 재분류를 수행할 수도 있다.Alternatively, according to another example of the present disclosure, the character emotion recognition and tagging apparatus 200 may perform reclassification by adding a feature according to the evaluation degree of the classified emotion.

구체적으로, 캐릭터 감정 인식 및 태깅 장치(200)는, 태깅된 입력 이미지 데이터에 대한 평가 데이터를 수신할 수 있다. 여기서, 평가 데이터는 1차적으로 분류된 감정에 대한 사용자의 만족도를 수치화한 데이터일 수 있다.Specifically, the character emotion recognition and tagging apparatus 200 may receive evaluation data for the tagged input image data. Here, the evaluation data may be data obtained by quantifying the user's satisfaction with the primarily classified emotions.

캐릭터 감정 인식 및 태깅 장치(200)는, 수신한 평가 데이터가 기 설정된 임계 값 미만이면, 인간적 AU, 배경 객체 AU 및 감정 객체 AU 중 적어도 하나 및 기 학습된 분류 모델에 기초하여 캐릭터 객체를 하나의 감정 카테고리로 분류할 수 있다. 예를 들어, 평가 데이터에 대응되는 평가 수치의 최대값이 10점이고, 기 설정된 임계 값이 5점이고, 수신한 평가 데이터에 대응되는 평가 수치의 값이 4점인 경우, 캐릭터 감정 인식 및 태깅 장치(200)는 인간적 AU, 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 특징으로 하여 감정 분류를 다시 수행할 수 있다.Character emotion recognition and tagging apparatus 200, if the received evaluation data is less than a preset threshold value, based on at least one of human AU, background object AU, and emotion object AU and a pre-learned classification model, the character object is one It can be classified into emotion categories. For example, when the maximum value of the evaluation value corresponding to the evaluation data is 10 points, the preset threshold value is 5 points, and the value of the evaluation value corresponding to the received evaluation data is 4 points, the character emotion recognition and tagging apparatus 200 ) may be characterized by at least one of a human AU, a background object AU, and an emotion object AU to perform emotion classification again.

상술한 본 개시의 또 다른 일 예에 따르면 캐릭터 감정 인식 및 태깅 장치(200)는 특히 1차적으로 수행되는 감정 분류가 오직 인간적 AU만을 특징으로 한 경우에 유용할 수 있다. 즉, 캐릭터 감정 인식 및 태깅 장치(200)가 1차적으로는 인간적 AU를 특징으로 하여 감정 분류를 수행하였다가, 분류된 감정에 대한 사용자의 만족도가 낮은 경우에는 캐릭터적 AU를 함께 특징으로 하여 감정 분류를 재수행함으로써 사용자의 만족도를 올릴 수 있다.According to another example of the present disclosure described above, the character emotion recognition and tagging apparatus 200 may be particularly useful when the emotion classification performed primarily features only human AU. That is, the character emotion recognition and tagging apparatus 200 primarily performs emotion classification based on human AU. User satisfaction can be increased by re-classifying.

이하에서는, 저작권 모니터링 장치(100)에 의해 수행되는 저작권 모니터링 방법에 대하여 설명한다.Hereinafter, a copyright monitoring method performed by the copyright monitoring apparatus 100 will be described.

도 10은 본 개시의 일 예에 따른 저작권 모니터링 방법의 순서도이다.10 is a flowchart of a copyright monitoring method according to an example of the present disclosure.

도 10을 참조하면, S110에서, 저작권 모니터링 장치(100)는 사용자로부터 사용자 ID, 사용자가 창작한 제1 이미지 및 제1 이미지에 대한 캐릭터 태그를 수신한다.Referring to FIG. 10 , in S110 , the copyright monitoring apparatus 100 receives a user ID, a first image created by the user, and a character tag for the first image from the user.

S120에서, 저작권 모니터링 장치(100)는 사용자 ID 및 캐릭터 태그 별로 제1 이미지를 매핑하면서 누적 이미지 개수를 산출한다.In S120, the copyright monitoring apparatus 100 calculates the accumulated number of images while mapping the first image for each user ID and character tag.

S130에서, 저작권 모니터링 장치(100)는 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정한다. 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함한다. S130에서, 저작권 모니터링 장치(100)는 누적 이미지 개수가 기 설정된 임계값 이상이면 제1 저작권 검사 알고리즘으로 결정하고, 누적 이미지 개수가 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정할 수 있다.In S130, the copyright monitoring apparatus 100 determines a copyright check algorithm based on the number of accumulated images. The copyright check algorithm includes a first copyright check algorithm based on supervised learning and a second copyright check algorithm based on similarity. In S130, the copyright monitoring apparatus 100 may determine with the first copyright check algorithm if the number of accumulated images is equal to or greater than a preset threshold, and may determine with the second copyright check algorithm if the number of accumulated images is less than the preset threshold.

S140에서, 저작권 모니터링 장치(100)는 다른 사용자가 창작한 제2 이미지를 수신한다.In S140, the copyright monitoring device 100 receives the second image created by another user.

S150에서, 저작권 모니터링 장치(100)는 저작권 검사 알고리즘에 기초하여 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단한다.In S150, the copyright monitoring apparatus 100 determines whether the second image violates the copyright of the first image based on the copyright check algorithm.

도 11은 본 개시의 일 예에 따른 제1 저작권 검사 알고리즘의 순서도이다.11 is a flowchart of a first copyright check algorithm according to an example of the present disclosure.

도 11을 참조하면, S210에서, 저작권 모니터링 장치(100)는 사용자 ID 및 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터에 기초하여 특징맵을 생성한다.Referring to FIG. 11 , in S210 , the copyright monitoring apparatus 100 generates a feature map based on a convolution filter for accumulated images and pre-stored training data for each user ID and character tag.

S220에서, 저작권 모니터링 장치(100)는 특징맵을 분류기에 입력하여 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성한다.In S220, the copyright monitoring apparatus 100 generates an output value indicating whether the user's character by inputting the feature map to the classifier.

S230에서, 저작권 모니터링 장치(100)는 출력값의 손실 함수가 최소가 될 때까지 컨볼루션 필터 및 분류기를 학습시킨다.In S230, the copyright monitoring apparatus 100 trains the convolution filter and the classifier until the loss function of the output value is minimized.

S240에서, 저작권 모니터링 장치(100)는 컨볼루션 필터 및 분류기에 기초하여 제2 이미지가 제1 이미지의 저작권을 위반하는지 여부를 판단한다.In S240, the copyright monitoring apparatus 100 determines whether the second image violates the copyright of the first image based on the convolution filter and the classifier.

도 12는 본 개시의 일 예에 따른 제2 저작권 검사 알고리즘의 순서도이다.12 is a flowchart of a second copyright check algorithm according to an example of the present disclosure.

도 12를 참조하면, S310에서, 저작권 모니터링 장치(100)는 제1 이미지 및 제2 이미지 별로 에지 및 특징점을 추출한다.Referring to FIG. 12 , in S310 , the copyright monitoring apparatus 100 extracts edges and feature points for each first image and second image.

S320에서, 저작권 모니터링 장치(100)는 에지 및 특징점에 기초하여 제1 이미지 및 제2 이미지 간 유사도를 산출한다.In S320, the copyright monitoring apparatus 100 calculates the similarity between the first image and the second image based on the edge and the feature point.

S330에서, 저작권 모니터링 장치(100)는 유사도가 기 설정된 임계 유사도 값 이상인지 여부를 판단한다.In S330, the copyright monitoring apparatus 100 determines whether the similarity is equal to or greater than a preset threshold similarity value.

S340에서, 저작권 모니터링 장치(100)는 유사도가 기 설정된 임계 유사도 값 이상인 것으로 판단된 경우 제2 이미지가 제1 이미지의 저작권을 위반하는 것으로 판단한다.In S340 , the copyright monitoring apparatus 100 determines that the second image violates the copyright of the first image when it is determined that the similarity is equal to or greater than a preset threshold similarity value.

상술한 설명에서 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수 도 있지만, 일부 제안 방식들의 조합 (혹은 병합) 형태로 구현될 수 도 있다. Since examples of the proposed method in the above description may also be included as one of the implementation methods of the present disclosure, it is obvious that they may be regarded as a kind of proposed method. In addition, the above-described proposed methods may be implemented independently, but may also be implemented in the form of a combination (or merge) of some of the proposed methods.

상술한 바와 같이 개시된 본 개시의 예들은 본 개시와 관련된 기술분야의 통상의 기술자가 본 개시를 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 개시의 예들을 참조하여 설명하였지만, 해당 기술 분야의 통상의 기술자는 본 개시의 예들을 다양하게 수정 및 변경시킬 수 있다. 따라서, 본 개시는 여기에 기재된 예들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The examples of the present disclosure disclosed as described above are provided to enable those skilled in the art to make and practice the present disclosure. Although the above has been described with reference to examples of the present disclosure, those skilled in the art may variously modify and change the examples of the present disclosure. Accordingly, this disclosure is not intended to be limited to the examples set forth herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

10: 서버
100: 저작권 모니터링 장치
110: 송수신기 120: 프로세서
130: 메모리
200: 캐릭터 감정 인식 및 태깅 장치
10: Server
100: copyright monitoring device
110: transceiver 120: processor
130: memory
200: character emotion recognition and tagging device

Claims (10)

적어도 하나의 명령어(instruction)를 저장하는 적어도 하나의 메모리(memory); 및
상기 메모리에 연결되는 적어도 하나의 프로세서(processor)를 포함하고,
상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여:
사용자로부터 사용자 ID(identification), 상기 사용자가 창작한 제1 이미지 및 상기 제1 이미지에 대한 캐릭터 태그를 수신하고;
상기 사용자 ID 및 상기 캐릭터 태그 별로 상기 제1 이미지를 매핑하면서 누적 이미지 개수를 산출하고;
상기 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정하고;
다른 사용자가 창작한 제2 이미지를 수신하고; 및
상기 저작권 검사 알고리즘에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하도록 구성되고,
상기 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하는,
저작권 모니터링 장치.
at least one memory for storing at least one instruction; and
At least one processor coupled to the memory,
The at least one processor executes the at least one instruction to:
receiving a user identification (ID) from a user, a first image created by the user, and a character tag for the first image;
calculating the accumulated number of images while mapping the first image for each of the user ID and the character tag;
determine a copyright checking algorithm based on the accumulated number of images;
receive a second image created by another user; and
and determine whether the second image violates the copyright of the first image based on the copyright checking algorithm;
The copyright check algorithm includes a first copyright check algorithm based on supervised learning and a second copyright check algorithm based on similarity,
Copyright monitoring device.
제1항에 있어서,
상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여:
상기 누적 이미지 개수가 기 설정된 임계값 이상이면 상기 제1 저작권 검사 알고리즘으로 결정하고,
상기 누적 이미지 개수가 상기 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정하도록 더 구성되는,
저작권 모니터링 장치.
According to claim 1,
The at least one processor executes the at least one instruction to:
If the number of accumulated images is greater than or equal to a preset threshold, it is determined by the first copyright check algorithm,
Further configured to determine with the second copyright check algorithm if the number of accumulated images is less than the preset threshold value,
Copyright monitoring device.
제2항에 있어서,
상기 제1 저작권 검사 알고리즘은,
상기 사용자 ID 및 상기 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성하고, 상기 특징맵을 분류기에 입력하여 상기 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성하고, 상기 출력값의 손실 함수가 최소가 될 때까지 상기 컨볼루션 필터 및 상기 분류기를 학습시키고,
상기 컨볼루션 필터 및 상기 분류기에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하는,
저작권 모니터링 장치.
3. The method of claim 2,
The first copyright check algorithm,
A feature map is generated based on a convolution filter with respect to the user ID and accumulated images for each character tag and pre-stored training data, and the feature map is input to a classifier to indicate whether the character is the user's character. and training the convolution filter and the classifier until the loss function of the output value is minimized,
determining whether the second image violates the copyright of the first image based on the convolution filter and the classifier,
Copyright monitoring device.
제2항에 있어서,
상기 제2 저작권 검사 알고리즘은,
상기 제1 이미지 및 상기 제2 이미지 별로 에지 및 특징점을 추출하고, 상기 에지 및 상기 특징점에 기초하여 상기 제1 이미지 및 상기 제2 이미지 간 유사도를 산출하고, 상기 유사도가 기 설정된 임계 유사도 값 이상인 경우 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는 것으로 판단하는,
저작권 모니터링 장치.
3. The method of claim 2,
The second copyright check algorithm,
When an edge and a feature point are extracted for each of the first image and the second image, a similarity between the first image and the second image is calculated based on the edge and the feature point, and the similarity is greater than or equal to a preset threshold similarity value Determining that the second image violates the copyright of the first image,
Copyright monitoring device.
제1항에 있어서,
상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여:
상기 제1 이미지 및 상기 제2 이미지에 포함된 캐릭터 객체로부터 통합 AU(action unit)을 추출하고,
여기서 상기 통합 AU는 인간적 AU 및 캐릭터적 AU를 포함하고; 및
상기 제1 이미지 및 상기 제2 이미지로부터 상기 인간적 AU를 필터링한 전처리 이미지를 생성하도록 더 구성되고,
상기 저작권 검사 알고리즘은 상기 전처리 이미지에 대하여 수행되는,
저작권 모니터링 장치.
According to claim 1,
The at least one processor executes the at least one instruction to:
Extracting an integrated action unit (AU) from the character object included in the first image and the second image,
wherein the integrated AU includes human AU and character AU; and
further configured to generate a filtered pre-processing image of the human AU from the first image and the second image,
The copyright check algorithm is performed on the pre-processed image,
Copyright monitoring device.
제5항에 있어서,
상기 인간적 AU는 상기 캐릭터 객체의 눈썹, 눈, 코, 입 및 볼 각각에 포함된 복수의 특징점 간 거리 및 비율 중 적어도 하나를 달리 갖는 복수의 눈썹 AU, 복수의 눈 AU, 복수의 코 AU, 복수의 입 AU 및 복수의 볼 AU 중 적어도 하나를 포함하고,
상기 캐릭터적 AU는 상기 제1 이미지 및 상기 제2 이미지에 포함된 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 포함하는,
저작권 모니터링 장치.
6. The method of claim 5,
The human AU is a plurality of eyebrows AUs, a plurality of eyes AUs, a plurality of noses AUs, and a plurality of different distances and ratios between a plurality of feature points included in each of the eyebrows, eyes, nose, mouth and cheeks of the character object. at least one of a mouth AU and a plurality of ball AUs;
The character AU includes at least one of a background object AU and an emotion object AU included in the first image and the second image,
Copyright monitoring device.
제6항에 있어서,
상기 감정 객체 AU는 상기 제1 이미지 및 상기 제2 이미지에서 상기 캐릭터 객체를 제외한 나머지 객체 중 상기 캐릭터 객체와 적어도 일부가 중첩되는 에지를 포함하는 객체에 대응되고,
상기 배경 객체 AU는 상기 제1 이미지 및 상기 제2 이미지에서 상기 캐릭터 객체 및 상기 감정 객체 AU를 제외한 나머지 객체에 대응되는,
저작권 모니터링 장치.
7. The method of claim 6,
The emotion object AU corresponds to an object including an edge at least partially overlapping with the character object among the remaining objects except for the character object in the first image and the second image,
The background object AU corresponds to the remaining objects except for the character object and the emotion object AU in the first image and the second image,
Copyright monitoring device.
저작권 모니터링 장치에 의해 수행되는 저작권 모니터링 방법으로서,
사용자로부터 사용자 ID(identification), 상기 사용자가 창작한 제1 이미지 및 상기 제1 이미지에 대한 캐릭터 태그를 수신하는 단계;
상기 사용자 ID 및 상기 캐릭터 태그 별로 상기 제1 이미지를 매핑하면서 누적 이미지 개수를 산출하는 단계;
상기 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정하는 단계;
다른 사용자가 창작한 제2 이미지를 수신하는 단계; 및
상기 저작권 검사 알고리즘에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하는 단계를 포함하고,
상기 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하는,
저작권 모니터링 방법.
A copyright monitoring method performed by a copyright monitoring device, comprising:
receiving a user ID (identification) from a user, a first image created by the user, and a character tag for the first image;
calculating the accumulated number of images while mapping the first image for each of the user ID and the character tag;
determining a copyright check algorithm based on the accumulated number of images;
receiving a second image created by another user; and
determining whether the second image violates the copyright of the first image based on the copyright check algorithm;
The copyright check algorithm includes a first copyright check algorithm based on supervised learning and a second copyright check algorithm based on similarity,
How to monitor copyrights.
제8항에 있어서,
상기 저작권 검사 알고리즘을 결정하는 단계는 상기 누적 이미지 개수가 기 설정된 임계값 이상이면 상기 제1 저작권 검사 알고리즘으로 결정하고, 상기 누적 이미지 개수가 상기 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정하는,
저작권 모니터링 방법.
9. The method of claim 8,
In the determining of the copyright check algorithm, if the number of accumulated images is greater than or equal to a preset threshold, it is determined by the first copyright check algorithm, and if the number of accumulated images is less than the preset threshold, it is determined by the second copyright check algorithm. doing,
How to monitor copyrights.
제9항에 있어서,
상기 제1 저작권 검사 알고리즘은,
상기 사용자 ID 및 상기 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성하고, 상기 특징맵을 분류기에 입력하여 상기 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성하고, 상기 출력값의 손실 함수가 최소가 될 때까지 상기 컨볼루션 필터 및 상기 분류기를 학습시키고,
상기 컨볼루션 필터 및 상기 분류기에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하고,
상기 제2 저작권 검사 알고리즘은,
상기 제1 이미지 및 상기 제2 이미지 별로 에지 및 특징점을 추출하고, 상기 에지 및 상기 특징점에 기초하여 상기 제1 이미지 및 상기 제2 이미지 간 유사도를 산출하고, 상기 유사도가 기 설정된 임계 유사도 값 이상인 경우 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는 것으로 판단하는,
저작권 모니터링 방법.
10. The method of claim 9,
The first copyright check algorithm,
A feature map is generated based on a convolution filter with respect to the user ID and accumulated images for each character tag and pre-stored training data, and the feature map is input to a classifier to indicate whether the character is the user's character. and training the convolution filter and the classifier until the loss function of the output value is minimized,
determining whether the second image violates the copyright of the first image based on the convolution filter and the classifier;
The second copyright check algorithm,
When an edge and a feature point are extracted for each of the first image and the second image, a similarity between the first image and the second image is calculated based on the edge and the feature point, and the similarity is greater than or equal to a preset threshold similarity value Determining that the second image violates the copyright of the first image,
How to monitor copyrights.
KR1020220006542A 2021-01-26 2022-01-17 Appratus and method for monitoring creator`s copyright KR20220107952A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210010867 2021-01-26
KR20210010867 2021-01-26

Publications (1)

Publication Number Publication Date
KR20220107952A true KR20220107952A (en) 2022-08-02

Family

ID=82846065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220006542A KR20220107952A (en) 2021-01-26 2022-01-17 Appratus and method for monitoring creator`s copyright

Country Status (1)

Country Link
KR (1) KR20220107952A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101557321B1 (en) 2014-09-15 2015-10-06 주식회사 디알엠인사이드 Detecting system and method for a modified copy
KR102052534B1 (en) 2018-12-05 2019-12-06 주식회사 비욘드테크 Apparatus for judging illegal duplication using object recognition based on deep learning and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101557321B1 (en) 2014-09-15 2015-10-06 주식회사 디알엠인사이드 Detecting system and method for a modified copy
KR102052534B1 (en) 2018-12-05 2019-12-06 주식회사 비욘드테크 Apparatus for judging illegal duplication using object recognition based on deep learning and method thereof

Similar Documents

Publication Publication Date Title
CN107333071A (en) Video processing method and device, electronic equipment and storage medium
CN111212303B (en) Video recommendation method, server and computer-readable storage medium
CN110569795A (en) Image identification method and device and related equipment
CN110276248B (en) Facial expression recognition method based on sample weight distribution and deep learning
KR20170026222A (en) Method and device for classifying an object of an image and corresponding computer program product and computer-readable medium
KR20050092230A (en) Device for providing sound effect accrding to image and method thereof
EP3839768A1 (en) Mediating apparatus and method, and computer-readable recording medium thereof
CN110555896A (en) Image generation method and device and storage medium
CN111553235B (en) Network training method for protecting privacy, identity recognition method and device
CN109145720A (en) A kind of face identification method and device
CN113657195A (en) Face image recognition method, face image recognition equipment, electronic device and storage medium
US20220005194A1 (en) Digital imaging systems and methods of analyzing pixel data of an image of a user's skin after removing hair for determining a user-specific skin nick and cut value
CN114360015A (en) Living body detection method, living body detection device, living body detection equipment and storage medium
CN110610131A (en) Method and device for detecting face motion unit, electronic equipment and storage medium
CN113947209A (en) Integrated learning method, system and storage medium based on cloud edge cooperation
US10198791B2 (en) Automatic correction of facial sentiment of portrait images
CN110675312A (en) Image data processing method, image data processing device, computer equipment and storage medium
KR20220107952A (en) Appratus and method for monitoring creator`s copyright
CN112102149A (en) Figure hair style replacing method, device, equipment and medium based on neural network
CN113554127B (en) Image recognition method, device and medium based on hybrid model
Phan et al. Lspd: A large-scale pornographic dataset for detection and classification
KR102565321B1 (en) Character emotion recognition and tagging appratus, character emotion recognition and tagging method, and character emotion recognition and tagging system including the character emotion recognition and tagging apparatus
CN113537124B (en) Model training method, device and storage medium
EP3933683A1 (en) Digital imaging systems and methods of analyzing pixel data of an image of a user's body before removing hair for determining a user-specific trapped hair value
KR102637373B1 (en) Apparatus and method for generating emoticon

Legal Events

Date Code Title Description
E902 Notification of reason for refusal