KR20220107952A - Appratus and method for monitoring creator`s copyright - Google Patents
Appratus and method for monitoring creator`s copyright Download PDFInfo
- Publication number
- KR20220107952A KR20220107952A KR1020220006542A KR20220006542A KR20220107952A KR 20220107952 A KR20220107952 A KR 20220107952A KR 1020220006542 A KR1020220006542 A KR 1020220006542A KR 20220006542 A KR20220006542 A KR 20220006542A KR 20220107952 A KR20220107952 A KR 20220107952A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- character
- check algorithm
- user
- similarity
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims description 29
- 238000013507 mapping Methods 0.000 claims abstract description 11
- 230000008451 emotion Effects 0.000 claims description 54
- 238000012806 monitoring device Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 13
- 210000001508 eye Anatomy 0.000 claims description 12
- 210000004709 eyebrow Anatomy 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 2
- 210000000214 mouth Anatomy 0.000 claims 2
- 210000001331 nose Anatomy 0.000 claims 2
- 210000003467 cheek Anatomy 0.000 claims 1
- 230000008909 emotion recognition Effects 0.000 description 27
- 238000004891 communication Methods 0.000 description 14
- 238000013145 classification model Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000007689 inspection Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000003867 tiredness Effects 0.000 description 1
- 208000016255 tiredness Diseases 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
- G06Q50/184—Intellectual property management
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Technology Law (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Economics (AREA)
- Computer Hardware Design (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
Description
본 개시 (present disclosure)는 창작자의 저작권 모니터링 장치 및 방법에 관한 것이다.The present disclosure relates to a copyright monitoring apparatus and method of a creator.
콘텐츠 분석, 검색 및 제공은 딥러닝 기반의 인공지능 기술 발전으로 급격한 발전이 이루어지고 있으며, 다양한 플랫폼 분야에 적용되어 활용될 것으로 전망된다. 예를 들어, 경험재 콘텐츠의 질과 취향에 대한 불확실성을 줄이기 위하여, 디지털 콘텐츠의 소비 의사결정과정에 있어서 사용자 맞춤형 콘텐츠가 인공지능 기술에 기반하여 제공될 수 있다. 사용자 맞춤형 콘텐츠는 인공지능 기술, 특히 콘텐츠 관련 기술에서 중요한 키워드로 부각되고 있다. 이와 같이 규모의 경제가 중요한 콘텐츠 시장에 인공지능 기술은 필수적인 요소이다.Content analysis, search, and provision are rapidly developing due to the development of deep learning-based artificial intelligence technology, and are expected to be applied and utilized in various platform fields. For example, in order to reduce uncertainty about the quality and taste of experiential contents, user-customized contents may be provided based on artificial intelligence technology in the decision-making process of consumption of digital contents. User-customized content is emerging as an important keyword in artificial intelligence technology, especially content-related technology. Artificial intelligence technology is an essential element in the content market where economies of scale are important.
디지털 콘텐츠의 예로서 창작자들에 의해 업로드되는 창작물이 있다. 창작자들은 다양한 이미지 플랫폼을 통하여 자신이 창작한 캐릭터나 일러스트 등의 이미지를 업로드하여 이미지 포트폴리오를 구축하고 있다. 한편, 이러한 이미지 플랫폼에 업로드되는 창작물을 보호할 필요성이 있으나, 기존의 이미지 플랫폼에서는 업로드되는 창작물에 대한 저작권 검사 등을 통해 창작물을 보호하는 기능을 제공하고 있지는 않다.An example of digital content is creations uploaded by creators. Creators are building their image portfolios by uploading images such as characters and illustrations they have created through various image platforms. On the other hand, there is a need to protect creations uploaded to such image platforms, but the existing image platforms do not provide a function of protecting creations through copyright inspection of uploaded creations.
본 개시의 다양한 예들은 로데이터(raw data)의 개수에 따라 서로 다른 저작권 검사 알고리즘을 적용하여 효율적으로 저작권 모니터링이 가능한 저작권 모니터링 장치 및 방법을 제공하기 위함이다.Various examples of the present disclosure are intended to provide a copyright monitoring apparatus and method capable of efficiently monitoring copyright by applying different copyright checking algorithms according to the number of raw data.
본 개시의 다양한 예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 다양한 예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.Technical problems to be achieved in various examples of the present disclosure are not limited to those mentioned above, and other technical problems not mentioned are to those of ordinary skill in the art from various examples of the present disclosure to be described below. can be considered by
본 개시의 일 양상으로, 적어도 하나의 명령어(instruction)를 저장하는 적어도 하나의 메모리(memory); 및 상기 메모리에 연결되는 적어도 하나의 프로세서(processor)를 포함하고, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여: 사용자로부터 사용자 ID(identification), 상기 사용자가 창작한 제1 이미지 및 상기 제1 이미지에 대한 캐릭터 태그를 수신하고; 상기 사용자 ID 및 상기 캐릭터 태그 별로 상기 제1 이미지를 매핑하면서 누적 이미지 개수를 산출하고; 상기 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정하고; 다른 사용자가 창작한 제2 이미지를 수신하고; 및 상기 저작권 검사 알고리즘에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하도록 구성되고, 상기 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하는, 저작권 모니터링 장치이다.In one aspect of the present disclosure, at least one memory (memory) for storing at least one instruction (instruction); and at least one processor coupled to the memory, wherein the at least one processor executes the at least one instruction: a user identification from a user, a first image created by the user and the receive a character tag for the first image; calculating the accumulated number of images while mapping the first image for each of the user ID and the character tag; determine a copyright checking algorithm based on the accumulated number of images; receive a second image created by another user; and to determine whether the second image violates the copyright of the first image based on the copyright check algorithm, wherein the copyright check algorithm is a first copyright check algorithm based on supervised learning and a second copyright based on similarity It is a copyright monitoring device, including a checking algorithm.
예를 들어, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여: 상기 누적 이미지 개수가 기 설정된 임계값 이상이면 상기 제1 저작권 검사 알고리즘으로 결정하고, 상기 누적 이미지 개수가 상기 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정하도록 더 구성될 수 있다.For example, the at least one processor executes the at least one instruction: if the number of accumulated images is greater than or equal to a preset threshold, it is determined by the first copyright check algorithm, and the number of accumulated images is equal to or greater than the preset threshold. If less than, it may be further configured to determine with the second copyright check algorithm.
예를 들어, 상기 제1 저작권 검사 알고리즘은, 상기 사용자 ID 및 상기 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성하고, 상기 특징맵을 분류기에 입력하여 상기 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성하고, 상기 출력값의 손실 함수가 최소가 될 때까지 상기 컨볼루션 필터 및 상기 분류기를 학습시키고, 상기 컨볼루션 필터 및 상기 분류기에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단할 수 있다.For example, the first copyright check algorithm generates a feature map based on a convolution filter for the user ID and the accumulated images for each character tag and pre-stored training data, and classifies the feature map as a classifier. to generate an output value indicating whether or not the user is a character, train the convolution filter and the classifier until the loss function of the output value is minimized, and based on the convolution filter and the classifier, the It may be determined whether the second image violates the copyright of the first image.
예를 들어, 상기 제2 저작권 검사 알고리즘은, 상기 제1 이미지 및 상기 제2 이미지 별로 에지 및 특징점을 추출하고, 상기 에지 및 상기 특징점에 기초하여 상기 제1 이미지 및 상기 제2 이미지 간 유사도를 산출하고, 상기 유사도가 기 설정된 임계 유사도 값 이상인 경우 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는 것으로 판단할 수 있다.For example, the second copyright check algorithm extracts an edge and a feature point for each of the first image and the second image, and calculates a similarity between the first image and the second image based on the edge and the feature point and, when the similarity is equal to or greater than a preset threshold similarity value, it may be determined that the second image violates the copyright of the first image.
예를 들어, 상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여: 상기 제1 이미지 및 상기 제2 이미지에 포함된 캐릭터 객체로부터 통합 AU(action unit)을 추출하고, 여기서 상기 통합 AU는 인간적 AU 및 캐릭터적 AU를 포함하고; 및 상기 제1 이미지 및 상기 제2 이미지로부터 상기 인간적 AU를 필터링한 전처리 이미지를 생성하도록 더 구성되고, 상기 저작권 검사 알고리즘은 상기 전처리 이미지에 대하여 수행될 수 있다.For example, the at least one processor executes the at least one instruction to: extract a unified action unit (AU) from a character object included in the first image and the second image, wherein the unified AU is a human includes AUs and character AUs; and generating a pre-processed image obtained by filtering the human AU from the first image and the second image, wherein the copyright check algorithm may be performed on the pre-processed image.
예를 들어, 상기 인간적 AU는 상기 캐릭터 객체의 눈썹, 눈, 코, 입 및 볼 각각에 포함된 복수의 특징점 간 거리 및 비율 중 적어도 하나를 달리 갖는 복수의 눈썹 AU, 복수의 눈 AU, 복수의 코 AU, 복수의 입 AU 및 복수의 볼 AU 중 적어도 하나를 포함하고, 상기 캐릭터적 AU는 상기 제1 이미지 및 상기 제2 이미지에 포함된 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 포함할 수 있다.For example, the human AU may include a plurality of eyebrows AUs, a plurality of eyes AUs, and a plurality of eyebrows AUs having different distances and ratios between a plurality of feature points included in each of the eyebrows, eyes, nose, mouth, and cheeks of the character object. at least one of a nose AU, a plurality of mouth AUs, and a plurality of cheeks AU, wherein the character AU may include at least one of a background object AU and an emotion object AU included in the first image and the second image have.
예를 들어, 상기 감정 객체 AU는 상기 제1 이미지 및 상기 제2 이미지에서 상기 캐릭터 객체를 제외한 나머지 객체 중 상기 캐릭터 객체와 적어도 일부가 중첩되는 에지를 포함하는 객체에 대응되고, 상기 배경 객체 AU는 상기 제1 이미지 및 상기 제2 이미지에서 상기 캐릭터 객체 및 상기 감정 객체 AU를 제외한 나머지 객체에 대응될 수 있다.For example, the emotion object AU corresponds to an object including an edge at least partially overlapping with the character object among objects other than the character object in the first image and the second image, and the background object AU is The first image and the second image may correspond to objects other than the character object and the emotion object AU.
본 개시의 다른 일 양상으로, 저작권 모니터링 장치에 의해 수행되는 저작권 모니터링 방법으로서, 사용자로부터 사용자 ID(identification), 상기 사용자가 창작한 제1 이미지 및 상기 제1 이미지에 대한 캐릭터 태그를 수신하는 단계; 상기 사용자 ID 및 상기 캐릭터 태그 별로 상기 제1 이미지를 매핑하면서 누적 이미지 개수를 산출하는 단계; 상기 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정하는 단계; 다른 사용자가 창작한 제2 이미지를 수신하는 단계; 및 상기 저작권 검사 알고리즘에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하는 단계를 포함하고, 상기 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하는, 저작권 모니터링 방법이다.In another aspect of the present disclosure, there is provided a copyright monitoring method performed by a copyright monitoring device, comprising: receiving a user ID (identification) from a user, a first image created by the user, and a character tag for the first image; calculating the accumulated number of images while mapping the first image for each of the user ID and the character tag; determining a copyright check algorithm based on the accumulated number of images; receiving a second image created by another user; and determining whether the second image violates the copyright of the first image based on the copyright check algorithm, wherein the copyright check algorithm is a first copyright check algorithm based on supervised learning and a first copyright check algorithm based on similarity. 2 It is a copyright monitoring method, including a copyright check algorithm.
예를 들어, 상기 저작권 검사 알고리즘을 결정하는 단계는 상기 누적 이미지 개수가 기 설정된 임계값 이상이면 상기 제1 저작권 검사 알고리즘으로 결정하고, 상기 누적 이미지 개수가 상기 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정할 수 있다.For example, in the determining of the copyright check algorithm, if the number of accumulated images is greater than or equal to a preset threshold, it is determined by the first copyright check algorithm, and if the number of accumulated images is less than the preset threshold, the second copyright It can be determined by the inspection algorithm.
예를 들어, 상기 제1 저작권 검사 알고리즘은, 상기 사용자 ID 및 상기 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성하고, 상기 특징맵을 분류기에 입력하여 상기 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성하고, 상기 출력값의 손실 함수가 최소가 될 때까지 상기 컨볼루션 필터 및 상기 분류기를 학습시키고, 상기 컨볼루션 필터 및 상기 분류기에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하고, 상기 제2 저작권 검사 알고리즘은, 상기 제1 이미지 및 상기 제2 이미지 별로 에지 및 특징점을 추출하고, 상기 에지 및 상기 특징점에 기초하여 상기 제1 이미지 및 상기 제2 이미지 간 유사도를 산출하고, 상기 유사도가 기 설정된 임계 유사도 값 이상인 경우 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는 것으로 판단할 수 있다.For example, the first copyright check algorithm generates a feature map based on a convolution filter for the user ID and the accumulated images for each character tag and pre-stored training data, and classifies the feature map as a classifier. to generate an output value indicating whether or not the user is a character, train the convolution filter and the classifier until the loss function of the output value is minimized, and based on the convolution filter and the classifier, the 2 It is determined whether the image violates the copyright of the first image, and the second copyright check algorithm extracts an edge and a feature point for each of the first image and the second image, and based on the edge and the feature point The similarity between the first image and the second image may be calculated, and when the similarity is equal to or greater than a preset threshold similarity value, it may be determined that the second image violates the copyright of the first image.
상술한 본 개시의 다양한 예들은 본 개시의 바람직한 예들 중 일부에 불과하며, 본 개시의 다양한 예들의 기술적 특징들이 반영된 여러 가지 예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 상세한 설명을 기반으로 도출되고 이해될 수 있다.The various examples of the present disclosure described above are only some of the preferred examples of the present disclosure, and various examples in which the technical features of various examples of the present disclosure are reflected are detailed descriptions to be detailed below by those of ordinary skill in the art. can be derived and understood based on
본 개시의 다양한 예들에 따르면 다음과 같은 효과가 있다.According to various examples of the present disclosure, the following effects are obtained.
본 개시의 다양한 예들에 따르면, 로데이터(raw data)의 개수에 따라 서로 다른 저작권 검사 알고리즘을 적용하여 효율적으로 저작권 모니터링이 가능한 저작권 모니터링 장치 및 방법이 제공될 수 있다.According to various examples of the present disclosure, a copyright monitoring apparatus and method capable of efficiently monitoring copyright by applying different copyright checking algorithms according to the number of raw data may be provided.
본 개시의 다양한 예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects that can be obtained from various examples of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are clearly derived to those of ordinary skill in the art based on the detailed description below. and can be understood
이하에 첨부되는 도면들은 본 개시의 다양한 예들에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시의 다양한 예들을 제공한다. 다만, 본 개시의 다양한 예들의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시예로 구성될 수 있다. 각 도면에서의 참조 번호 (reference numerals) 들은 구조적 구성요소 (structural elements) 를 의미한다.
도 1은 본 개시의 일 예에 따른 저작권 모니터링 장치의 블록도이다.
도 2는 본 개시의 일 예에 따른 저작권 모니터링 장치의 기능 블록도이다.
도 3은 본 개시의 다른 일 예에 따른 저작권 모니터링 장치의 기능 블록도이다.
도 4 내지 도 7은 본 개시의 다양한 예들에 따라 정의되는 AU(action unit)를 설명하기 위한 것이다.
도 8은 본 개시의 일 예에 따른 서버의 블록도이다.
도 9는 감정 카테고리 라벨링(labeling)을 설명하기 위한 것이다.
도 10은 본 개시의 일 예에 따른 저작권 모니터링 방법의 순서도이다.
도 11은 본 개시의 일 예에 따른 제1 저작권 검사 알고리즘의 순서도이다.
도 12는 본 개시의 일 예에 따른 제2 저작권 검사 알고리즘의 순서도이다.The accompanying drawings are provided to help understanding of various examples of the present disclosure, and various examples of the present disclosure are provided together with the detailed description. However, the technical features of various examples of the present disclosure are not limited to specific drawings, and the features disclosed in each drawing may be combined with each other to constitute a new embodiment. Reference numerals in each drawing refer to structural elements.
1 is a block diagram of a copyright monitoring apparatus according to an example of the present disclosure.
2 is a functional block diagram of a copyright monitoring apparatus according to an example of the present disclosure.
3 is a functional block diagram of a copyright monitoring apparatus according to another example of the present disclosure.
4 to 7 are for explaining an action unit (AU) defined according to various examples of the present disclosure.
8 is a block diagram of a server according to an example of the present disclosure.
9 is for explaining emotion category labeling.
10 is a flowchart of a copyright monitoring method according to an example of the present disclosure.
11 is a flowchart of a first copyright check algorithm according to an example of the present disclosure.
12 is a flowchart of a second copyright check algorithm according to an example of the present disclosure.
이하, 본 발명에 따른 구현들을 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 구현을 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 구현 형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나 당업자는 본 개시가 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.Hereinafter, implementations according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary implementations of the present invention, and is not intended to represent the only implementation forms in which the present invention may be practiced. The following detailed description includes specific details in order to provide a thorough understanding of the present invention. However, it will be apparent to one of ordinary skill in the art that the present disclosure may be practiced without these specific details.
본 발명의 개념에 따른 다양한 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 다양한 예들을 도면에 예시하고 본 개시에 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 다양한 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Since various examples according to the concept of the present invention can have various changes and have various forms, various examples are illustrated in the drawings and described in detail in the present disclosure. However, this is not intended to limit various examples according to the concept of the present invention to specific disclosed forms, and includes changes, equivalents, or substitutes included in the spirit and scope of the present invention.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named as a second component, Similarly, the second component may also be referred to as the first component.
본 개시의 다양한 예에서, “/” 및 “,”는 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A/B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A, B”는 “A 및/또는 B”를 의미할 수 있다. 나아가, “A/B/C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다. 나아가, “A, B, C”는 “A, B 및/또는 C 중 적어도 어느 하나”를 의미할 수 있다.In various examples of the present disclosure, “/” and “,” should be construed as indicating “and/or”. For example, “A/B” may mean “A and/or B”. Furthermore, “A, B” may mean “A and/or B”. Furthermore, “A/B/C” may mean “at least one of A, B, and/or C”. Furthermore, “A, B, and C” may mean “at least one of A, B and/or C”.
본 개시의 다양한 예에서, “또는”은 “및/또는”을 나타내는 것으로 해석되어야 한다. 예를 들어, “A 또는 B”는 “오직 A”, “오직 B”, 및/또는 “A 및 B 모두”를 포함할 수 있다. 다시 말해, “또는”은 “부가적으로 또는 대안적으로”를 나타내는 것으로 해석되어야 한다.In various examples of the present disclosure, “or” should be construed as indicating “and/or”. For example, “A or B” may include “only A”, “only B”, and/or “both A and B”. In other words, “or” should be construed as indicating “additionally or alternatively”.
도 1은 본 개시의 일 예에 따른 저작권 모니터링 장치의 블록도이다.1 is a block diagram of a copyright monitoring apparatus according to an example of the present disclosure.
도 1을 참조하면, 본 개시의 일 예에 따른 저작권 모니터링 장치(100)는 창작자에 의해 업로드되는 창작물의 저작권 위반 여부를 모니터링할 수 있는 저작권 모니터링 서비스를 제공하기 위함이며, 이를 위해 적어도 하나의 송수신기(110), 적어도 하나의 메모리(120) 및 적어도 하나의 프로세서(130)를 포함한다.Referring to FIG. 1 , the
송수신기(110)는 프로세서(130)와 연결될 수 있고, 유/무선 신호나 데이터를 전송 및/또는 수신할 수 있다. 예를 들어, 송수신기(110)는 유/무선 통신망을 통해 사용자 단말 및/또는 서버와 연결될 수 있다.The
여기서, 무선 통신망은 이동 통신망, 무선 LAN, 근거리 무선 통신망 등을 포함할 수 있다. 예를 들어, 무선 통신망은 LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 및 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 예를 들어, 무선 통신망은 WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비 (Zigbee), NFC(near field communication), 및 라디오 프리퀀시(RF) 중 적어도 하나를 포함할 수 있다. Here, the wireless communication network may include a mobile communication network, a wireless LAN, a local area wireless communication network, and the like. For example, wireless communication networks include LTE, LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), Wireless Broadband (WiBro), and Global System (GSM). for Mobile Communications) and the like. For example, the wireless communication network may include at least one of wireless fidelity (WiFi), Bluetooth, Bluetooth low energy (BLE), Zigbee, near field communication (NFC), and radio frequency (RF).
여기서, 유선 통신망은 USB(Universal Serial Bus), USART(Universal Synchronous/Asynchronous Receiver Transmitter), 및 이더넷(ethernet) 중 적어도 하나를 포함할 수 있다.Here, the wired communication network may include at least one of a Universal Serial Bus (USB), a Universal Synchronous/Asynchronous Receiver Transmitter (USART), and an Ethernet.
적어도 하나의 송수신기(110) 각각은 상술한 유/무선 통신망에 대응될 수 있다.Each of the at least one
송수신기(110)는 송신기 및 수신기를 포함할 수 있다. 송수신기(110)는 RF(radio frequency) 유닛과 혼용될 수 있다. 송수신기(110)는 프로세서(130)의 제어를 통해 사용자 단말 및/또는 서버와 다양한 신호나 데이터를 송수신할 수 있다.The
메모리(120)는 프로세서(130)와 연결될 수 있고, 프로세서(130)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(120)는 프로세서(130)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령어들(instructions)을 포함하는 소프트웨어 코드를 저장할 수 있다.The
프로세서(130)는 송수신기(110) 및/또는 메모리(120)를 제어하며, 메모리(120)에 저장된 명령어를 실행하여 본 개시의 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(130)는 송수신기(110)를 통해 신호를 수신하고, 신호에 포함된 정보를 메모리(120)에 저장할 수 있다. 또한, 프로세서(130)는 메모리(120)에 저장된 명령어에 기초하여 저작권 모니터링 서비스를 제공할 수 있다. 또한, 프로세서(130)는 메모리(120)에 저장된 정보를 처리하여 신호를 생성한 뒤, 생성한 무선 신호를 송수신기(110)를 통해 전송할 수 있다.The
이하에서는, 저작권 모니터링 장치(100) 및 방법에 대한 다양한 실시예들에 대하여 설명한다. 이하에서 개시되는 저작권 모니터링 장치(100) 및 방법과 관련된 다양한 실시예들은 프로세서(130)가 상술한 명령어를 실행하는 것에 기초하여 수행될 수 있다.Hereinafter, various embodiments of the
이하에서 개시되는 저작권 모니터링 장치(100)에 포함되는 기능 단위들은 상술한 송수신기(110), 메모리(120) 및 프로세서(130)를 포함하는 하드웨어나 명령어들을 구현하기 위한 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.The functional units included in the
도 2는 본 개시의 일 예에 따른 저작권 모니터링 장치의 기능 블록도이다.2 is a functional block diagram of a copyright monitoring apparatus according to an example of the present disclosure.
도 2를 참조하면, 본 개시의 일 예에 따른 저작권 모니터링 장치(100)는 통신부(140), 이미지 매핑부(150), 저작권 검사 알고리즘 결정부(160) 및 저작권 모니터링부(170)를 포함한다.Referring to FIG. 2 , the
통신부(140)는 상술한 송수신기(110)에 대응될 수 있다. 통신부(140)는 사용자로부터 사용자 ID, 사용자가 창작한 제1 이미지 및 제1 이미지에 대한 캐릭터 태그를 수신한다. 본 개시에서는, 다른 사용자가 창작한 이미지와의 구별을 위해 편의상 사용자가 창작한 모든 이미지를 제1 이미지로 통칭하며, 제1 이미지는 사용자가 창작한 특정 이미지만 칭하는 것이 아니라 사용자가 창작한 모든 이미지를 칭하는 개념이다. 캐릭터 태그는 제1 이미지에 포함된 캐릭터를 나타내기 위하여 사용자가 지정하거나 선택하는 태그일 수 있다.The
통신부(140)는 수신한 데이터를 이미지 매핑부(150)로 전달한다.The
이미지 매핑부(150)는 수신한 사용자 ID 및 캐릭터 태그 별로 제1 이미지를 매핑하면서 누적 이미지 개수를 산출한다. 즉, 제1 이미지는 동일한 사용자에 대하여 사용자가 지정한 캐릭터 태그 별로 저장되며, 누적 이미지는 동일한 사용자에 대하여 캐릭터 태그 별로 저장된 제1 이미지를 의미한다.The
저작권 검사 알고리즘 결정부(160)는 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정한다. 본 개시에서, 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하며, 이에 대한 상세한 설명은 후술한다.The copyright check
구체적으로, 저작권 검사 알고리즘 결정부(160)는 누적 이미지 개수가 기 설정된 임계값 이상이면 제1 저작권 검사 알고리즘으로 결정하고, 누적 이미지 개수가 기 설정된 임계값 미만이면 제2 저작권 검사 알고리즘으로 결정한다. 따라서, 저작권 모니터링 장치(100)는 누적 이미지의 개수가 충분할 경우 지도 학습에 기반하여 저작권 위반 여부를 판단하고, 그렇지 않을 경우 유사도에 기반하여 저작권 위반 여부를 판단하므로 로데이터(raw data)의 개수에 따라 서로 다른 저작권 검사 알고리즘을 적용할 수 있어 효율적으로 저작권 모니터링이 가능하다. 특히, 로데이터의 개수가 지도 학습의 성능을 끌어낼 수 있을 정도로 충분치 못한 경우에는 유사도 기반의 알고리즘으로 대체할 수 있다.Specifically, if the number of accumulated images is greater than or equal to a preset threshold value, the copyright check
저작권 검사 알고리즘 결정부(160)는 누적 이미지 개수가 충분치 못하여 제2 저작권 검사 알고리즘으로 결정한 이후에, 저장된 제1 이미지가 증가하여 누적 이미지 개수가 충분해진 경우에는 제2 저작권 검사 알고리즘에서 제1 저작권 검사 알고리즘으로 결정할 수 있다.The copyright check
계속해서, 통신부(140)는 다른 사용자가 창작한 제2 이미지를 수신하고, 제2 이미지를 저작권 모니터링부(170)로 전달한다.Subsequently, the
저작권 모니터링부(170)는 저작권 검사 알고리즘 결정부(160)에 의해 결정된 저작권 검사 알고리즘에 기초하여 제2 이미지가 제1 이미지의 저작권을 위반하는지 여부를 판단한다. The
일 실시예에 따르면, 저작권 모니터링부(170)는 제1 이미지 및 제2 이미지를 이용하여 저작권 위반 여부를 판단할 수 있다.According to an embodiment, the
예를 들어, 저작권 모니터링부(170)는 제1 저작권 검사 알고리즘으로 결정된 경우 제1 저작권 검사 알고리즘을 수행한다. 제1 저작권 검사 알고리즘은 지도 학습에 기반한다.For example, the
먼저, 저작권 모니터링부(170)는 사용자 ID 및 캐릭터 태그 별 누적 이미지(즉, 제1 이미지) 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성한다. 여기서, 기 저장된 훈련 데이터는 메모리에 저장된 훈련 데이터로서, 특히 동일한 캐릭터 태그에 대응되는 이미지일 수 있다. First, the
다음으로, 저작권 모니터링부(170)는 특징맵을 분류기에 입력하여 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성한다. 구체적으로, 분류기는 입력 레이어, 복수의 히든 레이어 및 출력 레이어를 포함하며, 출력 레이어는 사용자의 캐릭터인지와 아닌지를 나타내기 위해 2개의 뉴런을 포함할 수 있다. 출력값은 각각의 뉴런으로부터 생성된다.Next, the
다음으로, 저작권 모니터링부(170)는 출력값의 손실 함수가 최소가 될 때까지 컨볼루션 필터 및 분류기를 학습시킨다. 예를 들어, 저작권 모니터링부(170)는 알려진 역전파(back propagation) 동작을 통해 학습을 수행할 수 있다. 학습을 통하여 컨볼루션 필터의 필터 값은 누적 이미지를 가장 잘 나타낼 수 있는 특징을 추출할 수 있도록 학습되며, 분류기에 포함된 각 레이어의 가중치 및 바이어스(bias)가 분류 성능을 높일 수 있도록 학습된다. 특히, 컨볼루션 필터의 필터 값은 누적 이미지에 포함된 캐릭터 객체를 가장 잘 나타낼 수 있는 특징을 추출할 수 있도록 학습될 수 있다.Next, the
마지막으로, 저작권 모니터링부(170)는 학습된 컨볼루션 필터 및 학습된 분류기에 기초하여 제2 이미지가 제1 이미지의 저작권을 위반하는지 여부를 판단한다. Finally, the
예를 들어, 저작권 모니터링부(170)는 제2 저작권 검사 알고리즘으로 결정된 경우 제2 저작권 검사 알고리즘을 수행한다. 제2 저작권 검사 알고리즘은 유사도에 기반한다.For example, the
먼저, 저작권 모니터링부(170)는 제1 이미지 및 제2 이미지 별로 에지 및 특징점을 추출한다.First, the
다음으로, 저작권 모니터링부(170)는 에지 및 특징점에 기초하여 제1 이미지 및 제2 이미지 간 유사도를 산출한다. 예를 들어, 저작권 모니터링부(170)는 각 에지 별로 유사도 판단을 수행하고, 각 특징점 별로 유사도 판단을 수행하고, 산출된 유사도를 종합하여 제1 이미지 및 제2 이미지 간 유사도를 산출할 수 있다.Next, the
저작권 모니터링부(170)는 유사도가 기 설정된 임계 유사도 값 이상인 경우 제2 이미지가 제1 이미지의 저작권을 위반하는 것으로 판단한다. The
도 3은 본 개시의 다른 일 예에 따른 저작권 모니터링 장치의 기능 블록도이다. 이하에서는, 상술한 내용과 중복되는 내용에 대한 상세한 설명은 생략한다.3 is a functional block diagram of a copyright monitoring apparatus according to another example of the present disclosure. Hereinafter, a detailed description of the content overlapping with the above-described content will be omitted.
도 3을 참조하면, 본 개시의 다른 일 예에 따른 저작권 모니터링 장치(100)는 도 2의 통신부(140), 이미지 매핑부(150), 저작권 검사 알고리즘 결정부(160) 및 저작권 모니터링부(170)를 포함하고, 추가로 AU 추출부(151) 및 전처리부(152)를 포함할 수 있다.Referring to FIG. 3 , the
AU 추출부(151)는 제1 이미지 및 제2 이미지에서 통합 AU(action unit)을 추출한다. 저작권 모니터링부(170)는 AU 추출부(151)로부터 추출한 AU에 기초하여 저작권 위반 여부를 판단할 수 있다. 이하에서는, 본 개시에 정의되는 통합 AU에 대하여 보다 구체적으로 설명한다.The
도 4 내지 도 7은 본 개시의 다양한 예들에 따라 정의되는 AU를 설명하기 위한 것이다.4 to 7 are for explaining an AU defined according to various examples of the present disclosure.
통합 AU는 이미지(예, 제1 이미지, 제2 이미지 등 본 개시에 포함된 모든 이미지 데이터)로부터 추출되는 것으로서, 인간적 AU 및 캐릭터적 AU를 포함할 수 있다. The integrated AU is extracted from an image (eg, all image data included in the present disclosure, such as a first image and a second image), and may include human AU and character AU.
인간적 AU는 얼굴의 이목구비 등과 같이 표정을 나타내는 요소에 대응되는 것일 수 있고, 캐릭터적 AU는 얼굴의 표정과는 관련 없으나 직간접적으로 캐릭터의 감정을 나타내는 요소에 대응되는 것이며, 편의상 각각 인간적 AU 및 캐릭터적 AU로 칭해질 수 있다.The human AU may correspond to an element representing an expression, such as facial features, etc., and the character AU corresponds to an element that is not related to the expression of the face but directly or indirectly represents the emotion of the character, and for convenience, each of the human AU and the character It may be referred to as an enemy AU.
도 4를 참조하면, 인간적 AU는 이미지에 포함된 캐릭터 객체의 눈썹, 눈, 코, 입 및 볼 각각에 포함된 복수의 특징점 간 거리 및 비율 중 적어도 하나를 달리 갖는 복수의 눈썹 AU, 복수의 눈 AU, 복수의 코 AU, 복수의 입 AU 및 복수의 볼 AU 중 적어도 하나를 포함할 수 있다.Referring to FIG. 4 , the human AU is a plurality of eyebrow AUs and a plurality of eyes having different distances and ratios between a plurality of feature points included in each of the eyebrows, eyes, nose, mouth, and cheeks of the character object included in the image. It may include at least one of an AU, a plurality of nose AUs, a plurality of mouth AUs, and a plurality of cheek AUs.
눈썹 AU, 눈 AU, 코 AU, 입 AU 및 볼 AU는 캐릭터 객체의 눈썹, 눈, 코, 입 및 볼 각각에 포함된 복수의 특징점 및 에지 중 적어도 하나를 포함하는 것일 수 있다. 눈썹 AU, 눈 AU, 코 AU, 입 AU 및 볼 AU는 감정에 따라 다양하게 설정되거나 정의될 수 있다.The eyebrow AU, eye AU, nose AU, mouth AU, and cheek AU may include at least one of a plurality of feature points and edges included in each of the eyebrows, eyes, nose, mouth, and cheeks of the character object. Eyebrow AU, eye AU, nose AU, mouth AU, and cheek AU may be variously set or defined according to emotions.
도 5를 참조하면, 예를 들어, 슬픔 감정 카테고리에 해당하는 캐릭터 객체는 찡그러진 눈썹 AU(311), 감은 눈 AU(321), 커진 코 AU(331) 및/또는 M자형 입 AU(341) 등을 포함할 수 있다.Referring to FIG. 5 , for example, the character object corresponding to the sadness emotion category is a
예를 들어, 화남 감정 카테고리에 해당하는 캐릭터 객체는 화난 눈 AU(322), 커진 코 AU(332) 및/또는 벌린 입 AU(342) 등을 포함할 수 있다.For example, the character object corresponding to the angry emotion category may include
예를 들어, 기쁨 감정 카테고리에 해당하는 캐릭터 객체는 웃는 눈 AU(323) 및/또는 U자형 입 AU(343) 등을 포함할 수 있다.For example, the character object corresponding to the joy emotion category may include a smiling
도 6 및 도 7을 참조하면, 캐릭터적 AU는 이미지에 포함된 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 포함할 수 있다. 배경 객체 AU 및 감정 객체 AU는 각각 상술한 배경 객체 및 감정 객체 각각에 포함된 복수의 특징점 및 에지 중 적어도 하나를 포함하는 것일 수 있다. 배경 객체 AU 및 감정 객체 AU는 감정에 따라 다양하게 설정되거나 정의될 수 있다.6 and 7 , the character AU may include at least one of a background object AU and an emotion object AU included in an image. The background object AU and the emotion object AU may each include at least one of a plurality of feature points and edges included in each of the above-described background object and emotion object. The background object AU and the emotion object AU may be variously set or defined according to emotions.
보다 구체적으로, 감정 객체 AU는 이미지에서 캐릭터 객체를 제외한 나머지 객체 중 캐릭터 객체와 적어도 일부가 중첩되는 에지를 포함하는 객체에 대응되는 것일 수 있다. 또한, 배경 객체 AU는 이미지에서 캐릭터 객체 및 감정 객체 AU를 제외한 나머지 객체에 대응되는 것일 수 있다.More specifically, the emotion object AU may correspond to an object including an edge at least partially overlapping with the character object among objects other than the character object in the image. Also, the background object AU may correspond to objects other than the character object and the emotion object AU in the image.
예를 들어, 감정 객체 AU는 눈물 AU(411), 화남 표시 AU(412), 불남 AU(413) 및 땀방울 AU(414) 등을 포함할 수 있다.For example, the emotional object AU may include a
예를 들어, 배경 객체 AU는 꽃 문양 AU(421) 및 텍스트 AU(422) 등을 포함할 수 있다. 여기서, 텍스트 AU(422)는 예를 들어 기쁨 감정 카테고리에 해당하는 경우 도시된 바와 같이 'I`m so happy'와 같이 기쁨을 나타내는 텍스트를 포함할 수 있다.For example, the background object AU may include a
상술한 통합 AU들은 예시적인 것에 불과하고, 그 밖에 각 감정 카테고리 별로 해당 감정을 효과적으로 나타낼 수 있는 다양한 요소들이 통합 AU로서 설정되거나 정의될 수 있다.The above-described integrated AUs are merely exemplary, and in addition, various elements capable of effectively expressing a corresponding emotion for each emotion category may be set or defined as the integrated AU.
다시 도 3으로 돌아와서, AU 추출부(151)는 상술한 다양한 통합 AU를 제1 이미지 및 제2 이미지에 포함된 캐릭터 객체로부터 추출한다. 추출된 각 통합 AU는 상술한 인간적 AU 및 캐릭터적 AU에 따라 분류될 수 있다.Referring back to FIG. 3 , the
전처리부(152)는 제1 이미지 및 제2 이미지로부터 인간적 AU를 필터링한 전처리 이미지를 생성한다. 다시 말해서, 전처리부(152)는 추출한 통합 AU 중 캐릭터적 AU를 제거하고 인간적 AU만 필터링하여 전처리 이미지를 생성한다.The
이후, 상술한 저작권 검사 알고리즘은 전처리부(152)로부터 생성된 전처리 이미지에 대하여 수행된다. 즉, 저작권 모니터링부(170)는 제1 저작권 검사 알고리즘 또는 제2 저작권 검사 알고리즘을 제1 이미지 및 제2 이미지가 아닌 전처리 이미지에 대하여 수행할 수 있다. Thereafter, the above-described copyright check algorithm is performed on the pre-processed image generated by the
예를 들어, 저작권 모니터링부(170)는 제1 저작권 검사 알고리즘을 전처리 이미지에 대하여 수행할 수 있다. 저작권 모니터링부(170)는 전처리 이미지에 기초하여 상술한 특징맵 및 출력값 생성, 컨볼루션 필터 및 분류기의 학습 동작 및 저작권 위반 여부를 판단할 수 있다.For example, the
예를 들어, 저작권 모니터링부(170)는 제2 저작권 검사 알고리즘을 전처리 이미지에 대하여 수행할 수 있다. 저작권 모니터링부(170)의 유사도 판단은 상술한 AU 단위로 수행될 수 있다. 예를 들어, 저작권 모니터링부(170)는 인간적 AU에 포함된 복수의 AU 별로 에지 및/또는 특징점의 유사도를 판단하고, 복수의 AU 별 유사도 값을 산출할 수 있다.For example, the
산출된 유사도 값들 중 기 설정된 임계 유사도 값을 넘는 유사도 값의 비율이 전체 비율의 A[%]인 경우(여기서, A는 0 내지 100에 포함되는 실수), 저작권 모니터링부(170)는 제2 이미지가 제1 이미지의 저작권에 위배되는 것으로 판단할 수 있다.When the ratio of the similarity value exceeding the preset threshold similarity value among the calculated similarity values is A[%] of the total ratio (where A is a real number included in 0 to 100), the
상술한 본 개시의 다양한 예들에 따른 저작권 모니터링 장치(100)는 로데이터의 개수를 고려하여 상이한 저작권 검사 알고리즘을 적용하여 저작권 검사의 효율성을 향상시킬 수 있다. 또한, AU를 추출한 전처리 이미지에 대하여 저작권 검사 알고리즘을 수행할 경우 저작권 검사 알고리즘의 연산 속도가 향상될 수 있다.The
이하에서는, 상술한 저작권 모니터링 장치(100)를 포함하는 서버에 대하여 설명한다.Hereinafter, a server including the above-described
도 8은 본 개시의 일 예에 따른 서버의 블록도이다.8 is a block diagram of a server according to an example of the present disclosure.
도 8을 참조하면, 서버는 저작권 모니터링 장치(100) 및 캐릭터 감정 인식 및 태깅 장치(200)를 포함한다.Referring to FIG. 8 , the server includes a
서버(10)는, 저작권 모니터링 장치(100)에 기초하여 사용자 단말로부터 업로드된 이미지가 저작권을 위반하는지 여부를 검사하거나, 또는 캐릭터 감정 인식 및 태깅 장치(200)에 기초하여 사용자 단말로부터 업로드된 이미지에 포함된 캐릭터의 감정을 인식하고, 인식된 감정을 태깅할 수 있다.The
이하에서는, 캐릭터 감정 인식 및 태깅 장치(200)의 다양한 동작 예들에 대하여 설명한다. Hereinafter, various operation examples of the character emotion recognition and tagging
캐릭터 감정 인식 및 태깅 장치(200)는 사용자 단말로로부터 캐릭터 객체를 포함하는 입력 이미지 데이터를 수신한다. 본 개시에서, 캐릭터 객체는 실사가 아닌 창작자에 의해 창작된 캐릭터나 이모티콘 등에 해당하는 객체일 수 있다. 입력 이미지 데이터는 캐릭터 객체를 포함하고, 여기에 해당 캐릭터의 감정 상태를 나타내기 위한 감정 객체 및/또는 배경 이미지에 해당하는 배경 객체를 포함할 수도 있다.The character emotion recognition and tagging
캐릭터 감정 인식 및 태깅 장치(200)는, 사용자 단말로부터 수신한 입력 이미지 데이터의 특징(feature) 및 기 학습된 분류 모델에 기초하여 입력 이미지 데이터에 포함된 캐릭터 객체를 복수의 감정 카테고리 중 하나의 감정 카테고리로 분류할 수 있다. 다시 말해서, 캐릭터 감정 인식 및 태깅 장치(200)는 입력 이미지 데이터의 특징을 기 학습된 분류 모델의 입력 데이터로 하여 캐릭터 객체의 감정을 인식 및 분류할 수 있다.Character emotion recognition and tagging
캐릭터 객체의 감정 인식 및 분류를 위한 복수의 감정 카테고리는 다양하게 설정되거나 정의될 수 있다. 예를 들어, 감정 카테고리는 기쁨, 간절함, 신남, 놀람, 화남, 두려움, 슬픔, 지루함, 피곤함, 실망스러움, 부끄러움, 삐짐, 편안함, 걱정스러움, 아낌, 음흉함, 배고픔, 아픔, 당황함 및 장난스러움 등으로 설정되거나 정의될 수 있다.A plurality of emotion categories for emotion recognition and classification of character objects may be set or defined in various ways. For example, the emotion categories are Joy, Desire, Excitement, Surprise, Angry, Fear, Sadness, Boredom, Tiredness, Disappointment, Shame, Spout, Comfort, Worry, Lovingness, Insidiousness, Hunger, Pain, Embarrassment, and Playfulness. etc. may be set or defined.
상술한 예와 같은 감정 카테고리들 중 어느 하나의 감정 카테고리로 분류될지 여부는, 다양한 AI(artificial intelligence) 알고리즘에 기반하여 수행될 수 있다. 다시 말해서, 상술한 기 학습된 분류 모델의 학습을 위한 학습 알고리즘은 지도 학습, 비지도 학습, 강화 학습 및 전이 학습 등과 같이 다양한 기계 학습(machine learning) 알고리즘을 포함할 수 있다.Whether to be classified into any one emotion category among the emotion categories as in the above example may be performed based on various artificial intelligence (AI) algorithms. In other words, the learning algorithm for learning the previously learned classification model may include various machine learning algorithms such as supervised learning, unsupervised learning, reinforcement learning, and transfer learning.
분류 모델의 학습을 위한 특징은 상술한 캐릭터 객체의 통합 AU일 수 있다. 즉, 캐릭터 감정 인식 및 태깅 장치(200)는, 캐릭터 객체의 통합 AU를 특징으로 하여 분류 모델을 학습하고, 학습 결과로 기 학습된 분류 모델을 생성할 수 있다. 본 개시에서, AU는 캐릭터 객체로부터 추출되는 에지 및 에지에 포함되는 특징점 중 적어도 하나가 이루는 하나의 요소를 의미할 수 있다.The feature for learning the classification model may be the above-described integrated AU of the character object. That is, the character emotion recognition and tagging
도 9는 감정 카테고리 라벨링(labeling)을 설명하기 위한 것이다.9 is for explaining emotion category labeling.
도 9를 참조하면, 상술한 통합 AU 각각은 복수의 감정 카테고리 중 적어도 하나에 라벨링(labeling)될 수도 있다. 이러한 경우, 분류 모델의 훈련 이미지 데이터는 예를 들어 (감정 카테고리, 통합 AU) 쌍이 될 수 있다. 즉, 분류 모델의 학습 시 감정 카테고리에 라벨링되어 있는 통합 AU를 훈련 이미지 데이터로 하는 지도 학습이 사용될 수 있다.Referring to FIG. 9 , each of the above-described integrated AUs may be labeled with at least one of a plurality of emotion categories. In this case, the training image data of the classification model may be, for example, (emotion category, unified AU) pairs. That is, when training the classification model, supervised learning using the integrated AU labeled in the emotion category as training image data may be used.
캐릭터 감정 인식 및 태깅 장치(200)는, 분류된 하나의 감정 카테고리를 입력 이미지 데이터에 태깅(tagging)하여 태깅된 입력 이미지 데이터를 생성할 수 있다. 여기서, 태깅된 입력 이미지 데이터는 입력 이미지 데이터와 분류된 하나의 감정 카테고리 정보를 함께 포함하는 것일 수 있다.The character emotion recognition and tagging
캐릭터 감정 인식 및 태깅 장치(200)는 생성된 태깅된 입력 이미지 데이터를 사용자 단말에 전송할 수 있다.The character emotion recognition and tagging
상술한 캐릭터 감정 인식 및 태깅 장치(200)에 따르면, 실사가 아닌 특히 캐릭터나 이모티콘과 같은 창작물에 포함된 객체의 감정이 효과적으로 인식 및 분류될 수 있다. 구체적으로, 캐릭터 감정 인식 및 태깅 장치(200)는 기계 학습과 같은 AI 알고리즘 시에 사용되는 특징에 캐릭터적 요소를 고려함으로써 캐릭터 객체의 감정을 보다 정밀하게 인식 및 분류할 수 있다.According to the above-described character emotion recognition and tagging
또는, 본 개시의 다른 일 예에 따르면 캐릭터 감정 인식 및 태깅 장치(200)는 입력 이미지 데이터의 감정 분류 시 감정 분류에 사용할 특징을 선택할 수도 있다. 여기서, 선택되는 특징은 캐릭터적 AU 중 어느 하나일 수 있다.Alternatively, according to another example of the present disclosure, the character emotion recognition and tagging
구체적으로, 캐릭터 감정 인식 및 태깅 장치(200)는, 사용자 단말로부터 분류 옵션 데이터를 수신할 수 있다. 여기서, 분류 옵션 데이터는 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 선택하기 위한 선택 정보일 수 있다.Specifically, the character emotion recognition and tagging
캐릭터 감정 인식 및 태깅 장치(200)는, 배경 객체 AU 및 상기 감정 객체 AU 중 수신한 선택 정보에 대응되는 AU를 선택할 수 있다.The character emotion recognition and tagging
캐릭터 감정 인식 및 태깅 장치(200)는, 인간적 AU, 수신한 선택 정보에 대응되는 AU 및 기 학습된 분류 모델에 기초하여 캐릭터 객체를 하나의 감정 카테고리로 분류할 수 있다.The character emotion recognition and tagging
이에 따라, 본 개시의 다른 일 예에 따른 캐릭터 감정 인식 및 태깅 장치(200)는 창작자에게 감정 인식 및 분류를 위한 특징을 선택하게 할 수 있고, 선택된 특징에 기반하여 감정 인식 및 분류를 수행함으로써 기계 학습의 만족도를 올릴 수 있다.Accordingly, the character emotion recognition and tagging
서버는 콘텐츠의 시장 조사를 위하여, 캐릭터 감정 인식 및 태깅 장치(200)를 통해 분류 및 태깅된 감정 카테고리에 해당하는 유사 이미지를 검색하고, 검색된 유사 이미지를 사용자 단말에 전송할 수도 있다.The server may search for similar images corresponding to the classified and tagged emotion categories through the character emotion recognition and tagging
또한, 서버는 저작권 모니터링 장치(100)를 통해 검색된 유사 이미지와 업로드된 이미지 간 유사도 검사를 수행하여 콘텐츠 저작권의 위배 여부를 판단할 수도 있다. 이에 따라, 만약 유사도 검사를 통해 콘텐츠 저작권이 위배되는 것으로 판단되면, 서버는 사용자 단말에 별도의 경고 메시지를 전송할 수도 있다.Also, the server may determine whether content copyright is violated by performing a similarity check between the similar image searched for through the
또는, 본 개시의 또 다른 일 예에 따르면 캐릭터 감정 인식 및 태깅 장치(200)는 분류된 감정의 평가도에 따라 특징을 추가하여 재분류를 수행할 수도 있다.Alternatively, according to another example of the present disclosure, the character emotion recognition and tagging
구체적으로, 캐릭터 감정 인식 및 태깅 장치(200)는, 태깅된 입력 이미지 데이터에 대한 평가 데이터를 수신할 수 있다. 여기서, 평가 데이터는 1차적으로 분류된 감정에 대한 사용자의 만족도를 수치화한 데이터일 수 있다.Specifically, the character emotion recognition and tagging
캐릭터 감정 인식 및 태깅 장치(200)는, 수신한 평가 데이터가 기 설정된 임계 값 미만이면, 인간적 AU, 배경 객체 AU 및 감정 객체 AU 중 적어도 하나 및 기 학습된 분류 모델에 기초하여 캐릭터 객체를 하나의 감정 카테고리로 분류할 수 있다. 예를 들어, 평가 데이터에 대응되는 평가 수치의 최대값이 10점이고, 기 설정된 임계 값이 5점이고, 수신한 평가 데이터에 대응되는 평가 수치의 값이 4점인 경우, 캐릭터 감정 인식 및 태깅 장치(200)는 인간적 AU, 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 특징으로 하여 감정 분류를 다시 수행할 수 있다.Character emotion recognition and tagging
상술한 본 개시의 또 다른 일 예에 따르면 캐릭터 감정 인식 및 태깅 장치(200)는 특히 1차적으로 수행되는 감정 분류가 오직 인간적 AU만을 특징으로 한 경우에 유용할 수 있다. 즉, 캐릭터 감정 인식 및 태깅 장치(200)가 1차적으로는 인간적 AU를 특징으로 하여 감정 분류를 수행하였다가, 분류된 감정에 대한 사용자의 만족도가 낮은 경우에는 캐릭터적 AU를 함께 특징으로 하여 감정 분류를 재수행함으로써 사용자의 만족도를 올릴 수 있다.According to another example of the present disclosure described above, the character emotion recognition and tagging
이하에서는, 저작권 모니터링 장치(100)에 의해 수행되는 저작권 모니터링 방법에 대하여 설명한다.Hereinafter, a copyright monitoring method performed by the
도 10은 본 개시의 일 예에 따른 저작권 모니터링 방법의 순서도이다.10 is a flowchart of a copyright monitoring method according to an example of the present disclosure.
도 10을 참조하면, S110에서, 저작권 모니터링 장치(100)는 사용자로부터 사용자 ID, 사용자가 창작한 제1 이미지 및 제1 이미지에 대한 캐릭터 태그를 수신한다.Referring to FIG. 10 , in S110 , the
S120에서, 저작권 모니터링 장치(100)는 사용자 ID 및 캐릭터 태그 별로 제1 이미지를 매핑하면서 누적 이미지 개수를 산출한다.In S120, the
S130에서, 저작권 모니터링 장치(100)는 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정한다. 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함한다. S130에서, 저작권 모니터링 장치(100)는 누적 이미지 개수가 기 설정된 임계값 이상이면 제1 저작권 검사 알고리즘으로 결정하고, 누적 이미지 개수가 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정할 수 있다.In S130, the
S140에서, 저작권 모니터링 장치(100)는 다른 사용자가 창작한 제2 이미지를 수신한다.In S140, the
S150에서, 저작권 모니터링 장치(100)는 저작권 검사 알고리즘에 기초하여 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단한다.In S150, the
도 11은 본 개시의 일 예에 따른 제1 저작권 검사 알고리즘의 순서도이다.11 is a flowchart of a first copyright check algorithm according to an example of the present disclosure.
도 11을 참조하면, S210에서, 저작권 모니터링 장치(100)는 사용자 ID 및 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터에 기초하여 특징맵을 생성한다.Referring to FIG. 11 , in S210 , the
S220에서, 저작권 모니터링 장치(100)는 특징맵을 분류기에 입력하여 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성한다.In S220, the
S230에서, 저작권 모니터링 장치(100)는 출력값의 손실 함수가 최소가 될 때까지 컨볼루션 필터 및 분류기를 학습시킨다.In S230, the
S240에서, 저작권 모니터링 장치(100)는 컨볼루션 필터 및 분류기에 기초하여 제2 이미지가 제1 이미지의 저작권을 위반하는지 여부를 판단한다.In S240, the
도 12는 본 개시의 일 예에 따른 제2 저작권 검사 알고리즘의 순서도이다.12 is a flowchart of a second copyright check algorithm according to an example of the present disclosure.
도 12를 참조하면, S310에서, 저작권 모니터링 장치(100)는 제1 이미지 및 제2 이미지 별로 에지 및 특징점을 추출한다.Referring to FIG. 12 , in S310 , the
S320에서, 저작권 모니터링 장치(100)는 에지 및 특징점에 기초하여 제1 이미지 및 제2 이미지 간 유사도를 산출한다.In S320, the
S330에서, 저작권 모니터링 장치(100)는 유사도가 기 설정된 임계 유사도 값 이상인지 여부를 판단한다.In S330, the
S340에서, 저작권 모니터링 장치(100)는 유사도가 기 설정된 임계 유사도 값 이상인 것으로 판단된 경우 제2 이미지가 제1 이미지의 저작권을 위반하는 것으로 판단한다.In S340 , the
상술한 설명에서 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수 도 있지만, 일부 제안 방식들의 조합 (혹은 병합) 형태로 구현될 수 도 있다. Since examples of the proposed method in the above description may also be included as one of the implementation methods of the present disclosure, it is obvious that they may be regarded as a kind of proposed method. In addition, the above-described proposed methods may be implemented independently, but may also be implemented in the form of a combination (or merge) of some of the proposed methods.
상술한 바와 같이 개시된 본 개시의 예들은 본 개시와 관련된 기술분야의 통상의 기술자가 본 개시를 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 개시의 예들을 참조하여 설명하였지만, 해당 기술 분야의 통상의 기술자는 본 개시의 예들을 다양하게 수정 및 변경시킬 수 있다. 따라서, 본 개시는 여기에 기재된 예들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The examples of the present disclosure disclosed as described above are provided to enable those skilled in the art to make and practice the present disclosure. Although the above has been described with reference to examples of the present disclosure, those skilled in the art may variously modify and change the examples of the present disclosure. Accordingly, this disclosure is not intended to be limited to the examples set forth herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.
10: 서버
100: 저작권 모니터링 장치
110: 송수신기
120: 프로세서
130: 메모리
200: 캐릭터 감정 인식 및 태깅 장치10: Server
100: copyright monitoring device
110: transceiver 120: processor
130: memory
200: character emotion recognition and tagging device
Claims (10)
상기 메모리에 연결되는 적어도 하나의 프로세서(processor)를 포함하고,
상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여:
사용자로부터 사용자 ID(identification), 상기 사용자가 창작한 제1 이미지 및 상기 제1 이미지에 대한 캐릭터 태그를 수신하고;
상기 사용자 ID 및 상기 캐릭터 태그 별로 상기 제1 이미지를 매핑하면서 누적 이미지 개수를 산출하고;
상기 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정하고;
다른 사용자가 창작한 제2 이미지를 수신하고; 및
상기 저작권 검사 알고리즘에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하도록 구성되고,
상기 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하는,
저작권 모니터링 장치.
at least one memory for storing at least one instruction; and
At least one processor coupled to the memory,
The at least one processor executes the at least one instruction to:
receiving a user identification (ID) from a user, a first image created by the user, and a character tag for the first image;
calculating the accumulated number of images while mapping the first image for each of the user ID and the character tag;
determine a copyright checking algorithm based on the accumulated number of images;
receive a second image created by another user; and
and determine whether the second image violates the copyright of the first image based on the copyright checking algorithm;
The copyright check algorithm includes a first copyright check algorithm based on supervised learning and a second copyright check algorithm based on similarity,
Copyright monitoring device.
상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여:
상기 누적 이미지 개수가 기 설정된 임계값 이상이면 상기 제1 저작권 검사 알고리즘으로 결정하고,
상기 누적 이미지 개수가 상기 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정하도록 더 구성되는,
저작권 모니터링 장치.
According to claim 1,
The at least one processor executes the at least one instruction to:
If the number of accumulated images is greater than or equal to a preset threshold, it is determined by the first copyright check algorithm,
Further configured to determine with the second copyright check algorithm if the number of accumulated images is less than the preset threshold value,
Copyright monitoring device.
상기 제1 저작권 검사 알고리즘은,
상기 사용자 ID 및 상기 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성하고, 상기 특징맵을 분류기에 입력하여 상기 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성하고, 상기 출력값의 손실 함수가 최소가 될 때까지 상기 컨볼루션 필터 및 상기 분류기를 학습시키고,
상기 컨볼루션 필터 및 상기 분류기에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하는,
저작권 모니터링 장치.
3. The method of claim 2,
The first copyright check algorithm,
A feature map is generated based on a convolution filter with respect to the user ID and accumulated images for each character tag and pre-stored training data, and the feature map is input to a classifier to indicate whether the character is the user's character. and training the convolution filter and the classifier until the loss function of the output value is minimized,
determining whether the second image violates the copyright of the first image based on the convolution filter and the classifier,
Copyright monitoring device.
상기 제2 저작권 검사 알고리즘은,
상기 제1 이미지 및 상기 제2 이미지 별로 에지 및 특징점을 추출하고, 상기 에지 및 상기 특징점에 기초하여 상기 제1 이미지 및 상기 제2 이미지 간 유사도를 산출하고, 상기 유사도가 기 설정된 임계 유사도 값 이상인 경우 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는 것으로 판단하는,
저작권 모니터링 장치.
3. The method of claim 2,
The second copyright check algorithm,
When an edge and a feature point are extracted for each of the first image and the second image, a similarity between the first image and the second image is calculated based on the edge and the feature point, and the similarity is greater than or equal to a preset threshold similarity value Determining that the second image violates the copyright of the first image,
Copyright monitoring device.
상기 적어도 하나의 프로세서는 상기 적어도 하나의 명령어를 실행하여:
상기 제1 이미지 및 상기 제2 이미지에 포함된 캐릭터 객체로부터 통합 AU(action unit)을 추출하고,
여기서 상기 통합 AU는 인간적 AU 및 캐릭터적 AU를 포함하고; 및
상기 제1 이미지 및 상기 제2 이미지로부터 상기 인간적 AU를 필터링한 전처리 이미지를 생성하도록 더 구성되고,
상기 저작권 검사 알고리즘은 상기 전처리 이미지에 대하여 수행되는,
저작권 모니터링 장치.
According to claim 1,
The at least one processor executes the at least one instruction to:
Extracting an integrated action unit (AU) from the character object included in the first image and the second image,
wherein the integrated AU includes human AU and character AU; and
further configured to generate a filtered pre-processing image of the human AU from the first image and the second image,
The copyright check algorithm is performed on the pre-processed image,
Copyright monitoring device.
상기 인간적 AU는 상기 캐릭터 객체의 눈썹, 눈, 코, 입 및 볼 각각에 포함된 복수의 특징점 간 거리 및 비율 중 적어도 하나를 달리 갖는 복수의 눈썹 AU, 복수의 눈 AU, 복수의 코 AU, 복수의 입 AU 및 복수의 볼 AU 중 적어도 하나를 포함하고,
상기 캐릭터적 AU는 상기 제1 이미지 및 상기 제2 이미지에 포함된 배경 객체 AU 및 감정 객체 AU 중 적어도 하나를 포함하는,
저작권 모니터링 장치.
6. The method of claim 5,
The human AU is a plurality of eyebrows AUs, a plurality of eyes AUs, a plurality of noses AUs, and a plurality of different distances and ratios between a plurality of feature points included in each of the eyebrows, eyes, nose, mouth and cheeks of the character object. at least one of a mouth AU and a plurality of ball AUs;
The character AU includes at least one of a background object AU and an emotion object AU included in the first image and the second image,
Copyright monitoring device.
상기 감정 객체 AU는 상기 제1 이미지 및 상기 제2 이미지에서 상기 캐릭터 객체를 제외한 나머지 객체 중 상기 캐릭터 객체와 적어도 일부가 중첩되는 에지를 포함하는 객체에 대응되고,
상기 배경 객체 AU는 상기 제1 이미지 및 상기 제2 이미지에서 상기 캐릭터 객체 및 상기 감정 객체 AU를 제외한 나머지 객체에 대응되는,
저작권 모니터링 장치.7. The method of claim 6,
The emotion object AU corresponds to an object including an edge at least partially overlapping with the character object among the remaining objects except for the character object in the first image and the second image,
The background object AU corresponds to the remaining objects except for the character object and the emotion object AU in the first image and the second image,
Copyright monitoring device.
사용자로부터 사용자 ID(identification), 상기 사용자가 창작한 제1 이미지 및 상기 제1 이미지에 대한 캐릭터 태그를 수신하는 단계;
상기 사용자 ID 및 상기 캐릭터 태그 별로 상기 제1 이미지를 매핑하면서 누적 이미지 개수를 산출하는 단계;
상기 누적 이미지 개수에 기초하여 저작권 검사 알고리즘을 결정하는 단계;
다른 사용자가 창작한 제2 이미지를 수신하는 단계; 및
상기 저작권 검사 알고리즘에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하는 단계를 포함하고,
상기 저작권 검사 알고리즘은 지도 학습 기반의 제1 저작권 검사 알고리즘 및 유사도 기반의 제2 저작권 검사 알고리즘을 포함하는,
저작권 모니터링 방법.
A copyright monitoring method performed by a copyright monitoring device, comprising:
receiving a user ID (identification) from a user, a first image created by the user, and a character tag for the first image;
calculating the accumulated number of images while mapping the first image for each of the user ID and the character tag;
determining a copyright check algorithm based on the accumulated number of images;
receiving a second image created by another user; and
determining whether the second image violates the copyright of the first image based on the copyright check algorithm;
The copyright check algorithm includes a first copyright check algorithm based on supervised learning and a second copyright check algorithm based on similarity,
How to monitor copyrights.
상기 저작권 검사 알고리즘을 결정하는 단계는 상기 누적 이미지 개수가 기 설정된 임계값 이상이면 상기 제1 저작권 검사 알고리즘으로 결정하고, 상기 누적 이미지 개수가 상기 기 설정된 임계값 미만이면 상기 제2 저작권 검사 알고리즘으로 결정하는,
저작권 모니터링 방법.
9. The method of claim 8,
In the determining of the copyright check algorithm, if the number of accumulated images is greater than or equal to a preset threshold, it is determined by the first copyright check algorithm, and if the number of accumulated images is less than the preset threshold, it is determined by the second copyright check algorithm. doing,
How to monitor copyrights.
상기 제1 저작권 검사 알고리즘은,
상기 사용자 ID 및 상기 캐릭터 태그 별 누적 이미지 및 기 저장된 훈련 데이터에 대하여 컨볼루션 필터(convolution filter)에 기초하여 특징맵을 생성하고, 상기 특징맵을 분류기에 입력하여 상기 사용자의 캐릭터인지 여부를 나타내는 출력값을 생성하고, 상기 출력값의 손실 함수가 최소가 될 때까지 상기 컨볼루션 필터 및 상기 분류기를 학습시키고,
상기 컨볼루션 필터 및 상기 분류기에 기초하여 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는지 여부를 판단하고,
상기 제2 저작권 검사 알고리즘은,
상기 제1 이미지 및 상기 제2 이미지 별로 에지 및 특징점을 추출하고, 상기 에지 및 상기 특징점에 기초하여 상기 제1 이미지 및 상기 제2 이미지 간 유사도를 산출하고, 상기 유사도가 기 설정된 임계 유사도 값 이상인 경우 상기 제2 이미지가 상기 제1 이미지의 저작권을 위반하는 것으로 판단하는,
저작권 모니터링 방법.
10. The method of claim 9,
The first copyright check algorithm,
A feature map is generated based on a convolution filter with respect to the user ID and accumulated images for each character tag and pre-stored training data, and the feature map is input to a classifier to indicate whether the character is the user's character. and training the convolution filter and the classifier until the loss function of the output value is minimized,
determining whether the second image violates the copyright of the first image based on the convolution filter and the classifier;
The second copyright check algorithm,
When an edge and a feature point are extracted for each of the first image and the second image, a similarity between the first image and the second image is calculated based on the edge and the feature point, and the similarity is greater than or equal to a preset threshold similarity value Determining that the second image violates the copyright of the first image,
How to monitor copyrights.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210010867 | 2021-01-26 | ||
KR20210010867 | 2021-01-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220107952A true KR20220107952A (en) | 2022-08-02 |
Family
ID=82846065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220006542A KR20220107952A (en) | 2021-01-26 | 2022-01-17 | Appratus and method for monitoring creator`s copyright |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220107952A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101557321B1 (en) | 2014-09-15 | 2015-10-06 | 주식회사 디알엠인사이드 | Detecting system and method for a modified copy |
KR102052534B1 (en) | 2018-12-05 | 2019-12-06 | 주식회사 비욘드테크 | Apparatus for judging illegal duplication using object recognition based on deep learning and method thereof |
-
2022
- 2022-01-17 KR KR1020220006542A patent/KR20220107952A/en not_active Application Discontinuation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101557321B1 (en) | 2014-09-15 | 2015-10-06 | 주식회사 디알엠인사이드 | Detecting system and method for a modified copy |
KR102052534B1 (en) | 2018-12-05 | 2019-12-06 | 주식회사 비욘드테크 | Apparatus for judging illegal duplication using object recognition based on deep learning and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107333071A (en) | Video processing method and device, electronic equipment and storage medium | |
CN111212303B (en) | Video recommendation method, server and computer-readable storage medium | |
CN110569795A (en) | Image identification method and device and related equipment | |
CN110276248B (en) | Facial expression recognition method based on sample weight distribution and deep learning | |
KR20170026222A (en) | Method and device for classifying an object of an image and corresponding computer program product and computer-readable medium | |
KR20050092230A (en) | Device for providing sound effect accrding to image and method thereof | |
EP3839768A1 (en) | Mediating apparatus and method, and computer-readable recording medium thereof | |
CN110555896A (en) | Image generation method and device and storage medium | |
CN111553235B (en) | Network training method for protecting privacy, identity recognition method and device | |
CN109145720A (en) | A kind of face identification method and device | |
CN113657195A (en) | Face image recognition method, face image recognition equipment, electronic device and storage medium | |
US20220005194A1 (en) | Digital imaging systems and methods of analyzing pixel data of an image of a user's skin after removing hair for determining a user-specific skin nick and cut value | |
CN114360015A (en) | Living body detection method, living body detection device, living body detection equipment and storage medium | |
CN110610131A (en) | Method and device for detecting face motion unit, electronic equipment and storage medium | |
CN113947209A (en) | Integrated learning method, system and storage medium based on cloud edge cooperation | |
US10198791B2 (en) | Automatic correction of facial sentiment of portrait images | |
CN110675312A (en) | Image data processing method, image data processing device, computer equipment and storage medium | |
KR20220107952A (en) | Appratus and method for monitoring creator`s copyright | |
CN112102149A (en) | Figure hair style replacing method, device, equipment and medium based on neural network | |
CN113554127B (en) | Image recognition method, device and medium based on hybrid model | |
Phan et al. | Lspd: A large-scale pornographic dataset for detection and classification | |
KR102565321B1 (en) | Character emotion recognition and tagging appratus, character emotion recognition and tagging method, and character emotion recognition and tagging system including the character emotion recognition and tagging apparatus | |
CN113537124B (en) | Model training method, device and storage medium | |
EP3933683A1 (en) | Digital imaging systems and methods of analyzing pixel data of an image of a user's body before removing hair for determining a user-specific trapped hair value | |
KR102637373B1 (en) | Apparatus and method for generating emoticon |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |