KR102443200B1 - New image generation system and method based on compositeness of legally identified images - Google Patents

New image generation system and method based on compositeness of legally identified images Download PDF

Info

Publication number
KR102443200B1
KR102443200B1 KR1020210015290A KR20210015290A KR102443200B1 KR 102443200 B1 KR102443200 B1 KR 102443200B1 KR 1020210015290 A KR1020210015290 A KR 1020210015290A KR 20210015290 A KR20210015290 A KR 20210015290A KR 102443200 B1 KR102443200 B1 KR 102443200B1
Authority
KR
South Korea
Prior art keywords
image
rights
identification information
hash value
deep learning
Prior art date
Application number
KR1020210015290A
Other languages
Korean (ko)
Other versions
KR20210016595A (en
Inventor
이두식
오태현
김수용
Original Assignee
주식회사 아임클라우드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180173409A external-priority patent/KR102221712B1/en
Application filed by 주식회사 아임클라우드 filed Critical 주식회사 아임클라우드
Priority to KR1020210015290A priority Critical patent/KR102443200B1/en
Publication of KR20210016595A publication Critical patent/KR20210016595A/en
Application granted granted Critical
Publication of KR102443200B1 publication Critical patent/KR102443200B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4627Rights management associated to the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 일 실시예에 따르면, 권리 및 사용 정의 데이터가 있는 이미지들에 대한 식별정보를 생성하여 저장하는 딥 러닝 기반 권리 이미지 관리 시스템; 상기 딥 러닝 기반 권리 이미지 관리 시스템에 의해 권리 및 사용 정의 데이터가 구비된 이미지와 신규 이미지를 합성하는 합성부; 상기 합성부에 의해 합성된 합성 이미지 및 합성 이미지와 매핑된 권리 및 사용 정의 데이터를 저장하는 저장장치;를 포함하는 것을 특징으로 하는, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템이 제공될 수 있다. According to an embodiment of the present invention, a deep learning-based rights image management system for generating and storing identification information for images with rights and usage definition data; a synthesizing unit for synthesizing an image with rights and usage definition data and a new image by the deep learning-based rights image management system; A new image creation system through right-confirmed image fusion can be provided, comprising: a composite image synthesized by the synthesizing unit and a storage device for storing rights and usage definition data mapped with the composite image .

Description

권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템 및 방법{NEW IMAGE GENERATION SYSTEM AND METHOD BASED ON COMPOSITENESS OF LEGALLY IDENTIFIED IMAGES}New image generation system and method through right-verified image fusion

본 발명은 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템 및 방법에 관한 것이다. The present invention relates to a novel image generation system and method through rights-verified image fusion.

컴퓨터화된 데이터베이스는 음성, 이미지 및 텍스트를 포함하는 여러 종류의 데이터를 저장하기 위해 사용될 수 있다. 이 유연성은 설계자가 텍스트 및 음성과 같은 여러 다른 포맷의 정보를 편성 및 저장하는 데이터 레코드를 가진 데이터베이스를 구성하여, 특히 가까운 장래에 응용할 수 있는 데이터베이스 시스템을 제공할 수 있게 한다. Computerized databases can be used to store different kinds of data, including voice, image, and text. This flexibility enables designers to construct databases with data records that organize and store information in several different formats, such as text and voice, providing a database system with particularly near future applications.

이미지 식별 기술은 현재 중요한 분야로서 최근 몇 년간 빠르게 발전하고 있으며, 용도가 넓어 각 분야에 사용되고 있다. 예를 들면 수기 입력(handwriting input), 우편번호 식별, 한자 식별, 사람 얼굴 식별, 지문 식별 및 홍채 식별 등 기술은 매우 발전하였다. Image identification technology is currently an important field and has been rapidly developing in recent years, and has a wide range of uses and is used in each field. For example, handwriting input, zip code identification, Chinese character identification, human face identification, fingerprint identification, and iris identification, etc. have been very advanced.

한편, 온라인에서의 이미지 활용도가 높아짐에 따라서, 컴퓨터를 사용하여 이미지를 합성하는 경우가 있는데, 불필요한 저작권 분쟁을 피하기 위해서 법적인 권리가 확인된 이미지들을 이용하도록 하는 것이 바람직할 것이다.On the other hand, as the use of images online increases, there are cases where images are synthesized using a computer. In order to avoid unnecessary copyright disputes, it would be desirable to use images whose legal rights have been confirmed.

(1) 한국특허등록번호 KR 10-1710050 (2017.02.20) 이미지 식별시스템 및 방법(1) Korea Patent Registration No. KR 10-1710050 (2017.02.20) Image identification system and method (2) 한국특허등록번호 10-1690264 B1 (2016.12.21) 다중 코드 인식 방법 및 시스템(2) Korean Patent Registration No. 10-1690264 B1 (2016.12.21) Multi-code recognition method and system

본 발명의 하나 이상의 실시예에 따르면, 딥러닝으로 확보된 권리가 명확한 이미지 데이터(유료 또는 무료)를 이용하여 새로운 이미지 창작을 위한 이미지 간 데이터 융합을 통하여 신규 이미지를 생성할 수 있는, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템이 제공된다. According to one or more embodiments of the present invention, the right to create a new image through data fusion between images for creating a new image using image data (paid or free) with clear rights secured by deep learning A novel image generation system through image fusion is provided.

본 발명의 일 실시예에 따르면According to an embodiment of the present invention

권리 및 사용 정의 데이터가 있는 이미지들에 대한 식별정보를 생성하여 저장하는 딥 러닝 기반 권리 이미지 관리 시스템; 상기 딥 러닝 기반 권리 이미지 관리 시스템에 의해 권리 및 사용 정의 데이터가 구비된 이미지와 신규 이미지를 합성하는 합성부; 상기 합성부에 의해 합성된 합성 이미지 및 합성 이미지와 매핑된 권리 및 사용 정의 데이터를 저장하는 저장장치;를 포함하는 것을 특징으로 하는, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템이 제공될 수 있다. A deep learning-based rights image management system that generates and stores identification information for images with rights and usage definition data; a synthesizing unit for synthesizing an image with rights and usage definition data and a new image by the deep learning-based rights image management system; A new image creation system through right-confirmed image fusion can be provided, comprising: a composite image synthesized by the synthesizing unit and a storage device for storing rights and usage definition data mapped with the composite image .

본 발명의 하나 이상의 실시예에 따르면, 딥러닝으로 확보된 권리가 명확한 이미지 데이터(유료 또는 무료)를 이용하여 새로운 이미지 창작을 위한 이미지 간 데이터 융합을 통하여 신규 이미지를 생성할 수 있게 된다. According to one or more embodiments of the present invention, it is possible to create a new image through data fusion between images for creating a new image using image data (paid or free) with clear rights secured by deep learning.

도 1은 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 방법을 설명하기 위한 도면이다.
도 3 내지 도 4는 본 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템을 설명하기 위한 도면들이다.
도 5는 본 발명의 일 실시예에 따른 이미지 식별정보 생성 방법을 설명하기 위한 도면이다.
도 6 내지 도 7는 본 발명의 다른 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템을 설명하기 위한 도면들이다.
도 8은 본 발명의 다른 실시예에 따른 이미지 식별정보 생성 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따라서 모델을 생성하는 방법을 설명하기 위한 도면이다.
1 is a view for explaining a new image generation system through the right-verified image fusion according to an embodiment of the present invention.
2 is a view for explaining a method for generating a new image through right-verified image fusion according to an embodiment of the present invention.
3 to 4 are diagrams for explaining a deep learning-based rights image management system according to an embodiment of the present invention.
5 is a view for explaining a method for generating image identification information according to an embodiment of the present invention.
6 to 7 are diagrams for explaining a deep learning-based rights image management system according to another embodiment of the present invention.
8 is a view for explaining a method of generating image identification information according to another embodiment of the present invention.
9 is a diagram for explaining a method of generating a model according to an embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed subject matter may be thorough and complete, and that the spirit of the present invention may be sufficiently conveyed to those skilled in the art.

본 명세서의 다양한 실시예들에서 제1, 제2 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다. In various embodiments of the present specification, terms such as first, second, etc. are used to describe various components, but these components should not be limited by these terms. These terms are only used to distinguish one component from another. The embodiments described and illustrated herein also include complementary embodiments thereof.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural, unless specifically stated otherwise in the phrase. As used herein, 'comprises' and/or 'comprising' does not exclude the presence or addition of one or more other elements.

용어의 정의Definition of Terms

본원 명세서에서, 용어 '소프트웨어'는 컴퓨터에서 하드웨어를 움직이는 기술을 의미하고, 용어 '하드웨어'는 컴퓨터를 구성하는 유형의 장치나 기기(CPU, 메모리, 입력 장치, 출력 장치, 주변 장치 등)를 의미하고, 용어 '단계'는 소정의 목을 달성하기 위해 시계열으로 연결된 일련의 처리 또는 조작을 의미하고, 용어 '프로그램은 컴퓨터로 처리하기에 합한 명령의 집합을 의미하고, 용어 '프로그램 기록 매체'는 프로그램을 설치하고 실행하거나 유통하기 위해 사용되는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 의미한다. As used herein, the term 'software' refers to a technology that moves hardware in a computer, and the term 'hardware' refers to a tangible device or device (CPU, memory, input device, output device, peripheral device, etc.) constituting the computer. and, the term 'step' means a series of processes or operations connected in time series to achieve a predetermined goal, the term 'program means a set of instructions that are combined to be processed by a computer, and the term 'program recording medium' means It means a computer-readable recording medium on which a program used to install, execute, or distribute a program is recorded.

본원 명세서에서, 용어들 '이미지'와 '이미지 파일'은 특별히 구별의 실익이 없는 한 구별하지 않고 사용하기로 한다.In the present specification, the terms 'image' and 'image file' are used without distinction unless there is a particular benefit to the distinction.

본원 명세서에서, 머신 러닝 프로그램은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합체를 의미한다. 한편, 딥 러닝 프로그램은 머신 러닝 프로그램의 일종이다. In the present specification, a machine learning program is a machine learning program that attempts high-level abstraction (a task of summarizing core contents or functions in a large amount of data or complex data) through a combination of several nonlinear transformation methods. ) means a set of algorithms. On the other hand, a deep learning program is a kind of machine learning program.

본원 명세서에서, 용어 '모델'은 이미지 데이터에 의해 머신 러닝 프로그램이 트레이닝(학습)되어 생성된 분류자(classifier)를 의미한다.In the present specification, the term 'model' refers to a classifier generated by training (learning) a machine learning program based on image data.

본원명세서에서, 용어 '이미지 데이터'는 이미지를 모니터나 프린터로 래스터화 할 수 있는 디지털 데이터의 모음을 의미한다. 이미지는 픽셀이라 불리우리는 단위로 이루어져 있고, 각 픽셀은 밝기 값 또는 컬러 값을 가지는데, 이미지 데이터는 예를 들면 이미지를 이루는 각 필셀이 가지는 밝기 값 또는 컬러 값들일 수 있다. 보다 구체적인 예를 들면, 흑백 이미지일 경우는 각 픽셀은 0~255 사이의 밝기값을 가질 수 있고, 컬러 이미지일 경우는 각 픽셀은 3개의 색 채널(예를 들면, R, G, B)로 표시될 수 있고, 각 채널은 0~255 사이의 밝기값을 가질 수 있다. 여기서, 수치나 색채널의 종류는 본 발명의 설명을 위한 예시적인 것임을 당업자는 이해할 것이다.In this specification, the term 'image data' refers to a collection of digital data that can rasterize an image with a monitor or printer. An image consists of a unit called a pixel, and each pixel has a brightness value or a color value, and the image data may be, for example, a brightness value or color values of each pixel constituting the image. As a more specific example, in the case of a black and white image, each pixel may have a brightness value between 0 and 255, and in the case of a color image, each pixel is divided into three color channels (eg, R, G, B). may be displayed, and each channel may have a brightness value between 0 and 255. Here, it will be understood by those skilled in the art that numerical values and types of color channels are exemplary for description of the present invention.

본원 명세서에서, 용어 '권리 이미지'는 '권리 및 사용 정의 데이터'가 구비된 이미지를 의미하는 것으로 사용된다.In this specification, the term 'rights image' is used to mean an image equipped with 'rights and usage definition data'.

본원 명세서에서, '권리 및 사용 정의 데이터'라고 함은, 이미지에 대하여 권리가 있는지 여부, 권리자에 대한 정보, 및 이미지의 유료 또는 무료 사용 여부 중 적어도 하나 이상을 정의한 데이터를 의미한다. In the present specification, 'right and usage definition data' means data defining at least one of whether there is a right to an image, information about the right holder, and whether the image is used for a fee or free use.

본원 명세서에서, 용어 '관리'는 데이터의 '수신', '송신', '저장', '수정', 및 '삭제'를 포함하는 의미로 사용된다.In this specification, the term 'management' is used to include 'reception', 'transmission', 'storage', 'modification', and 'deletion' of data.

본원 명세서에서, 'A 단계와 B 단계는 선후가 없다'와 동일하거나 유사한 문장은 A 단계가 B 단계보다 먼저 수행되거나, A 단계가 B 단계보다 나중에 수행되거나, 또는 A 단계와 B 단계가 동시에 수행될 수 있다는 것을 의미한다. In this specification, the same or similar sentence as 'Step A and Step B have no precedence' means that step A is performed before step B, step A is performed after step B, or step A and step B are performed simultaneously means it can be

이하, 도면들을 참조하여, 본 발명의 실시예들에 대해 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템을 설명하기 위한 도면이다. 1 is a view for explaining a new image generation system through the right-verified image fusion according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템은 딥 러닝 기반 권리 이미지 관리 시스템(1000), 합성부(2000), 및 저장장치(3000)를 포함할 수 있다. Referring to FIG. 1 , a new image generation system through right-verified image fusion according to an embodiment of the present invention includes a deep learning-based rights image management system 1000 , a synthesizing unit 2000 , and a storage device 3000 . may include

본 실시예에서, 딥 러닝 기반 권리 이미지 관리 시스템(1000)은 권리 및 사용 정의 데이터가 있는 이미지들에 대한 식별정보를 생성하여 저장한다. 예를 들면, 딥 러닝 기반 권리 이미지 관리 시스템(1000)은 이미지, 이미지에 대한 식별정보, 및 이미지에 대한 권리 및 사용 정의 데이터를 서로 매핑하여 저장한다. 딥 러닝 기반 권리 이미지 관리 시스템(1000)에 대한 예시적인 구성 및 동작에 대하여는 도 3 내지 도 9를 참조하여 상세히 후술하기로 한다. In this embodiment, the deep learning-based rights image management system 1000 generates and stores identification information for images with rights and usage definition data. For example, the deep learning-based rights image management system 1000 maps and stores images, identification information for images, and rights and usage definition data for images with each other. An exemplary configuration and operation of the deep learning-based rights image management system 1000 will be described later in detail with reference to FIGS. 3 to 9 .

합성부(2000)는 딥 러닝 기반 권리 이미지 관리 시스템(1000)에 의해 권리 및 사용 정의 데이터가 구비된 이미지와 신규 이미지를 합성한다. The synthesizing unit 2000 synthesizes an image with rights and usage definition data and a new image by the deep learning-based rights image management system 1000 .

합성부(2000)는 또한 상기 합성 이미지와 합성 이미지에 대한 권리 및 사용 정의 데이터를 매핑할 수 있다.The synthesizing unit 2000 may also map the composite image and rights and usage definition data for the composite image.

저장장치(3000)는 합성부(2000)에 의해 합성된 합성 이미지 및 합성 이미지와 매핑된 권리 및 사용 정의 데이터를 저장한다. The storage device 3000 stores the composite image synthesized by the synthesis unit 2000 and the rights and usage definition data mapped with the composite image.

도 1에 도시하지는 않았지만, 딥 러닝 기반 권리 이미지 관리 시스템(1000)은 추가적으로 저장장치(3000)로부터 저장된 합성 이미지와 이 합성 이미지에 대한 권리 및 사용 정의 데이터를 제공받아, 그 합성 이미지에 대한 식별정보도 같이 생성하여 저장할 수 있다. Although not shown in FIG. 1, the deep learning-based rights image management system 1000 additionally receives the stored composite image from the storage device 3000 and the right and usage definition data for the composite image, and identification information for the composite image can also be created and saved.

한편, 딥 러닝 기반 권리 이미지 관리 시스템(1000), 합성부(2000), 및 저장 장치(3000)는, 유선으로 서로 직접 연결되거나 또는 통신망(예를 들면, 광역 통신망(WAN), 도시권 통신망(MAN), 근거리 통신망(LAN), 개인 통신망(PAN))으로 상호 데이터를 송수신하도록 연결된다. On the other hand, the deep learning-based rights image management system 1000, the synthesizing unit 2000, and the storage device 3000 are directly connected to each other by wire or a communication network (eg, a wide area network (WAN), an urban area network (MAN) ), a local area network (LAN), and a personal network (PAN)) are connected to transmit and receive data.

도 2는 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 방법을 설명하기 위한 도면이다. 2 is a view for explaining a method for generating a new image through right-verified image fusion according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 방법은 신규 이미지 선택 단계(S11), 병합할 이미지 선택 단계(S13), 병합할 이미지에 대한 권리 및 사용 정의 데이터를 표시하는 단계(S15), 병합 단계(S17), 합성 이미지에 대한 권리 및 사용 정의 데이터 생성 단계(S19), 및 저장 단계(S19)를 포함할 수 있다. 이하에서는 설명의 목적을 위해서, 도 1을 참조하여 설명한 장치들을 사용하는 경우를 예로 들기로 한다. Referring to FIG. 2 , the method for generating a new image through right-verified image fusion according to an embodiment of the present invention includes a new image selection step (S11), an image selection step (S13) to be merged, a right to an image to be merged, and It may include a step of displaying the usage definition data (S15), a merging step (S17), a right to the composite image and a usage definition data generation step (S19), and a storage step (S19). Hereinafter, for the purpose of explanation, a case in which the devices described with reference to FIG. 1 are used will be exemplified.

신규 이미지 선택 단계(S11)는 사용자로부터 이미지를 선택 받는 단계이다. 예를 들면, 본 단계는, 사용자 컴퓨터에 있는 이미지들 중 어느 하나를 선택받는 단계이다. 다른 예를 들면, 본 단계는, 딥 러닝 기반 권리 이미지 관리 시스템(1000)에 의해 생성된 이미지들(권리 및 사용 정의 데이터와 식별정보가 매핑된 이미지들) 중에서 어느 하나를 사용자로부터 선택받는 단계이다. 본 발명의 설명의 목적을 위해서, S11 단계와 같이 사용자로부터 선택받은 이미지를 '신규 이미지'라고 언급하기로 한다.The new image selection step S11 is a step in which an image is selected by the user. For example, in this step, any one of the images in the user's computer is selected. For another example, this step is a step in which any one of the images (images to which rights and usage definition data and identification information are mapped) generated by the deep learning-based rights image management system 1000 is selected by the user . For the purpose of describing the present invention, an image selected by the user as in step S11 will be referred to as a 'new image'.

병합할 이미지 선택 단계(S13)는, 딥 러닝 기반 권리 이미지 관리 시스템(1000)에 의해 생성된 이미지들(권리 및 사용 정의 데이터와 식별정보가 매핑된 이미지들) 중에서 어느 하나를 사용자로부터 선택받는 단계이다. 본 발명의 설명의 목적을 위해서, S13 단계와 같이 사용자로부터 신규 이미지에 병합할 이미지를 '병합 이미지'라고 언급하기로 한다.The image selection step (S13) to be merged is a step of receiving a selection from a user from among the images (images to which rights and usage definition data and identification information are mapped) generated by the deep learning-based rights image management system 1000 to be. For the purpose of describing the present invention, an image to be merged into a new image from the user as in step S13 will be referred to as a 'merged image'.

병합 이미지에 대한 권리 및 사용 정의 데이터를 표시하는 단계(S15)는 S13 단계에서 선택된 병합할 이미지에 대한 권리 및 사용 정의 데이터를 사용자에게 표시하는 단계이다. 본 단계를 통해서, 사용자는 표시된 권리 및 사용 정의 데이터를 참조하여 이미지를 병합 할지 여부를 선택할 수 있을 것이다. The step of displaying the right and usage definition data for the merged image ( S15 ) is a step of displaying the right and usage definition data for the image to be merged selected in step S13 to the user. Through this step, the user will be able to choose whether to merge the image by referring to the displayed rights and usage definition data.

병합 단계(S17)는 S13 단계에서 선택된 병합 이미지를 합성부(2000)가 S11 단계에서 선택된 신규 이미지를 합성한다. 본 발명의 설명의 목적을 위해서, S17 단계에서 병합 이미지와 신규 이미지가 합성된 이미지를 '합성 이미지'라고 언급하기로 한다.In the merging step (S17), the synthesizing unit 2000 synthesizes the new image selected in step S11 with the merged image selected in step S13. For the purpose of describing the present invention, the image in which the merged image and the new image are synthesized in step S17 will be referred to as a 'composite image'.

합성 이미지에 대한 권리 및 사용 정의 데이터 생성 단계(S19)는 S17 단계에서 생성된 합성 이미지에 대한 권리 및 사용 정의 데이터를 생성하고, 합성 이미지와 매핑한다. In the step S19 of generating the right and usage definition data for the composite image, the right and usage definition data for the composite image generated in step S17 is generated and mapped with the composite image.

저장 단계(S19)는 S19 단계에서 생성된 합성 이미지와, 합성 이미지에 대한 권리 및 사용 정의 데이터를 매핑하여 저장 장치(3000)에 저장하는 단계이다. The storage step (S19) is a step of mapping the composite image generated in step S19 and the rights and usage definition data for the composite image and storing the mapping in the storage device (3000).

도 3과 도 4는 본 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템을 설명하기 위한 도면들이다. 3 and 4 are diagrams for explaining a deep learning-based rights image management system according to an embodiment of the present invention.

이들 도면을 참조하면, 본 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템은 식별정보 생성장치(20)와 정보 관리부(30)를 포함한다. 한편, 본 발명의 설명의 목적을 위해서, 이미지 제공 장치(10)를 도면 3에 추가적으로 도시하였다. Referring to these drawings, the deep learning-based rights image management system according to an embodiment of the present invention includes an identification information generating device 20 and an information management unit 30 . Meanwhile, for the purpose of describing the present invention, the image providing apparatus 10 is additionally illustrated in FIG. 3 .

본 실시예에서, 이미지 제공 장치(10), 식별정보 생성장치(20), 및 정보 관리부(30)는 유선으로 직접 연결되거나 또는 통신망(예를 들면, 광역 통신망(WAN), 도시권 통신망(MAN), 근거리 통신망(LAN), 개인 통신망(PAN))으로 상호 데이터를 송수신하도록 연결되며, 식별정보 생성장치(20)에 포함된 구성요소들도 유선으로 직접 연결되거나 또는 통신망(예를 들면, 광역 통신망(WAN), 도시권 통신망(MAN), 근거리 통신망(LAN), 개인 통신망(PAN))으로 상호 연결되어 데이터를 송수신할 수 있다.In this embodiment, the image providing device 10, the identification information generating device 20, and the information management unit 30 are directly connected by wire or a communication network (eg, wide area network (WAN), metropolitan area network (MAN)) , a local area network (LAN), a personal communication network (PAN) is connected to transmit and receive data, and the components included in the identification information generating device 20 are also directly connected by wire or a communication network (eg, a wide area network) (WAN), metropolitan area network (MAN), local area network (LAN), personal network (PAN)) can be interconnected to transmit and receive data.

이미지 제공 장치(10)는 통신을 통해서 권리 이미지를 식별정보 생성장치(20)로 전송할 수 있는 장치로서, 예를 들면, 스마트폰이나 노트북과 같은 모바일 컴퓨터나 데스크 탑과 같은 컴퓨터일 수 있다.The image providing device 10 is a device capable of transmitting the right image to the identification information generating device 20 through communication, and may be, for example, a mobile computer such as a smart phone or a laptop computer, or a computer such as a desktop computer.

도 4를 참조하면, 식별정보 생성장치(20)에서, 제1해쉬함수('HASH A')가 식별정보를 생성하기 위해서 입력 받은 이미지(이하, '입력 이미지' 또는 '권리 이미지'라고 함)을 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제1해쉬값('value A')을 생성하는 동작과, 권리 이미지를 다른 이미지(이하, '변환 이미지')로 변환하는 동작과, 제2해쉬함수('HASH C')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제2해쉬값('value C')을 생성하는 동작과, 제1해쉬값('value A')과 제2해쉬값('value C')을 이용하여, 권리 이미지의 식별정보(이하, '이미지 식별 정보') 를 생성하는 동작이 수행된다.4, in the identification information generating device 20, the first hash function ('HASH A') is an image input to generate identification information (hereinafter referred to as 'input image' or 'right image') An operation of generating a first hash value ('value A') by receiving at least a portion of the image data constituting the The function ('HASH C') receives at least a portion of image data constituting the transformed image as an input, and generates a second hash value ('value C'), and a first hash value ('value A') and the second hash value ('value C'), an operation of generating identification information (hereinafter, 'image identification information') of the right image is performed.

또한, 식별정보 생성장치(20)에서, 제3해쉬함수('HASH B')가, 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값('value B')을 생성하는 동작이 수행된다. 이 경우, 식별정보 생성장치(20)는 이미지 식별 정보를 생성할 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 및 제3해쉬값('value B')을 모두 이용하여 생성한다. In addition, in the identification information generating device 20, the third hash function ('HASH B') receives at least a portion of image data constituting the right image as an input, and generates a third hash value ('value B') action is performed. In this case, when the identification information generating device 20 generates the image identification information, a first hash value ('value A'), a second hash value ('value C'), and a third hash value ('value B') ') are used to create

또한, 식별정보 생성장치(20)에서, 제4해쉬함수('HASH D')가, 변환 이미지 를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제4해쉬값('value D')을 생성하는 동작이 수행된다. 이 경우, 식별정보 생성장치(20)는 이미지 식별 정보를 생성할 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 제3해쉬값('value B'), 및 제4해쉬값('value D')을 이용하여 이미지 식별 정보를 생성한다. In addition, in the identification information generating device 20, the fourth hash function ('HASH D') receives at least a portion of image data constituting the transformed image as an input, and generates a fourth hash value ('value D') action is performed. In this case, the identification information generating device 20 generates the image identification information, a first hash value ('value A'), a second hash value ('value C'), a third hash value ('value B') ), and the fourth hash value ('value D') to generate image identification information.

상술한 실시예에서, HASH A와 HASH C는 MD5라 불리우는 해쉬함수 일수 있고, HASH B와 HASH D는 SHA-512라 불리우는 해쉬함수일 수 있다. 물론 본원 발명이 그러한 해쉬함수들에만 한정되는 것이 아님을 당업자는 용이하게 이해할 수 있을 것이다. In the above-described embodiment, HASH A and HASH C may be hash functions called MD5, and HASH B and HASH D may be hash functions called SHA-512. Of course, it will be readily understood by those skilled in the art that the present invention is not limited to such hash functions.

또한, 식별정보 생성장치(20)는, 권리 이미지, 권리 이미지의 식별정보(식별정보 생성 프로그램에 의해 생성된 것임), 권리 및 사용 정의 데이터를 서로 매핑시켜서 정보 관리부(30)에 저장시키는 동작을 수행한다. 여기서, 권리 및 사용 정의 데이터는 권리 이미지를 제공받을 때 같이 제공받은 것일 수 있다. In addition, the identification information generating device 20, the rights image, the identification information of the rights image (generated by the identification information generation program), the right and usage definition data to each other mapping the operation of storing in the information management unit (30) carry out Here, the rights and usage definition data may be provided together when the rights image is provided.

정보 관리부(30)는 데이터를 저장하고 관리(삭제, 정정, 추가)할 수 있는 장치이다.The information management unit 30 is a device capable of storing and managing (deleting, correcting, and adding) data.

본 실시예에 따르면 식별정보 생성장치(20)는, 이미지 식별 정보를 예를 들면 다음과 같은 방식으로 생성할 수 있다. According to the present embodiment, the identification information generating apparatus 20 may generate image identification information, for example, in the following manner.

제1방식Method 1

이미지 식별 정보가 제1해쉬값과 제2해쉬값을 포함하도록 구성됨.The image identification information is configured to include a first hash value and a second hash value.

제2방식method 2

이미지 식별 정보가 f1(제1해쉬값)와 f2(제2해쉬값)를 포함하도록 구성됨.The image identification information is configured to include f1 (first hash value) and f2 (second hash value).

여기서, f1과 f2는 수학적 연산을 수행하는 함수이고, 제1해쉬값은 f1의 독립변수이고, 제2해쉬값은 f2의 독립변수이다. 즉, f1과 f2는 입력받은 독립 변수 그대로 출력하거나 또는 입력받은 독립변수에 대하여 소정의 연산을 통해서 다른 값으로 출력하는 함수이다.Here, f1 and f2 are functions that perform mathematical operations, a first hash value is an independent variable of f1, and a second hash value is an independent variable of f2. That is, f1 and f2 are functions that either output the received independent variable as it is or output a different value through a predetermined operation on the received independent variable.

제1방식에 따라 생성되는 이미지 식별정보는 한 쌍의 데이터를 포함하며, 이 한쌍의 데이터는 각각 f1(제1해쉬값)과 f2(제2해쉬값)이다. The image identification information generated according to the first method includes a pair of data, the pair of data being f1 (first hash value) and f2 (second hash value), respectively.

한편, 해쉬값이 3개 이상일 경우에도, 제1방식에 따라서 이미지 식별정보가 생성될 수 있다.Meanwhile, even when there are three or more hash values, image identification information may be generated according to the first method.

제3방식3rd way

이미지 식별 정보가 f3(제1해쉬값, 제2해쉬값)을 포함하도록 구성됨. The image identification information is configured to include f3 (first hash value, second hash value).

여기서, f3는 수학적 연산을 수행하는 함수이고, 제1해쉬값과 제2해쉬값은 각각 f3의 독립변수이다. 즉, f3는 입력받은 독립 변수들에 대하여 소정의 연산을 통해서 다른 값으로 출력하는 함수이다. Here, f3 is a function that performs a mathematical operation, and each of the first hash value and the second hash value is an independent variable of f3. That is, f3 is a function that outputs input independent variables as different values through a predetermined operation.

한편, 해쉬값이 3개 이상일 경우에도, 제2방식에 따라서 이미지 식별정보가 생성될 수 있으며, 이럴 경우 f3는 3개 이상의 해쉬값을 입력변수로 입력받아서 소정의 수학적 연산을 한후에 출력값을 산출할 것이다. On the other hand, even when there are three or more hash values, image identification information can be generated according to the second method. will be.

이하에서는, 보다 구체적인 예를 들어서 본원 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템(1000)을 설명하기로 한다. Hereinafter, as a more specific example, a deep learning-based rights image management system 1000 according to an embodiment of the present invention will be described.

도 3과 도 4를 참조하면, 식별정보 생성장치(20)는 식별정보 생성 프로그램, 운영체제, 통신부, 컴퓨터 프로세서, 기억장치(휘발성 및/또는 비휘발성 기억장치를 포함함), 및 기타 리소스(소프트웨어 및 하드웨어)를 포함할 수 있다.3 and 4 , the identification information generating device 20 includes an identification information generating program, an operating system, a communication unit, a computer processor, a storage device (including volatile and/or non-volatile storage devices), and other resources (software). and hardware).

여기서, 운영체제(OS: OPERATING SYSTEM)은 하드웨어와 응용프로그램(예를 들면, 식별정보 생성 프로그램)을 동작적으로 연결시킬 수 있다. 통신부는 외부와의 데이터를 송수신하기 위한 소프트웨어 및 하드웨어로 이루어진 모듈을 의미한다. Here, an operating system (OS: OPERATING SYSTEM) may operatively connect hardware and an application program (eg, an identification information generating program). The communication unit refers to a module composed of software and hardware for transmitting and receiving data with the outside.

여기서, 컴퓨터 프로세서와 기억장치, 운영체제, 식별정보 생성 프로그램, 통신부, 및 기타 리소스는 서로 동작적으로(operatively) 연결되어 있다. Here, the computer processor, the memory device, the operating system, the identification information generating program, the communication unit, and other resources are operatively connected to each other.

식별정보 생성 프로그램은 컴퓨터 프로세서의 제어하에 메모리와 같은 기억장치에 로딩되어 식별정보를 생성하는 동작을 수행한다. The identification information generating program is loaded into a storage device such as a memory under the control of a computer processor to generate identification information.

기억장치(메모리 포함)에 로딩된 식별정보 생성 프로그램은 컴퓨터 프로세서가 제1해쉬함수('HASH A')가 식별정보를 생성할 이미지 파일(이하, '권리 이미지 파일')을 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제1해쉬값('value A')을 생성하는 동작과, 권리 이미지를 다른 이미지(이하, '변환 이미지')로 변환하는 동작과, 제2해쉬함수('HASH C')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제2해쉬값('value C')을 생성하는 동작과, 제1해쉬값('value A')과 제2해쉬값('value C')을 이용하여, 권리 이미지의 식별정보(이하, '이미지 식별 정보') 를 생성하는 동작을 수행하도록 한다.The identification information generating program loaded in the memory device (including the memory) uses the computer processor to generate the identification information by the first hash function ('HASH A') of the image data constituting the image file (hereinafter, the 'right image file'). An operation of generating a first hash value ('value A') by receiving at least a portion as an input, an operation of converting the right image into another image (hereinafter, 'converted image'), and a second hash function ('HASH C') ) receives at least a portion of image data constituting the transformed image as an input, and generates a second hash value ('value C'), and a first hash value ('value A') and a second hash value ( By using 'value C'), an operation of generating identification information (hereinafter, 'image identification information') of the right image is performed.

또한, 식별정보 생성 프로그램은 컴퓨터 프로세서가, 제3해쉬함수('HASH B')가, 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값('value B')을 생성하는 동작을 ㅅ된수행하도록 한다. 한편, 이미지 식별 정보가 생성될 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 및 제3해쉬값('value B')이 모두 이용될 수 있다.In addition, the identification information generating program generates a third hash value ('value B') by the computer processor, the third hash function ('HASH B'), receiving at least a portion of the image data constituting the right image as an input. Make sure that the action is performed. Meanwhile, when the image identification information is generated, all of the first hash value ('value A'), the second hash value ('value C'), and the third hash value ('value B') may be used.

또한, 식별정보 생성 프로그램은 컴퓨터 프로세서가, 제4해쉬함수('HASH D')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제4해쉬값('value D')을 생성하는 동작을 ㅅ된수행하도록 한다. 한편, 이미지 식별 정보가 생성될 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 제3해쉬값('value B'), 및 제4해쉬값('value D')이 모두 이용될 수 있다. In addition, the identification information generating program generates a fourth hash value ('value D') by the computer processor, the fourth hash function ('HASH D'), receiving at least a portion of image data constituting the converted image as an input. Make sure that the action is performed. Meanwhile, when the image identification information is generated, a first hash value ('value A'), a second hash value ('value C'), a third hash value ('value B'), and a fourth hash value (') value D') can all be used.

또한, 식별정보 생성 프로그램은 컴퓨터 프로세서의 제어하에, 권리 이미지, 권리 이미지의 식별정보(식별정보 생성 프로그램에 의해 생성된 것임), 권리 및 사용 정의 데이터를 서로 매핑시켜서 정보 관리부(30)에 저장시키는 동작을 수행한다. In addition, the identification information generation program maps the rights image, identification information of the rights image (generated by the identification information generation program), rights and usage definition data under the control of the computer processor to each other and stores it in the information management unit 30 perform the action

한편, 식별정보 생성 프로그램은 컴퓨터 프로세서가, 상술한 바가 있는 제1방식, 제2방식, 또는 제3방식으로 식별정보를 생성하는 동작을 수행하도록 할 수 있다.Meanwhile, the identification information generating program may cause the computer processor to perform an operation of generating identification information in the first method, the second method, or the third method as described above.

도 5는 본 발명의 일 실시예에 따른 이미지 식별정보 생성 방법을 설명하기 위한 도면이다. 5 is a view for explaining a method for generating image identification information according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 이미지 식별정보 생성 방법은 예를 들면 도 3과 도 4를 참조하여 설명한 딥 러닝 기반 권리 이미지 관리 시스템에 의해 구현될 수 있다. The image identification information generation method according to an embodiment of the present invention may be implemented by, for example, the deep learning-based rights image management system described with reference to FIGS. 3 and 4 .

도 5를 다시 참조하면, 본 이미지 식별정보 생성 방법은Referring back to FIG. 5 , this image identification information generation method is

식별정보를 생성할 이미지(권리 이미지)를 수신하는 단계(S101), 제1해쉬함수가 식별정보를 생성할 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제1해쉬값을 생성하는 단계(S103), 권리 이미지를 다른 이미지 - 변환 이미지-로 변환하는 단계(S107), 제2해쉬함수가 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제2해쉬값을 생성하는 단계(S109), 제3해쉬함수가 식별정보를 생성할 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값을 생성하는 단계(S105), 제4해쉬함수가 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제4해쉬값을 생성하는 단계(S111), 및 제1해쉬값, 제2해쉬값, 제3해쉬값, 및 제4해쉬값을 이용하여 권리 이미지의 식별정보 - 이미지 식별 정보 - 를 생성하는 단계(S113), 권리 이미지, 권리 이미지의 식별정보, 권리 및 사용 정의 데이터를 매핑하는 저장하는 단계(S115);를 포함할 수 있다. Receiving an image (right image) to generate identification information (S101), the first hash function receives at least a portion of image data constituting the right image to generate identification information as an input to generate a first hash value Step (S103), converting the right image into another image-converted image- (S107), the second hash function receiving at least a portion of the image data constituting the converted image as an input and generating a second hash value ( S109), the third hash function receives at least a portion of the image data constituting the right image to generate identification information as an input, and generates a third hash value (S105), the fourth hash function constructs the transformed image Generating a fourth hash value by receiving at least a portion of the image data as an input (S111), and identification information of the right image using the first hash value, the second hash value, the third hash value, and the fourth hash value - Image identification information - generating (S113), the right image, the identification information of the right image, and storing the mapping rights and usage definition data (S115); may include a.

여기서, S115 단계는 S113 단계 이후에 수행되고, S113 단계는 S103 단계, S105 단계, S109 단계, 및 S111 단계 이후에 수행되고, S103 단계와 S105 단계는 S101 단계 이후에 수행되며, S109 단계와 S111 단계는 S107 단계 이후에 수행되며, S107 단계는 S101 단계 이후에 수행된다. 한편, 여기서, S103 단계와 S105 단계는 선후가 없고, S109 단계와 S111 단계는 선후가 없고, S103 단계와 S107 단계는 선후가 없고, S105 단계와 S107 단계는 선후가 없다.Here, step S115 is performed after step S113, step S113 is performed after step S103, step S105, step S109, and step S111, step S103 and step S105 are performed after step S101, step S109 and step S111 is performed after step S107, and step S107 is performed after step S101. Meanwhile, here, steps S103 and S105 have no precedence, steps S109 and S111 have no precedence, steps S103 and S107 have no precedence, and steps S105 and S107 have no precedence.

도 5를 참조하여 설명한 이미지 식별정보 생성 방법은 컴퓨터 프로세서와 메모리를 포함한 컴퓨터에 의해 구현될 수 있다. The image identification information generating method described with reference to FIG. 5 may be implemented by a computer including a computer processor and a memory.

도 6 내지 도 7은 본 발명의 다른 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템을 설명하기 위한 도면들이다. 6 to 7 are diagrams for explaining a deep learning-based rights image management system according to another embodiment of the present invention.

도 6과 도 7을 참조하면, 본 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템은 식별정보 생성장치(200)와 정보 관리부(300)를 포함한다. 한편, 본 발명의 설명의 목적을 위해서, 이미지 제공 장치(100)를 도면 6에 추가적으로 도시하였다. 6 and 7 , a deep learning-based rights image management system according to an embodiment of the present invention includes an identification information generating device 200 and an information management unit 300 . Meanwhile, for the purpose of describing the present invention, the image providing apparatus 100 is additionally illustrated in FIG. 6 .

본 실시예에서, 이미지 제공 장치(100), 식별정보 생성장치(200), 및 정보 관리부(300)는 유선으로 직접 연결되거나 또는 통신망으로 상호 데이터를 송수신하도록 연결되며, 식별정보 생성장치(200)에 포함된 구성요소들도 유선으로 직접 연결되거나 또는 통신망으로 상호 연결되어 데이터를 송수신할 수 있다.In this embodiment, the image providing apparatus 100, the identification information generating apparatus 200, and the information management unit 300 are directly connected by wire or are connected to transmit and receive data through a communication network, and the identification information generating apparatus 200 The components included in the device may also be directly connected by wire or interconnected through a communication network to transmit/receive data.

이미지 제공 장치(100)는 통신을 통해서 권리 이미지를 식별정보 생성장치(200)로 전송할 수 있는 장치이다.The image providing device 100 is a device capable of transmitting a right image to the identification information generating device 200 through communication.

도 6과 도 7을 참조하면, 식별정보 생성장치(200)에서, 제1해쉬함수('HASH A')가 식별정보를 생성할 이미지(이하, '권리 이미지')를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제1해쉬값('value A')을 생성하는 동작과, 권리 이미지를 다른 이미지(이하, '변환 이미지 파일')로 변환하는 동작과, 제2해쉬함수('HASH C')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제2해쉬값('value C')을 생성하는 동작과, 제1해쉬값('value A')과 제2해쉬값('value C')을 이용하여, 권리 이미지의 식별정보(이하, '권리 이미지 식별 정보') 를 생성하는 동작이 수행된다.6 and 7, in the identification information generating device 200, the first hash function ('HASH A') is at least image data constituting an image (hereinafter, 'right image') to generate identification information An operation of generating a first hash value ('value A') by receiving a part as an input, an operation of converting the right image into another image (hereinafter, 'converted image file'), and a second hash function ('HASH C') ) receives at least a portion of image data constituting the transformed image as an input, and generates a second hash value ('value C'), and a first hash value ('value A') and a second hash value ( Using 'value C'), an operation of generating identification information (hereinafter, 'right image identification information') of the right image is performed.

식별정보 생성장치(200)에서, 제3해쉬함수('HASH B')가, 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값('value B')을 생성하는 동작이 수행된다. 이 경우, 식별정보 생성장치(200)는 식별 정보를 생성할 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 및 제3해쉬값('value B')을 모두 이용하여 생성한다. In the identification information generating device 200, the third hash function ('HASH B') receives at least a portion of image data constituting the right image as an input, and generates a third hash value ('value B') This is done. In this case, when the identification information generating device 200 generates identification information, a first hash value ('value A'), a second hash value ('value C'), and a third hash value ('value B') ) is used to create

식별정보 생성장치(200)에서, 제4해쉬함수('HASH D')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제4해쉬값('value D')을 생성하는 동작이 수행된다. 이 경우, 식별정보 생성장치(200)는 이미지 식별 정보를 생성할 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 제3해쉬값('value B'), 및 제4해쉬값('value D')을 이용하여 이미지 식별 정보를 생성한다. In the identification information generating device 200, the fourth hash function ('HASH D') receives at least a portion of image data constituting the converted image as an input, and generates a fourth hash value ('value D') This is done. In this case, when the identification information generating device 200 generates the image identification information, a first hash value ('value A'), a second hash value ('value C'), a third hash value ('value B') ), and the fourth hash value ('value D') to generate image identification information.

식별정보 생성장치(200)는, 권리 이미지, 권리 이미지의 식별정보, 권리 이미지에 대한 권리 및 사용 정의 데이터를 서로 매핑시켜서 저장하는 동작이 수행된다. 여기서, 권리 및 사용 정의 데이터는 이미지 제공 장치(100)로부터 권리 이미지와 함께 제공받은 것이다. The identification information generating apparatus 200 performs an operation of mapping and storing the rights image, identification information of the rights image, rights and usage definition data for the rights image with each other. Here, the rights and usage definition data are provided together with the rights image from the image providing device 100 .

본 실시예에 따르면 식별정보 생성장치(200)는, 이미지 식별 정보를 예를 들면 상술한 바와 같은 제1방식, 제2방식, 또는 제3방식에 따라서 생성할 수 있다. 여기서, 제1방식, 제2방식, 또는 제3방식은 예시적인 것으로서 본원 발명이 그러한 방식에만 한정되는 것은 아니다. According to the present embodiment, the identification information generating apparatus 200 may generate image identification information according to, for example, the first method, the second method, or the third method as described above. Here, the first method, the second method, or the third method is exemplary, and the present invention is not limited to such methods.

본 실시예에 따르면 식별정보 생성장치(200)에서, 권리 이미지를 구성하는 이미지 데이터에 의해 머신 러닝 프로그램이 학습되고, 그러한 학습에 의해 권리 이미지 파일에 대한 모델을 생성하는 동작이 수행된다. According to the present embodiment, in the identification information generating apparatus 200, a machine learning program is learned by image data constituting the rights image, and an operation of generating a model for the rights image file is performed by such learning.

본 실시예에 따르면, 권리 이미지마다 모델을 생성하는 동작이 수행된다. 즉, 식별정보 생성장치(200)는 권리 이미지를 수신할 때마다 그러한 권리 이미지에 의해 머신 러닝 프로그램을 학습시키고, 그러한 학습 결과 모델이 생성된다. 따라서, 식별정보를 생성하고자 하는 이미지의 갯수 만큼 모델이 만들어지게 된다. 이미지마다 생성된 모델은 정보 관리부(300)에 저장 되어 관리된다.According to the present embodiment, the operation of generating a model for each rights image is performed. That is, each time the identification information generating device 200 receives a right image, it learns a machine learning program by the right image, and such a learning result model is generated. Accordingly, a model is created as many as the number of images for which identification information is to be generated. The model generated for each image is stored and managed in the information management unit 300 .

본 발명의 일 실시예에 따르면, 머신 러닝 프로그램은 신경망 프로그램일 수 있다. 신경망 프로그램은 딥 러닝 프로그램일 수 있다. 일 실시예에 따르면, 딥 러닝 프로그램은 Long Short-Term Memory Network 알고리즘에 의해 구현된 프로그램일 수 있다.According to an embodiment of the present invention, the machine learning program may be a neural network program. The neural network program may be a deep learning program. According to an embodiment, the deep learning program may be a program implemented by a Long Short-Term Memory Network algorithm.

도 9는 본 발명의 일 실시예에 따라서 모델을 생성하는 방법을 설명하기 위한 도면이다. 9 is a diagram for explaining a method of generating a model according to an embodiment of the present invention.

일 실시예에 따르면, 신경망 프로그램은 복수의 노드들로 이루어져 있고, 이들 노드들은 서로 동작적으로 연결되어 있다. 이하에서는 설명의 목적을 위해서 노드에서 이루어지는 동작을 도 9를 참조하여 설명하기로 한다.According to one embodiment, the neural network program consists of a plurality of nodes, and these nodes are operatively connected to each other. Hereinafter, for the purpose of explanation, an operation performed in the node will be described with reference to FIG. 9 .

도 9를 참조하면, 노드로 들어오는 신호들(x1, x2, x3, ... , xn)에 대하여 해당 가중치(w1, w2, w3, ... , wn)가 곱해지고, 전달함수(예를 들면, 가중합(weighted sum))에 의한 연산이 수행되고, 연산 결과는 활성함수(activation function)에 입력으로 사용되며, 활성 함수의 출력값이 노드의 출력이 된다. 통상적으로 활성함수에 의해 각 노드들의 동작특성이 정해진다. 여기서, 노드로 들어오는 신호들(x1, x2, x3, ... , xn)은 1개의 이미지를 구성하는 이미지 데이터의 적어도 일부이다. Referring to FIG. 9, the corresponding weights (w1, w2, w3, ..., wn) are multiplied with respect to the signals (x1, x2, x3, ..., xn) coming into the node, and a transfer function (eg, For example, an operation by weighted sum) is performed, the operation result is used as an input to an activation function, and an output value of the activation function becomes an output of a node. In general, the operation characteristics of each node are determined by the activation function. Here, the signals (x1, x2, x3, ..., xn) entering the node are at least a part of image data constituting one image.

상술한 바와 같이, 신경망의 각 노드들은 입력 신호의 가중합을 구하고, 활성함수에 가중합을 입력해서 얻은 값을 노드의 외부로 출력한다. 한편, 신경망의 노드들은 어떻게 연결되느냐에 따라서 신경망의 형태가 결정된다. As described above, each node of the neural network obtains the weighted sum of the input signal, and outputs the value obtained by inputting the weighted sum to the activation function to the outside of the node. On the other hand, the form of the neural network is determined according to how the nodes of the neural network are connected.

일 실시예에 따르면, 모델을 생성한다고 함은 상술한 내용에서 각 노드들에서 입력되는 입력신호에 대한 가중치들을 결정하는 것을 의미하고, 모델을 비교한다고 함은 가중치들을 비교하는 것을 의미한다.According to an embodiment, generating a model means determining weights for an input signal input from each node in the above description, and comparing models means comparing weights.

즉, 각 노드에서 전달함수와 활성함수는 결정된 상태이고, 가중치들을 결정하는 과정이 모델을 생성하는 과정이다. 신경망 프로그램에서, 모델을 생성하는 과정을 예시적으로 설명하면 다음과 같다. That is, the transfer function and activation function at each node are determined, and the process of determining the weights is the process of generating a model. In the neural network program, the process of generating a model will be exemplarily described as follows.

첫째, 신경망을 구성하는 각 노드들로 입력되는 신호에 대하여 연산되는 가중치를 적당한 값으로 초기화한다. First, the weight calculated for the signal input to each node constituting the neural network is initialized to an appropriate value.

둘째, 지도학습의 학습 데이터 형태인 {입력, 정답}에서 ‘입력’을 신경망에 입력해 출력값을 얻는다. 이 출력 값과 해당 입력의 ‘정답’을 비교해 오차를 계산한다. Second, in the training data form of supervised learning {input, correct answer}, ‘input’ is input to the neural network to obtain an output value. The error is calculated by comparing this output value with the ‘correct answer’ of the corresponding input.

셋째, 상기 오차가 줄어들도록 신경망의 가중치들을 조절한다.Third, the weights of the neural network are adjusted so that the error is reduced.

상술한 설명에 따라서, 식별정보 생성장치(200)에서 모델을 생성하는 동작을 구체적으로 설명하면, 1개의 이미지가 신경망으로 입력되고 상기 오차가 줄어들도록 신경망의 가중치들(즉, 모델)이 생성된다. 이렇게 생성된 모델은 기억장치에 저장된다. 이렇게 이미지 마다 모델이 생성되어 기억장치에 저장된다. According to the above description, when the operation of generating the model in the identification information generating apparatus 200 is specifically described, one image is input to the neural network, and weights (ie, model) of the neural network are generated so that the error is reduced. . The model generated in this way is stored in the memory device. In this way, a model is created for each image and stored in the memory device.

도 6을 참조하면, 식별정보 생성장치(200)는 식별정보 생성 프로그램, 머신 러닝 프로그램, 운영체제, 통신부, 컴퓨터 프로세서, 기억장치(휘발성 및/또는 비휘발성 기억장치를 포함함), 및 기타 리소스(소프트웨어 및 하드웨어)를 포함할 수 있다. 여기서, 컴퓨터 프로세서와 기억장치, 운영체제, 식별정보 생성 프로그램, 통신부, 및 기타 리소스는 서로 동작적으로(operatively) 연결되어 있고 이들에 대한 상세한 설명은 도 3과 도 4를 참조하여 설명한 실시예를 참조하기 바란다.Referring to FIG. 6 , the identification information generating device 200 includes an identification information generating program, a machine learning program, an operating system, a communication unit, a computer processor, a storage device (including volatile and/or non-volatile storage devices), and other resources ( software and hardware). Here, the computer processor and the memory device, the operating system, the identification information generating program, the communication unit, and other resources are operatively connected to each other, and for detailed descriptions thereof, refer to the embodiment described with reference to FIGS. 3 and 4 hope you do

식별정보 생성 프로그램은 컴퓨터 프로세서의 제어하에 메모리와 같은 기억장치에 로딩되어 식별정보를 생성하는 동작을 수행한다. The identification information generating program is loaded into a storage device such as a memory under the control of a computer processor to generate identification information.

도 6 및 도 7을 참조하여 설명할 실시예(이하, '제2실시예'라고 함)와, 도 3 및 도 4를 참조하여 설명할 실시예(이하, '제1실시예'라고 함)의 차이점을 비교하면, 제2실시예는 머신 러닝 프로그램을 더 포함하고 있고, 이러한 머신 러닝 프로그램을 학습시켜 권리 이미지 마다 모델을 생성한다는 점에서 차이가 있다. 이하에서는, 이러한 차이점을 위주로 제2실시예를 설명하기로 한다.An embodiment to be described with reference to FIGS. 6 and 7 (hereinafter referred to as 'second embodiment') and an embodiment to be described with reference to FIGS. 3 and 4 (hereinafter referred to as 'first embodiment') Comparing the differences, the second embodiment is different in that it further includes a machine learning program, and generates a model for each right image by learning such a machine learning program. Hereinafter, the second embodiment will be mainly described based on these differences.

제2실시예에서, 기억장치(메모리 포함)에 로딩된 머신 러닝 프로그램은 권리 이미지를 구성하는 이미지 데이터에 의해 학습되고, 그러한 학습에 의해 권리 이미지에 대한 모델을 생성한다.In the second embodiment, a machine learning program loaded into a storage device (including a memory) is learned by image data constituting the rights image, and generates a model for the rights image by such learning.

제2실시예에 따르면, 머신 러닝 프로그램은 권리 이미지마다 모델을 생성하는 동작을 수행한다. 즉, 머신 러닝 프로그램은 권리 이미지를 수신할 때마다 그러한 권리 이미지에 의해 학습되고, 그러한 학습 결과로서 모델을 생성한다. 따라서, 식별정보를 생성하고자 하는 권리 이미지의 갯수 만큼 모델이 만들어지게 된다.According to the second embodiment, the machine learning program performs the operation of generating a model for each rights image. That is, each time the machine learning program receives a rights image, it is learned by the rights image, and generates a model as a result of such learning. Therefore, a model is created as much as the number of right images for which identification information is to be generated.

제2실시예에 따르면, 머신 러닝 프로그램이 학습되고 모델을 생성하는 과정은 도 9를 참조하여 설명한 방법에 의해 구현될 수 있다. 도 9를 참조하여 설명한 모델을 생성하는 방법은 예시적인 것으로서 본원 발명의 권리범위가 그러한 방법에만 한정되는 것이 아님을 당업자는 쉽게 이해할 수 있을 것이다.According to the second embodiment, a process of learning a machine learning program and generating a model may be implemented by the method described with reference to FIG. 9 . Those skilled in the art will readily understand that the method for generating the model described with reference to FIG. 9 is exemplary and the scope of the present invention is not limited only to such method.

이상과 같이 도 6과 도 7을 참조하여 설명한 실시예에서 설명되지 않은 구성요소들에 대한 설명은, 도 3과 도 4를 참조하여 설명한 실시예에서 동일한 명칭이 부여된 구성요소들에 대한 설명을 참조하기 바란다.As described above, the description of components not described in the embodiment described with reference to FIGS. 6 and 7 is a description of the components assigned the same name in the embodiment described with reference to FIGS. 3 and 4 . Please refer to

도 8은 본 발명의 다른 실시예에 따른 이미지 식별정보 생성 방법을 설명하기 위한 도면이다. 8 is a view for explaining a method of generating image identification information according to another embodiment of the present invention.

본 발명의 다른 실시예에 따른 이미지 식별정보 생성 방법은 예를 들면 도 6, 도 7, 및 도 9를 참조하여 설명한 딥 러닝 기반 권리 이미지 관리 시스템에 의해 구현될 수 있다. The image identification information generation method according to another embodiment of the present invention may be implemented by, for example, the deep learning-based rights image management system described with reference to FIGS. 6, 7, and 9 .

도 8을 다시 참조하면, 본 이미지 식별정보 생성 방법은Referring back to FIG. 8, this image identification information generation method is

식별정보를 생성할 권리 이미지를 수신하는 단계(S201), 제1해쉬함수가 식별정보를 생성할 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제1해쉬값을 생성하는 단계(S203), 권리 이미지를 다른 이미지 - 변환 이미지-로 변환하는 단계(S207), 제2해쉬함수가 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제2해쉬값을 생성하는 단계(S209), 제3해쉬함수가 식별정보를 생성할 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값을 생성하는 단계(S205), 제4해쉬함수가 변환 이미지 를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제4해쉬값을 생성하는 단계(S211), 및 제1해쉬값, 제2해쉬값, 제3해쉬값, 및 제4해쉬값을 이용하여 권리 이미지의 식별정보 - 이미지 식별 정보 - 를 생성하는 단계(S213), 권리 이미지, 권리 이미지의 식별정보(S213 단계에서 생성된 것임), 권리 이미지에 대한 권리 및 사용 정의 데이터, 및 모델을 매핑하는 저장하는 단계(S215), 권리 이미지를 입력받아 머신 러닝 프로그램이 기계학습을 수행하여 권리 이미지마다 모델을 생성하는 단계(S202), S202 단계의 수행결과 권리 이미지마다 생성된 모델을 저장하는 단계(S204);를 포함할 수 있다. Receiving a right image for generating identification information (S201), a first hash function receiving at least a portion of image data constituting a right image for generating identification information as an input, and generating a first hash value (S203) ), converting the right image into another image-converted image- (S207), a second hash function receiving at least a portion of image data constituting the transformed image as an input and generating a second hash value (S209), The third hash function receives at least a portion of the image data constituting the right image to generate identification information as an input, and generates a third hash value (S205), the fourth hash function of the image data constituting the transformed image Generating a fourth hash value by receiving at least a part as an input (S211), and identification information of the right image using the first hash value, the second hash value, the third hash value, and the fourth hash value - image identification Information - generating (S213), rights image, identification information of the rights image (created in step S213), rights and usage definition data for the rights image, and storing the mapping model (S215), rights It may include; receiving an image, the machine learning program performs machine learning to generate a model for each right image (S202), and storing the model generated for each right image as a result of performing the step S202 (S204).

여기서, S215 단계는 S213 단계 이후에 수행되고, S213 단계는 S203 단계, S205 단계, S209 단계, 및 S211 단계 이후에 수행되고, S203 단계와 S205 단계는 S201 단계 이후에 수행되며, S209 단계와 S211 단계는 S207 단계 이후에 수행되며, S207 단계는 S201 단계 이후에 수행되며, S204 단계는 S202 단계 이후에 수행된다.Here, step S215 is performed after step S213, step S213 is performed after step S203, step S205, step S209, and step S211, step S203 and step S205 are performed after step S201, step S209 and step S211 is performed after step S207, step S207 is performed after step S201, and step S204 is performed after step S202.

한편, 여기서, S203 단계와 S205 단계는 선후가 없고, S209 단계와 S211 단계는 선후가 없고, S203 단계와 S207 단계는 선후가 없고, S205 단계와 S207 단계는 선후가 없다. 또한, S202 단계 및 S204 단계는 S203 단계, S205 단계, S207 단계, S209 단계, S211 단계, S213 단계, 및 S215 단계와는 선후가 없다.Meanwhile, here, steps S203 and S205 have no precedence, steps S209 and S211 have no precedence, steps S203 and S207 have no precedence, and steps S205 and S207 have no precedence. In addition, steps S202 and S204 have no precedence with steps S203, S205, S207, S209, S211, S213, and S215.

도 8을 참조하여 설명한 이미지 식별정보 생성 방법은 컴퓨터 프로세서와 메모리를 포함한 컴퓨터에 의해 구현될 수 있다. The image identification information generating method described with reference to FIG. 8 may be implemented by a computer including a computer processor and a memory.

이와 같이 본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.As such, the present invention is not limited to the described embodiments, and it is apparent to those skilled in the art that various modifications and variations can be made without departing from the spirit and scope of the present invention. Therefore, it should be said that such modifications or variations belong to the claims of the present invention.

1000: 딥 러닝 기반 권리 이미지 관리 시스템
2000: 합성부
3000: 저장장치
1000: Deep learning-based rights image management system
2000: Composite
3000: storage

Claims (7)

권리 및 사용 정의 데이터가 있는 이미지들에 대한 식별정보를 생성하여 저장하는 딥 러닝 기반 권리 이미지 관리 시스템;
딥 러닝 기반 권리 이미지 관리 시스템에 의해 권리 및 사용 정의 데이터가 구비된 이미지와 신규 이미지를 합성하는 합성부; 및
상기 합성부에 의해 합성된 합성 이미지 및 합성 이미지와 매핑된 권리 및 사용 정의 데이터를 저장하는 저장장치;를 포함하며,
상기 딥 러닝 권리 이미지 관리 시스템은
권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 제1해쉬함수에 입력하여 제1해쉬값을 생성하는 동작, 상기 권리 이미지를 다른 이미지 - 변환 이미지-로 변환하는 동작, 상기 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 제2해쉬함수에 입력하여 제2해쉬값을 생성하는 동작, 및 상기 제1해쉬값과 제2해쉬값을 이용하여 상기 권리 이미지의 식별정보 - 이미지 식별 정보 - 를 생성하는 동작을 수행하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
A deep learning-based rights image management system that generates and stores identification information for images with rights and usage definition data;
a synthesizing unit for synthesizing an image with rights and usage definition data and a new image by a deep learning-based rights image management system; and
a storage device for storing the composite image synthesized by the synthesis unit and the rights and usage definition data mapped with the composite image;
The deep learning rights image management system is
An operation of generating a first hash value by inputting at least a portion of the image data constituting the right image into a first hash function, an operation of converting the rights image into another image-converted image-, image data constituting the converted image An operation of generating a second hash value by inputting at least a portion of A new image creation system through rights-confirmed image fusion that performs.
제1항에 있어서,
권리 및 사용 정의 데이터가 있는 이미지들에 대한 식별정보를 생성하여 저장하는 딥 러닝 기반 권리 이미지 관리 시스템;을 더 포함하며,
상기 딥 러닝 권리 이미지 관리 시스템은
상기 권리 이미지를 구성하는 이미지 데이터를 입력받아서, 상기 권리 이미지에 대한 모델을 생성하는 동작을 수행하며, 상기 모델을 생성하는 동작은 권리 이미지마다 모델을 생성하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
According to claim 1,
It further includes; a deep learning-based rights image management system that generates and stores identification information for images with rights and usage definition data.
The deep learning rights image management system is
By receiving the image data constituting the right image, the operation of generating a model for the right image is performed, and the operation of generating the model is to generate a model for each right image, through right-verified image fusion New image creation system.
삭제delete 제1항에 있어서,
상기 권리 및 사용 정의 데이터는 이미지에 대하여 권리가 있는지 여부, 권리자에 대한 정보, 및 이미지의 유료 또는 무료 사용 여부 중 적어도 하나 이상을 정의한 데이터인 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
According to claim 1,
The right and usage definition data is data defining at least one of whether there is a right to the image, information about the right holder, and whether the image is used for a fee or for free .
제4항에 있어서,
상기 딥 러닝 권리 이미지 관리 시스템은, 또한, 상기 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 제3해쉬함수에 입력하여, 제3해쉬값을 생성하는 동작을 수행하며,
상기 딥 러닝 권리 이미지 관리 시스템이 상기 이미지 식별 정보를 생성하는 동작은, 제1해쉬값, 제2해쉬값, 및 제3해쉬값을 이용하여 이미지 식별 정보를 생성하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
5. The method of claim 4,
The deep learning rights image management system also performs an operation of generating a third hash value by inputting at least a portion of the image data constituting the rights image to a third hash function,
The operation of the deep learning rights image management system to generate the image identification information is to generate image identification information using a first hash value, a second hash value, and a third hash value, the rights confirmed image fusion New image creation system through .
제5항에 있어서,
상기 딥 러닝 권리 이미지 관리 시스템은, 또한, 상기 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 제4해쉬함수에 입력하여 제4해쉬값을 생성하는 동작을 수행하며,
상기 딥 러닝 권리 이미지 관리 시스템이 상기 이미지 식별 정보를 생성하는 동작은, 제1해쉬값, 제2해쉬값, 제3해쉬값, 및 제4해쉬값을 이용하여 이미지 식별 정보를 생성하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
6. The method of claim 5,
The deep learning rights image management system also performs an operation of generating a fourth hash value by inputting at least a portion of the image data constituting the transformed image to a fourth hash function,
The operation of the deep learning rights image management system generating the image identification information is to generate image identification information using a first hash value, a second hash value, a third hash value, and a fourth hash value, New image creation system through right-verified image fusion.
제6항에 있어서,
상기 딥 러닝 권리 이미지 관리 시스템은
상기 권리 이미지와 상기 권리 이미지의 식별정보를 서로 매핑시켜서 저장하는 동작을 수행하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
7. The method of claim 6,
The deep learning rights image management system is
The new image creation system through the right-confirmed image fusion to perform the operation of mapping the identification information of the right image and the right image with each other.
KR1020210015290A 2018-12-31 2021-02-03 New image generation system and method based on compositeness of legally identified images KR102443200B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210015290A KR102443200B1 (en) 2018-12-31 2021-02-03 New image generation system and method based on compositeness of legally identified images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180173409A KR102221712B1 (en) 2018-12-31 2018-12-31 New image generation system and method based on compositeness of legally identified images
KR1020210015290A KR102443200B1 (en) 2018-12-31 2021-02-03 New image generation system and method based on compositeness of legally identified images

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180173409A Division KR102221712B1 (en) 2018-12-31 2018-12-31 New image generation system and method based on compositeness of legally identified images

Publications (2)

Publication Number Publication Date
KR20210016595A KR20210016595A (en) 2021-02-16
KR102443200B1 true KR102443200B1 (en) 2022-09-14

Family

ID=83279564

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210015290A KR102443200B1 (en) 2018-12-31 2021-02-03 New image generation system and method based on compositeness of legally identified images

Country Status (1)

Country Link
KR (1) KR102443200B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100889026B1 (en) * 2008-07-22 2009-03-17 김정태 Searching system using image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100106252A (en) * 2010-06-24 2010-10-01 김성일 Managing system for contents
KR101690264B1 (en) 2010-10-15 2017-01-09 에스케이플래닛 주식회사 Method for multi code cognition and system
WO2016065661A1 (en) 2014-10-30 2016-05-06 崔明 Four dimensional code, and four dimensional code-based image recognition system and method, and retrieval system and method
US20170270625A1 (en) * 2016-03-21 2017-09-21 Facebook, Inc. Systems and methods for identifying matching content

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100889026B1 (en) * 2008-07-22 2009-03-17 김정태 Searching system using image

Also Published As

Publication number Publication date
KR20210016595A (en) 2021-02-16

Similar Documents

Publication Publication Date Title
US10521505B2 (en) Cognitive mediator for generating blockchain smart contracts
CN109740620B (en) Method, device, equipment and storage medium for establishing crowd figure classification model
WO2021098618A1 (en) Data classification method and apparatus, terminal device and readable storage medium
US11869129B2 (en) Learning apparatus and method for creating image and apparatus and method for image creation
CN113095346A (en) Data labeling method and data labeling device
CN106844341A (en) News in brief extracting method and device based on artificial intelligence
CN115017911A (en) Cross-modal processing for vision and language
WO2021252428A1 (en) Artificial intelligence based imaging systems and methods for interacting with individuals via a web environment
KR20190064129A (en) Method for inputing information to computing apparatus and computing apparatus thereof
Venkateswara Reddy et al. Bio-inspired firefly algorithm for polygonal approximation on various shapes
CN113052025B (en) Training method of image fusion model, image fusion method and electronic equipment
KR102443200B1 (en) New image generation system and method based on compositeness of legally identified images
KR102270607B1 (en) Inspection system and method for right identification of images in website
CN117725220A (en) Method, server and storage medium for document characterization and document retrieval
KR102221712B1 (en) New image generation system and method based on compositeness of legally identified images
KR102221711B1 (en) X-ray INSPECTION SYSTEM BY X-ray IMAGE OPTIMIZATION
US11971955B1 (en) Example-based image annotation
US11568647B2 (en) Learning apparatus and method for creating emotion expression video and apparatus and method for emotion expression video creation
KR101998200B1 (en) Same images identification information generation system
CN114676705A (en) Dialogue relation processing method, computer and readable storage medium
KR102317343B1 (en) X-ray INSPECTION SYSTEM BY X-ray IMAGE OPTIMIZATION
KR102227784B1 (en) Image identification system using multi point hash values
CN113536845A (en) Face attribute recognition method and device, storage medium and intelligent equipment
KR20210063171A (en) Device and method for image translation
KR102408185B1 (en) Method for preprocessing bullet form data for training of artificial neural network

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant