KR20200087334A - New image generation system and method based on compositeness of legally identified images - Google Patents

New image generation system and method based on compositeness of legally identified images Download PDF

Info

Publication number
KR20200087334A
KR20200087334A KR1020180173409A KR20180173409A KR20200087334A KR 20200087334 A KR20200087334 A KR 20200087334A KR 1020180173409 A KR1020180173409 A KR 1020180173409A KR 20180173409 A KR20180173409 A KR 20180173409A KR 20200087334 A KR20200087334 A KR 20200087334A
Authority
KR
South Korea
Prior art keywords
image
rights
identification information
hash value
generating
Prior art date
Application number
KR1020180173409A
Other languages
Korean (ko)
Other versions
KR102221712B1 (en
Inventor
이두식
오태현
김수용
Original Assignee
주식회사 아임클라우드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아임클라우드 filed Critical 주식회사 아임클라우드
Priority to KR1020180173409A priority Critical patent/KR102221712B1/en
Publication of KR20200087334A publication Critical patent/KR20200087334A/en
Priority to KR1020210015290A priority patent/KR102443200B1/en
Application granted granted Critical
Publication of KR102221712B1 publication Critical patent/KR102221712B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4627Rights management associated to the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

According to an exemplary embodiment of the present invention, provided is a system for generating a new image through fusion of rights-confirmed images. The system for generating a new image through the fusion of rights-confirmed image includes: a deep learning based rights image management system which generates and stores identification information for images having rights and usage definition data; a synthesizing unit which synthesizes an image with rights and usage definition data and a new image by the deep learning based rights image management system; and a storage device which stores a composite image synthesized by the synthesizing unit, and rights and usage definition data mapped with the composite image.

Description

권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템 및 방법{NEW IMAGE GENERATION SYSTEM AND METHOD BASED ON COMPOSITENESS OF LEGALLY IDENTIFIED IMAGES}New image creation system and method through fusion of verified images{NEW IMAGE GENERATION SYSTEM AND METHOD BASED ON COMPOSITENESS OF LEGALLY IDENTIFIED IMAGES}

본 발명은 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for generating new images through fusion of rights-confirmed images.

컴퓨터화된 데이터베이스는 음성, 이미지 및 텍스트를 포함하는 여러 종류의 데이터를 저장하기 위해 사용될 수 있다. 이 유연성은 설계자가 텍스트 및 음성과 같은 여러 다른 포맷의 정보를 편성 및 저장하는 데이터 레코드를 가진 데이터베이스를 구성하여, 특히 가까운 장래에 응용할 수 있는 데이터베이스 시스템을 제공할 수 있게 한다. Computerized databases can be used to store various types of data, including voice, images and text. This flexibility allows designers to build databases with data records that organize and store information in different formats, such as text and voice, to provide a database system that is particularly applicable in the near future.

이미지 식별 기술은 현재 중요한 분야로서 최근 몇 년간 빠르게 발전하고 있으며, 용도가 넓어 각 분야에 사용되고 있다. 예를 들면 수기 입력(handwriting input), 우편번호 식별, 한자 식별, 사람 얼굴 식별, 지문 식별 및 홍채 식별 등 기술은 매우 발전하였다. Image identification technology is an important field, and has been rapidly developed in recent years, and is widely used in each field. Techniques such as handwriting input, postal code identification, Chinese character identification, human face identification, fingerprint identification, and iris identification, for example, have been highly advanced.

한편, 온라인에서의 이미지 활용도가 높아짐에 따라서, 컴퓨터를 사용하여 이미지를 합성하는 경우가 있는데, 불필요한 저작권 분쟁을 피하기 위해서 법적인 권리가 확인된 이미지들을 이용하도록 하는 것이 바람직할 것이다.On the other hand, as image utilization increases online, there are cases where images are synthesized using a computer, and it is desirable to use images with legal rights verified to avoid unnecessary copyright disputes.

(1) 한국특허등록번호 KR 10-1710050 (2017.02.20) 이미지 식별시스템 및 방법(1) Korean patent registration number KR 10-1710050 (2017.02.20) Image identification system and method (2) 한국특허등록번호 10-1690264 B1 (2016.12.21) 다중 코드 인식 방법 및 시스템(2) Korean Patent Registration No. 10-1690264 B1 (2016.12.21) Multiple code recognition method and system

본 발명의 하나 이상의 실시예에 따르면, 딥러닝으로 확보된 권리가 명확한 이미지 데이터(유료 또는 무료)를 이용하여 새로운 이미지 창작을 위한 이미지 간 데이터 융합을 통하여 신규 이미지를 생성할 수 있는, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템이 제공된다. According to one or more embodiments of the present invention, the right confirmed by the data fusion between images for creating a new image using clear image data (paid or free) obtained through deep learning is confirmed. A new image generation system through image fusion is provided.

본 발명의 일 실시예에 따르면According to an embodiment of the present invention

권리 및 사용 정의 데이터가 있는 이미지들에 대한 식별정보를 생성하여 저장하는 딥 러닝 기반 권리 이미지 관리 시스템; 상기 딥 러닝 기반 권리 이미지 관리 시스템에 의해 권리 및 사용 정의 데이터가 구비된 이미지와 신규 이미지를 합성하는 합성부; 상기 합성부에 의해 합성된 합성 이미지 및 합성 이미지와 매핑된 권리 및 사용 정의 데이터를 저장하는 저장장치;를 포함하는 것을 특징으로 하는, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템이 제공될 수 있다. A deep learning based rights image management system that generates and stores identification information on images with rights and usage definition data; A synthesizing unit for synthesizing an image with rights and usage definition data and a new image by the deep learning-based rights image management system; And a storage device for storing the synthesized image synthesized by the synthesizing unit and rights and usage definition data mapped to the synthesized image. A new image generation system through rights-confirmed image fusion may be provided. .

본 발명의 하나 이상의 실시예에 따르면, 딥러닝으로 확보된 권리가 명확한 이미지 데이터(유료 또는 무료)를 이용하여 새로운 이미지 창작을 위한 이미지 간 데이터 융합을 통하여 신규 이미지를 생성할 수 있게 된다. According to one or more embodiments of the present invention, it is possible to generate a new image through data fusion between images for creating a new image by using image data (paid or free) with clear rights obtained through deep learning.

도 1은 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 방법을 설명하기 위한 도면이다.
도 3 내지 도 4는 본 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템을 설명하기 위한 도면들이다.
도 5는 본 발명의 일 실시예에 따른 이미지 식별정보 생성 방법을 설명하기 위한 도면이다.
도 6 내지 도 7는 본 발명의 다른 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템을 설명하기 위한 도면들이다.
도 8은 본 발명의 다른 실시예에 따른 이미지 식별정보 생성 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따라서 모델을 생성하는 방법을 설명하기 위한 도면이다.
1 is a view for explaining a new image generation system through a rights-confirmed image fusion according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a method for generating a new image through fusion of rights-confirmed images according to an embodiment of the present invention.
3 to 4 are diagrams for explaining a deep learning-based rights image management system according to an embodiment of the present invention.
5 is a view for explaining a method of generating image identification information according to an embodiment of the present invention.
6 to 7 are diagrams for describing a deep learning-based rights image management system according to another embodiment of the present invention.
8 is a view for explaining a method for generating image identification information according to another embodiment of the present invention.
9 is a view for explaining a method of generating a model according to an embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be readily understood through the following preferred embodiments related to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided to ensure that the disclosed contents are thorough and complete and that the spirit of the present invention is sufficiently conveyed to those skilled in the art.

본 명세서의 다양한 실시예들에서 제1, 제2 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다. In various embodiments of the present specification, terms such as first and second are used to describe various components, but these components should not be limited by these terms. These terms are only used to distinguish one component from another component. The embodiments described and illustrated herein also include its complementary embodiments.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein,'comprises' and/or'comprising' does not exclude the presence or addition of one or more other components.

용어의 정의Definition of Terms

본원 명세서에서, 용어 '소프트웨어'는 컴퓨터에서 하드웨어를 움직이는 기술을 의미하고, 용어 '하드웨어'는 컴퓨터를 구성하는 유형의 장치나 기기(CPU, 메모리, 입력 장치, 출력 장치, 주변 장치 등)를 의미하고, 용어 '단계'는 소정의 목을 달성하기 위해 시계열으로 연결된 일련의 처리 또는 조작을 의미하고, 용어 '프로그램은 컴퓨터로 처리하기에 합한 명령의 집합을 의미하고, 용어 '프로그램 기록 매체'는 프로그램을 설치하고 실행하거나 유통하기 위해 사용되는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 의미한다. In the present specification, the term'software' refers to a technology for moving hardware in a computer, and the term'hardware' refers to a type of device or device (CPU, memory, input device, output device, peripheral device, etc.) constituting a computer. And the term'step' means a series of processing or manipulations connected in time series to achieve a certain neck, the term'program' means a set of instructions suitable for processing by a computer, and the term'program recording medium' Refers to a computer-readable recording medium that records programs used to install, run, or distribute programs.

본원 명세서에서, 용어들 '이미지'와 '이미지 파일'은 특별히 구별의 실익이 없는 한 구별하지 않고 사용하기로 한다.In the present specification, the terms'image' and'image file' will be used without distinction unless there is a special benefit.

본원 명세서에서, 머신 러닝 프로그램은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합체를 의미한다. 한편, 딥 러닝 프로그램은 머신 러닝 프로그램의 일종이다. In the present specification, a machine learning program is a machine learning that attempts a high level of abstraction (abstraction of a core content or function in a large amount of data or complex data) through a combination of several nonlinear transformation methods. ) Means a collection of algorithms. Meanwhile, the deep learning program is a kind of machine learning program.

본원 명세서에서, 용어 '모델'은 이미지 데이터에 의해 머신 러닝 프로그램이 트레이닝(학습)되어 생성된 분류자(classifier)를 의미한다.In the present specification, the term'model' means a classifier generated by training (learning) a machine learning program by image data.

본원명세서에서, 용어 '이미지 데이터'는 이미지를 모니터나 프린터로 래스터화 할 수 있는 디지털 데이터의 모음을 의미한다. 이미지는 픽셀이라 불리우리는 단위로 이루어져 있고, 각 픽셀은 밝기 값 또는 컬러 값을 가지는데, 이미지 데이터는 예를 들면 이미지를 이루는 각 필셀이 가지는 밝기 값 또는 컬러 값들일 수 있다. 보다 구체적인 예를 들면, 흑백 이미지일 경우는 각 픽셀은 0~255 사이의 밝기값을 가질 수 있고, 컬러 이미지일 경우는 각 픽셀은 3개의 색 채널(예를 들면, R, G, B)로 표시될 수 있고, 각 채널은 0~255 사이의 밝기값을 가질 수 있다. 여기서, 수치나 색채널의 종류는 본 발명의 설명을 위한 예시적인 것임을 당업자는 이해할 것이다.In this specification, the term'image data' refers to a collection of digital data that can rasterize an image to a monitor or printer. The image is composed of units called pixels, and each pixel has a brightness value or a color value, and the image data may be, for example, brightness values or color values of each pixel of an image. For a more specific example, in the case of a black and white image, each pixel may have a brightness value between 0 and 255, and in the case of a color image, each pixel has three color channels (for example, R, G, B). It may be displayed, and each channel may have a brightness value between 0 and 255. Here, those skilled in the art will understand that the numerical values and types of color channels are exemplary for the purpose of describing the present invention.

본원 명세서에서, 용어 '권리 이미지'는 '권리 및 사용 정의 데이터'가 구비된 이미지를 의미하는 것으로 사용된다.In the present specification, the term “right image” is used to mean an image provided with “right and usage definition data”.

본원 명세서에서, '권리 및 사용 정의 데이터'라고 함은, 이미지에 대하여 권리가 있는지 여부, 권리자에 대한 정보, 및 이미지의 유료 또는 무료 사용 여부 중 적어도 하나 이상을 정의한 데이터를 의미한다. In the present specification, the term “rights and usage definition data” refers to data defining at least one of whether there is a right to an image, information about an owner, and whether an image is paid or used for free.

본원 명세서에서, 용어 '관리'는 데이터의 '수신', '송신', '저장', '수정', 및 '삭제'를 포함하는 의미로 사용된다.In the present specification, the term'management' is used to mean'receiving','sending','storing','modifying', and'deleting' data.

본원 명세서에서, 'A 단계와 B 단계는 선후가 없다'와 동일하거나 유사한 문장은 A 단계가 B 단계보다 먼저 수행되거나, A 단계가 B 단계보다 나중에 수행되거나, 또는 A 단계와 B 단계가 동시에 수행될 수 있다는 것을 의미한다. In the present specification, a sentence similar to or similar to'Step A and Step B has no precedence' may be performed in Step A before Step B, Step A after Step B, or Step A and Step B at the same time. It means it can be.

이하, 도면들을 참조하여, 본 발명의 실시예들에 대해 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템을 설명하기 위한 도면이다. 1 is a view for explaining a new image generation system through a rights-confirmed image fusion according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템은 딥 러닝 기반 권리 이미지 관리 시스템(1000), 합성부(2000), 및 저장장치(3000)를 포함할 수 있다. Referring to FIG. 1, a new image generation system through rights-confirmed image fusion according to an embodiment of the present invention includes a deep learning-based rights image management system 1000, a synthesis unit 2000, and a storage device 3000. It can contain.

본 실시예에서, 딥 러닝 기반 권리 이미지 관리 시스템(1000)은 권리 및 사용 정의 데이터가 있는 이미지들에 대한 식별정보를 생성하여 저장한다. 예를 들면, 딥 러닝 기반 권리 이미지 관리 시스템(1000)은 이미지, 이미지에 대한 식별정보, 및 이미지에 대한 권리 및 사용 정의 데이터를 서로 매핑하여 저장한다. 딥 러닝 기반 권리 이미지 관리 시스템(1000)에 대한 예시적인 구성 및 동작에 대하여는 도 3 내지 도 9를 참조하여 상세히 후술하기로 한다. In this embodiment, the deep learning based rights image management system 1000 generates and stores identification information for images with rights and usage definition data. For example, the deep learning-based rights image management system 1000 maps and stores an image, identification information for the image, and right and usage definition data for the image. An exemplary configuration and operation of the deep learning-based rights image management system 1000 will be described later in detail with reference to FIGS. 3 to 9.

합성부(2000)는 딥 러닝 기반 권리 이미지 관리 시스템(1000)에 의해 권리 및 사용 정의 데이터가 구비된 이미지와 신규 이미지를 합성한다. The synthesizing unit 2000 synthesizes a new image and an image provided with rights and usage definition data by the deep learning-based rights image management system 1000.

합성부(2000)는 또한 상기 합성 이미지와 합성 이미지에 대한 권리 및 사용 정의 데이터를 매핑할 수 있다.The synthesizing unit 2000 may also map rights and usage definition data for the composite image and the composite image.

저장장치(3000)는 합성부(2000)에 의해 합성된 합성 이미지 및 합성 이미지와 매핑된 권리 및 사용 정의 데이터를 저장한다. The storage device 3000 stores the composite image synthesized by the synthesizing unit 2000 and rights and usage definition data mapped to the composite image.

도 1에 도시하지는 않았지만, 딥 러닝 기반 권리 이미지 관리 시스템(1000)은 추가적으로 저장장치(3000)로부터 저장된 합성 이미지와 이 합성 이미지에 대한 권리 및 사용 정의 데이터를 제공받아, 그 합성 이미지에 대한 식별정보도 같이 생성하여 저장할 수 있다. Although not illustrated in FIG. 1, the deep learning-based rights image management system 1000 additionally receives the stored composite image and rights and usage definition data for the composite image from the storage device 3000, and identifies the composite image identification information. It can also be created and saved.

한편, 딥 러닝 기반 권리 이미지 관리 시스템(1000), 합성부(2000), 및 저장 장치(3000)는, 유선으로 서로 직접 연결되거나 또는 통신망(예를 들면, 광역 통신망(WAN), 도시권 통신망(MAN), 근거리 통신망(LAN), 개인 통신망(PAN))으로 상호 데이터를 송수신하도록 연결된다. On the other hand, the deep learning-based rights image management system 1000, the synthesis unit 2000, and the storage device 3000 are directly connected to each other by wire or a communication network (for example, a wide area network (WAN), urban area communication network (MAN) ), a local area network (LAN), and a personal communication network (PAN).

도 2는 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 방법을 설명하기 위한 도면이다. 2 is a diagram for explaining a method for generating a new image through fusion of rights-confirmed images according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 권리 확인된 이미지 융합을 통한 신규 이미지 생성 방법은 신규 이미지 선택 단계(S11), 병합할 이미지 선택 단계(S13), 병합할 이미지에 대한 권리 및 사용 정의 데이터를 표시하는 단계(S15), 병합 단계(S17), 합성 이미지에 대한 권리 및 사용 정의 데이터 생성 단계(S19), 및 저장 단계(S19)를 포함할 수 있다. 이하에서는 설명의 목적을 위해서, 도 1을 참조하여 설명한 장치들을 사용하는 경우를 예로 들기로 한다. Referring to FIG. 2, a method for generating a new image through fusion of a verified image according to an embodiment of the present invention includes a new image selection step (S11), an image selection step to be merged (S13), a right to an image to be merged, and It may include the step of displaying the usage definition data (S15), the merge step (S17), the rights to the composite image and the usage definition data generation step (S19), and the storage step (S19). Hereinafter, for the purpose of explanation, the case of using the devices described with reference to FIG. 1 will be taken as an example.

신규 이미지 선택 단계(S11)는 사용자로부터 이미지를 선택 받는 단계이다. 예를 들면, 본 단계는, 사용자 컴퓨터에 있는 이미지들 중 어느 하나를 선택받는 단계이다. 다른 예를 들면, 본 단계는, 딥 러닝 기반 권리 이미지 관리 시스템(1000)에 의해 생성된 이미지들(권리 및 사용 정의 데이터와 식별정보가 매핑된 이미지들) 중에서 어느 하나를 사용자로부터 선택받는 단계이다. 본 발명의 설명의 목적을 위해서, S11 단계와 같이 사용자로부터 선택받은 이미지를 '신규 이미지'라고 언급하기로 한다.The new image selection step S11 is a step of receiving an image from a user. For example, this step is a step of selecting any one of the images on the user's computer. For another example, this step is a step of selecting any one of images (images to which rights and usage definition data and identification information are mapped) generated by the deep learning-based rights image management system 1000 from a user. . For purposes of explanation of the present invention, the image selected from the user as in step S11 will be referred to as a'new image'.

병합할 이미지 선택 단계(S13)는, 딥 러닝 기반 권리 이미지 관리 시스템(1000)에 의해 생성된 이미지들(권리 및 사용 정의 데이터와 식별정보가 매핑된 이미지들) 중에서 어느 하나를 사용자로부터 선택받는 단계이다. 본 발명의 설명의 목적을 위해서, S13 단계와 같이 사용자로부터 신규 이미지에 병합할 이미지를 '병합 이미지'라고 언급하기로 한다.In the image selection step S13 to be merged, any one of the images (images to which rights and usage definition data and identification information are mapped) generated by the deep learning-based rights image management system 1000 is selected from the user. to be. For purposes of explanation of the present invention, an image to be merged into a new image from a user as in step S13 will be referred to as a'merged image'.

병합 이미지에 대한 권리 및 사용 정의 데이터를 표시하는 단계(S15)는 S13 단계에서 선택된 병합할 이미지에 대한 권리 및 사용 정의 데이터를 사용자에게 표시하는 단계이다. 본 단계를 통해서, 사용자는 표시된 권리 및 사용 정의 데이터를 참조하여 이미지를 병합 할지 여부를 선택할 수 있을 것이다. Step S15 of displaying rights and usage definition data for the merged image is a step of displaying rights and usage definition data for the image to be merged selected in step S13 to the user. Through this step, the user will be able to select whether to merge the images with reference to the displayed rights and usage definition data.

병합 단계(S17)는 S13 단계에서 선택된 병합 이미지를 합성부(2000)가 S11 단계에서 선택된 신규 이미지를 합성한다. 본 발명의 설명의 목적을 위해서, S17 단계에서 병합 이미지와 신규 이미지가 합성된 이미지를 '합성 이미지'라고 언급하기로 한다.In the merging step S17, the synthesizer 2000 synthesizes the new image selected in the step S11, and the synthesizer 2000 selects the merged image selected in the step S13. For purposes of explanation of the present invention, an image in which the merged image and the new image are synthesized in step S17 will be referred to as a'composite image'.

합성 이미지에 대한 권리 및 사용 정의 데이터 생성 단계(S19)는 S17 단계에서 생성된 합성 이미지에 대한 권리 및 사용 정의 데이터를 생성하고, 합성 이미지와 매핑한다. In the step S19 of generating rights and usage definition data for the composite image, rights and usage definition data for the composite image generated in step S17 are generated and mapped to the composite image.

저장 단계(S19)는 S19 단계에서 생성된 합성 이미지와, 합성 이미지에 대한 권리 및 사용 정의 데이터를 매핑하여 저장 장치(3000)에 저장하는 단계이다. The storage step (S19) is a step of mapping the composite image generated in step S19 and the rights and usage definition data for the composite image and storing it in the storage device 3000.

도 3과 도 4는 본 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템을 설명하기 위한 도면들이다. 3 and 4 are diagrams for explaining a deep learning-based rights image management system according to an embodiment of the present invention.

이들 도면을 참조하면, 본 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템은 식별정보 생성장치(20)와 정보 관리부(30)를 포함한다. 한편, 본 발명의 설명의 목적을 위해서, 이미지 제공 장치(10)를 도면 3에 추가적으로 도시하였다. Referring to these drawings, a deep learning based rights image management system according to an embodiment of the present invention includes an identification information generating device 20 and an information management unit 30. Meanwhile, for the purpose of explaining the present invention, the image providing apparatus 10 is additionally illustrated in FIG. 3.

본 실시예에서, 이미지 제공 장치(10), 식별정보 생성장치(20), 및 정보 관리부(30)는 유선으로 직접 연결되거나 또는 통신망(예를 들면, 광역 통신망(WAN), 도시권 통신망(MAN), 근거리 통신망(LAN), 개인 통신망(PAN))으로 상호 데이터를 송수신하도록 연결되며, 식별정보 생성장치(20)에 포함된 구성요소들도 유선으로 직접 연결되거나 또는 통신망(예를 들면, 광역 통신망(WAN), 도시권 통신망(MAN), 근거리 통신망(LAN), 개인 통신망(PAN))으로 상호 연결되어 데이터를 송수신할 수 있다.In this embodiment, the image providing device 10, the identification information generating device 20, and the information management unit 30 are directly connected by a wire or a communication network (for example, a wide area network (WAN), a metropolitan area network (MAN)) , Local area network (LAN), personal communication network (PAN) is connected to transmit and receive mutual data, the components included in the identification information generating device 20 is also directly connected by wire or a communication network (for example, a wide area network) (WAN), urban area network (MAN), local area network (LAN), personal communication network (PAN)) are interconnected to transmit and receive data.

이미지 제공 장치(10)는 통신을 통해서 권리 이미지를 식별정보 생성장치(20)로 전송할 수 있는 장치로서, 예를 들면, 스마트폰이나 노트북과 같은 모바일 컴퓨터나 데스크 탑과 같은 컴퓨터일 수 있다.The image providing device 10 is a device capable of transmitting the right image to the identification information generating device 20 through communication, and may be, for example, a mobile computer such as a smartphone or a laptop or a computer such as a desktop.

도 4를 참조하면, 식별정보 생성장치(20)에서, 제1해쉬함수('HASH A')가 식별정보를 생성하기 위해서 입력 받은 이미지(이하, '입력 이미지' 또는 '권리 이미지'라고 함)을 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제1해쉬값('value A')을 생성하는 동작과, 권리 이미지를 다른 이미지(이하, '변환 이미지')로 변환하는 동작과, 제2해쉬함수('HASH C')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제2해쉬값('value C')을 생성하는 동작과, 제1해쉬값('value A')과 제2해쉬값('value C')을 이용하여, 권리 이미지의 식별정보(이하, '이미지 식별 정보') 를 생성하는 동작이 수행된다.Referring to FIG. 4, in the identification information generating device 20, an image received by the first hash function ('HASH A') to generate identification information (hereinafter referred to as an'input image' or a'right image') The operation of generating a first hash value ('value A') by receiving at least a portion of the image data constituting the, and the operation of converting a right image to another image (hereinafter, a'converted image'), and a second hash. The function ('HASH C') receives at least a portion of image data constituting the converted image as input, and generates a second hash value ('value C'), and a first hash value ('value A') And the second hash value ('value C'), an operation of generating identification information (hereinafter,'image identification information') of the right image is performed.

또한, 식별정보 생성장치(20)에서, 제3해쉬함수('HASH B')가, 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값('value B')을 생성하는 동작이 수행된다. 이 경우, 식별정보 생성장치(20)는 이미지 식별 정보를 생성할 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 및 제3해쉬값('value B')을 모두 이용하여 생성한다. Further, in the identification information generating apparatus 20, the third hash function ('HASH B') receives at least a part of the image data constituting the right image as input, and generates a third hash value ('value B') Is performed. In this case, when the identification information generating apparatus 20 generates image identification information, the first hash value ('value A'), the second hash value ('value C'), and the third hash value ('value B) ').

또한, 식별정보 생성장치(20)에서, 제4해쉬함수('HASH D')가, 변환 이미지 를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제4해쉬값('value D')을 생성하는 동작이 수행된다. 이 경우, 식별정보 생성장치(20)는 이미지 식별 정보를 생성할 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 제3해쉬값('value B'), 및 제4해쉬값('value D')을 이용하여 이미지 식별 정보를 생성한다. Further, in the identification information generating apparatus 20, the fourth hash function ('HASH D') receives at least a part of the image data constituting the converted image as input, and generates a fourth hash value ('value D') Is performed. In this case, when the identification information generating device 20 generates image identification information, the first hash value ('value A'), the second hash value ('value C'), and the third hash value ('value B') ), and the fourth hash value ('value D') to generate image identification information.

상술한 실시예에서, HASH A와 HASH C는 MD5라 불리우는 해쉬함수 일수 있고, HASH B와 HASH D는 SHA-512라 불리우는 해쉬함수일 수 있다. 물론 본원 발명이 그러한 해쉬함수들에만 한정되는 것이 아님을 당업자는 용이하게 이해할 수 있을 것이다. In the above-described embodiment, HASH A and HASH C may be a hash function called MD5, and HASH B and HASH D may be a hash function called SHA-512. Of course, those skilled in the art will readily understand that the present invention is not limited to such hash functions.

또한, 식별정보 생성장치(20)는, 권리 이미지, 권리 이미지의 식별정보(식별정보 생성 프로그램에 의해 생성된 것임), 권리 및 사용 정의 데이터를 서로 매핑시켜서 정보 관리부(30)에 저장시키는 동작을 수행한다. 여기서, 권리 및 사용 정의 데이터는 권리 이미지를 제공받을 때 같이 제공받은 것일 수 있다. Further, the identification information generating device 20 maps the right image, the identification information of the right image (which is generated by the identification information generation program), and the right and usage definition data to be mapped to each other and stored in the information management unit 30. Perform. Here, the rights and usage definition data may be provided together when a rights image is provided.

정보 관리부(30)는 데이터를 저장하고 관리(삭제, 정정, 추가)할 수 있는 장치이다.The information management unit 30 is a device that can store and manage (delete, correct, and add) data.

본 실시예에 따르면 식별정보 생성장치(20)는, 이미지 식별 정보를 예를 들면 다음과 같은 방식으로 생성할 수 있다. According to this embodiment, the identification information generating apparatus 20 may generate image identification information in the following manner, for example.

제1방식Method 1

이미지 식별 정보가 제1해쉬값과 제2해쉬값을 포함하도록 구성됨.The image identification information is configured to include a first hash value and a second hash value.

제2방식Method 2

이미지 식별 정보가 f1(제1해쉬값)와 f2(제2해쉬값)를 포함하도록 구성됨.The image identification information is configured to include f1 (first hash value) and f2 (second hash value).

여기서, f1과 f2는 수학적 연산을 수행하는 함수이고, 제1해쉬값은 f1의 독립변수이고, 제2해쉬값은 f2의 독립변수이다. 즉, f1과 f2는 입력받은 독립 변수 그대로 출력하거나 또는 입력받은 독립변수에 대하여 소정의 연산을 통해서 다른 값으로 출력하는 함수이다.Here, f1 and f2 are functions that perform mathematical operations, the first hash value is an independent variable of f1, and the second hash value is an independent variable of f2. That is, f1 and f2 are functions that output the input independent variables as they are, or output the input independent variables with different values through a predetermined operation.

제1방식에 따라 생성되는 이미지 식별정보는 한 쌍의 데이터를 포함하며, 이 한쌍의 데이터는 각각 f1(제1해쉬값)과 f2(제2해쉬값)이다. The image identification information generated according to the first method includes a pair of data, and the pair of data are f1 (first hash value) and f2 (second hash value), respectively.

한편, 해쉬값이 3개 이상일 경우에도, 제1방식에 따라서 이미지 식별정보가 생성될 수 있다.On the other hand, even when there are three or more hash values, image identification information may be generated according to the first method.

제3방식Method 3

이미지 식별 정보가 f3(제1해쉬값, 제2해쉬값)을 포함하도록 구성됨. The image identification information is configured to include f3 (first hash value, second hash value).

여기서, f3는 수학적 연산을 수행하는 함수이고, 제1해쉬값과 제2해쉬값은 각각 f3의 독립변수이다. 즉, f3는 입력받은 독립 변수들에 대하여 소정의 연산을 통해서 다른 값으로 출력하는 함수이다. Here, f3 is a function that performs a mathematical operation, and the first hash value and the second hash value are independent variables of f3, respectively. That is, f3 is a function that outputs the input independent variables with different values through a predetermined operation.

한편, 해쉬값이 3개 이상일 경우에도, 제2방식에 따라서 이미지 식별정보가 생성될 수 있으며, 이럴 경우 f3는 3개 이상의 해쉬값을 입력변수로 입력받아서 소정의 수학적 연산을 한후에 출력값을 산출할 것이다. On the other hand, even if there are three or more hash values, image identification information can be generated according to the second method. In this case, f3 receives three or more hash values as input variables and calculates the output value after performing a certain mathematical operation. will be.

이하에서는, 보다 구체적인 예를 들어서 본원 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템(1000)을 설명하기로 한다. Hereinafter, a deep learning based rights image management system 1000 according to an embodiment of the present invention will be described as a more specific example.

도 3과 도 4를 참조하면, 식별정보 생성장치(20)는 식별정보 생성 프로그램, 운영체제, 통신부, 컴퓨터 프로세서, 기억장치(휘발성 및/또는 비휘발성 기억장치를 포함함), 및 기타 리소스(소프트웨어 및 하드웨어)를 포함할 수 있다.3 and 4, the identification information generation device 20 includes an identification information generation program, an operating system, a communication unit, a computer processor, a storage device (including volatile and/or nonvolatile storage devices), and other resources (software And hardware).

여기서, 운영체제(OS: OPERATING SYSTEM)은 하드웨어와 응용프로그램(예를 들면, 식별정보 생성 프로그램)을 동작적으로 연결시킬 수 있다. 통신부는 외부와의 데이터를 송수신하기 위한 소프트웨어 및 하드웨어로 이루어진 모듈을 의미한다. Here, the operating system (OS: OPERATING SYSTEM) may operatively connect the hardware and the application program (for example, identification information generation program). The communication unit means a module composed of software and hardware for transmitting and receiving data to and from the outside.

여기서, 컴퓨터 프로세서와 기억장치, 운영체제, 식별정보 생성 프로그램, 통신부, 및 기타 리소스는 서로 동작적으로(operatively) 연결되어 있다. Here, the computer processor and the storage device, the operating system, the identification information generating program, the communication unit, and other resources are operatively connected to each other (operatively).

식별정보 생성 프로그램은 컴퓨터 프로세서의 제어하에 메모리와 같은 기억장치에 로딩되어 식별정보를 생성하는 동작을 수행한다. The identification information generation program is loaded into a storage device such as a memory under the control of a computer processor and performs an operation of generating identification information.

기억장치(메모리 포함)에 로딩된 식별정보 생성 프로그램은 컴퓨터 프로세서가 제1해쉬함수('HASH A')가 식별정보를 생성할 이미지 파일(이하, '권리 이미지 파일')을 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제1해쉬값('value A')을 생성하는 동작과, 권리 이미지를 다른 이미지(이하, '변환 이미지')로 변환하는 동작과, 제2해쉬함수('HASH C')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제2해쉬값('value C')을 생성하는 동작과, 제1해쉬값('value A')과 제2해쉬값('value C')을 이용하여, 권리 이미지의 식별정보(이하, '이미지 식별 정보') 를 생성하는 동작을 수행하도록 한다.The identification information generation program loaded in the storage device (including the memory) is a computer processor in which the first hash function ('HASH A') creates image files (hereinafter referred to as'right image files') to generate identification information. The operation of generating a first hash value ('value A') by receiving at least a part as an input, the operation of converting a right image to another image (hereinafter,'converted image'), and a second hash function ('HASH C' ) Receives, as input, at least a portion of the image data constituting the converted image, generates a second hash value ('value C'), and a first hash value ('value A') and a second hash value ( Using'value C'), an operation for generating identification information of the right image (hereinafter,'image identification information') is performed.

또한, 식별정보 생성 프로그램은 컴퓨터 프로세서가, 제3해쉬함수('HASH B')가, 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값('value B')을 생성하는 동작을 ㅅ된수행하도록 한다. 한편, 이미지 식별 정보가 생성될 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 및 제3해쉬값('value B')이 모두 이용될 수 있다.In addition, the identification information generation program, the computer processor, the third hash function ('HASH B'), receives at least a portion of the image data constituting the right image, generates a third hash value ('value B') Try to perform the action you are doing. Meanwhile, when the image identification information is generated, all of the first hash value ('value A'), the second hash value ('value C'), and the third hash value ('value B') may be used.

또한, 식별정보 생성 프로그램은 컴퓨터 프로세서가, 제4해쉬함수('HASH D')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제4해쉬값('value D')을 생성하는 동작을 ㅅ된수행하도록 한다. 한편, 이미지 식별 정보가 생성될 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 제3해쉬값('value B'), 및 제4해쉬값('value D')이 모두 이용될 수 있다. In addition, the identification information generation program, the computer processor, the fourth hash function ('HASH D'), receives at least a portion of the image data constituting the converted image as input, and generates a fourth hash value ('value D') Try to perform the action you are doing. Meanwhile, when the image identification information is generated, the first hash value ('value A'), the second hash value ('value C'), the third hash value ('value B'), and the fourth hash value (' value D') can all be used.

또한, 식별정보 생성 프로그램은 컴퓨터 프로세서의 제어하에, 권리 이미지, 권리 이미지의 식별정보(식별정보 생성 프로그램에 의해 생성된 것임), 권리 및 사용 정의 데이터를 서로 매핑시켜서 정보 관리부(30)에 저장시키는 동작을 수행한다. Further, the identification information generation program maps each of the rights image, the identification information of the rights image (which is generated by the identification information generation program), and the rights and usage definition data under the control of the computer processor to be stored in the information management unit 30. Perform an action.

한편, 식별정보 생성 프로그램은 컴퓨터 프로세서가, 상술한 바가 있는 제1방식, 제2방식, 또는 제3방식으로 식별정보를 생성하는 동작을 수행하도록 할 수 있다.Meanwhile, the identification information generation program may cause the computer processor to perform an operation of generating identification information in the first, second, or third methods as described above.

도 5는 본 발명의 일 실시예에 따른 이미지 식별정보 생성 방법을 설명하기 위한 도면이다. 5 is a view for explaining a method of generating image identification information according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 이미지 식별정보 생성 방법은 예를 들면 도 3과 도 4를 참조하여 설명한 딥 러닝 기반 권리 이미지 관리 시스템에 의해 구현될 수 있다. The method for generating image identification information according to an embodiment of the present invention may be implemented by, for example, a deep learning based rights image management system described with reference to FIGS. 3 and 4.

도 5를 다시 참조하면, 본 이미지 식별정보 생성 방법은Referring back to Figure 5, the method for generating the image identification information

식별정보를 생성할 이미지(권리 이미지)를 수신하는 단계(S101), 제1해쉬함수가 식별정보를 생성할 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제1해쉬값을 생성하는 단계(S103), 권리 이미지를 다른 이미지 - 변환 이미지-로 변환하는 단계(S107), 제2해쉬함수가 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제2해쉬값을 생성하는 단계(S109), 제3해쉬함수가 식별정보를 생성할 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값을 생성하는 단계(S105), 제4해쉬함수가 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제4해쉬값을 생성하는 단계(S111), 및 제1해쉬값, 제2해쉬값, 제3해쉬값, 및 제4해쉬값을 이용하여 권리 이미지의 식별정보 - 이미지 식별 정보 - 를 생성하는 단계(S113), 권리 이미지, 권리 이미지의 식별정보, 권리 및 사용 정의 데이터를 매핑하는 저장하는 단계(S115);를 포함할 수 있다. Step (S101) of receiving an image (right image) to generate identification information, the first hash function receives at least a part of the image data constituting the right image for generating identification information, and generates a first hash value Step (S103), converting the right image to another image-a converted image-(S107), the second hash function receives at least a part of the image data constituting the converted image as input and generates a second hash value ( S109), the third hash function receives at least a part of the image data constituting the right image for generating identification information, and generates a third hash value (S105), and the fourth hash function constitutes the converted image A step of generating a fourth hash value by receiving at least a part of the image data (S111), and identification information of the right image using the first hash value, the second hash value, the third hash value, and the fourth hash value -Generating the image identification information-(S113), storing the mapping of the right image, the identification information of the right image, right and usage definition data (S115).

여기서, S115 단계는 S113 단계 이후에 수행되고, S113 단계는 S103 단계, S105 단계, S109 단계, 및 S111 단계 이후에 수행되고, S103 단계와 S105 단계는 S101 단계 이후에 수행되며, S109 단계와 S111 단계는 S107 단계 이후에 수행되며, S107 단계는 S101 단계 이후에 수행된다. 한편, 여기서, S103 단계와 S105 단계는 선후가 없고, S109 단계와 S111 단계는 선후가 없고, S103 단계와 S107 단계는 선후가 없고, S105 단계와 S107 단계는 선후가 없다.Here, step S115 is performed after step S113, step S113 is performed after step S103, step S105, step S109, and step S111, steps S103 and step S105 are performed after step S101, steps S109 and S111 Is performed after step S107, and step S107 is performed after step S101. On the other hand, here, steps S103 and S105 have no leading, steps S109 and S111 have no leading, steps S103 and S107 have no leading, and steps S105 and S107 have no leading.

도 5를 참조하여 설명한 이미지 식별정보 생성 방법은 컴퓨터 프로세서와 메모리를 포함한 컴퓨터에 의해 구현될 수 있다. The method of generating image identification information described with reference to FIG. 5 may be implemented by a computer including a computer processor and memory.

도 6 내지 도 7은 본 발명의 다른 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템을 설명하기 위한 도면들이다. 6 to 7 are diagrams for describing a deep learning based rights image management system according to another embodiment of the present invention.

도 6과 도 7을 참조하면, 본 발명의 일 실시예에 따른 딥 러닝 기반 권리 이미지 관리 시스템은 식별정보 생성장치(200)와 정보 관리부(300)를 포함한다. 한편, 본 발명의 설명의 목적을 위해서, 이미지 제공 장치(100)를 도면 6에 추가적으로 도시하였다. 6 and 7, a deep learning-based rights image management system according to an embodiment of the present invention includes an identification information generating device 200 and an information management unit 300. Meanwhile, for the purpose of explaining the present invention, the image providing apparatus 100 is additionally illustrated in FIG. 6.

본 실시예에서, 이미지 제공 장치(100), 식별정보 생성장치(200), 및 정보 관리부(300)는 유선으로 직접 연결되거나 또는 통신망으로 상호 데이터를 송수신하도록 연결되며, 식별정보 생성장치(200)에 포함된 구성요소들도 유선으로 직접 연결되거나 또는 통신망으로 상호 연결되어 데이터를 송수신할 수 있다.In the present embodiment, the image providing device 100, the identification information generating device 200, and the information management unit 300 are directly connected by wire or connected to transmit and receive mutual data through a communication network, and the identification information generating device 200 The components included in the data may be directly connected by wire or mutually connected by a communication network to transmit and receive data.

이미지 제공 장치(100)는 통신을 통해서 권리 이미지를 식별정보 생성장치(200)로 전송할 수 있는 장치이다.The image providing device 100 is a device capable of transmitting the right image to the identification information generating device 200 through communication.

도 6과 도 7을 참조하면, 식별정보 생성장치(200)에서, 제1해쉬함수('HASH A')가 식별정보를 생성할 이미지(이하, '권리 이미지')를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제1해쉬값('value A')을 생성하는 동작과, 권리 이미지를 다른 이미지(이하, '변환 이미지 파일')로 변환하는 동작과, 제2해쉬함수('HASH C')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제2해쉬값('value C')을 생성하는 동작과, 제1해쉬값('value A')과 제2해쉬값('value C')을 이용하여, 권리 이미지의 식별정보(이하, '권리 이미지 식별 정보') 를 생성하는 동작이 수행된다.6 and 7, in the identification information generating apparatus 200, at least the image data constituting the image (hereinafter referred to as'right image') in which the first hash function ('HASH A') generates identification information. The operation of generating a first hash value ('value A') by receiving a part as input, the operation of converting a right image to another image (hereinafter, a'converted image file'), and a second hash function ('HASH C') ) Receives, as input, at least a portion of the image data constituting the converted image, generates a second hash value ('value C'), and a first hash value ('value A') and a second hash value ( Using'value C'), an operation of generating identification information of the right image (hereinafter,'right image identification information') is performed.

식별정보 생성장치(200)에서, 제3해쉬함수('HASH B')가, 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값('value B')을 생성하는 동작이 수행된다. 이 경우, 식별정보 생성장치(200)는 식별 정보를 생성할 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 및 제3해쉬값('value B')을 모두 이용하여 생성한다. In the identification information generating apparatus 200, the third hash function ('HASH B') receives at least a part of the image data constituting the right image, and generates a third hash value ('value B') This is done. In this case, when the identification information generating apparatus 200 generates identification information, the first hash value ('value A'), the second hash value ('value C'), and the third hash value ('value B') ).

식별정보 생성장치(200)에서, 제4해쉬함수('HASH D')가, 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제4해쉬값('value D')을 생성하는 동작이 수행된다. 이 경우, 식별정보 생성장치(200)는 이미지 식별 정보를 생성할 때, 제1해쉬값('value A'), 제2해쉬값('value C'), 제3해쉬값('value B'), 및 제4해쉬값('value D')을 이용하여 이미지 식별 정보를 생성한다. In the identification information generating apparatus 200, the fourth hash function ('HASH D') receives at least a portion of the image data constituting the converted image as an input, and generates a fourth hash value ('value D') This is done. In this case, when the identification information generating apparatus 200 generates image identification information, the first hash value ('value A'), the second hash value ('value C'), and the third hash value ('value B') ), and the fourth hash value ('value D') to generate image identification information.

식별정보 생성장치(200)는, 권리 이미지, 권리 이미지의 식별정보, 권리 이미지에 대한 권리 및 사용 정의 데이터를 서로 매핑시켜서 저장하는 동작이 수행된다. 여기서, 권리 및 사용 정의 데이터는 이미지 제공 장치(100)로부터 권리 이미지와 함께 제공받은 것이다. The identification information generating apparatus 200 performs an operation of mapping and storing the right image, the identification information of the right image, and the right and usage definition data for the right image. Here, the rights and usage definition data are provided together with the rights image from the image providing device 100.

본 실시예에 따르면 식별정보 생성장치(200)는, 이미지 식별 정보를 예를 들면 상술한 바와 같은 제1방식, 제2방식, 또는 제3방식에 따라서 생성할 수 있다. 여기서, 제1방식, 제2방식, 또는 제3방식은 예시적인 것으로서 본원 발명이 그러한 방식에만 한정되는 것은 아니다. According to the present embodiment, the identification information generating apparatus 200 may generate image identification information according to, for example, the first method, the second method, or the third method as described above. Here, the first method, the second method, or the third method is exemplary and the present invention is not limited to such a method.

본 실시예에 따르면 식별정보 생성장치(200)에서, 권리 이미지를 구성하는 이미지 데이터에 의해 머신 러닝 프로그램이 학습되고, 그러한 학습에 의해 권리 이미지 파일에 대한 모델을 생성하는 동작이 수행된다. According to the present embodiment, in the identification information generating apparatus 200, a machine learning program is learned by image data constituting a right image, and an operation of generating a model for the right image file is performed by such learning.

본 실시예에 따르면, 권리 이미지마다 모델을 생성하는 동작이 수행된다. 즉, 식별정보 생성장치(200)는 권리 이미지를 수신할 때마다 그러한 권리 이미지에 의해 머신 러닝 프로그램을 학습시키고, 그러한 학습 결과 모델이 생성된다. 따라서, 식별정보를 생성하고자 하는 이미지의 갯수 만큼 모델이 만들어지게 된다. 이미지마다 생성된 모델은 정보 관리부(300)에 저장 되어 관리된다.According to this embodiment, an operation of generating a model for each right image is performed. That is, each time the identification information generating apparatus 200 receives a right image, the machine learning program is trained by the right image, and such a learning result model is generated. Therefore, a model is created as many as the number of images to generate identification information. The model generated for each image is stored and managed in the information management unit 300.

본 발명의 일 실시예에 따르면, 머신 러닝 프로그램은 신경망 프로그램일 수 있다. 신경망 프로그램은 딥 러닝 프로그램일 수 있다. 일 실시예에 따르면, 딥 러닝 프로그램은 Long Short-Term Memory Network 알고리즘에 의해 구현된 프로그램일 수 있다.According to an embodiment of the present invention, the machine learning program may be a neural network program. The neural network program may be a deep learning program. According to an embodiment, the deep learning program may be a program implemented by a Long Short-Term Memory Network algorithm.

도 9는 본 발명의 일 실시예에 따라서 모델을 생성하는 방법을 설명하기 위한 도면이다. 9 is a view for explaining a method for generating a model according to an embodiment of the present invention.

일 실시예에 따르면, 신경망 프로그램은 복수의 노드들로 이루어져 있고, 이들 노드들은 서로 동작적으로 연결되어 있다. 이하에서는 설명의 목적을 위해서 노드에서 이루어지는 동작을 도 9를 참조하여 설명하기로 한다.According to an embodiment, the neural network program is composed of a plurality of nodes, and these nodes are operatively connected to each other. Hereinafter, for the purpose of explanation, an operation performed at a node will be described with reference to FIG. 9.

도 9를 참조하면, 노드로 들어오는 신호들(x1, x2, x3, ... , xn)에 대하여 해당 가중치(w1, w2, w3, ... , wn)가 곱해지고, 전달함수(예를 들면, 가중합(weighted sum))에 의한 연산이 수행되고, 연산 결과는 활성함수(activation function)에 입력으로 사용되며, 활성 함수의 출력값이 노드의 출력이 된다. 통상적으로 활성함수에 의해 각 노드들의 동작특성이 정해진다. 여기서, 노드로 들어오는 신호들(x1, x2, x3, ... , xn)은 1개의 이미지를 구성하는 이미지 데이터의 적어도 일부이다. Referring to FIG. 9, corresponding weights (w1, w2, w3, ..., wn) are multiplied by signals (x1, x2, x3, ..., xn) coming into a node, and a transfer function (eg For example, an operation by weighted sum is performed, and the result of the operation is used as an input to an activation function, and the output value of the active function becomes the output of the node. Normally, the operating characteristics of each node are determined by the active function. Here, signals (x1, x2, x3, ..., xn) coming into the node are at least a part of image data constituting one image.

상술한 바와 같이, 신경망의 각 노드들은 입력 신호의 가중합을 구하고, 활성함수에 가중합을 입력해서 얻은 값을 노드의 외부로 출력한다. 한편, 신경망의 노드들은 어떻게 연결되느냐에 따라서 신경망의 형태가 결정된다. As described above, each node of the neural network obtains a weighted sum of the input signals and outputs a value obtained by inputting a weighted sum to the active function to the outside of the node. Meanwhile, the shape of the neural network is determined according to how the nodes of the neural network are connected.

일 실시예에 따르면, 모델을 생성한다고 함은 상술한 내용에서 각 노드들에서 입력되는 입력신호에 대한 가중치들을 결정하는 것을 의미하고, 모델을 비교한다고 함은 가중치들을 비교하는 것을 의미한다.According to one embodiment, creating a model means determining weights for input signals input from each node in the above description, and comparing a model means comparing weights.

즉, 각 노드에서 전달함수와 활성함수는 결정된 상태이고, 가중치들을 결정하는 과정이 모델을 생성하는 과정이다. 신경망 프로그램에서, 모델을 생성하는 과정을 예시적으로 설명하면 다음과 같다. That is, in each node, the transfer function and the active function are in a determined state, and the process of determining weights is a process of generating a model. The process of generating the model in the neural network program is described as follows.

첫째, 신경망을 구성하는 각 노드들로 입력되는 신호에 대하여 연산되는 가중치를 적당한 값으로 초기화한다. First, the weight calculated for the signals input to each node constituting the neural network is initialized to an appropriate value.

둘째, 지도학습의 학습 데이터 형태인 {입력, 정답}에서 ‘입력’을 신경망에 입력해 출력값을 얻는다. 이 출력 값과 해당 입력의 ‘정답’을 비교해 오차를 계산한다. Second,'input' is input to the neural network in {input, correct answer}, which is a learning data type of supervised learning, to obtain an output value. The error is calculated by comparing this output value with the'correct answer' of the corresponding input.

셋째, 상기 오차가 줄어들도록 신경망의 가중치들을 조절한다.Third, the weights of the neural network are adjusted to reduce the error.

상술한 설명에 따라서, 식별정보 생성장치(200)에서 모델을 생성하는 동작을 구체적으로 설명하면, 1개의 이미지가 신경망으로 입력되고 상기 오차가 줄어들도록 신경망의 가중치들(즉, 모델)이 생성된다. 이렇게 생성된 모델은 기억장치에 저장된다. 이렇게 이미지 마다 모델이 생성되어 기억장치에 저장된다. According to the above description, when the operation of generating the model in the identification information generating apparatus 200 is specifically described, one image is input to the neural network and weights (ie, models) of the neural network are generated to reduce the error. . The model thus created is stored in storage. In this way, a model is created for each image and stored in storage.

도 6을 참조하면, 식별정보 생성장치(200)는 식별정보 생성 프로그램, 머신 러닝 프로그램, 운영체제, 통신부, 컴퓨터 프로세서, 기억장치(휘발성 및/또는 비휘발성 기억장치를 포함함), 및 기타 리소스(소프트웨어 및 하드웨어)를 포함할 수 있다. 여기서, 컴퓨터 프로세서와 기억장치, 운영체제, 식별정보 생성 프로그램, 통신부, 및 기타 리소스는 서로 동작적으로(operatively) 연결되어 있고 이들에 대한 상세한 설명은 도 3과 도 4를 참조하여 설명한 실시예를 참조하기 바란다.Referring to FIG. 6, the identification information generation device 200 includes an identification information generation program, a machine learning program, an operating system, a communication unit, a computer processor, a storage device (including volatile and/or nonvolatile storage devices), and other resources ( Software and hardware). Here, the computer processor and the storage device, the operating system, the identification information generation program, the communication unit, and other resources are operatively connected to each other (operatively) and for a detailed description of these, refer to the embodiments described with reference to FIGS. 3 and 4. Please do.

식별정보 생성 프로그램은 컴퓨터 프로세서의 제어하에 메모리와 같은 기억장치에 로딩되어 식별정보를 생성하는 동작을 수행한다. The identification information generation program is loaded into a storage device such as a memory under the control of a computer processor and performs an operation of generating identification information.

도 6 및 도 7을 참조하여 설명할 실시예(이하, '제2실시예'라고 함)와, 도 3 및 도 4를 참조하여 설명할 실시예(이하, '제1실시예'라고 함)의 차이점을 비교하면, 제2실시예는 머신 러닝 프로그램을 더 포함하고 있고, 이러한 머신 러닝 프로그램을 학습시켜 권리 이미지 마다 모델을 생성한다는 점에서 차이가 있다. 이하에서는, 이러한 차이점을 위주로 제2실시예를 설명하기로 한다.Embodiments to be described with reference to FIGS. 6 and 7 (hereinafter referred to as'second embodiment') and embodiments to be described with reference to FIGS. 3 and 4 (hereinafter referred to as'first embodiment') When comparing the differences, the second embodiment further includes a machine learning program, and there is a difference in that a model is generated for each rights image by learning the machine learning program. Hereinafter, the second embodiment will be described based on these differences.

제2실시예에서, 기억장치(메모리 포함)에 로딩된 머신 러닝 프로그램은 권리 이미지를 구성하는 이미지 데이터에 의해 학습되고, 그러한 학습에 의해 권리 이미지에 대한 모델을 생성한다.In the second embodiment, the machine learning program loaded in the storage device (including the memory) is trained by image data constituting the right image, and by such learning, a model for the right image is generated.

제2실시예에 따르면, 머신 러닝 프로그램은 권리 이미지마다 모델을 생성하는 동작을 수행한다. 즉, 머신 러닝 프로그램은 권리 이미지를 수신할 때마다 그러한 권리 이미지에 의해 학습되고, 그러한 학습 결과로서 모델을 생성한다. 따라서, 식별정보를 생성하고자 하는 권리 이미지의 갯수 만큼 모델이 만들어지게 된다.According to the second embodiment, the machine learning program performs an operation of generating a model for each rights image. That is, the machine learning program is trained by the right image whenever it receives the right image, and generates a model as a result of such learning. Therefore, a model is created as many as the number of right images to generate identification information.

제2실시예에 따르면, 머신 러닝 프로그램이 학습되고 모델을 생성하는 과정은 도 9를 참조하여 설명한 방법에 의해 구현될 수 있다. 도 9를 참조하여 설명한 모델을 생성하는 방법은 예시적인 것으로서 본원 발명의 권리범위가 그러한 방법에만 한정되는 것이 아님을 당업자는 쉽게 이해할 수 있을 것이다.According to the second embodiment, the process of learning the machine learning program and generating the model may be implemented by the method described with reference to FIG. 9. The method of generating the model described with reference to FIG. 9 is exemplary and those skilled in the art will readily understand that the scope of the present invention is not limited to such a method.

이상과 같이 도 6과 도 7을 참조하여 설명한 실시예에서 설명되지 않은 구성요소들에 대한 설명은, 도 3과 도 4를 참조하여 설명한 실시예에서 동일한 명칭이 부여된 구성요소들에 대한 설명을 참조하기 바란다.As described above, descriptions of components not described in the embodiment described with reference to FIGS. 6 and 7 will be described with reference to components having the same name in the embodiment described with reference to FIGS. 3 and 4. Please refer.

도 8은 본 발명의 다른 실시예에 따른 이미지 식별정보 생성 방법을 설명하기 위한 도면이다. 8 is a view for explaining a method of generating image identification information according to another embodiment of the present invention.

본 발명의 다른 실시예에 따른 이미지 식별정보 생성 방법은 예를 들면 도 6, 도 7, 및 도 9를 참조하여 설명한 딥 러닝 기반 권리 이미지 관리 시스템에 의해 구현될 수 있다. The method for generating image identification information according to another embodiment of the present invention may be implemented by a deep learning-based rights image management system described with reference to FIGS. 6, 7, and 9, for example.

도 8을 다시 참조하면, 본 이미지 식별정보 생성 방법은Referring back to FIG. 8, the method for generating the image identification information

식별정보를 생성할 권리 이미지를 수신하는 단계(S201), 제1해쉬함수가 식별정보를 생성할 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제1해쉬값을 생성하는 단계(S203), 권리 이미지를 다른 이미지 - 변환 이미지-로 변환하는 단계(S207), 제2해쉬함수가 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제2해쉬값을 생성하는 단계(S209), 제3해쉬함수가 식별정보를 생성할 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서, 제3해쉬값을 생성하는 단계(S205), 제4해쉬함수가 변환 이미지 를 구성하는 이미지 데이터의 적어도 일부를 입력으로 받아서 제4해쉬값을 생성하는 단계(S211), 및 제1해쉬값, 제2해쉬값, 제3해쉬값, 및 제4해쉬값을 이용하여 권리 이미지의 식별정보 - 이미지 식별 정보 - 를 생성하는 단계(S213), 권리 이미지, 권리 이미지의 식별정보(S213 단계에서 생성된 것임), 권리 이미지에 대한 권리 및 사용 정의 데이터, 및 모델을 매핑하는 저장하는 단계(S215), 권리 이미지를 입력받아 머신 러닝 프로그램이 기계학습을 수행하여 권리 이미지마다 모델을 생성하는 단계(S202), S202 단계의 수행결과 권리 이미지마다 생성된 모델을 저장하는 단계(S204);를 포함할 수 있다. Receiving the right image to generate the identification information (S201), the first hash function receiving at least a portion of the image data constituting the right image to generate the identification information, generating a first hash value (S203) ), converting the right image into another image-a converted image-(S207), and receiving a second hash function as input as at least a part of image data constituting the converted image (S209). The third hash function receives at least a part of the image data constituting the right image to generate the identification information, and generates a third hash value (S205), and the fourth hash function of the image data constituting the converted image Step S211 of receiving at least a portion of the input and generating a fourth hash value, and identification information of the right image using the first hash value, the second hash value, the third hash value, and the fourth hash value-image identification Information-step of generating (S213), right image, identification information of the right image (which was generated in step S213), right and usage definition data for the right image, and storing (m215) of mapping a model (S215) The machine learning program may receive an image and perform machine learning to generate a model for each right image (S202), and as a result of performing the step S202, store the generated model for each right image (S204).

여기서, S215 단계는 S213 단계 이후에 수행되고, S213 단계는 S203 단계, S205 단계, S209 단계, 및 S211 단계 이후에 수행되고, S203 단계와 S205 단계는 S201 단계 이후에 수행되며, S209 단계와 S211 단계는 S207 단계 이후에 수행되며, S207 단계는 S201 단계 이후에 수행되며, S204 단계는 S202 단계 이후에 수행된다.Here, step S215 is performed after step S213, step S213 is performed after step S203, step S205, step S209, and step S211, steps S203 and step S205 are performed after step S201, and steps S209 and S211 Is performed after step S207, step S207 is performed after step S201, and step S204 is performed after step S202.

한편, 여기서, S203 단계와 S205 단계는 선후가 없고, S209 단계와 S211 단계는 선후가 없고, S203 단계와 S207 단계는 선후가 없고, S205 단계와 S207 단계는 선후가 없다. 또한, S202 단계 및 S204 단계는 S203 단계, S205 단계, S207 단계, S209 단계, S211 단계, S213 단계, 및 S215 단계와는 선후가 없다.On the other hand, here, steps S203 and S205 have no leading, steps S209 and S211 have no leading, steps S203 and S207 have no leading, and steps S205 and S207 have no leading. In addition, steps S202 and S204 have no precedence from steps S203, S205, S207, S209, S211, S213, and S215.

도 8을 참조하여 설명한 이미지 식별정보 생성 방법은 컴퓨터 프로세서와 메모리를 포함한 컴퓨터에 의해 구현될 수 있다. The method of generating image identification information described with reference to FIG. 8 may be implemented by a computer including a computer processor and memory.

이와 같이 본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.As described above, the present invention is not limited to the described embodiments, and it is obvious to those skilled in the art that various modifications and modifications can be made without departing from the spirit and scope of the present invention. Therefore, such modifications or variations will have to belong to the claims of the present invention.

1000: 딥 러닝 기반 권리 이미지 관리 시스템:
2000: 합성부
3000: 저장장치
1000: Deep learning based rights image management system:
2000: Synthesis
3000: storage

Claims (7)

권리 및 사용 정의 데이터가 있는 이미지들에 대한 식별정보를 생성하여 저장하는 딥 러닝 기반 권리 이미지 관리 시스템;
상기 딥 러닝 기반 권리 이미지 관리 시스템에 의해 권리 및 사용 정의 데이터가 구비된 이미지와 신규 이미지를 합성하는 합성부;
상기 합성부에 의해 합성된 합성 이미지 및 합성 이미지와 매핑된 권리 및 사용 정의 데이터를 저장하는 저장장치;를 포함하는 것을 특징으로 하는, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
A deep learning based rights image management system that generates and stores identification information on images with rights and usage definition data;
A synthesizing unit for synthesizing an image with rights and usage definition data and a new image by the deep learning-based rights image management system;
And a storage device for storing the synthesized image synthesized by the synthesizing unit and the rights and usage definition data mapped to the synthesized image.
제1항에 있어서,
상기 권리 및 사용 정의 데이터는 이미지에 대하여 권리가 있는지 여부, 권리자에 대한 정보, 및 이미지의 유료 또는 무료 사용 여부 중 적어도 하나 이상을 정의한 데이터인 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
According to claim 1,
The right and usage definition data is data defining at least one of whether there is a right to an image, information about the right holder, and whether to use the image for a fee or free of charge. .
제2항에 있어서,
상기 딥 러닝 권리 이미지 관리 시스템은
권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 제1해쉬함수에 입력하여 제1해쉬값을 생성하는 동작, 상기 권리 이미지를 다른 이미지 - 변환 이미지-로 변환하는 동작, 상기 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 제2해쉬함수에 입력하여 제2해쉬값을 생성하는 동작, 및 상기 제1해쉬값과 제2해쉬값을 이용하여 상기 권리 이미지의 식별정보 - 이미지 식별 정보 - 를 생성하는 동작을 수행하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
According to claim 2,
The deep learning rights image management system
Generating a first hash value by inputting at least a part of the image data constituting the right image into a first hash function, converting the right image into another image-a converted image-and image data constituting the converted image Generating a second hash value by inputting at least a portion of a second hash function, and generating an identification information-image identification information-of the right image using the first hash value and the second hash value A new image creation system through fusion of rights-confirmed images.
제3항에 있어서,
상기 딥 러닝 권리 이미지 관리 시스템은, 또한, 상기 권리 이미지를 구성하는 이미지 데이터의 적어도 일부를 제3해쉬함수에 입력하여, 제3해쉬값을 생성하는 동작을 수행하며,
상기 딥 러닝 권리 이미지 관리 시스템이 상기 이미지 식별 정보를 생성하는 동작은, 제1해쉬값, 제2해쉬값, 및 제3해쉬값을 이용하여 이미지 식별 정보를 생성하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
According to claim 3,
The deep learning right image management system also performs an operation of inputting at least a part of image data constituting the right image into a third hash function and generating a third hash value,
The operation in which the deep learning right image management system generates the image identification information is to generate image identification information using a first hash value, a second hash value, and a third hash value, and converging the verified image New image creation system through.
제4항에 있어서,
상기 딥 러닝 권리 이미지 관리 시스템은, 또한, 상기 변환 이미지를 구성하는 이미지 데이터의 적어도 일부를 제4해쉬함수에 입력하여 제4해쉬값을 생성하는 동작을 수행하며,
상기 딥 러닝 권리 이미지 관리 시스템이 상기 이미지 식별 정보를 생성하는 동작은, 제1해쉬값, 제2해쉬값, 제3해쉬값, 및 제4해쉬값을 이용하여 이미지 식별 정보를 생성하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
According to claim 4,
The deep learning rights image management system also performs an operation of generating a fourth hash value by inputting at least a part of image data constituting the converted image into a fourth hash function,
The operation of the deep learning rights image management system to generate the image identification information is to generate image identification information using a first hash value, a second hash value, a third hash value, and a fourth hash value, New image creation system through fusion of rights-confirmed images.
제2항 내지 제5항 중 어느 하나의 항에 있어서,
상기 딥 러닝 권리 이미지 관리 시스템은
상기 권리 이미지를 구성하는 이미지 데이터를 입력받아서, 상기 권리 이미지에 대한 모델을 생성하는 동작을 수행하며, 상기 모델을 생성하는 동작은 권리 이미지마다 모델을 생성하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
The method according to any one of claims 2 to 5,
The deep learning rights image management system
By receiving image data constituting the right image, an operation of generating a model for the right image is performed, and the operation of generating the model is to generate a model for each right image, through fusion of rights-confirmed images. New image creation system.
제6항에 있어서,
상기 딥 러닝 권리 이미지 관리 시스템은
상기 권리 이미지와 상기 권리 이미지의 식별정보를 서로 매핑시켜서 저장하는 동작을 수행하는 것인, 권리 확인된 이미지 융합을 통한 신규 이미지 생성 시스템.
The method of claim 6,
The deep learning rights image management system
A new image generation system through right-confirmed image fusion, which performs an operation of mapping and storing the right image and the identification information of the right image.
KR1020180173409A 2018-12-31 2018-12-31 New image generation system and method based on compositeness of legally identified images KR102221712B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180173409A KR102221712B1 (en) 2018-12-31 2018-12-31 New image generation system and method based on compositeness of legally identified images
KR1020210015290A KR102443200B1 (en) 2018-12-31 2021-02-03 New image generation system and method based on compositeness of legally identified images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180173409A KR102221712B1 (en) 2018-12-31 2018-12-31 New image generation system and method based on compositeness of legally identified images

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210015290A Division KR102443200B1 (en) 2018-12-31 2021-02-03 New image generation system and method based on compositeness of legally identified images

Publications (2)

Publication Number Publication Date
KR20200087334A true KR20200087334A (en) 2020-07-21
KR102221712B1 KR102221712B1 (en) 2021-03-02

Family

ID=71832606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180173409A KR102221712B1 (en) 2018-12-31 2018-12-31 New image generation system and method based on compositeness of legally identified images

Country Status (1)

Country Link
KR (1) KR102221712B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100889026B1 (en) * 2008-07-22 2009-03-17 김정태 Searching system using image
KR20100106252A (en) * 2010-06-24 2010-10-01 김성일 Managing system for contents
KR101690264B1 (en) 2010-10-15 2017-01-09 에스케이플래닛 주식회사 Method for multi code cognition and system
KR101710050B1 (en) 2014-10-30 2017-02-24 밍 추이 Image identification systems and method
KR20180122438A (en) * 2016-03-21 2018-11-12 페이스북, 인크. System and method for identifying matching content

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100889026B1 (en) * 2008-07-22 2009-03-17 김정태 Searching system using image
KR20100106252A (en) * 2010-06-24 2010-10-01 김성일 Managing system for contents
KR101690264B1 (en) 2010-10-15 2017-01-09 에스케이플래닛 주식회사 Method for multi code cognition and system
KR101710050B1 (en) 2014-10-30 2017-02-24 밍 추이 Image identification systems and method
KR20180122438A (en) * 2016-03-21 2018-11-12 페이스북, 인크. System and method for identifying matching content

Also Published As

Publication number Publication date
KR102221712B1 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
US10521505B2 (en) Cognitive mediator for generating blockchain smart contracts
US10984517B2 (en) Utilizing a machine learning model to automatically visually validate a user interface for multiple platforms
CN111310624B (en) Occlusion recognition method, occlusion recognition device, computer equipment and storage medium
TWI573093B (en) Method of establishing virtual makeup data, electronic device having method of establishing virtual makeup data and non-transitory computer readable storage medium thereof
CN111028305A (en) Expression generation method, device, equipment and storage medium
US11869129B2 (en) Learning apparatus and method for creating image and apparatus and method for image creation
US11574392B2 (en) Automatically merging people and objects from multiple digital images to generate a composite digital image
KR102584900B1 (en) Digital human generation system and method through face image search
CN115017911A (en) Cross-modal processing for vision and language
CN111612897B (en) Fusion method, device and equipment of three-dimensional model and readable storage medium
KR20230068989A (en) Method and electronic device for performing learning of multi-task model
KR20190064129A (en) Method for inputing information to computing apparatus and computing apparatus thereof
Venkateswara Reddy et al. Bio-inspired firefly algorithm for polygonal approximation on various shapes
CN117252947A (en) Image processing method, image processing apparatus, computer, storage medium, and program product
KR102316678B1 (en) Method and device for explainable few-shot image classification
KR102443200B1 (en) New image generation system and method based on compositeness of legally identified images
KR102270607B1 (en) Inspection system and method for right identification of images in website
KR102221712B1 (en) New image generation system and method based on compositeness of legally identified images
CN116431827A (en) Information processing method, information processing device, storage medium and computer equipment
KR102221711B1 (en) X-ray INSPECTION SYSTEM BY X-ray IMAGE OPTIMIZATION
KR102476334B1 (en) Diary generator using deep learning
KR101998200B1 (en) Same images identification information generation system
KR20210016011A (en) Image identification system using multi point hash values
CN111597453B (en) User image drawing method, device, computer equipment and computer readable storage medium
CN115205956A (en) Left and right eye detection model training method, method and device for identifying left and right eyes

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant