KR102313203B1 - Artificial intelligence content creation system and method - Google Patents

Artificial intelligence content creation system and method Download PDF

Info

Publication number
KR102313203B1
KR102313203B1 KR1020200097121A KR20200097121A KR102313203B1 KR 102313203 B1 KR102313203 B1 KR 102313203B1 KR 1020200097121 A KR1020200097121 A KR 1020200097121A KR 20200097121 A KR20200097121 A KR 20200097121A KR 102313203 B1 KR102313203 B1 KR 102313203B1
Authority
KR
South Korea
Prior art keywords
image
metadata
user
text
content
Prior art date
Application number
KR1020200097121A
Other languages
Korean (ko)
Inventor
정혜동
김보은
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020200097121A priority Critical patent/KR102313203B1/en
Application granted granted Critical
Publication of KR102313203B1 publication Critical patent/KR102313203B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4888Data services, e.g. news ticker for displaying teletext characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9206Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)

Abstract

An artificial intelligence content creation system and method are provided. According to the system and the method, in order to generate one-person content which has been increasing recently, when users create dynamic content such as videos, animations, and the like without the help of a separate expert or tool, image processing and natural language processing are performed from images and texts using artificial intelligence, and dynamic content can be automatically generated by extracting and analyzing metadata.

Description

인공지능 콘텐츠 창작 시스템 및 방법{Artificial intelligence content creation system and method}Artificial intelligence content creation system and method

본 발명은 인공지능 콘텐츠 창작 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 사용자가 창작물을 제작함에 있어 별도의 전문가나 툴의 도움 없이도, 인공지능을 이용하여 영상처리 및 자연어를 처리하고 메타데이터를 추출 및 분석하여 콘텐츠를 자동으로 생성할 수 있도록 하기 위한 시스템 및 방법에 관한 것이다.The present invention relates to an artificial intelligence content creation system and method, and more particularly, image processing and natural language processing and metadata extraction using artificial intelligence without the help of a separate expert or tool when a user creates a creation and systems and methods for automatically generating content by analysis.

과거에는 창작이 전문가의 영역으로 오랜 기간 동안 지속되어 왔으나 정보통신기술의 발전, 통신 성능의 향상, 콘텐츠 소비 문화의 변화 등으로 점치 개인의 영역으로 확대되고 있는 추세이다.In the past, creation has been continued as the domain of experts for a long time, but it is expanding into the domain of fortune-telling individuals due to the development of information and communication technology, improvement of communication performance, and changes in content consumption culture.

최근에는 창작의 방식이 사진, 동영상 등을 활용한 브이로그, 즉 비디오와 블로그의 결합이나, 웹툰, 이모티콘, 움직이는 그림 등 짧지만 위트 있고 함축적인 내용을 가진 콘텐츠로 확대되고 있으며 개인의 소재를 활용한 내용을 공감하며 나누는 콘텐츠로 생산되고 있는 추세이다.Recently, the creative method is expanding to content with short but witty and connotative contents, such as vlogs using photos and videos, that is, a combination of video and blogs, webtoons, emoticons, and moving pictures. It is a trend that is being produced as content that can be shared and sympathized with.

또한 다양한 소셜 네트워크 서비스(Social Network Service, SNS) 플랫폼의 확산으로 과거와 달리 1인 창작 영역으로 확대되어 SNS 플랫폼을 통해 게임방송, 브이로그 등 누구나 콘텐츠의 생산자가 될 수 있는 시대가 도래하였다.In addition, with the spread of various social network service (SNS) platforms, unlike in the past, it has expanded to a one-person creative field, and an era has arrived where anyone can become a content producer through SNS platforms, such as game broadcasting and vlogs.

그러나 콘텐츠 제작을 위해서는 사용자가 아이디어부터 스케치, 이미지 검색, 편집까지 모든 과정을 직접 거쳐야 하며, 현재 콘텐츠, 특히 모션이 있는 동영상 제작을 위해서는 포토샵, 일러스트레이터, 프리미어 등 전문 편집기를 사용하거나, 이러한 전문 편집기를 사용할 수 있는 전문가에게 맡겨 수행해야 하는데, 이러한 분야에 대한 전문적 교육을 받지 않은 일반 사용자는 전문 편집기를 사용하기 어려우며 비용이 부담으로 다가올 수 있다.However, in order to create content, users have to go through all the processes from idea to sketch, image search, and editing. It should be entrusted to a professional who can use the .

또한 전문 편집기를 활용한다 하더라도 최종 콘텐츠 제작에는 시간이 많이 소요되며, 특히 동영상의 경우에는 이미지 프레임을 각각 편집한 후 이어 붙여야 하기 때문에 작업량이 매우 많다.In addition, even if a professional editor is used, it takes a lot of time to produce the final content, and especially in the case of a video, the amount of work is very high because image frames need to be edited and then stitched together.

공개특허공보 제10-2019-0035502호Unexamined Patent Publication No. 10-2019-0035502

전술한 문제점을 해결하기 위해 본 발명이 이루고자 하는 과제는, 콘텐츠 제작에 있어 특정 이미지와 텍스트를 입력하거나 SNS 플랫폼 상에 입력한 텍스트를 인공지능을 기반으로 하여 분석하여 이미지와 텍스트의 메타데이터를 추출하고, 추출한 메타데이터를 통해 동적 콘텐츠, 그 중에서도 영상 및 애니메이션 등을 생성함으로써 아이디어 수준에서부터 완성도 높은 콘텐츠를 자동으로 생성하여 비전문가들의 창작을 지원하고, 적은 비용과 시간으로 고품질의 콘텐츠를 제작할 수 있도록 하는 데 있다.In order to solve the above problems, an object of the present invention is to extract metadata of images and texts by inputting specific images and texts in content production or by analyzing texts input on SNS platforms based on artificial intelligence. By creating dynamic content, especially videos and animations, from the extracted metadata, it automatically creates content from an idea level to high-quality content to support the creation of non-professionals and to produce high-quality content at low cost and time. there is

본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 과제들은 아래의 기재로부터 당업자가 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시예에 따르면, 인공지능 콘텐츠 창작 방법은, (a) 사용자가 생성할 콘텐츠와 관련된 텍스트 및 이미지를 입력하는 단계; (b) 인공지능을 기반으로 하여 사용자가 입력한 텍스트 및 사용자가 입력한 이미지 데이터의 메타데이터를 분석하여 각각 텍스트 메타데이터 및 이미지 메타데이터로 기록하는 단계; (c) 사용자가 입력한 이미지를 배경과 객체로 구분하여 텍스트 메타데이터에 따라 배경이 움직이도록 동적 이미지로 변경하는 배경 모션 생성 및 객체가 움직이도록 동적 이미지로 변경하는 객체 모션 생성 중 어느 하나 이상을 거쳐 동적 콘텐츠를 생성하는 단계; (d) 사용자가 상기 동적 콘텐츠를 보정하여 최종 저작물을 생성하는 단계; 및 (e) 보정하여 생성된 최종 저작물을 소셜 플랫폼 등에 배포하는 단계;를 포함한다.As a means for solving the above technical problem, according to an embodiment of the present invention, an artificial intelligence content creation method includes the steps of: (a) inputting text and images related to content to be generated by a user; (b) analyzing the metadata of the text input by the user and the image data input by the user based on artificial intelligence and recording the text metadata and image metadata, respectively; (c) Any one or more of the background motion generation that changes the image input by the user into a background and the object, and changes to a dynamic image so that the background moves according to text metadata, and object motion generation that changes the object to a dynamic image so that the object moves according to the text metadata generating dynamic content through (d) the user calibrating the dynamic content to create a final work; and (e) distributing the final work generated by correction to a social platform or the like.

상기 사용자가 입력한 텍스트는, 사용자가 사용자 단말의 입력 수단을 통해 입력하거나 사용자 단말에 저장된 텍스트 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자 단말의 입력 수단을 통해 입력한 텍스트 또는 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드 또는 다운로드한 이미지 등에 포함된 텍스트이다.The text input by the user is the text input by the user through the input means of the user terminal or the text stored in the user terminal The text inputted through the input means of the user terminal on the social platform linked with the user terminal or interlocking with the user terminal It is text included in an image uploaded or downloaded by the user on a social platform.

상기 사용자가 입력한 이미지는, 사용자가 사용자 단말의 입력 수단을 통해 입력하거나 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드 또는 다운로드한 이미지이다.The image input by the user is an image input by the user through an input means of the user terminal or uploaded or downloaded by the user on a social platform linked with the user terminal.

상기 (b)단계는, 상기 사용자가 입력한 텍스트에 대하여 인공지능을 기반으로 문장 분석, 여러 개의 복합 문장이 있는 문단 분석, 문단 분석 중 가장 중요한 문장을 추출, 여러 문장을 복합적으로 분석하는 등 텍스트 분석하여 액션정보, 객체정보, 배경정보, 글의 감성, 글의 분위기를 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 텍스트 메타데이터로 기록하는 텍스트 분석 단계; 및 상기 사용자가 입력한 이미지에 대하여 인공지능을 기반으로 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 이미지 메타데이터로 기록하는 이미지 분석 단계;를 포함한다. In step (b), text analysis based on artificial intelligence for the text input by the user, paragraph analysis with several compound sentences, extracting the most important sentence among paragraph analysis, and complex analysis of several sentences a text analysis step of analyzing and extracting action information, object information, background information, emotion of writing, and atmosphere of writing to generate metadata and recording it as text metadata in a database according to a predetermined format; and separating the background and foreground of the image based on artificial intelligence with respect to the image input by the user, and analyzing the image of a person's whole body, human face, animal, character, etc. in the image to obtain background and foreground information and feature points of objects and an image analysis step of extracting and generating metadata and recording it as image metadata in a database according to a predetermined format.

상기 이미지 분석 단계는, 상기 사용자가 입력한 이미지가 없는 경우에는 사용자 단말에 저장되거나 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드한 이미지 또는 데이터베이스에 저장된 이미지 중 상기 텍스트 메타데이터와 관련된 이미지를 검출하고, 검출된 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 이미지 메타데이터로 기록한다.In the image analysis step, when there is no image input by the user, an image related to the text metadata is detected from among images stored in a user terminal or uploaded by the user on a social platform linked to the user terminal or images stored in a database Separates the background and foreground of the detected image, analyzes the whole body of a person, a human face, an animal, a character, etc. in the image to extract background and foreground information and feature points of the object to generate metadata in a predetermined format according to the image metadata in the database.

상기 (c)단계는, 이미지 메타데이터 중 배경의 모션을 상기 배경의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 분위기에 따라 움직이도록 동적 이미지로 변경하는 배경 모션 생성; 및 이미지 메타데이터 중 객체의 신체 모션, 얼굴 표정 등을 상기 객체의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 액션 정보에 따라 움직이도록 동적 이미지로 변경하는 객체 모션 생성; 중 어느 하나 이상을 거쳐 동적 콘텐츠를 생성한다.The step (c) includes: generating a background motion for changing the motion of the background among the image metadata to a dynamic image so as to move according to the general action of the background or the atmosphere indicated in the text metadata; and object motion generation for changing the body motion and facial expression of the object in the image metadata into a dynamic image to move according to the general action of the object or action information indicated in the text metadata; Dynamic content is created through one or more of these.

상기 (d)단계는, 생성된 동적 콘텐츠에 대해서 서비스 제공 서버에서 제공하는 타임라인, 다중 레이어 등의 기능을 사용 하여 배경 모션 및 객체 모션의 움직임 요소의 추가, 삭제, 변경이나 새로운 요소의 추가 등 편집을 가하여 최종 저작물을 생성한다.In step (d), adding, deleting, changing, or adding new elements of background motion and object motion using functions such as timeline and multi-layer provided by the service providing server for the generated dynamic content. Edits are made to create the final work.

상기 (e)단계는, 상기 최종 저작물을 사용자 단말과 연동된 소셜 플랫폼 등에 업로드하기 용이한 형태로 저장하고, 상기 최종 저작물을 상기 소셜 플랫폼 등에 바로 업로드 하거나 메신저로 전송할 수 있도록 사용자 단말을 네트워크에 연동한다.In the step (e), the final work is stored in a form that is easy to upload to a social platform linked with the user terminal, and the user terminal is linked to the network so that the final work can be directly uploaded to the social platform or transmitted via a messenger. do.

한편, 본 발명의 다른 실시예에 따르면, 인공지능 콘텐츠 창작 시스템에 있어서, 사용자가 생성할 콘텐츠와 관련된 텍스트 및 이미지를 입력받아 데이터를 분류하고, 서비스 제공 서버에 데이터를 전송하고 생성된 콘텐츠를 수신, 보정하고 소셜 플랫폼에 업로드할 수 있도록 하는 사용자 단말; 인공지능을 기반으로 하여 사용자가 입력한 텍스트 및 사용자가 입력한 이미지 데이터의 메타데이터를 분석하여 각각 텍스트 메타데이터 및 이미지 메타데이터를 추출하여 데이터베이스에 기록하고, 기록된 메타데이터를 활용하여 동적 콘텐츠를 생성하여 사용자 단말에 전송하는 인공지능 모듈; 상기 동적 콘텐츠 생성에 사용되는 툴을 제어하고, 인공지능 모듈과 연동하여 통신하는 저작 툴 제어부; 및 창착물 생성에 필요한 이미지, 애니메이션 등의 데이터베이스, 추출한 메타데이터, 생성된 데이터를 저장하는 저장부;를 포함한다.Meanwhile, according to another embodiment of the present invention, in an artificial intelligence content creation system, a user receives text and images related to content to be generated, classifies data, transmits data to a service providing server, and receives the generated content , a user terminal that allows you to calibrate and upload to social platforms; Based on artificial intelligence, it analyzes the metadata of the text entered by the user and the image data entered by the user, extracts the text metadata and image metadata, respectively, and records them in the database, and uses the recorded metadata to create dynamic content. Artificial intelligence module for generating and transmitting to the user terminal; an authoring tool control unit that controls a tool used for generating the dynamic content and communicates with an artificial intelligence module; and a storage unit for storing a database such as images and animations required for creation of a creation, extracted metadata, and generated data.

상기 사용자 단말은, 사용자가 생성할 콘텐츠와 관련된 텍스트 및 이미지를 사용자로부터 입력 받고, 생성된 동적 콘텐츠를 서비스 제공 서버로부터 수신하는 데이터 수신부; 및 서비스 제공 서버에 데이터를 전송하고 생성된 콘텐츠를 수신하고 사용자가 보정하여 생성된 최종 저작물을 소셜 플랫폼에 업로드 하도록 유무선으로 연결하는 통신부;를 포함한다.The user terminal may include: a data receiving unit for receiving text and images related to content to be generated by the user from the user, and receiving the generated dynamic content from a service providing server; and a communication unit that transmits data to the service providing server, receives the generated content, and connects via wire or wireless to upload the final work created by correction by the user to the social platform.

상기 사용자가 입력한 텍스트는, 사용자가 사용자 단말의 입력 수단을 통해 입력하거나 사용자 단말에 저장된 텍스트 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자 단말의 입력 수단을 통해 입력한 텍스트 또는 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드 또는 다운로드한 이미지 등에 포함된 텍스트이다.The text input by the user is the text input by the user through the input means of the user terminal or the text stored in the user terminal The text inputted through the input means of the user terminal on the social platform linked with the user terminal or interlocking with the user terminal It is text included in an image uploaded or downloaded by the user on a social platform.

상기 사용자가 입력한 이미지는, 사용자가 사용자 단말의 입력 수단을 통해 입력하거나 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드 또는 다운로드한 이미지이다.The image input by the user is an image input by the user through an input means of the user terminal or uploaded or downloaded by the user on a social platform linked with the user terminal.

상기 인공지능 모듈은, 사용자가 입력한 텍스트 데이터의 메타데이터를 분석하여 텍스트 메타데이터를 추출하여 상기 저장부에 기록하는 텍스트 메타데이터 추출부; 사용자가 입력한 이미지 데이터의 메타데이터를 분석하여 이미지 메타데이터를 추출하여 상기 저장부에 기록하는 이미지 메타데이터 추출부; 상기 저장부에 기록된 텍스트 메타데이터 및 이미지 메타데이터를 활용하여 동적 콘텐츠를 생성하여 상기 저장부에 기록하는 콘텐츠 자동 생성부; 및 상기 저작 툴 제어부, 상기 저장부, 상기 사용자 단말과 데이터를 송수신할 수 있도록 연결하는 통신부;를 포함한다.The artificial intelligence module may include: a text metadata extractor that analyzes metadata of text data input by a user, extracts text metadata, and records it in the storage unit; an image metadata extracting unit that analyzes metadata of image data input by a user, extracts image metadata, and records it in the storage unit; a content automatic generation unit for generating dynamic content by using the text metadata and image metadata recorded in the storage unit and recording it in the storage unit; and a communication unit connecting the authoring tool control unit, the storage unit, and the user terminal to transmit and receive data.

상기 텍스트 메타데이터 추출부는, 상기 사용자가 입력한 텍스트에 대하여 인공지능을 기반으로 문장 분석, 여러 개의 복합 문장이 있는 문단 분석, 문단 분석 중 가장 중요한 문장을 추출, 여러 문장을 복합적으로 분석하는 등 텍스트 분석하여 액션정보, 객체정보, 배경정보, 글의 감성, 글의 분위기를 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 텍스트 메타데이터로 기록한다.The text metadata extraction unit is configured to analyze the text input by the user based on artificial intelligence, analyze a paragraph having multiple compound sentences, extract the most important sentence among paragraph analysis, and analyze several sentences in a complex manner. It analyzes and extracts action information, object information, background information, emotion of writing, and atmosphere of writing to generate metadata and records it as text metadata in the database according to a predetermined format.

상기 이미지 메타데이터 추출부는, 상기 사용자가 입력한 이미지에 대하여 인공지능을 기반으로 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 이미지 메타데이터로 기록한다.The image metadata extraction unit separates the background and foreground of the image based on artificial intelligence with respect to the image input by the user, and analyzes the image of a person's whole body, human face, animal, character, etc. in the image to obtain the background and foreground Information and feature points of objects are extracted to generate metadata, and are recorded as image metadata in a database according to a predetermined format.

상기 이미지 메타데이터 추출부는, 상기 사용자가 입력한 이미지가 없는 경우에는 사용자 단말에 저장되거나 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드한 이미지 또는 데이터베이스에 저장된 이미지 중 상기 텍스트 메타데이터와 관련된 이미지를 검출하고, 검출된 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 이미지 메타데이터로 기록한다.The image metadata extracting unit may include, when there is no image input by the user, an image related to the text metadata among images stored in a user terminal or uploaded by the user on a social platform linked to the user terminal or images stored in a database detection, separating the background and foreground of the detected image, and analyzing the image of a person's whole body, human face, animal, character, etc. in the image to extract background and foreground information and feature points of the object to generate metadata Write the image metadata to the database according to the form.

상기 콘텐츠 자동 생성부는, 이미지 메타데이터 중 배경의 모션을 상기 배경의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 분위기에 따라 움직이도록 동적 이미지로 변경하는 배경 모션 생성; 및 이미지 메타데이터 중 객체의 신체 모션, 얼굴 표정 등을 상기 객체의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 액션 정보에 따라 움직이도록 동적 이미지로 변경하는 객체 모션 생성; 중 어느 하나 이상을 거쳐 동적 콘텐츠를 생성한다.The automatic content generating unit may include: generating a background motion for changing a motion of a background among image metadata into a dynamic image so as to move according to a general action of the background or an atmosphere indicated in the text metadata; and object motion generation for changing the body motion and facial expression of the object in the image metadata into a dynamic image to move according to the general action of the object or action information indicated in the text metadata; Dynamic content is created through one or more of these.

본 발명에 따르면,According to the present invention,

콘텐츠 제작에 있어 특정 이미지와 텍스트를 입력하거나 SNS 플랫폼 상에 입력한 텍스트를 인공지능을 기반으로 하여 분석하여 이미지와 텍스트의 메타데이터를 추출하고, 추출한 메타데이터를 통해 동적 콘텐츠, 그 중에서도 영상 및 애니메이션 등을 생성함으로써 아이디어 수준에서부터 완성도 높은 콘텐츠를 자동으로 생성하여 비전문가들의 창작을 지원하고, 적은 비용과 시간으로 고품질의 콘텐츠를 제작 수 있도록 할 수 있다.In content creation, specific images and texts are input or text entered on the SNS platform is analyzed based on artificial intelligence to extract the metadata of images and texts, and dynamic content, especially videos and animations, through the extracted metadata By automatically creating content from an idea level to a high-quality content, it is possible to support the creation of non-professionals and to produce high-quality content with little cost and time.

또한 푸드, 뷰티, 게임, 만화 등의 인기 테마에서장르의 세분화 및 다양화로 신선하고 재미있는 콘텐츠를 원하는 이용자들의 욕구와 맞물려 급성장 할 수 있다.In addition, by segmenting and diversifying genres in popular themes such as food, beauty, games, and cartoons, it can grow rapidly in line with users' desire for fresh and interesting content.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 의한 인공지능 콘텐츠 창작 시스템 및 방법의 주요 기능을 나타낸 예시도,
도 2는 본 발명의 일 실시예에 의한 인공지능 콘텐츠 창작 방법의 순서도,
도 3은 본 발명의 일 실시예에 의한 인공지능 콘텐츠 창작 방법의 순서도,
도 4는 본 발명의 일 실시예에 의한 인공지능 콘텐츠 창작 방법의 순서도,
도 5는 본 발명의 일 실시예에 의한 인공지능 콘텐츠 창작 시스템의 구성도이다.
1 is an exemplary diagram showing the main functions of an artificial intelligence content creation system and method according to an embodiment of the present invention;
2 is a flowchart of an artificial intelligence content creation method according to an embodiment of the present invention;
3 is a flowchart of an artificial intelligence content creation method according to an embodiment of the present invention;
4 is a flowchart of an artificial intelligence content creation method according to an embodiment of the present invention;
5 is a block diagram of an artificial intelligence content creation system according to an embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록, 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art.

본 명세서에서 제1, 제2 등의 용어가 구성요소들을 기술하기 위해서 사용된 경우, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시 예들은 그것의 상보적인 실시 예들도 포함한다.In this specification, when terms such as first, second, etc. are used to describe components, these components should not be limited by these terms. These terms are only used to distinguish one component from another. The embodiments described and illustrated herein also include complementary embodiments thereof.

또한, 어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다. Further, when it is stated that any element, component, device, or system includes a component consisting of a program or software, even if not explicitly stated, that element, component, device, or system means that the program or software is executed. Alternatively, it should be understood to include hardware (eg, memory, CPU, etc.) necessary for operation or other programs or software (eg, drivers necessary for operating an operating system or hardware, etc.).

또한 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. Also, the terms used herein are for the purpose of describing the embodiments and are not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, the terms 'comprises' and/or 'comprising' do not exclude the presence or addition of one or more other components.

또한, 본 명세서에 기재된 '…부', '…기', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, '일', '하나' 및 '그' 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.In addition, the '... wealth', '… Terms such as 'group' and 'module' mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. In addition, articles such as 'a', 'an' and 'the' in the context of describing the present invention are meant to include both the singular and the plural unless otherwise indicated herein or clearly contradicted by the context in the context of describing the present invention. can be used

아래의 특정 실시 예들을 기술하는 데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용이 없어도 사용될 수 있다는 것을 인지할 수 있다. In describing the specific embodiments below, various specific contents have been prepared to more specifically describe the invention and help understanding. However, a reader having enough knowledge in this field to understand the present invention may recognize that it can be used without these various specific details.

어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다. In some cases, it is mentioned in advance that in describing the invention, parts that are commonly known and not largely related to the invention are not described in order to avoid confusion for no reason in explaining the invention.

이하, 본 발명에서 실시하고자 하는 구체적인 기술 내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, specific technical contents to be practiced in the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 의한 인공지능 콘텐츠 창작 시스템 및 방법의 주요 기능을 나타낸 예시도이다.1 is an exemplary diagram illustrating main functions of an artificial intelligence content creation system and method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 의한 인공지능 콘텐츠 창작 방법은, AI를 기반으로 하여 텍스트 및 이미지의 메타데이터를 분석하여 AI를 기반으로 자동 저작 기능을 가지는 것을 주된 내용으로 한다.Referring to FIG. 1 , the artificial intelligence content creation method according to an embodiment of the present invention has an automatic authoring function based on AI by analyzing metadata of text and images based on AI.

여기서 메타데이터의 분석은, 텍스트 분석을 기반으로 메타데이터 추출하여 객체/배경 정보, 액션 정보, 글의 감성/분위기 등 메타데이터를 추출하며, 영상 또는 이미지 내의 주요 객체의 키포인트 추출은 이미지로부터 AI을 통하여 인간의 신체 모션이나, 얼굴 표정, 동물의 모션 등의 키포인트를 추출한다.Here, the analysis of metadata extracts metadata such as object/background information, action information, and emotion/atmosphere of text by extracting metadata based on text analysis. Through this, key points such as human body motion, facial expression, and animal motion are extracted.

또한, 자동 저작 기능은 크게 동적 콘텐츠 자동 생성, 스케치 기반 캐릭터 자동 생성, 감정 기반 삽화 자동 변환의 세 가지로 나뉠 수 있다.In addition, the automatic authoring function can be largely divided into three types: automatic creation of dynamic content, automatic creation of sketch-based characters, and automatic conversion of emotion-based illustrations.

여기서 동적 콘텐츠 자동 생성은, 이미지에서 배경을 선택하여 뉴럴넷 기반 예측을 통해 배경 모션의 시퀀스를 생성하여 배경이 움직이는 동적 콘텐츠를 생성할 수 있으며, 이미지에서 인간, 동물 등의 객체를 선택하여 뉴럴넷 기반 예측을 통해 객체 액션의 시퀀스를 생성하여 객체가 움직이는 동적 콘텐츠를 생성할 수 있다.Here, the automatic creation of dynamic content can generate dynamic content with moving background by generating a sequence of background motion through neural net-based prediction by selecting a background from an image. By creating a sequence of object actions, you can create dynamic content in which objects move.

또한 배경과 객체가 모두 움직이는 동적 콘텐츠도 물론 생성할 수 있다.You can of course also create dynamic content in which both the background and the object move.

여기서 스케치 기반 캐릭터 자동 생성은, 사용자가 창작한 스케치를 입력하면 뉴럴넷 기반 변환을 통해 캐릭터 모델, 비슷한 실사 등을 생성할 수 있다.Here, in the automatic sketch-based character creation, when a user inputs a created sketch, a character model, a similar live-action image, etc. can be generated through neural net-based transformation.

여기서 감정기반 삽화 자동 변환은, 입력된 이미지를 입력된 텍스트에서 검출된 글의 분위기에 따라 뉴럴넷 기반 변환하여 분위기에 적합한 화풍으로 변경할 수 있고, 입력된 이미지를 입력된 텍스트에서 검출된 글의 분위기에 따라 뉴럴넷 기반 효과 선정 및 overlay(오버레이)를 통해 분위기에 적합한 그래픽 효과로 이미지를 변경할 수 있다.Here, the emotion-based illustration automatic conversion can change the input image into a style suitable for the mood by converting the input image based on the neural net according to the mood of the text detected in the input text, and change the input image to the mood of the text detected in the input text. Accordingly, the image can be changed to a graphic effect suitable for the atmosphere through neural net-based effect selection and overlay.

이하 본 발명의 실시예에 의한 인공지능 콘텐츠 창작 시스템 및 방법에 대한 실시예를 나타낸다.Hereinafter, an embodiment of an artificial intelligence content creation system and method according to an embodiment of the present invention is shown.

도 2는 본 발명의 일 실시예에 의한 인공지능 콘텐츠 창작 방법의 순서도이다.2 is a flowchart of an artificial intelligence content creation method according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 의한 인공지능 콘텐츠 창작 방법은 사용자가 텍스트 및 이미지를 입력하는 단계(S100), 인공지능 기반 메타데이터 분석 및 기록하는 단계(S200), 창작물 생성하는 단계(S300), 사용자가 보정하는 단계(S400), 저작물을 배포하는 단계(S400)를 포함한다.Referring to FIG. 2 , the artificial intelligence content creation method according to an embodiment of the present invention includes the steps of inputting text and images by the user (S100), analyzing and recording artificial intelligence-based metadata (S200), and creating a creation (S300), a step of correcting the user (S400), and a step of distributing the work (S400).

여기서 입력하는 단계(S100)는, 콘텐츠 생성을 위해 생성할 콘텐츠와 관련된 텍스트와 이미지를 사용자가 입력한다. In the inputting step ( S100 ), the user inputs text and images related to content to be created for content creation.

여기서 사용자가 입력한 텍스트는 사용자가 사용자 단말의 입력 수단을 통해 직접 입력하거나 사용자 단말에 저장된 텍스트, 이러한 사용자 단말과 연동된 SNS 등 소셜 플랫폼 상에서 상기 사용자 단말의 입력 수단을 통해 입력한 텍스트일 수 있고, 또는 이러한 사용자 단말과 연동된 SNS 등 소셜 플랫폼 상에서 사용자가 업로드 또는 다운로드 한 이미지 등에 포함된 텍스트일 수 있다.Here, the text input by the user may be a text input by the user directly through the input means of the user terminal, text stored in the user terminal, or text input through the input means of the user terminal on a social platform such as SNS linked to the user terminal, , or it may be text included in an image uploaded or downloaded by a user on a social platform such as SNS linked with such a user terminal.

여기서 소셜 플랫폼은 SNS(소셜 네트워크 서비스) 또는 메신저 등이 포함될 수 있다.Here, the social platform may include a social network service (SNS) or a messenger.

따라서 이러한 텍스트는 사용자 등이 작성한 블로그의 글, 메신저 대화에 사용된 문장, e-book에 포함된 글 등이 될 수 있다. Accordingly, such text may be a blog post written by a user, etc., a sentence used in a messenger conversation, or an article included in an e-book.

여기서 사용자가 입력한 이미지는, 동적 콘텐츠를 생성하기 위해 주요 객체 및 배경을 포함하는 정적 이미지 중 어느 하나 이상일 수 있다.Here, the image input by the user may be any one or more of a static image including a main object and a background in order to generate dynamic content.

이러한 이미지 또한 사용자가 사용자 단말의 입력 수단을 통해 직접 입력하거나 사용자 단말에 저장된 이미지, 이러한 사용자 단말과 연동된 SNS 등 소셜 플랫폼 상에서 사용자가 업로드 또는 다운로드 한 이미지 등이 포함될 수 있다.These images may also include images that the user directly input through the input means of the user terminal or stored in the user terminal, images uploaded or downloaded by the user on social platforms such as SNS linked with the user terminal.

따라서 이러한 이미지는 사용자 단말에 저장된 사진 등이 될 수 있다. Therefore, such an image may be a picture stored in the user terminal.

도 3은 본 발명의 일 실시예에 의한 인공지능 콘텐츠 창작 방법의 순서도이다.3 is a flowchart of an artificial intelligence content creation method according to an embodiment of the present invention.

도 3은, 도 2의 메타데이터 분석 및 기록하는 단계(S200)를 세분화하여 설명한다.FIG. 3 is a detailed description of the step S200 of analyzing and recording the metadata of FIG. 2 .

여기서 메타데이터 분석 및 기록하는 단계(S200)는, 인공지능을 기반으로 하여 사용자가 입력한 텍스트 및 사용자가 입력한 이미지 데이터의 메타데이터를 분석하여 각각 텍스트 메타데이터 및 이미지 메타데이터로 기록한다.Here, in the step of analyzing and recording the metadata ( S200 ), based on artificial intelligence, the metadata of the text input by the user and the image data input by the user are analyzed and recorded as text metadata and image metadata, respectively.

여기서 메타데이터 분석 및 기록하는 단계(S200)는, 텍스트의 메타데이터를 분석하는 텍스트 분석 단계(S221), 이미지의 메타데이터를 분석하는 이미지 분석 단계(S222)를 포함할 수 있다.Here, the step of analyzing and recording the metadata ( S200 ) may include a text analysis step ( S221 ) of analyzing the metadata of the text, and an image analysis step ( S222 ) of analyzing the metadata of the image.

여기서 텍스트 분석 단계(S221)에서는, 사용자가 입력한 텍스트에 대하여 인공지능을 기반으로 문장 분석, 여러 개의 복합 문장이 있는 문단 분석, 문단 분석 중 가장 중요한 문장을 추출, 여러 문장을 복합적으로 분석하는 등 텍스트 분석을 통해 액션정보, 객체정보, 배경정보, 글의 감성, 글의 분위기를 추출하여 메타데이터를 생성할 수 있다.Here, in the text analysis step (S221), analysis of the text input by the user based on artificial intelligence, paragraph analysis with multiple compound sentences, extracting the most important sentence among paragraph analysis, complex analysis of multiple sentences, etc. Through text analysis, metadata can be created by extracting action information, object information, background information, the emotion of the text, and the mood of the text.

여기서 이미지 분석 단계(S222)에서는, 사용자가 입력한 이미지에 대하여 인공지능을 기반으로 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터, 스케치, 삽화 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 메타데이터를 생성할 수 있다.Here, in the image analysis step (S222), the background and foreground of the image are separated based on artificial intelligence for the image input by the user, and the whole body of a person, a human face, an animal, a character, a sketch, an illustration, etc. in the image are imaged. Metadata can be generated by analyzing and extracting background and foreground information and feature points of objects.

여기서 객체의 특징점은 신체의 모션, 포즈나 얼굴의 표정, 얼굴 내 눈, 코, 입의 모양 등이 될 수 있다.Here, the feature point of the object may be a body motion, a pose or facial expression, and the shape of the eyes, nose, and mouth in the face.

다만 메타데이터 분석 및 기록 단계(S200)에서는 입력하는 단계(S100)에서 사용자가 입력한 데이터 중 이미지 데이터가 존재하는지 먼저 확인하여(S210), 입력된 데이터 중 입력된 이미지가 있는 경우에는 인공지능 기반 텍스트/이미지 메타데이터 분석 단계(S220), 즉 텍스트 분석 단계(S221) 및 이미지 분석 단계(S222)는 그대로 진행된다.However, in the metadata analysis and recording step (S200), it is first checked whether image data exists among the data input by the user in the input step (S100) (S210), and if there is an input image among the input data, the AI-based The text/image metadata analysis step (S220), that is, the text analysis step (S221) and the image analysis step (S222) proceeds as it is.

다만, 입력된 이미지가 없는 경우에는 인공지능을 기반으로 하여 입력된 텍스트의 메타데이터를 먼저 분석하고(S211), 분석 결과 도출된 객체 및 배경 정보에 따라 데이터베이스에서 입력된 텍스트에 맞는 이미지를 검색하여 저장하고(S212), 검색하여 저장된 이미지를 사용자가 입력한 이미지로 보아 인공지능 기반 텍스트/이미지 메타데이터 분석 단계(S220), 즉 텍스트 분석 단계(S221) 및 이미지 분석 단계(S222)가 진행된다.However, if there is no input image, the metadata of the input text is first analyzed based on artificial intelligence (S211), and an image matching the input text is searched from the database according to the object and background information derived from the analysis result. The AI-based text/image metadata analysis step (S220), that is, the text analysis step (S221) and the image analysis step (S222), is performed by storing (S212), searching and viewing the stored image as an image input by the user.

즉, 텍스트 분석 단계(S221)는 이미지 유무와 무관하게 진행되고, 이미지 분석 단계(S222)는 이미지가 없으면 텍스트 분석 단계(S221)에서 분석된 메타데이터 결과에 따라 데이터베이스에서 로드된 이미지를 기준으로 진행된다.That is, the text analysis step (S221) proceeds regardless of the presence or absence of an image, and if there is no image, the image analysis step (S222) proceeds based on the image loaded from the database according to the result of the metadata analyzed in the text analysis step (S221) do.

여기서 데이터베이스에는 저작권의 문제가 없는 이미지를 수집하여야 할 것이다.Here, the database should collect images that do not have copyright issues.

여기서 데이터베이스에 수집되어 있는 객체, 배경, 분위기 등 정보가 태깅되어 있을 수 있다.Here, information such as objects, backgrounds, and atmospheres collected in the database may be tagged.

여기서 텍스트 분석 단계(S221) 및 이미지 분석 단계(S222)에서는 생성된 메타데이터를 소정의 양식에 따라 데이터베이스에 각각 텍스트 메타데이터 및 이미지 메타데이터로 기록할 수 있다.Here, in the text analysis step S221 and the image analysis step S222 , the generated metadata may be recorded in the database as text metadata and image metadata, respectively, according to a predetermined format.

도 4는 본 발명의 동적 콘텐츠 생성하는 일 실시예에 의한 인공지능 콘텐츠 창작 방법의 순서도이다.4 is a flowchart of an artificial intelligence content creation method according to an embodiment of generating dynamic content of the present invention.

도 4는, 도 3의 창작물 생성하는 단계(S300)를 세분화하여 설명한다.4 is a detailed description of the creative creation step (S300) of FIG.

도 4는, 창작물 중 동적 콘텐츠를 생성하는 경우를 나타낸다.4 illustrates a case in which dynamic content is generated among creations.

도 4를 참조하면, 메타데이터 분석 단계(S200)에서 분석된 메타데이터에 따라 이미지를 기초로 하여 동영상을 생성(S300)한다.Referring to FIG. 4 , a video is generated based on the image according to the metadata analyzed in the metadata analysis step S200 ( S300 ).

먼저, 이미지 메타데이터를 기준으로 배경과 객체를 분리한다.First, the background and the object are separated based on the image metadata.

여기서 배경은 이미지 메타데이터 중 전경 분리 정보, 객체/배경 정보에 따라 분리될 수 있다.Here, the background may be separated according to foreground separation information and object/background information among image metadata.

여기서 분리된 배경의 모션은 해당 배경의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 액션 정보, 글의 감성, 글의 분위기에 따라 움직이도록 동적 이미지로 변경되어 배경 모션 동영상(배경 모션)을 생성한다(S311). Here, the motion of the separated background is changed to a dynamic image to move according to the general action of the background or action information shown in the text metadata, the emotion of the text, and the atmosphere of the text to generate a background motion video (background motion) (S311) .

여기서 객체는 이미지 메타데이터 중 액션 정보, 특징점 정보에 따라 분리될 수 있다.Here, the object may be divided according to action information and feature point information among image metadata.

여기서 분리된 객체의 신체 모션, 얼굴 표정 등은 상기 객체의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 액션 정보, 글의 감성, 글의 분위기에 따라 움직이도록 동적 이미지로 변경되어 객체 모션 동영상(객체 모션)을 생성한다(S312).Here, the body motion, facial expression, etc. of the separated object are changed to a dynamic image to move according to the general action of the object or action information shown in text metadata, the emotion of the text, and the atmosphere of the text to generate an object motion video (object motion). generated (S312).

이러한 배경 모션 생성(S311) 및 객체 모션 생성(S312)은 둘 다 수행될 수도 있고 둘 중 하나만 수행될 수도 있다.Both of these background motion generation (S311) and object motion generation (S312) may be performed or only one of them may be performed.

이러한 생성 과정을 거쳐 이미지로부터 동적 콘텐츠를 생성(S313)할 수 있다.Through this generation process, dynamic content may be generated from the image (S313).

이에 따라 메신저 또는 e-book 등에서 분석하는 글에 맞는 동적 영상을 생성하고자 하는 경우 텍스트 메타데이터에 나타난 글의 객체, 글의 배경, 액션 정보 등을 통하여 모션 동영상을 생성할 수 있다.Accordingly, if you want to create a dynamic image suitable for an article analyzed in a messenger or e-book, etc., a motion video may be created through the object of the article, the background of the article, action information, etc. displayed in the text metadata.

예를 들어, 메신저에서 “오늘 줄넘기를 했다”고 입력(S100)하면 텍스트로부터 “줄넘기”라는 액션 정보를 추출하여 텍스트 메타데이터로 기록(S211)하고, 사용자의 휴대폰 저장 공간에 있는 사용자의 사진을 불러와(S212) 줄넘기 모션을 하는 동영상을 생성(S313)할 수 있다.For example, if you input “I skipped the rope today” in the messenger (S100), the action information of “jumping the rope” is extracted from the text and recorded as text metadata (S211), and the user's photo in the user's cell phone storage space is recorded (S211). It can be called (S212) to create a video of jumping rope motion (S313).

또한 예를 들어, 동화책(e-book)(S100)에서 동화책 그림(이미지)과 내용(텍스트)을 각각 추출하고, 텍스트로부터 객체 정보를 추출(S220)하여 그림 내 해당 객체가 움직이는 동영상을 생성(S313)할 수 있다.Also, for example, a picture (image) and content (text) of a children's book are extracted from a children's book (e-book) (S100), and object information is extracted from the text (S220) to generate a moving picture of the object in the picture ( S313) can be done.

도 5는 본 발명의 스케치 기반 이미지 콘텐츠 생성하는 일 실시예에 의한 인공지능 콘텐츠 창작 방법의 순서도이다.5 is a flowchart of an artificial intelligence content creation method according to an embodiment of the present invention for generating sketch-based image content.

도 3, 도 4, 도 5를 참조하면, 창작물 생성 단계(S300) 이후에 창작물 생성 단계(S300)에서 생성된 창작물에 대해 사용자 보정 단계(S400), 저장물 배포 단계(S500) 등이 수행될 수 있다.3, 4 and 5, after the creation step (S300), the user correction step (S400), the storage distribution step (S500), etc. for the creation created in the creation creation step (S300) will be performed. can

여기서 사용자 보정 단계(S400)는, 창작물을 자동으로 생성한 이후 사용자의 편집을 통해 세부 보정이 가능하다. Here, in the user correction step (S400), detailed correction is possible through user editing after the creation is automatically created.

여기서 사용자는 타임라인, 다중레이어 기능 등을 사용하여 동적 콘텐츠, 스케치 기반 이미지 콘텐츠, 삽화 콘텐츠 등을 보정할 수 있다.Here, users can calibrate dynamic content, sketch-based image content, illustration content, etc. using the timeline, multi-layer function, etc.

여기서 사용자는 생성된 동적 콘텐츠에 대해서 서비스 제공 서버에서 제공하는 타임라인, 다중 레이어 등의 기능을 사용 하여 배경 모션 및 객체 모션의 움직임 요소의 추가, 삭제, 변경은 물론이고, 별도 이미지 또는 텍스트 등의 새로운 요소의 추가, 배경의 삭제, 객체의 전부 또는 일부의 삭제 등 편집을 가하여 최종 저작물을 생성할 수 있다.Here, the user can add, delete, and change motion elements of background motion and object motion, as well as separate images or text, using functions such as timeline and multi-layer provided by the service providing server for the generated dynamic content. The final work can be created by editing such as adding new elements, deleting backgrounds, or deleting all or part of an object.

여기서 사용자는 생성된 동적 콘텐츠에 대해 보정 없이 최종 저작물로 확정할 수도 있다.Here, the user may confirm the generated dynamic content as a final work without correction.

여기서 저작물 배포 단계(S500)는, 생성한 저작물을 SNS 등에 바로 업로드 하거나 메신저로 전송할 수 있도록 연동한다.Here, the work distribution step (S500) is linked so that the created work can be directly uploaded to SNS or transmitted through a messenger.

여기서 저작물을 업로드하기 용이한 형태로 저장할 수 있다.Here, you can save the work in a format that is easy to upload.

여기서 최종 저작물을 사용자 단말과 연동된 소셜 플랫폼 등에 업로드하기 용이한 형태로 저장하고, 상기 최종 저작물을 상기 소셜 플랫폼 등에 바로 업로드 하거나 메신저로 전송할 수 있도록 사용자 단말을 네트워크에 연동하는 것을 포함할 수 있다.Here, storing the final work in a form that is easy to upload to a social platform interlocked with the user terminal, etc., and directly uploading the final work to the social platform or the like, or linking the user terminal to a network may include interworking with a network.

여기서 사용자는 최종 저작물을 SNS등을 통하여 배포하여 사용할 수 있다.Here, the user can distribute and use the final work through SNS, etc.

도 5는 본 발명의 일 실시예에 의한 인공지능 콘텐츠 창작 시스템의 구성도이다.5 is a block diagram of an artificial intelligence content creation system according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 의한 인공지능 콘텐츠 창작 시스템은 데이터를 수신 및 분류하고 서비스 제공 서버(1000)와 통신하는 사용자 단말(10), 인공지능 기반 자동 저작 기능을 제공하는 서비스 제공 서버(1000)로 구성된다.Referring to FIG. 5 , the artificial intelligence content creation system according to an embodiment of the present invention receives and classifies data, and a user terminal 10 that communicates with the service providing server 1000, a service providing an artificial intelligence-based automatic authoring function It consists of a providing server (1000).

여기서 사용자 단말(10)은, 사용자가 생성할 콘텐츠와 관련된 텍스트 및 이미지를 입력받아 데이터를 분류하고, 서비스 제공 서버(1000)에 데이터를 전송하고 생성된 콘텐츠를 수신한다.Here, the user terminal 10 receives text and images related to content to be generated by the user, classifies the data, transmits the data to the service providing server 1000, and receives the generated content.

여기서 사용자 단말(10)은, 사용자가 생성할 콘텐츠와 관련된 텍스트 및 이미지를 사용자로부터 입력 받고, 생성된 동적 콘텐츠를 서비스 제공 서버로부터 수신하는 데이터 수신부(11), 데이터를 분류하는 데이터 분류부(12), 서비스 제공 서버에 데이터를 전송하고 생성된 콘텐츠를 수신하고 사용자가 보정하여 생성된 최종 저작물을 소셜 플랫폼에 업로드 하도록 유무선으로 연결하는 통신부(13)를 포함한다.Here, the user terminal 10 includes a data receiving unit 11 that receives text and images related to content to be generated by the user from the user, and receives the generated dynamic content from a service providing server, and a data classification unit 12 that classifies data. ), a communication unit 13 that transmits data to the service providing server, receives the generated content, and connects via wire or wireless to upload the final work created by correction by the user to the social platform.

여기서 사용자가 입력한 텍스트는 사용자가 사용자 단말의 입력 수단을 통해 직접 입력하거나 사용자 단말에 저장된 텍스트, 이러한 사용자 단말과 연동된 SNS 등 소셜 플랫폼 상에서 상기 사용자 단말의 입력 수단을 통해 입력한 텍스트일 수 있고, 또는 이러한 사용자 단말과 연동된 SNS 등 소셜 플랫폼 상에서 사용자가 업로드 또는 다운로드 한 이미지 등에 포함된 텍스트일 수 있다.Here, the text input by the user may be a text input by the user directly through the input means of the user terminal, text stored in the user terminal, or text input through the input means of the user terminal on a social platform such as SNS linked to the user terminal, , or it may be text included in an image uploaded or downloaded by a user on a social platform such as SNS linked with such a user terminal.

따라서 이러한 텍스트는 사용자 등이 작성한 블로그의 글, 메신저 대화에 사용된 문장, e-book에 포함된 글 등이 될 수 있다. Accordingly, such text may be a blog post written by a user, etc., a sentence used in a messenger conversation, or an article included in an e-book.

여기서 사용자가 입력한 이미지는, 동적 콘텐츠를 생성하기 위해 주요 객체 및 배경을 포함하는 정적 이미지, 스케치 기반 이미지 콘텐츠를 생성하기 위해 사용자가 창작한 스케치 이미지, 삽화 콘텐츠를 생성하기 위해 분위기를 변환할 삽화 이미지 중 어느 하나 이상일 수 있다.Here, the image entered by the user is a static image including the main object and background to create dynamic content, a sketch image created by the user to create sketch-based image content, and an artwork to transform the atmosphere to create the illustration content It may be any one or more of images.

이러한 이미지 또한 사용자가 사용자 단말의 입력 수단을 통해 직접 입력하거나 사용자 단말에 저장된 이미지, 이러한 사용자 단말과 연동된 SNS 등 소셜 플랫폼 상에서 사용자가 업로드 또는 다운로드 한 이미지 등이 포함될 수 있다.These images may also include images that the user directly input through the input means of the user terminal or stored in the user terminal, images uploaded or downloaded by the user on social platforms such as SNS linked with the user terminal.

따라서 이러한 이미지는 사용자 단말에 저장된 사진 등이 될 수 있다. Therefore, such an image may be a picture stored in the user terminal.

여기서 서비스 제공 서버(1000)는, 인공지능 모듈(100), 저작 툴 제어부(200), 저장부(300)를 포함한다.Here, the service providing server 1000 includes an artificial intelligence module 100 , an authoring tool control unit 200 , and a storage unit 300 .

여기서 인공지능 모듈(100)은, 인공지능을 기반으로 하여 사용자가 입력한 텍스트 및 사용자가 입력한 이미지 데이터의 메타데이터를 분석하여 각각 텍스트 메타데이터 및 이미지 메타데이터를 추출하여 데이터베이스에 기록하고, 기록된 메타데이터를 활용하여 동적 콘텐츠, 스케치 기반 이미지 콘텐츠, 삽화 콘텐츠 중 어느 하나 이상의 창작물을 생성하여 사용자 단말에 전송한다.Here, the artificial intelligence module 100 analyzes the metadata of the text input by the user and the image data input by the user based on artificial intelligence, extracts the text metadata and the image metadata, respectively, and records them in the database, and records By using the meta-data, one or more creations among dynamic content, sketch-based image content, and illustration content are created and transmitted to the user terminal.

여기서 인공지능 모듈(100)은 텍스트 메타데이터 추출부(110), 이미지 메타데이터 추출부(120), 콘텐츠 자동 생성부(130), 통신부(140)가 포함된다.Here, the artificial intelligence module 100 includes a text metadata extraction unit 110 , an image metadata extraction unit 120 , an automatic content generation unit 130 , and a communication unit 140 .

여기서 텍스트 메타데이터 추출부(110)는, 사용자가 입력한 텍스트에 대하여 인공지능을 기반으로 문장 분석, 여러 개의 복합 문장이 있는 문단 분석, 문단 분석 중 가장 중요한 문장을 추출, 여러 문장을 복합적으로 분석하는 등 텍스트 분석을 통해 액션정보, 객체정보, 배경정보, 글의 감성, 글의 분위기를 추출하여 텍스트 메타데이터를 생성하여 저장부(300)의 메타데이터(320)에 저장할 수 있다.Here, the text metadata extraction unit 110 extracts the most important sentence among the sentence analysis, the paragraph analysis with several compound sentences, and the paragraph analysis based on the artificial intelligence for the text input by the user, and analyzes several sentences in a complex manner. By extracting action information, object information, background information, the emotion of the text, and the atmosphere of the text through text analysis, the text metadata may be generated and stored in the metadata 320 of the storage unit 300 .

여기서 이미지 메타데이터 추출부(120)는, 사용자가 입력한 이미지에 대하여 인공지능을 기반으로 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터, 스케치, 삽화 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 이미지 메타데이터를 생성하여 저장부(300)의 메타데이터(320)에 저장할 수 있다.Here, the image metadata extraction unit 120 separates the background and foreground of the image based on artificial intelligence with respect to the image input by the user, and the whole body of a person in the image, a human face, an animal, a character, a sketch, an illustration, etc. can be image-analyzed to extract background and foreground information and feature points of an object to generate image metadata and store it in the metadata 320 of the storage unit 300 .

여기서 객체의 특징점은 신체의 모션, 포즈나 얼굴의 표정, 얼굴 내 눈, 코, 입의 모양 등이 될 수 있다.Here, the feature point of the object may be a body motion, a pose or facial expression, and the shape of the eyes, nose, and mouth in the face.

다만, 이미지 메타데이터 추출부(120)에서는, 사용자가 입력한 데이터 중 이미지 데이터가 존재하는지 먼저 확인하여, 입력된 데이터 중 입력된 이미지가 있는 경우에는 인공지능 기반 이미지 메타데이터 추출이 그대로 진행된다.However, the image metadata extraction unit 120 first checks whether image data exists among the data input by the user, and when there is an input image among the input data, artificial intelligence-based image metadata extraction proceeds as it is.

다만, 입력된 이미지가 없는 경우에는 텍스트 메타데이터 추출부(110)에서 도출된 객체 및 배경 정보에 따라 데이터베이스에서 입력된 텍스트에 맞는 이미지를 검색하여 저장하고(S212), 검색하여 저장된 이미지를 사용자가 입력한 이미지로 보아 인공지능 기반 이미지 메타데이터 분석이 진행된다.However, when there is no input image, the user searches for and stores the image matching the text inputted from the database according to the object and background information derived from the text metadata extraction unit 110 (S212), and the user selects the searched and stored image. Based on the input image, artificial intelligence-based image metadata analysis is performed.

즉, 텍스트 메타데이터 추출부(110)는 텍스?z 분석이 이미지 유무와 무관하게 진행되고, 이미지 메타데이터 추출부(120)는 이미지가 없으면 텍스트 메타데이터 추출부(110)에서 분석된 메타데이터 결과에 따라 데이터베이스에서 로드된 이미지를 기준으로 진행된다.That is, the text metadata extractor 110 performs text-z analysis regardless of the presence or absence of an image, and the image metadata extractor 120 determines the result of the metadata analyzed by the text metadata extractor 110 if there is no image. It proceeds based on the image loaded from the database.

여기서 데이터베이스에는 저작권의 문제가 없는 이미지를 수집하여야 할 것이다.Here, the database should collect images that do not have copyright issues.

여기서 데이터베이스에 수집되어 있는 객체, 배경, 분위기 등 정보가 태깅되어 있을 수 있다.Here, information such as objects, backgrounds, and atmospheres collected in the database may be tagged.

여기서 텍스트 메타데이터 추출부(110), 이미지 메타데이터 추출부(120)에서 생성된 메타데이터를 소정의 양식에 따라 데이터베이스에 각각 텍스트 메타데이터 및 이미지 메타데이터로 기록할 수 있다.Here, the metadata generated by the text metadata extraction unit 110 and the image metadata extraction unit 120 may be recorded in the database as text metadata and image metadata, respectively, according to a predetermined format.

본 발명의 실시예에서 주로 동적 콘텐츠 자동 생성에 대해 나타나지만, 여기서 콘텐츠 자동 생성부(130)는, 동적 콘텐츠 자동 생성부(131), 스케치 기반 이미지 자동 생성부(132), 감정 기반 삽화 자동 변환부(133)를 포함할 수 있다.In the embodiment of the present invention, it is mainly shown for automatic creation of dynamic content, but here, the automatic content generation unit 130 includes the dynamic content automatic generation unit 131, the sketch-based image automatic generation unit 132, and the emotion-based illustration automatic conversion unit. (133) may be included.

여기서 동적 콘텐츠 자동 생성부(131)는, 사용자가 입력한 이미지가 주요 객체 및 배경을 포함하는 정적 이미지인 경우 이미지 및 텍스트 메타데이터에 따라 동적 콘텐츠를 생성한다.Here, when the image input by the user is a static image including a main object and a background, the dynamic content automatic creation unit 131 generates dynamic content according to the image and text metadata.

여기서 동적 콘텐츠 자동 생성부(131)에서는 먼저, 이미지 메타데이터를 기준으로 배경과 객체를 분리한다.Here, the dynamic content automatic creation unit 131 first separates the background and the object based on image metadata.

여기서 배경은 이미지 메타데이터 중 전경 분리 정보, 객체/배경 정보에 따라 분리될 수 있다.Here, the background may be separated according to foreground separation information and object/background information among image metadata.

여기서 분리된 배경의 모션은 해당 배경의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 액션 정보, 글의 감성, 글의 분위기에 따라 움직이도록 동적 이미지로 변경되어 배경 모션 동영상(배경 모션)을 생성한다. Here, the motion of the separated background is changed to a dynamic image to move according to the general action of the background or action information shown in text metadata, the emotion of the text, and the atmosphere of the text to generate a background motion video (background motion).

여기서 객체는 이미지 메타데이터 중 액션 정보, 특징점 정보에 따라 분리될 수 있다.Here, the object may be divided according to action information and feature point information among image metadata.

여기서 분리된 객체의 신체 모션, 얼굴 표정 등은 상기 객체의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 액션 정보, 글의 감성, 글의 분위기에 따라 움직이도록 동적 이미지로 변경되어 객체 모션 동영상(객체 모션)을 생성한다.Here, the body motion, facial expression, etc. of the separated object are changed to a dynamic image to move according to the general action of the object or action information shown in the text metadata, the emotion of the text, and the atmosphere of the text to generate an object motion video (object motion). create

이러한 배경 모션 생성 및 객체 모션 생성은 둘 다 수행될 수도 있고 둘 중 하나만 수행될 수도 있다.Both the background motion generation and the object motion generation may be performed or only one of the two may be performed.

이러한 생성 과정을 거쳐 이미지로부터 동적 콘텐츠를 생성할 수 있다.Through this creation process, dynamic content can be created from the image.

여기서 스케치 기반 이미지 자동 생성부(132)는, 사용자가 입력한 이미지가 사용자가 창작한 스케치 이미지인 경우 이미지 및 텍스트 메타데이터에 따라 스케치 기반 이미지 콘텐츠를 생성한다.Here, when the image input by the user is a sketch image created by the user, the sketch-based image automatic generating unit 132 generates sketch-based image content according to image and text metadata.

스케치 기반 이미지 자동 생성부(132)는, 사용자의 스케치를 입력 받아 글의 객체정보 등과 융합하여 이미지 또는 캐릭터로 변경할 수 있다.The sketch-based image automatic generating unit 132 may receive a user's sketch and fuse it with object information of text and change it into an image or a character.

여기서 이미지 메타데이터 중 스케치의 신체 모션, 얼굴 표정, 눈코입의 모양 등을 참조하여, 사용자가 선택한 화풍 또는 텍스트 메타데이터에서 나타난 분위기, 화풍 등에 따라 이미지를 변경하는 화풍변화가 이루어질 수 있다.Here, by referring to the body motion of the sketch, the facial expression, the shape of the eyes, nose, and mouth among the image metadata, the style of changing the image according to the style of painting selected by the user or the atmosphere, style, etc. shown in the text metadata may be performed.

또한 이미지 메타데이터 중 스케치의 일부의 색체를 사용자가 선택한 색체 또는 텍스트 메타데이터에서 나타난 내용에 따라 색체를 변경하는 색체변화가 이루어질 수 있다.Also, a color change in which a color of a part of a sketch among image metadata is changed according to a color selected by a user or content indicated in text metadata may be performed.

이러한 화풍변화 및 색체변화는 둘 다 수행될 수도 있고 둘 중 하나만 수행될 수도 있다.Both the style change and the color change may be performed or only one of them may be performed.

이러한 생성 과정을 거쳐 스케치 이미지로부터 스케치 기반 이미지 콘텐츠를 생성할 수 있다.Through this creation process, sketch-based image content can be created from the sketch image.

여기서 생성되는 스케치 기반 이미지 콘텐츠는 스케치와 관련된 객체 이미지로서 이미지는 실사와 유사하거나, 카툰화된 이미지 등 여러 화풍의 이미지일 수 있고, 사용자가 일부분에 색을 선택하여 원하는 색을 입힌 이미지를 생성할 수 있다.The sketch-based image content created here is an object image related to a sketch, and the image may be similar to a real-life image or may be a cartoonized image, etc. can

또한 원하는 그림체를 사용자가 선택하거나 텍스트로부터 검출한 글의 분위기로부터 자동 선택되어 반영될 수 있으며, 스케치가 어떤 객체에 대한 것인지 텍스트로부터 유추하여 더욱 정확한 변경이 가능하다.In addition, the desired figure can be selected by the user or automatically selected and reflected from the atmosphere of the text detected from the text, and it is possible to make more accurate changes by inferring from the text which object the sketch is about.

여기서 감정 기반 삽화 자동 변환부(133)는, 사용자가 입력한 이미지가 분위기를 변환할 삽화 이미지인 경우 이미지 및 텍스트 메타데이터에 따라 변경된 삽화 콘텐츠를 생성한다.Here, the emotion-based illustration automatic conversion unit 133 generates changed illustration content according to the image and text metadata when the image input by the user is an illustration image to change the atmosphere.

이를 통해 블로그 글 등에 맞는 이미지를 추가하고자 할 경우에는 사용자가 입력한 이미지 또는 데이터베이스에서 로드한 이미지를 텍스트 메타데이터 중 글의 감성에 맞게 화풍을 변경하거나 그래픽 효과를 추가할 수 있다.Through this, if you want to add an image suitable for a blog post, etc., you can change the style of the text or add graphic effects to the image input by the user or the image loaded from the database according to the emotion of the text among the text metadata.

감정 기반 삽화 자동 변환부(133)는 사용자가 입력한 이미지가 분위기를 변환할 삽화 이미지인 경우에는, 이미지 메타데이터 중 삽화 이미지의 배경 및 객체를 사용자가 선택한 화풍 또는 텍스트 메타데이터에서 나타난 분위기, 화풍 등에 따라 이미지를 변경하는 화풍변화가 이루어질 수 있다.When the image input by the user is an illustration image to convert the atmosphere, the emotion-based illustration automatic conversion unit 133 selects the background and object of the illustration image from among the image metadata. A style change of changing the image may be made according to the like.

또한 이미지 메타데이터 중 삽화 이미지의 배경 및 객체의 그래픽 효과를 사용자가 선택한 그래픽 효과 또는 텍스트 메타데이터에서 나타난 분위기, 화풍, 전경 분리 정보 등에 따라 변경하는 그래픽 오버레이가 이루어질 수 있다.Also, a graphic overlay that changes the background of the illustration image and the graphic effect of the object among the image metadata according to the graphic effect selected by the user or the atmosphere, style of painting, and foreground separation information shown in the text metadata may be performed.

이러한 화풍변화 및 그래픽 오버레이는 둘 다 수행될 수도 있고 둘 중 하나만 수행 될 수도 있다.Both of these style changes and graphic overlays may be performed or only one of them may be performed.

이러한 생성 과정을 거쳐 삽화 이미지로부터 변경된 삽화 콘텐츠를 생성할 수 있다.Through this generation process, the changed illustration content can be generated from the illustration image.

이처럼 텍스트로부터 글의 분위기를 검출하여 이미지의 화풍을 분위기에 맞게 변경되는 감정 기반 삽화 자동 변환이 이루어진다.In this way, by detecting the atmosphere of the writing from the text, the emotion-based illustration is automatically converted to change the style of the image according to the atmosphere.

이 때, 이미지는 사용자가 입력한 이미지 또는 텍스트로부터 검출한 배경/객체 정보로부터 데이터베이스를 검색하여 불러온 이미지가 될 수 있다.In this case, the image may be an image that is retrieved by searching the database from an image input by the user or background/object information detected from text.

삽화의 동적 그래픽 효과를 감정에 맞게 선택하여 이미지 전체 또는 주요 객체에 오버레이 할 수 있다.The dynamic graphic effects of the artwork can be emotionally selected and overlaid on the entire image or on the main object.

또한, 콘텐츠 자동 생성부(130)에 있어서, 동적 콘텐츠 자동 생성, 스케치 기반 이미지 자동 생성, 감정 기반 삽화 자동 변환은 서로 연결되어 순차적으로 연결될 수 있다.In addition, in the automatic content generation unit 130, the automatic creation of dynamic content, the automatic creation of sketch-based images, and the automatic conversion of emotion-based illustrations may be sequentially connected to each other.

즉, 스케치로 이미지를 생성한 뒤 객체에 모션을 입혀 움직이는 이미지를 생성할 수 있다.That is, after creating an image with a sketch, a moving image can be created by applying motion to the object.

또한 삽화의 화풍을 변경하고 삽화 배경에 흐르는 듯한 효과를 주는 동영상을 생성할 수 있다.You can also change the style of an illustration and create a video that gives a flowing effect to the background of the illustration.

따라서 스케치 기반 이미지 자동 생성부에서 생성된 스케치 기반 이미지 콘텐츠 및 상기 감정 기반 삽화 자동 변환부에서 생성된 삽화 콘텐츠를 동적 콘텐츠 자동 생성부에 입력하여 그 이미지 및 텍스트 메타데이터에 따라 동적 콘텐츠를 생성할 수 있다.Therefore, by inputting the sketch-based image content generated by the sketch-based image automatic generation unit and the illustration content generated by the emotion-based illustration automatic conversion unit to the automatic dynamic content generation unit, dynamic content can be generated according to the image and text metadata. have.

여기서 스케치 기반 이미지 자동 생성부에서 생성된 스케치 기반 이미지 콘텐츠 및 상기 감정 기반 삽화 자동 변환부에서 생성된 삽화 콘텐츠에 대해 다시 이미지 또는 이미지/텍스트 메타데이터를 추출하여 메타데이터를 활용하여 동적 콘텐츠를 생성할 수도 있다.Here, the image or image/text metadata is extracted again for the sketch-based image content generated by the sketch-based image automatic generation unit and the illustration content generated by the emotion-based illustration automatic conversion unit to generate dynamic content using the metadata. may be

여기서 통신부(140)는, 저작 툴 제어부(200), 저장부(300), 사용자 단말(10) 등과 데이터를 송수신할 수 있도록 유무선 연결한다.Here, the communication unit 140 is connected to the authoring tool control unit 200 , the storage unit 300 , the user terminal 10 , and the like in a wired/wireless manner so as to transmit and receive data.

도 5를 참조하면, 저작 툴 제어부(200)는, 콘텐츠 저작 툴 기본 기능 제어부(210), 인공지능 모듈 연동 통신부(220) 등을 포함할 수 있다.Referring to FIG. 5 , the authoring tool control unit 200 may include a content authoring tool basic function control unit 210 , an artificial intelligence module interworking communication unit 220 , and the like.

여기서 콘텐츠 저작 툴 기본 기능 제어부(210)는 상기 콘텐츠 자동 생성부(130)에서 콘텐츠 제작에 사용하는 툴의 기본적인 기능을 제어할 수 있다.Here, the content authoring tool basic function control unit 210 may control the basic functions of the tool used for content creation by the automatic content creation unit 130 .

여기서 인공지능 모듈 연동 통신부(220)는, 인공지능 모듈(100)과 연동하여 외부와 유무선 통신할 수 있도록 네트워크 등에 연결된다.Here, the artificial intelligence module interworking communication unit 220 is connected to a network or the like so as to interwork with the artificial intelligence module 100 to communicate wired/wireless with the outside.

도 5를 참조하면, 저장부(300)는, 데이터베이스(310), 메타데이터(320), 생성데이터(330) 등을 포함한다.Referring to FIG. 5 , the storage unit 300 includes a database 310 , metadata 320 , and generated data 330 .

여기서 데이터베이스(310)는, 이미지, 애니메이션 등 텍스트 만으로 이미지를 생성해야 하는 경우 입력한 텍스트에 맞는 이미지를 검색하기 위해 미리 생성한 데이터를 포함한다.Here, the database 310 includes data generated in advance in order to search for an image matching the input text when an image needs to be generated using only text, such as an image or animation.

메타데이터(320)는 텍스트 메타데이터 추출부(110)에서 추출된 텍스트 메타데이터 및 이미지 메타데이터 추출부(120)에서 추출된 이미지 메타데이터를 포함한다.The metadata 320 includes text metadata extracted by the text metadata extraction unit 110 and image metadata extracted by the image metadata extraction unit 120 .

생성데이터(330)는 콘텐츠 자동 생성부(130)에서 생성된 동적 콘텐츠, 스케치 기반 이미지 콘텐츠, 삽화 콘텐츠를 포함한다.The generated data 330 includes dynamic content, sketch-based image content, and illustration content generated by the content automatic generator 130 .

이와 같은 생성데이터(330)는, 사용자의 보정을 거쳐 SNS나 메신저를 통해 배포할 수 있다.Such generated data 330 may be distributed through SNS or messenger after user's correction.

여기서 인공지능 모듈(100)의 통신부 또는 인공지능 모듈 연동 통신부(220)는, 생성데이터(330)를 사용자 단말에 전송하여, 사용자는 사용자 단말의 입력 수단을 통하여 타임라인, 다중레이어 기능 등을 사용하여 동적 콘텐츠, 스케치 기반 이미지 콘텐츠, 삽화 콘텐츠 등을 보정할 수 있다.Here, the communication unit of the artificial intelligence module 100 or the artificial intelligence module interworking communication unit 220 transmits the generated data 330 to the user terminal, and the user uses the timeline, multi-layer function, etc. through the input means of the user terminal. to correct dynamic content, sketch-based image content, and illustration content.

여기서 사용자는 생성된 동적 콘텐츠에 대해서 서비스 제공 서버에서 제공하는 타임라인, 다중 레이어 등의 기능을 사용 하여 배경 모션 및 객체 모션의 움직임 요소의 추가, 삭제, 변경은 물론이고, 별도 이미지 또는 텍스트 등의 새로운 요소의 추가, 배경의 삭제, 객체의 전부 또는 일부의 삭제 등 편집을 가하여 최종 저작물을 생성할 수 있다.Here, the user can add, delete, and change motion elements of background motion and object motion, as well as separate images or text, using functions such as timeline and multi-layer provided by the service providing server for the generated dynamic content. The final work can be created by editing such as adding new elements, deleting backgrounds, or deleting all or part of an object.

여기서 사용자는 생성된 동적 콘텐츠에 대해 보정 없이 최종 저작물로 확정할 수도 있다.Here, the user may confirm the generated dynamic content as a final work without correction.

또한 사용자는 사용자 단말(10)의 통신부(13)를 통하여 생성한 저작물을 SNS 등에 바로 업로드 하거나 메신저로 전송할 수 있도록 연동할 수 있다.In addition, the user can directly upload the work created through the communication unit 13 of the user terminal 10 to SNS or the like or link it so that it can be transmitted through a messenger.

여기서 저작물을 업로드하기 용이한 형태로 저장할 수 있다.Here, you can save the work in a format that is easy to upload.

사용자가 보정한 최종 저작물은 서비스 제공 서버(1000)에 전송되고, 서비스 제공 서버(1000)는 최종 저작물을 사용자 단말과 연동된 소셜 플랫폼 등에 업로드하기 용이한 형태로 저장하고, 상기 최종 저작물을 상기 소셜 플랫폼 등에 바로 업로드 하거나 메신저로 전송할 수 있도록 사용자 단말을 네트워크에 연동하는 것을 포함할 수 있다.The final work corrected by the user is transmitted to the service providing server 1000, and the service providing server 1000 stores the final work in a form that is easy to upload to a social platform interlocked with the user terminal, and stores the final work in the social platform. This may include linking the user terminal to the network so that it can be directly uploaded to a platform or the like or transmitted through a messenger.

이 경우, 사용자는 사용자 단말(10)을 통해 최종 저작물을 통신부(13)를 통하여 소셜 플랫폼 등에 업로드할 수 있다.In this case, the user may upload the final work through the user terminal 10 to a social platform or the like through the communication unit 13 .

여기서 서비스 제공 서버(1000)는 사용자의 PC 등에 설치되어 동작하거나 웹기반으로 동작할 수도 있다. Here, the service providing server 1000 may be installed and operated on a user's PC or the like or may be operated on a web-based basis.

또한 서비스 제공 서버(1000)는 사용자의 PC에서 또는 모바일에서 동작 할 수도 있다.In addition, the service providing server 1000 may operate in the user's PC or mobile.

이상, 본 발명의 실시 예는 상술한 장치 및/또는 운용방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시 예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시 예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다. 이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Above, the embodiment of the present invention is not implemented only through the above-described apparatus and/or operation method, but through a program for realizing a function corresponding to the configuration of the embodiment of the present invention, a recording medium in which the program is recorded, etc. It may be implemented, and such an implementation can be easily implemented by an expert in the technical field to which the present invention pertains from the description of the above-described embodiments. Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improved forms of the present invention are also provided by those skilled in the art using the basic concept of the present invention as defined in the following claims. is within the scope of the right.

10 : 사용자 단말
11 : 데이터 수신부
12 : 데이터 분류부
13 : 통신부
100 : 인공지능 모듈
110 : 텍스트 메타데이터 추출부
120 : 이미지 메타데이터 추출부
130 : 콘텐츠 자동 생성부
131 : 동적 콘텐츠 자동 생성부
132 : 스케치 기반 이미지 자동 생성부
133 : 감정 기반 삽화 자동 변환부
140 : 통신부
200 : 저작 툴 제어부
210 : 콘텐츠 제작 툴 기본 기능 제어부
220 : 인공지능 모듈 연동 통신부
300 : 저장부
310 : 데이터베이스
320 : 메타데이터
330 : 생성데이터
1000 : 서비스 제공 서버
10: user terminal
11: data receiving unit
12: data classification unit
13: communication department
100: artificial intelligence module
110: text metadata extraction unit
120: image metadata extraction unit
130: content automatic creation unit
131: dynamic content automatic creation unit
132: sketch-based image automatic generation unit
133: emotion-based illustration automatic conversion unit
140: communication department
200: authoring tool control unit
210: content creation tool basic function control unit
220: artificial intelligence module interlocking communication unit
300: storage
310: database
320: metadata
330: generated data
1000: service providing server

Claims (17)

인공지능 콘텐츠 창작 방법에 있어서,
(a) 사용자가 생성할 콘텐츠와 관련된 텍스트 및 이미지를 입력하는 단계;
(b) 인공지능을 기반으로 하여 사용자가 입력한 텍스트 및 사용자가 입력한 이미지 데이터의 메타데이터를 분석하여 각각 텍스트 메타데이터 및 이미지 메타데이터로 기록하는 단계;
(c) 사용자가 입력한 이미지를 배경과 객체로 구분하여 텍스트 메타데이터에 따라 배경이 움직이도록 동적 이미지로 변경하는 배경 모션 생성 및 객체가 움직이도록 동적 이미지로 변경하는 객체 모션 생성 중 어느 하나 이상을 거쳐 동적 콘텐츠를 생성하는 단계;
(d) 사용자가 상기 동적 콘텐츠를 보정하여 최종 저작물을 생성하는 단계; 및
(e) 보정하여 생성된 최종 저작물을 소셜 플랫폼 등에 배포하는 단계;
를 포함하고,
상기 (b)단계는,
상기 사용자가 입력한 텍스트에 대하여 인공지능을 기반으로 문장 분석, 여러 개의 복합 문장이 있는 문단 분석, 문단 분석 중 가장 중요한 문장을 추출, 여러 문장을 복합적으로 분석하는 등 텍스트 분석하여 액션정보, 객체정보, 배경정보, 글의 감성, 글의 분위기를 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 텍스트 메타데이터로 기록하는 텍스트 분석 단계; 및
상기 사용자가 입력한 이미지에 대하여 인공지능을 기반으로 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 이미지 메타데이터로 기록하는 이미지 분석 단계;
를 포함하는 것을 특징으로 하는 콘텐츠 창작 방법.
In the artificial intelligence content creation method,
(a) the user inputting text and images related to the content to be created;
(b) analyzing the metadata of the text input by the user and the image data input by the user based on artificial intelligence and recording the text metadata and image metadata, respectively;
(c) Any one or more of the background motion generation that changes the image input by the user into a background and the object, and changes to a dynamic image so that the background moves according to text metadata, and object motion generation that changes the object to a dynamic image so that the object moves according to the text metadata generating dynamic content through
(d) the user calibrating the dynamic content to create a final work; and
(e) distributing the final work created by correcting it to a social platform, etc.;
including,
Step (b) is,
For the text input by the user, based on artificial intelligence, text analysis such as sentence analysis, paragraph analysis with multiple compound sentences, extraction of the most important sentence among paragraph analysis, and complex analysis of multiple sentences to provide action information and object information , a text analysis step of extracting background information, the emotion of the text, and the atmosphere of the text to generate metadata and recording it as text metadata in a database according to a predetermined format; and
With respect to the image input by the user, the background and foreground of the image are separated based on artificial intelligence, and the background and foreground information and feature points of the object are extracted by analyzing the image of a person's whole body, a human face, an animal, a character, etc. in the image. an image analysis step of generating metadata and recording it as image metadata in a database according to a predetermined format;
Content creation method comprising a.
제1항에 있어서,
상기 사용자가 입력한 텍스트는,
사용자가 사용자 단말의 입력 수단을 통해 입력하거나 사용자 단말에 저장된 텍스트 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자 단말의 입력 수단을 통해 입력한 텍스트 또는 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드 또는 다운로드한 이미지 등에 포함된 텍스트인 것을 특징으로 하는 콘텐츠 창작 방법.
According to claim 1,
The text entered by the user is
Text input by the user through input means of the user terminal or stored in the user terminal Text input by the user through the input means of the user terminal on a social platform linked to the user terminal or uploaded by the user on a social platform linked to the user terminal Or a content creation method, characterized in that the text included in a downloaded image or the like.
제1항에 있어서,
상기 사용자가 입력한 이미지는,
사용자가 사용자 단말의 입력 수단을 통해 입력하거나 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드 또는 다운로드한 이미지인 것을 특징으로 하는 콘텐츠 창작 방법.
According to claim 1,
The image entered by the user is
The content creation method, characterized in that the image is an image input by a user through an input means of a user terminal or uploaded or downloaded by the user on a social platform linked with the user terminal.
삭제delete 제1항에 있어서,
상기 이미지 분석 단계는,
상기 사용자가 입력한 이미지가 없는 경우에는 사용자 단말에 저장되거나 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드한 이미지 또는 데이터베이스에 저장된 이미지 중 상기 텍스트 메타데이터와 관련된 이미지를 검출하고, 검출된 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 이미지 메타데이터로 기록하는 것을 특징으로 하는 콘텐츠 창작 방법.
According to claim 1,
The image analysis step is,
When there is no image input by the user, an image related to the text metadata is detected from among images stored in a user terminal or uploaded by the user on a social platform linked to the user terminal or images stored in a database, and Separating the background and foreground, analyzing the image of a person's whole body, human face, animal, character, etc. in the image, extracting background and foreground information and object feature points to create metadata A content creation method characterized in that it is recorded as data.
제1항에 있어서,
상기 (c)단계는,
이미지 메타데이터 중 배경의 모션을 상기 배경의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 분위기에 따라 움직이도록 동적 이미지로 변경하는 배경 모션 생성; 및
이미지 메타데이터 중 객체의 신체 모션, 얼굴 표정 등을 상기 객체의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 액션 정보에 따라 움직이도록 동적 이미지로 변경하는 객체 모션 생성;
중 어느 하나 이상을 거쳐 동적 콘텐츠를 생성하는 것을 특징으로 하는 콘텐츠 창작 방법.
According to claim 1,
Step (c) is,
generating a background motion for changing the motion of the background among the image metadata to a dynamic image so as to move according to the general action of the background or the atmosphere indicated in the text metadata; and
object motion generation for changing an object's body motion and facial expression among image metadata into a dynamic image to move according to the general action of the object or action information indicated in text metadata;
A content creation method, characterized in that the dynamic content is generated through any one or more.
제1항에 있어서,
상기 (d)단계는,
생성된 동적 콘텐츠에 대해서 서비스 제공 서버에서 제공하는 타임라인, 다중 레이어 등의 기능을 사용 하여 배경 모션 및 객체 모션의 움직임 요소의 추가, 삭제, 변경이나 새로운 요소의 추가 등 편집을 가하여 최종 저작물을 생성하는 것
을 특징으로 하는 콘텐츠 창작 방법.
According to claim 1,
Step (d) is,
For the created dynamic content, the final work is created by adding, deleting, changing, or adding new elements to the background motion and object motion using the functions such as timeline and multi-layer provided by the service providing server. to do
A content creation method characterized by
제1항에 있어서,
상기 (e)단계는,
상기 최종 저작물을 사용자 단말과 연동된 소셜 플랫폼 등에 업로드하기 용이한 형태로 저장하고, 상기 최종 저작물을 상기 소셜 플랫폼 등에 바로 업로드 하거나 메신저로 전송할 수 있도록 사용자 단말을 네트워크에 연동하는 것
을 특징으로 하는 콘텐츠 창작 방법.
According to claim 1,
Step (e) is,
Storing the final work in a form that is easy to upload to a social platform linked with a user terminal, etc., and linking the user terminal to a network so that the final work can be directly uploaded to the social platform or transmitted via a messenger
A content creation method characterized by
인공지능 콘텐츠 창작 시스템에 있어서,
사용자가 생성할 콘텐츠와 관련된 텍스트 및 이미지를 입력받아 데이터를 분류하고, 서비스 제공 서버에 데이터를 전송하고 생성된 콘텐츠를 수신, 보정하고 소셜 플랫폼에 업로드할 수 있도록 하는 사용자 단말;
인공지능을 기반으로 하여 사용자가 입력한 텍스트 및 사용자가 입력한 이미지 데이터의 메타데이터를 분석하여 각각 텍스트 메타데이터 및 이미지 메타데이터를 추출하여 데이터베이스에 기록하고, 기록된 메타데이터를 활용하여 동적 콘텐츠를 생성하여 사용자 단말에 전송하는 인공지능 모듈;
상기 동적 콘텐츠 생성에 사용되는 툴을 제어하고, 인공지능 모듈과 연동하여 통신하는 저작 툴 제어부; 및
창착물 생성에 필요한 이미지, 애니메이션 등의 데이터베이스, 추출한 메타데이터, 생성된 데이터를 저장하는 저장부;
를 포함하고,
상기 인공지능 모듈은,
사용자가 입력한 텍스트 데이터의 메타데이터를 분석하여 텍스트 메타데이터를 추출하여 상기 저장부에 기록하는 텍스트 메타데이터 추출부;
사용자가 입력한 이미지 데이터의 메타데이터를 분석하여 이미지 메타데이터를 추출하여 상기 저장부에 기록하는 이미지 메타데이터 추출부;
상기 저장부에 기록된 텍스트 메타데이터 및 이미지 메타데이터를 활용하여 동적 콘텐츠를 생성하여 상기 저장부에 기록하는 콘텐츠 자동 생성부; 및
상기 저작 툴 제어부, 상기 저장부, 상기 사용자 단말과 데이터를 송수신할 수 있도록 연결하는 통신부;
를 포함하며, 상기 텍스트 메타데이터 추출부는,
상기 사용자가 입력한 텍스트에 대하여 인공지능을 기반으로 문장 분석, 여러 개의 복합 문장이 있는 문단 분석, 문단 분석 중 가장 중요한 문장을 추출, 여러 문장을 복합적으로 분석하는 등 텍스트 분석하여 액션정보, 객체정보, 배경정보, 글의 감성, 글의 분위기를 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 텍스트 메타데이터로 기록하는 것을 특징으로 하는 콘텐츠 창작 시스템.
In the artificial intelligence content creation system,
a user terminal for receiving text and images related to content to be generated by a user, classifying data, transmitting data to a service providing server, receiving, correcting, and uploading the generated content to a social platform;
Based on artificial intelligence, it analyzes the metadata of the text entered by the user and the image data entered by the user, extracts the text metadata and image metadata, respectively, and records them in the database, and uses the recorded metadata to create dynamic content. Artificial intelligence module for generating and transmitting to the user terminal;
an authoring tool control unit that controls a tool used for generating the dynamic content and communicates with an artificial intelligence module; and
a storage unit for storing a database such as images and animations required for creation of a creation, extracted metadata, and generated data;
including,
The artificial intelligence module is
a text metadata extracting unit that analyzes metadata of text data input by a user, extracts text metadata, and records it in the storage unit;
an image metadata extracting unit that analyzes metadata of image data input by a user, extracts image metadata, and records it in the storage unit;
a content automatic generation unit for generating dynamic content by using the text metadata and image metadata recorded in the storage unit and recording it in the storage unit; and
a communication unit connecting the authoring tool control unit, the storage unit, and the user terminal to transmit and receive data;
Including, the text metadata extracting unit,
For the text input by the user, based on artificial intelligence, text analysis such as sentence analysis, paragraph analysis with multiple compound sentences, extraction of the most important sentence among paragraph analysis, and complex analysis of multiple sentences to provide action information and object information , background information, the emotion of the writing, and the atmosphere of the writing to generate metadata, and record the metadata in the database according to a predetermined format as text metadata.
제9항에 있어서,
상기 사용자 단말은,
사용자가 생성할 콘텐츠와 관련된 텍스트 및 이미지를 사용자로부터 입력 받고, 생성된 동적 콘텐츠를 서비스 제공 서버로부터 수신하는 데이터 수신부; 및
서비스 제공 서버에 데이터를 전송하고 생성된 콘텐츠를 수신하고 사용자가 보정하여 생성된 최종 저작물을 소셜 플랫폼에 업로드 하도록 유무선으로 연결하는 통신부;
를 포함하는 것을 특징으로 하는 콘텐츠 창작 시스템.
10. The method of claim 9,
The user terminal is
a data receiving unit that receives text and images related to content to be generated by the user from the user and receives the generated dynamic content from a service providing server; and
a communication unit that transmits data to a service providing server, receives the generated content, and connects via wire or wireless to upload the final work created by correction by the user to the social platform;
Content creation system comprising a.
제9항에 있어서,
상기 사용자가 입력한 텍스트는,
사용자가 사용자 단말의 입력 수단을 통해 입력하거나 사용자 단말에 저장된 텍스트 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자 단말의 입력 수단을 통해 입력한 텍스트 또는 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드 또는 다운로드한 이미지 등에 포함된 텍스트인 것을 특징으로 하는 콘텐츠 창작 시스템.
10. The method of claim 9,
The text entered by the user is
Text input by the user through input means of the user terminal or stored in the user terminal Text input by the user through the input means of the user terminal on a social platform linked to the user terminal or uploaded by the user on a social platform linked to the user terminal or text included in a downloaded image or the like.
제9항에 있어서,
상기 사용자가 입력한 이미지는,
사용자가 사용자 단말의 입력 수단을 통해 입력하거나 상기 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드 또는 다운로드한 이미지인 것을 특징으로 하는 콘텐츠 창작 시스템.
10. The method of claim 9,
The image entered by the user is
The content creation system, characterized in that the image is an image input by a user through an input means of a user terminal or uploaded or downloaded by the user on a social platform linked with the user terminal.
삭제delete 삭제delete 제9항에 있어서,
상기 이미지 메타데이터 추출부는,
상기 사용자가 입력한 이미지에 대하여 인공지능을 기반으로 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 이미지 메타데이터로 기록하는 것
을 특징으로 하는 콘텐츠 창작 시스템.
10. The method of claim 9,
The image metadata extraction unit,
With respect to the image input by the user, the background and foreground of the image are separated based on artificial intelligence, and the background and foreground information and feature points of the object are extracted by analyzing the image of a person's whole body, a human face, an animal, a character, etc. in the image. to create metadata and record it as image metadata in the database according to a predetermined form
A content creation system characterized by
제9항에 있어서,
상기 이미지 메타데이터 추출부는,
상기 사용자가 입력한 이미지가 없는 경우에는 사용자 단말에 저장되거나 사용자 단말과 연동된 소셜 플랫폼 상에서 상기 사용자가 업로드한 이미지 또는 데이터베이스에 저장된 이미지 중 상기 텍스트 메타데이터와 관련된 이미지를 검출하고, 검출된 이미지의 배경과 전경을 분리하고, 이미지 내의 사람의 전신, 사람의 얼굴, 동물, 캐릭터 등을 이미지 분석하여 배경 및 전경 정보, 객체의 특징점을 추출하여 메타데이터를 생성하여 소정의 양식에 따라 데이터베이스에 이미지 메타데이터로 기록하는 것
을 특징으로 하는 콘텐츠 창작 시스템.
10. The method of claim 9,
The image metadata extraction unit,
When there is no image input by the user, an image related to the text metadata is detected from among images stored in a user terminal or uploaded by the user on a social platform linked to the user terminal or images stored in a database, and Separating the background and foreground, analyzing the image of a person's whole body, human face, animal, character, etc. in the image, extracting background and foreground information and object feature points to create metadata to record data
A content creation system characterized by
제9항에 있어서,
상기 콘텐츠 자동 생성부는,
이미지 메타데이터 중 배경의 모션을 상기 배경의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 분위기에 따라 움직이도록 동적 이미지로 변경하는 배경 모션 생성; 및
이미지 메타데이터 중 객체의 신체 모션, 얼굴 표정 등을 상기 객체의 일반적인 액션 또는 텍스트 메타데이터에서 나타난 액션 정보에 따라 움직이도록 동적 이미지로 변경하는 객체 모션 생성;
중 어느 하나 이상을 거쳐 동적 콘텐츠를 생성하는 것을 특징으로 하는 콘텐츠 창작 시스템.
10. The method of claim 9,
The content automatic creation unit,
generating a background motion for changing the motion of the background among the image metadata to a dynamic image so as to move according to the general action of the background or the atmosphere indicated in the text metadata; and
object motion generation for changing an object's body motion and facial expression among image metadata into a dynamic image to move according to the general action of the object or action information indicated in text metadata;
A content creation system, characterized in that the dynamic content is generated through one or more of the following.
KR1020200097121A 2020-08-04 2020-08-04 Artificial intelligence content creation system and method KR102313203B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200097121A KR102313203B1 (en) 2020-08-04 2020-08-04 Artificial intelligence content creation system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200097121A KR102313203B1 (en) 2020-08-04 2020-08-04 Artificial intelligence content creation system and method

Publications (1)

Publication Number Publication Date
KR102313203B1 true KR102313203B1 (en) 2021-10-18

Family

ID=78271207

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200097121A KR102313203B1 (en) 2020-08-04 2020-08-04 Artificial intelligence content creation system and method

Country Status (1)

Country Link
KR (1) KR102313203B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102459775B1 (en) * 2022-06-24 2022-10-27 주식회사 에이치앤케이스튜디오 Automatic editing method, apparatus and system for artificial intelligence-based vidieo content production
KR102556487B1 (en) * 2022-02-15 2023-07-14 이종혁 System for producing election promotional material using election promises

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190035502A (en) 2017-09-25 2019-04-03 주식회사 와이드플래닛 How to provide content creation services through ai-based content matching and its content creation server
KR20200032614A (en) * 2018-09-18 2020-03-26 이승일 A system that generates text and picture data from video data using artificial intelligence

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190035502A (en) 2017-09-25 2019-04-03 주식회사 와이드플래닛 How to provide content creation services through ai-based content matching and its content creation server
KR20200032614A (en) * 2018-09-18 2020-03-26 이승일 A system that generates text and picture data from video data using artificial intelligence

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102556487B1 (en) * 2022-02-15 2023-07-14 이종혁 System for producing election promotional material using election promises
KR102459775B1 (en) * 2022-06-24 2022-10-27 주식회사 에이치앤케이스튜디오 Automatic editing method, apparatus and system for artificial intelligence-based vidieo content production

Similar Documents

Publication Publication Date Title
Manovich AI aesthetics
US11769528B2 (en) Systems and methods for automating video editing
KR102490319B1 (en) Methods for automatic generation and transformation of artificial intelligence content
US10074200B1 (en) Generation of imagery from descriptive text
US9992556B1 (en) Automated creation of storyboards from screenplays
US10679063B2 (en) Recognizing salient video events through learning-based multimodal analysis of visual features and audio-based analytics
JP5432617B2 (en) Animation production method and apparatus
JP2002366964A (en) Method and system for preparing animation
CN102207950A (en) Electronic apparatus, image processing method and program
KR102313203B1 (en) Artificial intelligence content creation system and method
JP6783479B1 (en) Video generation program, video generation device and video generation method
US20180143741A1 (en) Intelligent graphical feature generation for user content
CN112199932A (en) PPT generation method, device, computer-readable storage medium and processor
CN116595438A (en) Picture creation method, device, equipment and storage medium
CN117173497B (en) Image generation method and device, electronic equipment and storage medium
Somaini On the altered states of machine vision: Trevor Paglen, Hito Steyerl, Grégory Chatonsky
US11809688B1 (en) Interactive prompting system for multimodal personalized content generation
CN113407766A (en) Visual animation display method and related equipment
US20220375223A1 (en) Information generation method and apparatus
CN115481254A (en) Method, system, readable storage medium and equipment for analyzing video effect content of movie and television play script
CN114529635A (en) Image generation method, device, storage medium and equipment
CN113891079A (en) Automatic teaching video generation method and device, computer equipment and storage medium
KR20100102515A (en) Method and system for automatically expressing emotions of digital actor
Zaramella et al. Why Don't You Speak?: A Smartphone Application to Engage Museum Visitors Through Deepfakes Creation
KR101813005B1 (en) Clay-toon and Claymation Manufacturing System and Manufacturing Method Using The Same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant