KR102586799B1 - Method, device and system for automatically processing creation of web book based on web novel using artificial intelligence model - Google Patents
Method, device and system for automatically processing creation of web book based on web novel using artificial intelligence model Download PDFInfo
- Publication number
- KR102586799B1 KR102586799B1 KR1020230033022A KR20230033022A KR102586799B1 KR 102586799 B1 KR102586799 B1 KR 102586799B1 KR 1020230033022 A KR1020230033022 A KR 1020230033022A KR 20230033022 A KR20230033022 A KR 20230033022A KR 102586799 B1 KR102586799 B1 KR 102586799B1
- Authority
- KR
- South Korea
- Prior art keywords
- text
- artificial intelligence
- intelligence model
- ratio
- dialogue
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 226
- 238000000034 method Methods 0.000 title abstract description 49
- 238000012545 processing Methods 0.000 title abstract description 19
- 239000000284 extract Substances 0.000 claims description 11
- 238000003672 processing method Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 description 31
- 238000005516 engineering process Methods 0.000 description 21
- 238000010801 machine learning Methods 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Tourism & Hospitality (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Resources & Organizations (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
Description
아래 실시예들은 인공지능 모델을 활용하여 웹소설을 기반으로 웹북의 생성을 자동화하여 처리하기 위한 기술에 관한 것이다.The examples below relate to technology for automatically processing the creation of web books based on web novels using artificial intelligence models.
하나의 원형 콘텐츠를 활용해 영화, 게임, 음반, 만화, 애니메이션, 캐릭터 상품, 장난감, 출판 등 다양한 장르로 변용하여 판매해 부가가치를 극대화하는 원소스 멀티유스(One-Source Multi-Use)는 문화 산업의 기본 전략이 되고 있다.One-Source Multi-Use, which maximizes added value by using a single original content and transforming it into various genres such as movies, games, records, cartoons, animations, character products, toys, and publications, etc. It is becoming the basic strategy.
특히, 웹소설이나 웹툰을 원형 콘텐츠로 활용하여, 다양한 장르의 콘텐츠로 변용하여 출시해 콘텐츠에 대한 부가가치를 극대화할 수 있다.In particular, by using web novels or webtoons as original content, the added value of the content can be maximized by transforming and releasing it into content of various genres.
이에 따라, 웹소설과 웹툰에 대한 작품의 수가 급증하고 있으나, 웹소설은 글로만 이루어져 있어 영상에 익숙한 소비자들이 콘텐츠를 자유롭게 이용하는데 한계가 있으며, 웹툰은 다수의 컷으로 구분된 이미지로 이루어져 있어 만화가들이 빠른 시간 내에 제작하는데 한계가 있다.Accordingly, the number of works on web novels and webtoons is rapidly increasing, but web novels consist only of text, which limits the freedom of use of the content by consumers who are accustomed to video. Webtoons consist of images divided into multiple cuts, so cartoons are There are limitations to producing them in a short period of time.
따라서, 웹소설과 웹툰의 중간 영역의 해당하는 콘텐츠에 대한 요구가 증대되고 있으며, 해당 콘텐츠를 자동으로 생성하여 콘텐츠 생성 작업의 효율성을 증대시킬 수 있는 기술의 구현이 요구되고 있다.Therefore, the demand for content in the middle area between web novels and webtoons is increasing, and there is a need to implement technology that can automatically generate the content and increase the efficiency of content creation work.
일실시예에 따르면, 인공지능 모델을 활용하여 웹소설을 기반으로 웹북의 생성을 자동화하여 처리하는 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.According to one embodiment, the purpose is to provide a method, device, and system for automatically processing the creation of a web book based on a web novel using an artificial intelligence model.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned can be clearly understood from the description below.
일실시예에 따르면, 장치에 의해 수행되는, 인공지능 모델을 활용한 웹소설 기반 웹북 생성 자동화 처리 방법에 있어서, 사용자 단말로부터 웹소설의 텍스트를 획득하는 단계; 상기 웹소설의 텍스트를 미리 학습된 제1 인공지능 모델에 입력하고, 상기 제1 인공지능 모델의 입력에 대한 출력으로, 상기 웹소설의 텍스트를 대사와 지문으로 구분한 텍스트 집합을 획득하는 단계; 상기 텍스트 집합에서 지문으로 구분된 지문 텍스트를 미리 학습된 제2 인공지능 모델에 입력하고, 상기 제2 인공지능 모델의 입력에 대한 출력으로, 상기 지문 텍스트를 이용하여 지문 내용을 렌더링한 제1 이미지를 획득하는 단계; 상기 텍스트 집합에서 대사로 구분된 대사 텍스트와 상기 제1 이미지를 기반으로, 웹북을 생성하는 단계; 및 상기 웹북을 웹북 플랫폼 상에 업로드하여 등록하는 단계를 포함하는, 인공지능 모델을 활용한 웹소설 기반 웹북 생성 자동화 처리 방법이 제공된다.According to one embodiment, an automated processing method for creating a web novel-based web book using an artificial intelligence model, performed by a device, includes the steps of obtaining text of a web novel from a user terminal; Inputting the text of the web novel into a pre-trained first artificial intelligence model, and obtaining, as an output of the input of the first artificial intelligence model, a text set in which the text of the web novel is divided into dialogue and fingerprints; The fingerprint text classified into fingerprints in the text set is input to a pre-learned second artificial intelligence model, and as an output of the input of the second artificial intelligence model, the first image is rendered by using the fingerprint text to render the fingerprint contents. Obtaining a; generating a webbook based on the dialogue text divided into dialogues in the text set and the first image; An automated processing method for creating a web novel-based web book using an artificial intelligence model is provided, including the step of uploading and registering the web book on a web book platform.
상기 인공지능 모델을 활용한 웹소설 기반 웹북 생성 자동화 처리 방법은, 상기 텍스트 집합을 획득하는 단계 이후, 상기 대사 텍스트를 이용하여 대사 내용을 오디오로 변환한 제1 오디오를 생성하는 단계; 상기 제1 이미지가 획득되면, 상기 제1 오디오와 상기 제1 이미지를 기반으로, 오디오북을 생성하는 단계; 및 상기 오디오북을 오디오북 플랫폼 상에 업로드하여 등록하는 단계를 더 포함할 수 있다.The automated processing method for creating a web novel-based web book using the artificial intelligence model includes, after obtaining the text set, generating first audio by converting the dialogue content into audio using the dialogue text; When the first image is acquired, generating an audiobook based on the first audio and the first image; And it may further include uploading and registering the audiobook on an audiobook platform.
상기 인공지능 모델을 활용한 웹소설 기반 웹북 생성 자동화 처리 방법은, 상기 텍스트 집합을 획득하는 단계 이후, 상기 대사 텍스트 및 상기 지문 텍스트를 다국어로 번역하여 번역된 대사 텍스트 및 번역된 지문 텍스트를 생성하는 단계; 상기 번역된 대사 텍스트를 이용하여 대사 내용을 오디오로 변환한 제2 오디오를 생성하는 단계; 및 상기 대사 텍스트, 상기 지문 텍스트, 상기 제1 이미지, 상기 번역된 대사 텍스트, 상기 번역된 지문 텍스트, 상기 제1 오디오 및 상기 제2 오디오를 포함하는 웹북 컨테이너를 생성하는 단계를 더 포함할 수 있다.The automated processing method for creating a web novel-based web book using the artificial intelligence model includes, after the step of obtaining the text set, translating the dialogue text and the fingerprint text into multiple languages to generate translated dialogue text and translated fingerprint text. step; generating second audio by converting the dialogue content into audio using the translated dialogue text; and generating a webbook container including the dialogue text, the fingerprint text, the first image, the translated dialogue text, the translated fingerprint text, the first audio, and the second audio. .
일실시예에 따르면, 웹소설의 텍스트를 대사와 지문으로 구분하고, 지문 내용을 렌더링한 이미지를 획득하고, 대사와 이미지를 기반으로 웹북을 생성함으로써, 웹소설과 웹툰의 중간 영역의 해당하는 웹북 콘텐츠를 자동으로 생성하여 제공할 수 있는 효과가 있다.According to one embodiment, the text of the web novel is divided into dialogue and fingerprints, an image rendering the contents of the fingerprint is obtained, and a web book is created based on the dialogue and image, thereby creating a corresponding web book in the intermediate area between the web novel and the webtoon. It has the effect of automatically generating and providing content.
한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Meanwhile, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 인공지능 모델을 활용하여 웹소설 기반으로 웹북 및 오디오북의 생성을 자동화 처리하는 과정에 대한 파이프라인 툴 구성도를 도시한 도면이다.
도 3은 일실시예에 따른 웹소설을 기반으로 웹북을 생성하여 등록하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 웹소설을 기반으로 오디오북을 생성하여 등록하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 웹북 컨테이너를 생성하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 텍스트 내에서 대사와 지문을 구분하는 과정을 설명하기 위한 순서도이다.
도 7 일실시예에 따른 인공지능 모델 추천 플랫폼을 제공하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 장치의 구성의 예시도이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.
Figure 2 is a diagram illustrating the configuration of a pipeline tool for the process of automating the creation of web books and audio books based on web novels using an artificial intelligence model according to an embodiment.
Figure 3 is a flow chart to explain the process of creating and registering a web book based on a web novel according to an embodiment.
Figure 4 is a flow chart to explain the process of creating and registering an audiobook based on a web novel according to an embodiment.
Figure 5 is a flowchart explaining the process of creating a webbook container according to an embodiment.
Figure 6 is a flowchart for explaining the process of distinguishing between lines and passages in a text according to an embodiment.
Figure 7 is a flowchart explaining the process of providing an artificial intelligence model recommendation platform according to an embodiment.
Figure 8 is an exemplary diagram of the configuration of a device according to an embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. However, various changes can be made to the embodiments, so the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes for the embodiments are included in the scope of rights.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be modified and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are for descriptive purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the embodiments belong. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiments, if it is determined that detailed descriptions of related known technologies may unnecessarily obscure the gist of the embodiments, the detailed descriptions are omitted.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.Embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.
실시예에서 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 판매자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.In an embodiment, an artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike existing rule-based smart systems, it is a system in which machines learn and make decisions on their own. As artificial intelligence systems are used, recognition rates improve and sellers' tastes can be more accurately understood, and existing rule-based smart systems are gradually being replaced by deep learning-based artificial intelligence systems.
인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning and element technologies using machine learning. Machine learning is an algorithmic technology that classifies/learns the characteristics of input data on its own, and elemental technology is a technology that mimics the functions of the human brain such as cognition and judgment by utilizing machine learning algorithms such as deep learning, including linguistic understanding and visual It consists of technical areas such as understanding, reasoning/prediction, knowledge expression, and motion control.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology that recognizes and applies/processes human language/characters and includes natural language processing, machine translation, conversation systems, question and answer, and voice recognition/synthesis. Visual understanding is a technology that recognizes and processes objects like human vision, and includes object recognition, object tracking, image search, person recognition, scene understanding, spatial understanding, and image improvement. Inferential prediction is a technology that judges information to make logical inferences and predictions, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendations. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data creation/classification) and knowledge management (data utilization). Motion control is a technology that controls the autonomous driving of vehicles and the movement of robots, and includes motion control (navigation, collision, driving), operation control (behavior control), etc.
일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.Generally, in order to apply machine learning algorithms to real life, learning is performed using a trial and error method due to the nature of the basic methodology of machine learning. In particular, deep learning requires hundreds of thousands of iterations. It is impossible to execute this in an actual physical external environment, so instead, the actual physical external environment is virtually implemented on a computer and learning is performed through simulation.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.
도 1을 참조하면, 일실시예에 따른 시스템은 사용자 단말(10) 및 장치(20)를 포함할 수 있다.Referring to FIG. 1, a system according to one embodiment may include a user terminal 10 and a device 20.
먼저, 사용자 단말(10)과 장치(20)는 통신망을 통해 연결될 수 있으며, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성되어, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.First, the user terminal 10 and the device 20 can be connected through a communication network, and the communication network is configured regardless of the communication mode, such as wired or wireless, so that communication between servers and between servers and terminals is performed. It can be implemented in various forms.
사용자 단말(10)은 통신 기능을 갖춘 연산 장치로 구현될 수 있으며, 예를 들면, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다.The user terminal 10 may be implemented as a computing device with a communication function, and may be implemented as, for example, a mobile phone, a desktop PC, a laptop PC, a tablet PC, a smartphone, etc., but is not limited thereto, and is not limited to external devices. It can also be implemented as various types of communication devices that can be connected to a server.
사용자 단말(10)은 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 사용자 단말(10)은 장치(20)와 유무선으로 통신하도록 구성될 수 있다.The user terminal 10 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer. The user terminal 10 may be configured to communicate with the device 20 wired or wirelessly.
사용자 단말(10)은 장치(20)를 이용하여 서비스를 제공하는 자 내지 단체가 운영하는 웹 페이지에 접속되거나, 장치(20)를 이용하여 서비스를 제공하는 자 내지 단체가 개발·배포한 애플리케이션이 설치될 수 있다. 사용자 단말(10)은 웹 페이지 또는 애플리케이션을 통해 장치(20)와 연동될 수 있다.The user terminal 10 is connected to a web page operated by a person or organization providing services using the device 20, or an application developed and distributed by a person or organization providing services using the device 20. Can be installed. The user terminal 10 may be linked to the device 20 through a web page or application.
장치(20)는 장치(20)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(20)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(20)는 추론 기능을 수행하는 적어도 하나 이상의 인공지능 모델을 구비할 수 있다.The device 20 may be an own server owned by a person or organization that provides services using the device 20, a cloud server, or a p2p (peer-to-peer) collection of distributed nodes. It may be possible. The device 20 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer. The device 20 may be equipped with at least one artificial intelligence model that performs an inference function.
장치(20)는 사용자 단말(10)과 유무선으로 통신하도록 구성될 수 있으며, 사용자 단말(10)의 동작을 제어하고, 사용자 단말(10)의 화면에 어느 정보를 표시할 것인지에 대해 제어할 수 있다.The device 20 may be configured to communicate wired or wirelessly with the user terminal 10, control the operation of the user terminal 10, and control which information to display on the screen of the user terminal 10. .
장치(20)는 웹소설을 기반으로 웹북 및 오디오북을 생성하고 자동화 처리하는 서버로 구현될 수 있으며, 웹북 전용 플랫폼과 오디오북 전용 플랫폼을 각각 운영 및 관리할 수 있다.The device 20 can be implemented as a server that creates and automatically processes webbooks and audiobooks based on web novels, and can operate and manage a webbook-only platform and an audiobook-only platform, respectively.
일실시예에 따르면, 웹북은 웹소설과 웹툰의 중간 영역에 해당하는 콘텐츠로, 삽화와 텍스트로 구성된 이미지를 결합하여 생성될 수 있고, 오디오북은 책을 눈으로 읽는 대신에 귀로 들을 수 있게 제작한 콘텐츠로, 텍스트가 오디오로 변환되어 생성될 수 있다.According to one embodiment, a webbook is content that falls between a web novel and a webtoon, and can be created by combining images composed of illustrations and text, and an audiobook is produced so that the book can be listened to with the ears instead of read with the eyes. As one piece of content, text can be converted into audio and created.
장치(20)는 웹북을 웹북 전용 플랫폼에 업로드하여 등록할 수 있고, 오디오북을 오디오 전용 플랫폼에 업로드하여 등록할 수 있으며, 이를 통해, 플랫폼 이용자들은 웹북 전용 플랫폼을 통해 웹북을 제공받을 수 있고, 오디오 전용 플랫폼을 통해 오디오북을 제공받을 수 있다.The device 20 can upload and register a webbook to a webbook-only platform, and upload and register an audiobook to an audio-only platform. Through this, platform users can receive webbooks through the webbook-only platform, You can receive audiobooks through an audio-only platform.
한편, 설명의 편의를 위해 도 1에서는 사용자 단말(10) 만을 도시하였으나, 단말의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(20)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.Meanwhile, for convenience of explanation, only the user terminal 10 is shown in FIG. 1, but the number of terminals may vary depending on the embodiment. As long as the processing capacity of the device 20 allows, the number of terminals is not particularly limited.
일실시예에 따르면, 장치(20)는 인공지능 모델을 활용하여 웹소설을 기반으로 웹북 및 오디오북에 대한 생성을 자동화하여 처리할 수 있다.According to one embodiment, the device 20 can automatically process the creation of web books and audio books based on web novels using an artificial intelligence model.
본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.In the present invention, artificial intelligence (AI) refers to technology that imitates human learning ability, reasoning ability, perception ability, etc. and implements this with a computer, and includes concepts such as machine learning and symbolic logic. may include. Machine Learning (ML) is an algorithmic technology that classifies or learns the characteristics of input data on its own. Artificial intelligence technology is a machine learning algorithm that analyzes input data, learns the results of the analysis, and makes judgments or predictions based on the results of the learning. Additionally, technologies that mimic the functions of the human brain, such as cognition and judgment, using machine learning algorithms can also be understood as the category of artificial intelligence. For example, technical fields such as verbal understanding, visual understanding, reasoning/prediction, knowledge representation, and motion control may be included.
기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.Machine learning can refer to the process of training a neural network model using experience processing data. Machine learning can mean that computer software improves its own data processing capabilities. A neural network model is built by modeling the correlation between data, and the correlation can be expressed by a plurality of parameters. A neural network model extracts and analyzes features from given data to derive correlations between data. Repeating this process to optimize the parameters of the neural network model can be called machine learning. For example, a neural network model can learn the mapping (correlation) between input and output for data given as input-output pairs. Alternatively, a neural network model may learn the relationships by deriving regularities between given data even when only input data is given.
인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.An artificial intelligence learning model or neural network model may be designed to implement the human brain structure on a computer, and may include a plurality of network nodes with weights that simulate neurons of a human neural network. A plurality of network nodes may have a connection relationship with each other by simulating the synaptic activity of neurons in which neurons exchange signals through synapses. In an artificial intelligence learning model, multiple network nodes are located in layers of different depths and can exchange data according to convolutional connection relationships. The artificial intelligence learning model may be, for example, an artificial neural network model (Artificial Neural Network), a convolution neural network (CNN) model, etc. As an example, an artificial intelligence learning model may be machine-learned according to methods such as supervised learning, unsupervised learning, and reinforcement learning. Machine learning algorithms for performing machine learning include Decision Tree, Bayesian Network, Support Vector Machine, Artificial Neural Network, and Ada-boost. , Perceptron, Genetic Programming, Clustering, etc. can be used.
이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.Among them, CNN is a type of multilayer perceptrons designed to use minimal preprocessing. CNN consists of one or several convolution layers and general artificial neural network layers on top of them, and additionally utilizes weights and pooling layers. Thanks to this structure, CNN can fully utilize input data with a two-dimensional structure. Compared to other deep learning structures, CNN shows good performance in both video and audio fields. CNNs can also be trained via standard back propagation. CNNs have the advantage of being easier to train and using fewer parameters than other feedforward artificial neural network techniques.
컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.Convolutional networks are neural networks that contain sets of nodes with bound parameters. The increasing size of available training data and the availability of computational power, combined with algorithmic advances such as piecewise linear unit and dropout training, have led to significant improvements in many computer vision tasks. For extremely large data sets, such as those available for many tasks today, overfitting is not critical, and increasing the size of the network improves test accuracy. Optimal use of computing resources becomes a limiting factor. For this purpose, distributed, scalable implementations of deep neural networks can be used.
도 2는 일실시예에 따른 인공지능 모델을 활용하여 웹소설 기반으로 웹북 및 오디오북의 생성을 자동화 처리하는 과정에 대한 파이프라인 툴 구성도를 도시한 도면이다.Figure 2 is a diagram illustrating the configuration of a pipeline tool for the process of automating the creation of web books and audio books based on web novels using an artificial intelligence model according to an embodiment.
도 2에 도시된 각 단계는 장치(20)에 의해 수행될 수 있다.Each step shown in FIG. 2 can be performed by device 20.
도 2를 참조하면, 먼저, 110 단계는 Input Text 단계로, 웹소설의 텍스트가 입력될 수 있다. 이때, 웹소설의 텍스트는 사용자 단말(10)을 통해 입력될 수 있다.Referring to Figure 2, first, step 110 is the Input Text step, where the text of a web novel can be input. At this time, the text of the web novel can be input through the user terminal 10.
120 단계는 Input Image 단계로, 텍스트가 쓰여있는 이미지 파일이 입력될 수 있다. 이때, 이미지 파일은 사용자 단말(10)을 통해 입력될 수 있다.Step 120 is the Input Image step, where an image file with text written on it can be input. At this time, the image file can be input through the user terminal 10.
130 단계는 Image To Text 단계로, 120 단계에서 입력된 이미지를 텍스트로 변환할 수 있다. 이때, 인공지능을 통해 이미지의 텍스트를 분석하여 텍스트를 생성할 수 있다. 130 단계에서 활용되는 인공지능은 이미지를 입력 데이터로 하고 텍스트를 출력 데이터로 하여, 입력된 이미지의 분석을 통해 이미지와 어울리는 텍스트를 생성하여 출력하도록 학습된 상태일 수 있다.Step 130 is the Image To Text step, where the image entered in step 120 can be converted to text. At this time, text can be created by analyzing the text in the image through artificial intelligence. The artificial intelligence used in step 130 may be trained to use images as input data and text as output data, and to generate and output text matching the images through analysis of the input images.
140 단계는 GTP(Generative Pre-Training) 단계로, 110 단계에서 입력된 텍스트와 120 단계에서 변환된 텍스트를 받아서 지문과 대사를 구분할 수 있다. 이때, 인공지능을 통해 텍스트 내에서 지문과 대사를 분리할 수 있다. 140 단계에서 활용되는 인공지능은 2개의 모델 셋으로 구성될 수 있으며, 원본 텍스트와 지문 제거 데이터를 기반으로 학습된 대사 인공지능 모델과 원본 텍스트와 대사 제거 데이터를 기반으로 학습된 지문 인공지능 모델로 구성될 수 있다.Step 140 is the GTP (Generative Pre-Training) step, which receives the text input at step 110 and the converted text at step 120 and can distinguish between fingerprints and dialogue. At this time, artificial intelligence can be used to separate fingerprints and dialogue within the text. The artificial intelligence used in step 140 can be composed of two model sets: a dialogue artificial intelligence model learned based on the original text and fingerprint removal data, and a fingerprint artificial intelligence model learned based on the original text and dialogue removal data. It can be configured.
즉, 대사 인공지능 모델은 텍스트를 입력 데이터로 하고 대사를 출력 데이터로 하여, 입력된 텍스트의 분석을 통해 텍스트 내에서 대사를 선별하여 출력하도록 학습된 상태이고, 지문 인공지능 모델은 텍스트를 입력 데이터로 하고 지문을 출력 데이터로 하여, 입력된 텍스트의 분석을 통해 텍스트 내에서 지문을 선별하여 출력하도록 학습된 상태이다.In other words, the dialogue artificial intelligence model uses text as input data and dialogue as output data, and is trained to select and output dialogue within the text through analysis of the input text, and the fingerprint artificial intelligence model uses text as input data. With the fingerprint as the output data, it is learned to select and output the fingerprint within the text through analysis of the input text.
150 단계는 GPT Result 단계로, 140 단계를 통해 대사와 지문으로 구분된 텍스트 집합을 획득할 수 있다. 즉, GPT를 활용하여 텍스트 내에서 지문과 대사가 각각 구분되면, 대사로 구분된 텍스트와 지문으로 구분된 텍스트를 묶어 대사와 지문으로 구분된 텍스트 집합을 생성할 수 있다.Step 150 is the GPT Result step, and through step 140, a text set divided into dialogue and fingerprint can be obtained. In other words, if fingerprints and lines are separated within a text using GPT, a set of texts divided into lines and fingerprints can be created by combining the text separated by lines and the text separated by fingerprints.
160 단계는 Text To Image 단계로, 지문으로 구분된 텍스트를 이미지로 변환할 수 있다. 이때, 인공지능을 통해 텍스트를 분석하여 이미지를 생성할 수 있다. 160 단계에서 활용되는 인공지능은 텍스트를 입력 데이터로 하고 이미지를 출력 데이터로 하여, 입력된 텍스트의 분석을 통해 렌더링한 이미지를 생성하여 출력하도록 학습된 상태일 수 있다.Step 160 is the Text To Image step, where text separated by fingerprints can be converted to an image. At this time, images can be created by analyzing text through artificial intelligence. The artificial intelligence used in step 160 may be trained to generate and output a rendered image through analysis of the input text, using text as input data and an image as output data.
170 단계는 Text To i18n-Text 단계로, 150 단계를 통해 획득된 텍스트 집합을 다국어로 번역한 텍스트 집합을 생성할 수 있다. 이때, 인공지능을 통해 대사와 지문 텍스트를 번역하여 번역한 텍스트 집합을 생성할 수 있다. 170 단계에서 활용되는 인공지능은 텍스트를 입력 데이터로 하고 번역한 텍스트를 출력 데이터로 하여, 입력된 텍스트의 분석을 통해 다국어로 번역한 텍스트를 생성하여 출력하도록 학습된 상태일 수 있다.Step 170 is the Text To i18n-Text step, and a text set obtained by translating the text set obtained through step 150 into multiple languages can be created. At this time, it is possible to create a set of translated texts by translating the dialogue and fingerprint text through artificial intelligence. The artificial intelligence used in step 170 may be trained to use text as input data and translated text as output data, and to generate and output translated text in multiple languages through analysis of the input text.
180 단계는 i18n-Text To i18n-Audio 단계로, 170 단계를 통해 생성된 다국어로 번역한 텍스트 집합을 오디오로 변환하여 다국어로 변환된 오디오 집합을 생성할 수 있다. 이때, 인공지능을 통해 다국어로 번역한 텍스트 집합을 오디오로 변환하여 오디오 집합을 생성할 수 있다. 180 단계에서 활용되는 인공지능은 다국어로 변환한 텍스트를 입력 데이터로 하고 다국어로 변환된 오디오 집합을 출력 데이터로 하여, 입력된 다국어로 번역한 텍스트의 분석을 통해 다국어로 변환된 오디오 집합을 생성하여 출력하도록 학습된 상태일 수 있다.Step 180 is the i18n-Text To i18n-Audio step, and the text set translated into multiple languages created through step 170 can be converted into audio to create an audio set converted into multiple languages. At this time, an audio set can be created by converting a text set translated into multiple languages into audio through artificial intelligence. The artificial intelligence used in step 180 uses text converted into multiple languages as input data and a set of audio converted into multiple languages as output data, and generates a set of audio converted into multiple languages through analysis of the text translated into multiple languages. It may be in a state where it has been learned to output.
190 단계는 WebBook Container 단계로, 150 단계, 160 단계, 170 단계 및 180 단계를 통해 생성된 결과를 포함하는 웹북 컨테이너를 생성할 수 있다. 여기서, 웹북 컨테이너는 대사, 지문, 이미지, 다국어로 번역한 텍스트 집합, 다국어로 변환된 오디오 집합 등을 포함하여 구성될 수 있다.Step 190 is the WebBook Container step, which can create a webbook container containing the results generated through steps 150, 160, 170, and 180. Here, the webbook container may be composed of dialogue, fingerprints, images, text sets translated into multiple languages, audio sets converted into multiple languages, etc.
웹북 컨테이너를 기반으로, 웹북 및 오디오북을 생성할 수 있으며, 웹북은 순서를 가진 여러 개의 블록의 집합으로 구성될 수 있다.Based on the webbook container, webbooks and audiobooks can be created, and a webbook can be composed of a set of multiple blocks with an order.
200 단계는 Platform Upload 단계로, 웹북 컨테이너를 기반으로 웹북이 생성되면, 웹북을 웹북 전용 플랫폼 상에 업로드하여 등록할 수 있다.Step 200 is the Platform Upload step. When a webbook is created based on a webbook container, the webbook can be uploaded and registered on a dedicated webbook platform.
210 단계는 AudioBook Upload 단계로, 웹북 컨테이너를 기반으로 오디오북이 생성되면, 오디오북을 오디오북 전용 플랫폼 상에 업로드하여 등록할 수 있다.Step 210 is the AudioBook Upload step. When an audiobook is created based on a webbook container, the audiobook can be uploaded and registered on an audiobook-specific platform.
도 3은 일실시예에 따른 웹소설을 기반으로 웹북을 생성하여 등록하는 과정을 설명하기 위한 순서도이다.Figure 3 is a flow chart to explain the process of creating and registering a web book based on a web novel according to an embodiment.
도 3을 참조하면, 먼저, S301 단계에서, 장치(20)는 사용자 단말(10)로부터 웹소설의 텍스트를 획득할 수 있다.Referring to FIG. 3, first, in step S301, the device 20 may obtain the text of the web novel from the user terminal 10.
즉, 사용자가 사용자 단말(10)을 통해 웹북으로 생성하고자 하는 웹소설을 선택하면, 사용자 단말(10)은 선택된 웹소설의 텍스트를 장치(20)로 전송할 수 있으며, 장치(20)는 사용자 단말(10)로부터 웹소설의 텍스트를 획득할 수 있다.That is, when the user selects a web novel that he or she wants to create as a web book through the user terminal 10, the user terminal 10 can transmit the text of the selected web novel to the device 20, and the device 20 can transmit the text of the selected web novel to the device 20. You can obtain the text of the web novel from (10).
S302 단계에서, 장치(20)는 웹소설의 텍스트를 제1 인공지능 모델에 입력할 수 있다. 여기서, 제1 인공지능 모델은 140 단계에서 활용된 인공지능으로, 텍스트 내에서 대사와 지문을 구분하도록 미리 학습된 상태일 수 있다. In step S302, the device 20 may input the text of the web novel into the first artificial intelligence model. Here, the first artificial intelligence model is the artificial intelligence used in step 140 and may be pre-trained to distinguish between lines and fingerprints within the text.
S303 단계에서, 장치(20)는 제1 인공지능 모델의 입력에 대한 출력으로, 웹소설의 텍스트를 대사와 지문으로 구분한 텍스트 집합을 획득할 수 있다. 여기서, 텍스트 집합은 웹소설의 텍스트 내에서 대사로 구분된 대사 텍스트와 지문으로 구분된 지문 텍스트를 포함하여 구성될 수 있다. 제1 인공지능 모델이 텍스트 내에서 대사와 지문을 구분하는 과정에 대한 자세한 설명은 도 6을 참조하여 후술하기로 한다.In step S303, the device 20 may obtain a text set in which the text of the web novel is divided into dialogue and fingerprints as an output for the input of the first artificial intelligence model. Here, the text set may be composed of dialogue text divided into lines and fingerprint text divided into fingerprints within the text of the web novel. A detailed explanation of the process by which the first artificial intelligence model distinguishes between dialogue and fingerprints within the text will be described later with reference to FIG. 6.
예를 들어, 제1 인공지능 모델은 대사 인공지능 모델과 지문 인공지능 모델로 구성될 수 있고, 웹소설의 텍스트가 입력되면, 대사 인공지능 모델은 웹소설의 텍스트 내에서 대사를 선별하여 대사 텍스트를 출력할 수 있고, 지문 인공지능 모델은 웹소설의 텍스트 내에서 지문을 선별하여 지문 텍스트를 출력할 수 있다.For example, the first artificial intelligence model may be composed of a dialogue artificial intelligence model and a fingerprint artificial intelligence model, and when the text of a web novel is input, the dialogue artificial intelligence model selects the dialogue within the text of the web novel and creates the dialogue text. can be output, and the fingerprint artificial intelligence model can select fingerprints within the text of a web novel and output fingerprint text.
제1 인공지능 모델은 대사 텍스트 및 지문 텍스트를 결합하여 텍스트 집합을 생성하고 생성된 텍스트 집합을 출력할 수 있으며, 이를 통해, 장치(20)는 제1 인공지능 모델의 입력에 대한 출력으로, 텍스트 집합을 획득할 수 있다.The first artificial intelligence model may generate a text set by combining the dialogue text and the fingerprint text and output the generated text set. Through this, the device 20 may output the text as an output for the input of the first artificial intelligence model. A set can be obtained.
제1 인공지능 모델은 다양한 방식을 통해 대사와 지문을 구분할 수 있는데, 텍스트 마이닝 기술을 활용하여 대사와 지문에 대한 특정한 패턴을 추출하고, 이를 기반으로 대사와 지문을 구분할 수 있다.The first artificial intelligence model can distinguish between dialogue and fingerprints through various methods. Text mining technology is used to extract specific patterns for dialogue and fingerprints, and based on this, dialogue and fingerprints can be distinguished.
예를 들어, 대사는 인물의 발화를 나타내는 부분으로, 인물의 이름을 포함하거나, 따옴표, 괄호 등과 같은 대사를 표시하는 특수한 패턴을 가지고 있으므로, 이와 같은 패턴을 학습하여 대사를 구분할 수 있다. For example, dialogue is a part of a character's speech that includes the character's name or has a special pattern that marks the dialogue, such as quotation marks or parentheses, so the dialogue can be distinguished by learning these patterns.
또한, 지문은 대사 이외의 부가적인 설명을 담고 있는 부분으로, 인물의 행동, 배경 설명, 감정 등을 설명하고 있으므로, 이를 나타내는 키워드를 학습하여 지문을 구분할 수 있다.In addition, the fingerprint is a part that contains additional explanations other than the dialogue, and explains the character's behavior, background explanation, emotions, etc., so the fingerprint can be distinguished by learning keywords representing these.
일실시예에 따르면, 제1 인공지능은 언어의 의미를 파악하는 인공지능 모델을 대사와 지문을 구분하는 인공지능 모델로 fine tuning하여 학습될 수 있다. 이때, 학습 장치는 장치(20)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다.According to one embodiment, the first artificial intelligence can be learned by fine tuning an artificial intelligence model that understands the meaning of language into an artificial intelligence model that distinguishes between lines and fingerprints. At this time, the learning device may be the same device as the device 20 or may be a separate device.
구체적으로, 학습 장치는 언어 모델을 구현하는데 사용할 Pre-trained 모델을 선택할 수 있다. 예를 들어, BERT, GPT, RoBERTa 등의 모델을 사용할 수 있다.Specifically, the learning device can select a pre-trained model to use to implement the language model. For example, models such as BERT, GPT, and RoBERTa can be used.
이후, 학습 장치는 대사와 지문에 해당하는 데이터를 수집하고, 이를 전처리할 수 있다. 전처리 단계에서는, 특수문자나 불필요한 단어를 제거하거나 대문자와 소문자를 통일하는 등의 과정을 거칠 수 있다.Afterwards, the learning device can collect data corresponding to dialogue and fingerprints and preprocess it. In the preprocessing stage, you can go through processes such as removing special characters or unnecessary words or unifying uppercase and lowercase letters.
이후, 학습 장치는 Pre-trained 언어 모델의 가중치를 이용하여 대사와 지문을 구분하는 모델을 fine-tuning 할 수 있다. 대사와 지문을 구분하는 데는 다양한 방법이 있을 수 있으며, 예를 들어, 대사는 화자 이름, 대사 표시, 텍스트 마이닝 등의 특징을 활용하여 구분할 수 있다.Afterwards, the learning device can fine-tune the model that distinguishes between dialogue and fingerprints using the weights of the pre-trained language model. There can be various ways to distinguish between lines and fingerprints. For example, lines can be distinguished using features such as speaker name, line marking, and text mining.
이후, 학습 장치는 학습된 모델의 성능을 평가할 수 있다. 이를 위해, 테스트 데이터를 사용하여 모델의 정확도, 정밀도, 재현율 등의 지표를 살펴볼 수 있다.Afterwards, the learning device can evaluate the performance of the learned model. To this end, you can use test data to examine indicators such as model accuracy, precision, and recall.
이후, 학습 장치는 학습된 모델을 실제 응용 프로그램에 적용할 수 있다. 예를 들어, 영화 대본에서 대사와 지문을 구분하는 기능을 구현할 수 있다.Afterwards, the learning device can apply the learned model to actual applications. For example, a function to distinguish between dialogue and text in a movie script can be implemented.
위와 같은 방법으로, Pre-trained 언어 모델을 이용하여 대사와 지문을 구분하는 인공지능 모델을 fine-tuning할 수 있다. 이를 통해, 대화와 같은 자연어 처리 분야에서 다양한 응용이 가능해질 수 있다.In the same way as above, you can fine-tune the artificial intelligence model that distinguishes between dialogue and fingerprints using a pre-trained language model. Through this, various applications can be possible in the field of natural language processing, such as conversation.
S304 단계에서, 장치(20)는 텍스트 집합에서 지문으로 구분된 지문 텍스트를 제2 인공지능 모델에 입력할 수 있다. 여기서, 제2 인공지능 모델은 160 단계에서 활용된 인공지능으로, 텍스트의 분석을 통해 렌더링한 이미지를 생성하도록 미리 학습된 상태일 수 있다. In step S304, the device 20 may input the fingerprint text divided into fingerprints from the text set into the second artificial intelligence model. Here, the second artificial intelligence model is the artificial intelligence used in step 160 and may be pre-trained to generate a rendered image through analysis of text.
S305 단계에서, 장치(20)는 제2 인공지능 모델의 입력에 대한 출력으로, 지문 텍스트를 이용하여 지문 내용을 렌더링한 제1 이미지를 획득할 수 있다.In step S305, the device 20 may obtain a first image in which fingerprint content is rendered using fingerprint text as an output in response to the input of the second artificial intelligence model.
제2 인공지능 모델은 텍스트를 분석하여 이미지를 생성하는 인공지능 모델로, 텍스트를 입력으로 받아서 해당 텍스트 내용을 시각적인 형태로 표현하는 이미지를 출력하는 모델이다.The second artificial intelligence model is an artificial intelligence model that analyzes text and creates an image. It is a model that receives text as input and outputs an image that expresses the text content in a visual form.
제2 인공지능 모델은 주로 자연어 처리 분야에서 사용될 수 있으며, 텍스트 내용에서 중요한 정보를 추출하여 그에 맞는 이미지를 생성할 수 있다. 예를 들어, "나무 아래에서 쉬는 고양이"라는 문장을 입력하면 이를 분석하여 나무와 고양이가 있는 이미지를 생성할 수 있다.The second artificial intelligence model can be mainly used in the field of natural language processing and can extract important information from text content and create an image appropriate for it. For example, if you enter the sentence “cat resting under a tree,” it can be analyzed to generate an image of a tree and a cat.
제2 인공지능 모델은 딥러닝 모델의 한 종류인 생성 모델 중 하나로, 대표적으로 GAN(Generative Adversarial Networks)이 사용될 수 있으며, 생성자(generator)와 판별자(discriminator)라는 두 개의 신경망을 사용하여 이미지를 생성하고, 생성된 이미지를 진짜 이미지와 구분하는 판별자 신경망을 학습할 수 있다. 이 과정에서 생성자 신경망은 판별자 신경망을 학습시키기 위해 다양한 이미지를 생성할 수 있다.The second artificial intelligence model is one of the generative models, a type of deep learning model. GAN (Generative Adversarial Networks) can be used as a representative example, and it uses two neural networks, a generator and a discriminator, to generate images. You can create and learn a discriminator neural network that distinguishes generated images from real images. In this process, the generator neural network can generate various images to train the discriminator neural network.
이와 같이, 제2 인공지능 모델은 텍스트를 이미지로 변환하여 효과적인 비주얼 표현을 할 수 있는데 활용될 수 있다.In this way, the second artificial intelligence model can be used to convert text into images for effective visual expression.
일실시예에 따르면, 제2 인공지능 모델은 텍스트를 이미지로 생성하는 이미지 처리 모델을 영화화하는 과정에 필요한 이미지를 생성하는 이미지 처리 모델로 fine tuning하여 학습될 수 있다. 이때, 학습 장치는 장치(20)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다.According to one embodiment, the second artificial intelligence model can be learned by fine tuning an image processing model that generates text into images into an image processing model that generates images necessary for the movie making process. At this time, the learning device may be the same device as the device 20 or may be a separate device.
구체적으로, 학습 장치는 이미지 생성을 위한 기본 모델로 GAN(Generative Adversarial Networks) 등의 딥러닝 모델을 사용하여 미리 학습된 텍스트 이미지 생성 모델을 준비할 수 있다. 텍스트 이미지 생성 모델은 텍스트를 이미지로 변환하는 기본적인 능력을 가지고 있다.Specifically, the learning device can prepare a pre-trained text image generation model using a deep learning model such as GAN (Generative Adversarial Networks) as a basic model for image generation. The text image generation model has the basic ability to convert text into images.
이후, 학습 장치는 영화화를 위해 필요한 이미지 데이터셋을 수집할 수 있다. 이 데이터셋은 영화 화면의 장면과 캐릭터 등의 이미지를 포함할 수 있다.Afterwards, the learning device can collect the image dataset needed for filmmaking. This dataset may include images of movie scenes and characters.
이후, 학습 장치는 수집한 데이터셋을 전처리하여 이미지의 크기와 형식을 텍스트 이미지 생성 모델이 사용할 수 있는 형식으로 변환할 수 있다.Afterwards, the learning device can preprocess the collected dataset to convert the size and format of the image into a format that can be used by the text image creation model.
이후, 학습 장치는 텍스트 이미지 생성 모델과 전처리된 영화화 데이터셋을 사용하여 제2 인공지능 모델에 대한 fine-tuning을 수행할 수 있다. 이 과정에서 제2 인공지능 모델은 텍스트 이미지 생성 모델을 기반으로 영화화하는 과정에 필요한 이미지를 생성할 수 있다. 이때, 생성된 이미지가 영화화의 목적에 맞게 생성되도록 제2 인공지능 모델을 조정하는 fine-tuning을 수행할 수 있다.Afterwards, the learning device can perform fine-tuning on the second artificial intelligence model using the text image generation model and the preprocessed movie dataset. In this process, the second artificial intelligence model can generate images necessary for the filmmaking process based on the text image generation model. At this time, fine-tuning can be performed to adjust the second artificial intelligence model so that the generated image is created to suit the purpose of filmmaking.
이후, 학습 장치는 제2 인공지능 모델을 평가할 수 있다. 이때, 제2 인공지능 모델을 통해 생성된 이미지가 영화화 과정에서 사용될 수 있는 수준인지 확인하고 필요에 따라 제2 인공지능 모델을 수정할 수 있다.Afterwards, the learning device may evaluate the second artificial intelligence model. At this time, it is possible to check whether the image generated through the second artificial intelligence model is at a level that can be used in the filmmaking process and modify the second artificial intelligence model as necessary.
이후, 학습 장치는 제2 인공지능 모델을 영화화 과정에서 적용할 수 있다. 이를 통해 텍스트를 이미지로 변환하여 영화화하는데 필요한 이미지를 생성할 수 있다.Afterwards, the learning device can apply the second artificial intelligence model in the movie making process. Through this, you can convert text into images and create the images needed to make a movie.
이와 같은 방법을 통해, 텍스트를 이미지로 생성하는 모델을 영화화 과정에서 필요한 이미지로 생성하는 모델로 fine-tuning할 수 있으며, 이를 통해, 제2 인공지능 모델은 보다 효과적으로 영화화 과정에서 필요한 이미지를 생성할 수 있다.Through this method, the model that generates text into images can be fine-tuned into a model that generates images needed in the filmmaking process. Through this, the second artificial intelligence model can more effectively generate the images needed in the filmmaking process. You can.
S306 단계에서, 장치(20)는 텍스트 집합에서 대사로 구분된 대사 텍스트와 제1 이미지를 기반으로, 웹북을 생성할 수 있다.In step S306, the device 20 may create a webbook based on the first image and the dialogue text divided into dialogues in the text set.
즉, 장치(20)는 웹소설의 텍스트에서 대사와 지문을 구분한 후, 지문과 관련된 이미지를 생성한 후, 대사와 이미지를 결합하여, 웹북을 생성할 수 있다. 이때, 대사는 텍스트 형식 그대로 웹북에 삽입될 수 있고, 이미지는 삽화 형식으로 웹북에 삽입될 수 있다.That is, the device 20 can distinguish dialogue and fingerprints from the text of a web novel, create an image related to the fingerprint, and then combine the dialogue and images to create a web book. At this time, the dialogue can be inserted into the webbook in text format, and the images can be inserted into the webbook in illustration format.
S307 단계에서, 장치(20)는 웹북을 웹북 플랫폼 상에 업로드하여 등록할 수 있다.In step S307, the device 20 may upload and register a webbook on the webbook platform.
즉, 장치(20)는 웹북이 생성되면, 200 단계와 같이, 웹북을 웹북 전용 플랫폼 상에 업로드하여, 플랫폼 이용자들이 새로 생성된 웹북을 제공받을 수 있도록 처리할 수 있다.That is, when a webbook is created, the device 20 can upload the webbook to a webbook-specific platform in step 200 so that platform users can receive the newly created webbook.
도 4는 일실시예에 따른 웹소설을 기반으로 오디오북을 생성하여 등록하는 과정을 설명하기 위한 순서도이다.Figure 4 is a flow chart to explain the process of creating and registering an audiobook based on a web novel according to an embodiment.
도 4를 참조하면, 먼저, S401 단계에서, 장치(20)는 웹소설의 텍스트를 대사와 지문으로 구분한 텍스트 집합이 획득되면, 텍스트 집합에서 대사로 구분된 대사 텍스트를 이용하여 대사 내용을 오디오로 변환한 제1 오디오를 생성할 수 있다. 이때, 장치(20)는 인공지능 모델을 활용하여 대사 내용을 오디오로 변환할 수 있으며, 여기서 활용된 인공지능 모델은 180 단계에서 활용된 인공지능으로, 텍스트를 오디오로 변환하도록 미리 학습된 상태일 수 있다. Referring to FIG. 4, first, in step S401, when the device 20 obtains a text set in which the text of the web novel is divided into dialogue and fingerprints, the dialogue content is converted into audio using the dialogue text divided into dialogue in the text set. The first audio converted to can be generated. At this time, the device 20 can convert the dialogue content into audio using an artificial intelligence model, and the artificial intelligence model used here is the artificial intelligence used in step 180 and is pre-trained to convert text into audio. You can.
S402 단계에서, 장치(20)는 제1 이미지가 획득되면, 제1 오디오와 제1 이미지를 기반으로, 오디오북을 생성할 수 있다.In step S402, when the first image is acquired, the device 20 may generate an audiobook based on the first audio and the first image.
즉, 장치(20)는 웹소설의 텍스트에서 대사와 지문을 구분한 후, 대사를 오디오로 변환하고 지문과 관련된 이미지를 생성한 후, 오디오와 이미지를 결합하여, 오디오북을 생성할 수 있다. 이때, 대사는 오디오 형식으로 오디오북에 삽입될 수 있고, 이미지는 삽화 형식으로 오디오북에 삽입될 수 있다.That is, the device 20 can distinguish dialogue and fingerprints from the text of a web novel, convert the dialogue into audio, generate an image related to the fingerprint, and then combine the audio and images to create an audiobook. At this time, dialogue can be inserted into the audiobook in audio format, and images can be inserted into the audiobook in illustration format.
S403 단계에서, 장치(20)는 오디오북을 오디오북 플랫폼 상에 업로드하여 등록할 수 있다.In step S403, the device 20 may upload and register the audiobook on the audiobook platform.
즉, 장치(20)는 오디오북이 생성되면, 210 단계와 같이, 오디오북을 오디오북 전용 플랫폼 상에 업로드하여, 플랫폼 이용자들이 새로 생성된 오디오북을 제공받을 수 있도록 처리할 수 있다.That is, when an audiobook is created, the device 20 uploads the audiobook to an audiobook-only platform, as in step 210, so that platform users can receive the newly created audiobook.
도 5는 일실시예에 따른 웹북 컨테이너를 생성하는 과정을 설명하기 위한 순서도이다.Figure 5 is a flowchart explaining the process of creating a webbook container according to an embodiment.
도 5를 참조하면, 먼저, S501 단계에서, 장치(20)는 웹소설의 텍스트를 대사와 지문으로 구분한 텍스트 집합이 획득되면, 대사 텍스트 및 지문 텍스트를 다국어로 번역하여 번역된 대사 텍스트 및 번역된 지문 텍스트를 생성할 수 있다. 이때, 장치(20)는 인공지능 모델을 활용하여 대사 텍스트를 번역하여 번역된 대사 텍스트를 생성하고 지문 텍스트를 번역하여 번역된 지문 텍스트를 생성할 수 있으며, 여기서 활용된 인공지능 모델은 180 단계에서 활용된 인공지능으로, 텍스트를 다국어로 번역하도록 미리 학습된 상태일 수 있다.Referring to FIG. 5, first, in step S501, when a text set that divides the text of the web novel into dialogue and fingerprints is obtained, the device 20 translates the dialogue text and fingerprint text into multiple languages to produce the translated dialogue text and translation. can generate fingerprint text. At this time, the device 20 may utilize an artificial intelligence model to translate the dialogue text to generate a translated dialogue text and translate the fingerprint text to generate a translated fingerprint text. The artificial intelligence model used here is used in step 180. The artificial intelligence used may be pre-trained to translate text into multiple languages.
S502 단계에서, 장치(20)는 번역된 대사 텍스트를 이용하여 대사 내용을 오디오로 변환한 제2 오디오를 생성할 수 있다. 이때, 장치(20)는 인공지능 모델을 활용하여 대사 내용을 오디오로 변환할 수 있으며, 여기서 활용된 인공지능 모델은 180 단계에서 활용된 인공지능으로, 텍스트를 오디오로 변환하도록 미리 학습된 상태일 수 있다. In step S502, the device 20 may generate second audio by converting the dialogue content into audio using the translated dialogue text. At this time, the device 20 can convert the dialogue content into audio using an artificial intelligence model, and the artificial intelligence model used here is the artificial intelligence used in step 180 and is pre-trained to convert text into audio. You can.
S503 단계에서, 장치(20)는 대사 텍스트, 지문 텍스트, 제1 이미지, 번역된 대사 텍스트, 번역된 지문 텍스트, 제1 오디오 및 제2 오디오를 포함하는 웹북 컨테이너를 생성할 수 있다.In step S503, the device 20 may create a webbook container including dialogue text, fingerprint text, first image, translated dialogue text, translated fingerprint text, first audio, and second audio.
즉, 장치(20)는 190 단계와 같이, 대사, 지문, 이미지, 번역된 대사, 번역된 지문, 오디오, 번역된 오디오 등을 포함하여 웹북 컨테이너를 생성할 수 있다.That is, the device 20 may create a webbook container including dialogue, fingerprints, images, translated dialogue, translated fingerprints, audio, translated audio, etc., as in step 190.
장치(20)는 웹북 컨테이너가 생성되면, 웹북 컨테이너를 기반으로 웹북 및 오디오북을 생성할 수 있으며, 웹북이 생성되면, 200 단계와 같이, 웹북을 웹북 플랫폼 상에 업로드하여 등록할 수 있고, 오디오북이 생성되면, 210 단계와 같이, 오디오북을 오디오북 플랫폼 상에 업로드하여 등록할 수 있다.When the webbook container is created, the device 20 can create a webbook and an audiobook based on the webbook container, and when the webbook is created, the webbook can be uploaded and registered on the webbook platform as in step 200, and audio Once the book is created, the audiobook can be uploaded and registered on the audiobook platform, as in step 210.
도 6은 일실시예에 따른 텍스트 내에서 대사와 지문을 구분하는 과정을 설명하기 위한 순서도이다.Figure 6 is a flowchart for explaining the process of distinguishing between lines and passages in a text according to an embodiment.
도 6을 참조하면, 먼저, S601 단계에서, 제1 인공지능 모델은 웹소설의 텍스트가 입력되면, 웹소설의 텍스트 중에서 어느 하나인 제1 문장을 추출할 수 있다.Referring to Figure 6, first, in step S601, when the text of the web novel is input, the first artificial intelligence model can extract the first sentence, which is one of the texts of the web novel.
S602 단계에서, 제1 인공지능 모델은 제1 문장 내에 있는 제1 키워드를 인식할 수 있다.In step S602, the first artificial intelligence model may recognize the first keyword in the first sentence.
제1 인공지능 모델은 제1 문장 내에 복수의 키워드가 인식된 경우, 각 키워드 별로 중요도를 산출할 수 있으며, 중요도가 가장 높은 키워드를 제1 키워드로 인식할 수 있다.When multiple keywords are recognized in the first sentence, the first artificial intelligence model can calculate the importance of each keyword and recognize the keyword with the highest importance as the first keyword.
구체적으로, 제1 인공지능 모델은 제1 문장에 대해 형태소 분석(morphological analysis), 통사 분석(syntactic analysis), 의미 분석(semantic analysis) 및 화용 분석(pragmatic analysis)을 수행하여 제1 문장 내에 있는 키워드를 인식할 수 있으며, 인식된 키워드가 웹소설 상에서 얼마나 많이 사용되는지 확인하여, 사용 횟수에 따라 키워드의 중요도를 산출할 수 있다. 이를 위해, 제1 인공지능 모델과 연결된 데이터베이스에는 키워드 별로 웹소설 상에서 사용된 사용 횟수에 대한 정보가 저장되어 있으며, 제1 인공지능 모델은 데이터베이스를 조회하여 키워드 별로 사용 횟수를 확인할 수 있다.Specifically, the first artificial intelligence model performs morphological analysis, syntactic analysis, semantic analysis, and pragmatic analysis on the first sentence and performs keywords in the first sentence. can be recognized, and by checking how often the recognized keyword is used in web novels, the importance of the keyword can be calculated according to the number of uses. To this end, the database connected to the first artificial intelligence model stores information on the number of uses for each keyword in the web novel, and the first artificial intelligence model can check the number of uses for each keyword by searching the database.
S603 단계에서, 제1 인공지능 모델은 제1 키워드가 대사로 사용될 확률을 제1 비율로 설정하고, 제1 키워드가 지문으로 사용될 확률을 제2 비율로 설정할 수 있다.In step S603, the first artificial intelligence model may set the probability that the first keyword will be used as a dialogue as a first ratio, and the probability that the first keyword will be used as a fingerprint may be set as a second ratio.
구체적으로, 제1 인공지능 모델과 연결된 데이터베이스에는 키워드 별로 대사로 사용된 사용 횟수에 대한 정보가 저장되어 있고, 키워드 별로 지문으로 사용된 사용 횟수에 대한 정보가 저장되어 있으며, 제1 인공지능 모델은 데이터베이스를 조회하여 제1 키워드가 대사로 사용된 사용 횟수와 제1 키워드가 지문으로 사용된 사용 횟수를 각각 확인하고, 제1 키워드가 대사로 사용된 사용 횟수에 비례하여 제1 비율을 설정하고 제1 키워드가 지문으로 사용된 사용 횟수에 비례하여 제2 비율을 설정할 수 있다.Specifically, the database connected to the first artificial intelligence model stores information on the number of times each keyword is used as a dialogue, and information on the number of times each keyword is used as a fingerprint is stored, and the first artificial intelligence model stores Search the database to check the number of times the first keyword is used as a line and the number of times the first keyword is used as a fingerprint, set the first ratio in proportion to the number of times the first keyword is used as a line, and set the first ratio in proportion to the number of times the first keyword is used as a line. 1 The second ratio can be set in proportion to the number of times the keyword is used as a fingerprint.
예를 들어, 기준 횟수가 100회로 설정되어 있는 경우, 제1 인공지능 모델은 제1 키워드가 대사로 사용된 사용 횟수가 30회로 확인되면, 제1 키워드가 대사로 사용된 사용 횟수를 기준 횟수로 나눈 값으로, 제1 비율을 30%로 설정할 수 있고, 제1 키워드가 지문으로 사용된 사용 횟수가 70회로 확인되면, 제1 키워드가 지문으로 사용된 사용 횟수를 기준 횟수로 나눈 값으로, 제2 비율을 70%로 설정할 수 있다. 이때, 기준 횟수는 실시예에 따라 상이하게 설정될 수 있다.For example, if the standard number of times is set to 100, and the first artificial intelligence model confirms that the number of times the first keyword has been used as a line is 30, it uses the number of times the first keyword has been used as a line as the standard number. As a divided value, the first ratio can be set to 30%, and if the number of times the first keyword is used as a fingerprint is confirmed to be 70, the number of times the first keyword is used as a fingerprint is divided by the standard number, 2 The ratio can be set to 70%. At this time, the reference number of times may be set differently depending on the embodiment.
S604 단계에서, 제1 인공지능 모델은 제1 비율 및 제2 비율의 차이를 제1 차이 비율로 산출할 수 있다. 이때, 제1 인공지능 모델은 제1 비율 및 제2 비율을 비교하여, 비교 결과 더 큰 값에서 더 작은 값을 차감하여 제1 차이 비율을 산출할 수 있다.In step S604, the first artificial intelligence model may calculate the difference between the first ratio and the second ratio as the first difference ratio. At this time, the first artificial intelligence model may compare the first ratio and the second ratio and calculate the first difference ratio by subtracting the smaller value from the larger value as a result of the comparison.
S605 단계에서, 제1 인공지능 모델은 제1 차이 비율이 기준 비율 보다 높은지 여부를 확인할 수 있다. 이때, 기준 비율은 실시예에 따라 상이하게 설정될 수 있다.In step S605, the first artificial intelligence model may check whether the first difference ratio is higher than the reference ratio. At this time, the reference ratio may be set differently depending on the embodiment.
S605 단계에서 제1 차이 비율이 기준 비율 보다 높은 것으로 확인되면, S606 단계에서, 제1 인공지능 모델은 제1 비율이 제2 비율 보다 높은지 여부를 확인할 수 있다.If the first difference ratio is confirmed to be higher than the reference ratio in step S605, the first artificial intelligence model may check whether the first ratio is higher than the second ratio in step S606.
S606 단계에서 제1 비율이 제2 비율 보다 높은 것으로 확인되면, S613 단계에서, 제1 인공지능 모델은 제1 문장을 대사로 분류할 수 있다.If the first rate is confirmed to be higher than the second rate in step S606, the first artificial intelligence model may classify the first sentence as a line in step S613.
즉, 제1 인공지능 모델은 제1 차이 비율이 기준 비율 보다 높은 것으로 확인된 경우, 제1 비율이 제2 비율 보다 높은 것으로 확인되면, 제1 문장을 대사로 분류할 수 있다.That is, the first artificial intelligence model can classify the first sentence as a line if the first difference ratio is confirmed to be higher than the standard ratio and the first ratio is confirmed to be higher than the second ratio.
예를 들어, 기준 비율이 20%로 설정되어 있고, 제1 비율이 70%로 설정되고 제2 비율이 30%로 설정된 경우, 제1 인공지능 모델은 제1 비율 및 제2 비율을 비교하여, 제1 비율에서 제2 비율을 차감한 값인 40%를 제1 차이 비율로 산출할 수 있고, 제1 차이 비율인 40%가 기준 비율인 20% 보다 높으면서, 제1 비율인 70%가 제2 비율인 30% 보다 높은 것으로 확인되기 때문에, 제1 문장을 대사로 분류할 수 있다.For example, if the reference ratio is set to 20%, the first ratio is set to 70%, and the second ratio is set to 30%, the first artificial intelligence model compares the first ratio and the second ratio, 40%, which is the value obtained by subtracting the second ratio from the first ratio, can be calculated as the first difference ratio, and the first difference ratio, 40%, is higher than the standard ratio of 20%, and the first ratio, 70%, is the second ratio. Since it is confirmed to be higher than 30%, the first sentence can be classified as a line.
S606 단계에서 제1 비율이 제2 비율 보다 높은 것이 아니라, 제2 비율이 제1 비율 보다 높은 것으로 확인되면, S614 단계에서, 제1 인공지능 모델은 제1 문장을 지문으로 분류할 수 있다.If it is confirmed in step S606 that the first rate is not higher than the second rate, but that the second rate is higher than the first rate, in step S614, the first artificial intelligence model may classify the first sentence as a fingerprint.
즉, 제1 인공지능 모델은 제1 차이 비율이 기준 비율 보다 높은 것으로 확인된 경우, 제2 비율이 제1 비율 보다 높은 것으로 확인되면, 제1 문장을 지문으로 분류할 수 있다.That is, the first artificial intelligence model can classify the first sentence as a fingerprint if the first difference ratio is confirmed to be higher than the reference ratio and the second ratio is confirmed to be higher than the first ratio.
예를 들어, 기준 비율이 20%로 설정되어 있고, 제1 비율이 30%로 설정되고 제2 비율이 70%로 설정된 경우, 제1 인공지능 모델은 제1 비율 및 제2 비율을 비교하여, 제2 비율에서 제1 비율을 차감한 값인 40%를 제1 차이 비율로 산출할 수 있고, 제1 차이 비율인 40%가 기준 비율인 20% 보다 높으면서, 제2 비율인 70%가 제1 비율인 30% 보다 높은 것으로 확인되기 때문에, 제1 문장을 지문으로 분류할 수 있다.For example, if the reference ratio is set to 20%, the first ratio is set to 30%, and the second ratio is set to 70%, the first artificial intelligence model compares the first ratio and the second ratio, 40%, which is the value obtained by subtracting the first ratio from the second ratio, can be calculated as the first difference ratio, and the first difference ratio, 40%, is higher than the standard ratio of 20%, and the second ratio, 70%, is the first ratio. Since it is confirmed to be higher than 30%, the first sentence can be classified as a fingerprint.
한편, S605 단계에서 제1 차이 비율이 기준 비율 보다 높은 것이 아니라, 제1 차이 비율이 기준 비율 보다 낮은 것으로 확인되면, S607 단계에서, 제1 인공지능 모델은 제1 문장 내에 있는 제1 키워드를 추가로 인식할 수 있다.Meanwhile, if it is confirmed in step S605 that the first difference ratio is not higher than the reference rate, but that the first difference rate is lower than the reference rate, in step S607, the first artificial intelligence model adds the first keyword in the first sentence. It can be recognized as
구체적으로, 제1 인공지능 모델은 제1 문장 내에 있는 복수의 키워드를 인식하여, 각 키워드 별로 중요도를 산출할 수 있으며, 키워드들 중에서 중요도가 가장 높은 키워드를 제1 키워드로 인식하고, 제1 키워드 다음으로 중요도가 높은 키워드를 제2 키워드로 인식할 수 있다.Specifically, the first artificial intelligence model can recognize a plurality of keywords in the first sentence, calculate the importance of each keyword, recognize the keyword with the highest importance among the keywords as the first keyword, and Next, the keyword with high importance can be recognized as the second keyword.
S608 단계에서, 제1 인공지능 모델은 제2 키워드가 대사로 사용될 확률을 제3 비율로 설정하고, 제2 키워드가 지문으로 사용될 확률을 제4 비율로 설정할 수 있다.In step S608, the first artificial intelligence model may set the probability that the second keyword will be used as a dialogue as a third ratio, and the probability that the second keyword will be used as a fingerprint may be set as a fourth ratio.
S609 단계에서, 제1 인공지능 모델은 제1 비율 및 제3 비율의 평균값을 제5 비율로 산출하고, 제2 비율 및 제4 비율의 평균값을 제6 비율로 산출할 수 있다.In step S609, the first artificial intelligence model may calculate the average value of the first ratio and the third ratio as the fifth ratio, and calculate the average value of the second ratio and the fourth ratio as the sixth ratio.
S610 단계에서, 제1 인공지능 모델은 제5 비율 및 제6 비율의 차이를 제2 차이 비율로 산출할 수 있다. 이때, 제1 인공지능 모델은 제5 비율 및 제6 비율을 비교하여, 비교 결과 더 큰 값에서 더 작은 값을 차감하여 제2 차이 비율을 산출할 수 있다.In step S610, the first artificial intelligence model may calculate the difference between the fifth ratio and the sixth ratio as the second difference ratio. At this time, the first artificial intelligence model may compare the fifth ratio and the sixth ratio and calculate the second difference ratio by subtracting the smaller value from the larger value as a result of the comparison.
S611 단계에서, 제1 인공지능 모델은 제2 차이 비율이 기준 비율 보다 높은지 여부를 확인할 수 있다.In step S611, the first artificial intelligence model can check whether the second difference ratio is higher than the reference ratio.
S611 단계에서 제2 차이 비율이 기준 비율 보다 높은 것이 아니라, 제2 차이 비율이 기준 비율 보다 낮은 것으로 확인되면, S607 단계로 되돌아가, 제1 인공지능 모델은 제1 문장 내에 있는 제3 키워드를 추가로 인식하는 과정부터 다시 수행할 수 있다.If it is confirmed in step S611 that the second difference ratio is not higher than the reference rate, but that the second difference rate is lower than the reference rate, returning to step S607, the first artificial intelligence model adds the third keyword in the first sentence. You can start again from the recognition process.
S611 단계에서 제2 차이 비율이 기준 비율 보다 높은 것으로 확인되면, S612 단계에서, 제1 인공지능 모델은 제5 비율이 제6 비율 보다 높은지 여부를 확인할 수 있다.If the second difference ratio is confirmed to be higher than the reference ratio in step S611, in step S612, the first artificial intelligence model can check whether the fifth ratio is higher than the sixth ratio.
S612 단계에서 제5 비율이 제6 비율 보다 높은 것으로 확인되면, S613 단계에서, 제1 인공지능 모델은 제1 문장을 대사로 분류할 수 있다.If the fifth ratio is confirmed to be higher than the sixth ratio in step S612, the first artificial intelligence model may classify the first sentence as a line in step S613.
즉, 제1 인공지능 모델은 제2 차이 비율이 기준 비율 보다 높은 것으로 확인된 경우, 제5 비율이 제6 비율 보다 높은 것으로 확인되면, 제1 문장을 대사로 분류할 수 있다.That is, the first artificial intelligence model can classify the first sentence as a line if the second difference ratio is confirmed to be higher than the standard ratio and the fifth ratio is confirmed to be higher than the sixth ratio.
S612 단계에서 제5 비율이 제6 비율 보다 높은 것이 아니라, 제6 비율이 제5 비율 보다 높은 것으로 확인되면, S614 단계에서, 제1 인공지능 모델은 제1 문장을 지문으로 분류할 수 있다.If it is confirmed in step S612 that the fifth ratio is not higher than the sixth ratio, but that the sixth ratio is higher than the fifth ratio, in step S614, the first artificial intelligence model may classify the first sentence as a fingerprint.
즉, 제1 인공지능 모델은 제2 차이 비율이 기준 비율 보다 높은 것으로 확인된 경우, 제6 비율이 제5 비율 보다 높은 것으로 확인되면, 제1 문장을 지문으로 분류할 수 있다.That is, the first artificial intelligence model can classify the first sentence as a fingerprint if the second difference ratio is confirmed to be higher than the reference ratio and the sixth ratio is confirmed to be higher than the fifth ratio.
제1 인공지능 모델은 입력된 웹소설의 텍스트가 복수의 문장으로 구성된 경우, 도 6에 도시된 각 단계를 반복 수행하여, 복수의 문장 각각에 대해 대사와 지문으로 분류할 수 있으며, 대사로 분류된 문장을 기반으로 대사 텍스트를 생성하고, 지문으로 분류된 문장을 기반으로 지문 텍스트를 생성한 후, 대사 텍스트 및 지문 텍스트를 결합한 텍스트 집합을 출력할 수 있다.If the text of the input web novel consists of a plurality of sentences, the first artificial intelligence model can classify each of the plurality of sentences into dialogue and fingerprints by repeatedly performing each step shown in Figure 6, and classifies them into dialogue. You can generate a dialogue text based on a given sentence, create a fingerprint text based on a sentence classified as a fingerprint, and then output a text set that combines the dialogue text and the fingerprint text.
일실시예에 따르면, 장치(20)는 웹소설 내에서 사용자의 의도를 파악하고, 사용자의 의도를 기초로, 인공지능 모델 데이터베이스로부터 추천 인공지능 모델을 추출하고, 추천 인공지능 모델을 사용자 단말(10)로 제공할 수 있다. 이와 관련된 자세한 설명은 도 7을 참조하여 후술하기로 한다.According to one embodiment, the device 20 determines the user's intention within the web novel, extracts a recommended artificial intelligence model from the artificial intelligence model database based on the user's intention, and sends the recommended artificial intelligence model to the user terminal ( 10) can be provided. A detailed description regarding this will be provided later with reference to FIG. 7 .
도 7 일실시예에 따른 인공지능 모델 추천 플랫폼을 제공하는 과정을 설명하기 위한 순서도이다.Figure 7 is a flowchart explaining the process of providing an artificial intelligence model recommendation platform according to an embodiment.
도 7을 참조하면, 먼저, S701 단계에서, 장치(20)는 사용자 단말(10)로부터 오디오북의 일부인 제1 구간에 대한 선택 정보를 획득할 수 있다.Referring to FIG. 7, first, in step S701, the device 20 may obtain selection information about the first section that is part of the audiobook from the user terminal 10.
구체적으로, 장치(20)는 사용자 단말(10)로부터 사용자가 오디오북에서 제1 구간을 선택한 경우, 제1 구간에 대한 선택 정보를 획득할 수 있고, 오디오북을 생성하는데 사용된 제1 오디오에서 제1 구간에 해당하는 부분을 제1 구간의 오디오로 추출할 수 있다.Specifically, the device 20 may obtain selection information for the first section from the user terminal 10 when the user selects the first section in the audiobook, and from the first audio used to create the audiobook. The part corresponding to the first section can be extracted as the audio of the first section.
S702 단계에서, 장치(20)는 사용자 단말(10)로부터 웹북의 일부인 제2 구간에 대한 선택 정보를 획득할 수 있다.In step S702, the device 20 may obtain selection information about the second section that is part of the webbook from the user terminal 10.
구체적으로, 장치(20)는 사용자 단말(10)로부터 사용자가 웹북에서 제2 구간을 선택한 경우, 제2 구간에 대한 선택 정보를 획득할 수 있고, 웹북을 생성하는데 사용된 대사 텍스트에서 제2 구간에 해당하는 부분을 제2 구간의 텍스트로 추출할 수 있다.Specifically, the device 20 may obtain selection information about the second section from the user terminal 10 when the user selects the second section in the webbook, and select the second section from the dialogue text used to create the webbook. The part corresponding to can be extracted as the text of the second section.
S703 단계에서, 장치(20)는 제1 구간의 오디오를 제1 텍스트로 변환할 수 있다. 이때, 장치(20)는 오디오북을 통해 제1 구간의 오디오가 추출되면, 음성인식 기술을 이용하여 제1 구간의 오디오를 제1 텍스트로 변환할 수 있다.In step S703, the device 20 may convert the audio of the first section into first text. At this time, when the audio of the first section is extracted through the audiobook, the device 20 may convert the audio of the first section into the first text using voice recognition technology.
S704 단계에서, 장치(20)는 제2 구간의 텍스트를 제2 텍스트로 설정할 수 있다. 이때, 장치(20)는 웹북을 통해 제2 구간의 텍스트가 추출되면, 제2 구간의 텍스트를 제2 텍스트로 설정할 수 있다.In step S704, the device 20 may set the text of the second section as the second text. At this time, when the text of the second section is extracted through the webbook, the device 20 may set the text of the second section as the second text.
S705 단계에서, 장치(20)는 제1 텍스트 및 제2 텍스트 중 적어도 하나를 기초로, 키워드를 추출할 수 있다.In step S705, the device 20 may extract a keyword based on at least one of the first text and the second text.
즉, 장치(20)는 제1 텍스트 및 제2 텍스트 중 적어도 하나를 획득하면, 획득한 제1 텍스트 및 제2 텍스트 중 적어도 하나에 포함된 단어 및 형태소를 통해 핵심 키워드를 추출할 수 있다.That is, when the device 20 acquires at least one of the first text and the second text, it can extract key keywords through words and morphemes included in at least one of the obtained first text and the second text.
S706 단계에서, 장치(20)는 추출된 키워드를 분석하여, 사용자의 의도를 파악할 수 있다.In step S706, the device 20 can determine the user's intention by analyzing the extracted keywords.
즉, 키워드가 추출되면, 추출된 키워드가 요인인지 결과인지 분류하고, 분류된 키워드를 통해 사용자의 의도를 파악할 수 있다.In other words, when a keyword is extracted, the extracted keyword can be classified as a factor or a result, and the user's intention can be determined through the classified keyword.
이하에서는 사용자의 의도를 파악하는 내용에 대해 자세히 설명하기로 한다.Below, we will explain in detail the details of identifying the user's intention.
구체적으로, 장치(20)는 제1 텍스트 및 제2 텍스트 중 적어도 하나를 단어 및 형태소 단위로 분류할 수 있다. 이때, 장치(20)는 제1 구간의 오디오가 제1 텍스트로 변환되고 제2 구간의 텍스트가 제2 텍스트로 설정되면, 제1 텍스트 및 제2 텍스트 중 적어도 하나를 단어 및 형태소 단위로 분류할 수 있다.Specifically, the device 20 may classify at least one of the first text and the second text into words and morphemes. At this time, when the audio in the first section is converted to the first text and the text in the second section is set to the second text, the device 20 classifies at least one of the first text and the second text into words and morphemes. You can.
이후, 장치(20)는 분류된 단어 및 형태소를 기초로, 각 단어 및 형태소 간의 연관관계를 파악하여 핵심 키워드를 획득할 수 있다. 이때, 장치(20)는 단어 간의 연관관계를 확인할 수 있는 시소러스를 포함하는 단어 데이터베이스를 포함할 수 있고, 단어 데이터베이스를 이용하여 추출된 단어 및 형태소 간의 연관관계를 파악하여 단어 간의 연관관계를 기초로, 핵심 키워드로 선정할 수 있다. 여기서, 핵심 키워드는 단어 간의 연관관계를 파악한 결과 가장 단어 간의 연관관계가 많은 단어를 핵심 키워드로 선정할 수도 있고, 제1 텍스트 및 제2 텍스트를 통해 미리 설정된 기준 이상 포함된 단어를 핵심 키워드로 선정할 수도 있고, 또한, 단어 데이터베이스에 미리 핵심 키워드로 사용 가능한 단어를 설정하고, 해당 단어가 제1 텍스트 및 제2 텍스트 중에 포함되어 있을 경우, 해당 단어를 핵심 키워드로 선정할 수 있다.Afterwards, the device 20 can acquire key keywords by identifying the association between each word and morpheme based on the classified words and morphemes. At this time, the device 20 may include a word database including a thesaurus that can confirm the association between words, and determine the association between words and morphemes extracted using the word database and use the word database to determine the association between words. , can be selected as key keywords. Here, the core keyword may be a word that has the most correlation between words as a result of identifying the correlation between words, and words that are included more than a preset standard through the first and second texts may be selected as the core keyword. Alternatively, words that can be used as core keywords can be set in advance in the word database, and if the word is included in the first text and the second text, the word can be selected as the core keyword.
이후, 장치(20)는 획득한 핵심 키워드를 요인과 결과로 분류할 수 있다. 이때, 장치(20)는 제1 텍스트 및 제2 텍스트 중 적어도 하나로부터 획득한 핵심 키워드의 주변 단어를 확인하여 핵심 키워드를 요인과 결과로 분류할 수 있다. 즉, 장치(20)는 제1 텍스트 및 제2 텍스트 중 적어도 하나에 포함된 핵심 키워드의 주변 단어를 확인하여, 입력, 요인, 원인, 이유, ~로부터, ~을 통해 등의 요인과 관련된 단어가 포함될 경우, 해당 핵심 키워드를 요인으로 분류할 수 있고, 제1 텍스트 및 제2 텍스트 중 적어도 하나에 포함된 핵심 키워드의 주변 단어를 확인하여, 출력, 결과, 도출, 결론, ~이 나오다 등의 결과와 관련된 단어가 포함될 경우, 해당 핵심 키워드를 결과로 분류할 수 있다. 여기서, 주변 단어는 텍스트에서 핵심 키워드를 기준으로 미리 설정된 범위 내에 포함된 단어일 수 있다. 또한, 요인과 관련된 단어 및 결과와 관련된 단어는 미리 설정된 단어일 수 있으며, 실시 예가 증가함에 따라 요인과 관련된 단어 및 결과와 관련된 단어가 많아질 수 있다.Afterwards, the device 20 can classify the obtained key keywords into factors and results. At this time, the device 20 may check words surrounding the core keyword obtained from at least one of the first text and the second text and classify the core keyword into factors and results. That is, the device 20 checks surrounding words of the core keyword included in at least one of the first text and the second text, and determines whether words related to factors such as input, factor, cause, reason, from, through, etc. When included, the core keyword can be classified as a factor, and surrounding words of the core keyword included in at least one of the first text and the second text are checked to produce results such as output, result, conclusion, conclusion, etc. If words related to are included, the corresponding core keyword can be classified as a result. Here, the surrounding words may be words included in the text within a preset range based on the core keyword. Additionally, words related to factors and words related to results may be preset words, and as the embodiment increases, words related to factors and words related to results may increase.
이후, 장치(20)는 요인으로 분류된 핵심 키워드를 제1 입력 데이터로 저장할 수 있다. 이때, 장치(20)는 핵심 키워드를 요인과 결과로 분류하고, 요인으로 분류된 핵심 키워드를 제1 입력 데이터로 저장할 수 있다.Afterwards, the device 20 may store key keywords classified as factors as first input data. At this time, the device 20 may classify key keywords into factors and results, and store the key keywords classified into factors as first input data.
이후, 장치(20)는 결과로 분류된 핵심 키워드를 제1 출력 데이터로 저장할 수 있다. 이때, 장치(20)는 핵심 키워드를 요인과 결과로 분류하고, 핵심으로 분류된 핵심 키워드를 제1 출력 데이터로 저장할 수 있다.Afterwards, the device 20 may store the key keywords classified as results as first output data. At this time, the device 20 may classify the core keywords into factors and results, and store the core keywords classified as core as first output data.
이로 인해, 장치(20)는 텍스트를 통해 핵심 키워드를 추출하고, 핵심 키워드를 제1 입력 데이터 또는 제1 출력 데이터로 구분함으로써, 사용자의 의도를 파악할 수 있는 효과가 있다.Due to this, the device 20 has the effect of identifying the user's intention by extracting key keywords from the text and dividing the key keywords into first input data or first output data.
S707 단계에서, 장치(20)는 사용자의 의도를 기초로, 인공지능 모델 데이터베이스로부터 추천 인공지능 모델을 선정할 수 있다.In step S707, the device 20 may select a recommended artificial intelligence model from the artificial intelligence model database based on the user's intention.
즉, 장치(20)는 인공지능 모델 데이터베이스를 구비하거나, 별개의 인공지능 모델 데이터베이스와 유무선으로 통신할 수 있으며, 인공지능 모델 데이터베이스는 인공지능 모델이 포함되어 있고, 인공지능 모델에 관한 정보가 인공지능 모델에 매칭되어 저장되어 있을 수 있다. 장치(20)는 사용자의 의도를 기초로, 인공지능 모델 데이터베이스로부터 사용자가 필요한 추천 인공지능 모델을 추출할 수 있다.That is, the device 20 may have an artificial intelligence model database or communicate wired or wirelessly with a separate artificial intelligence model database, and the artificial intelligence model database includes an artificial intelligence model, and information about the artificial intelligence model is stored in the artificial intelligence model database. It may be matched to an intelligence model and stored. The device 20 may extract a recommended artificial intelligence model needed by the user from an artificial intelligence model database based on the user's intention.
이하에서는 추천 인공지능 모델을 선정하는 내용에 대해 자세히 설명하기로 한다.Below, we will explain in detail the details of selecting a recommended artificial intelligence model.
구체적으로, 장치(20)는 제1 입력 데이터와 카테고리가 일치하는 입력 데이터가 사용되고, 제1 출력 데이터와 카테고리가 일치하는 출력 데이터가 사용되는 후보 인공지능 모델을 인공지능 모델 데이터베이스로부터 선정할 수 있다. 여기서, 카테고리는 입력 데이터 및 출력 데이터가 어떤 형식 또는 어떤 값으로 입력 및 출력 되었는지에 대한 정보일 수 있으며, 예를 들어, 입력 데이터의 카테고리는 사용자 이미지, 사용자 정보 등이 포함할 수 있고, 출력 데이터의 카테고리는 각 키워드에 대한 점수, 확률 값 등이 포함될 수 있다.Specifically, the device 20 may select a candidate artificial intelligence model using input data whose category matches the first input data and output data whose category matches the first output data from the artificial intelligence model database. . Here, the category may be information about the format or value in which the input data and output data were input and output. For example, the category of the input data may include user images, user information, etc., and the output data The category may include scores, probability values, etc. for each keyword.
즉, 장치(20)는 인공지능 모델 데이터베이스를 구비하거나, 별개의 인공지능 모델 데이터베이스와 유무선으로 통신할 수 있으며, 인공지능 모델 데이터베이스는 인공지능 모델이 저장되어 있으며, 인공지능 모델에 대한 입력 데이터, 출력 데이터를 포함하는 인공지능 모델에 대한 정보가 매칭되어 저장되어 있을 수 있다. 이때, 장치(20)는 사용자 단말(10)을 통해 획득한 텍스트를 기초로, 핵심 키워드를 추출하고, 추출된 핵심 키워드를 제1 입력 데이터 또는 제1 출력 데이터를 저장할 수 있으며, 장치(20)는 인공지능 모델 데이터베이스를 통해, 제1 입력 데이터와 카테고리가 일치하는 입력 데이터가 사용되고, 제1 출력 데이터와 카테고리가 일치하는 출력 데이터가 사용된 후보 인공지능 모델을 선정할 수 있다. That is, the device 20 may have an artificial intelligence model database or communicate wired or wirelessly with a separate artificial intelligence model database, and the artificial intelligence model database stores an artificial intelligence model, input data for the artificial intelligence model, Information about the artificial intelligence model including output data may be matched and stored. At this time, the device 20 may extract core keywords based on the text acquired through the user terminal 10, and store the extracted core keywords as first input data or first output data, and the device 20 Through the artificial intelligence model database, a candidate artificial intelligence model using input data whose category matches the first input data and output data whose category matches the first output data can be selected.
이후, 장치(20)는 후보 인공지능 모델로 하나의 인공지능 모델만 선정된 경우, 선정된 후보 인공지능 모델을 추천 인공지능 모델로 설정할 수 있다.Thereafter, when only one artificial intelligence model is selected as the candidate artificial intelligence model, the device 20 may set the selected candidate artificial intelligence model as the recommended artificial intelligence model.
장치(20)는 후보 인공지능 모델로 복수의 인공지능 모델이 선정된 경우, 선정된 후보 인공지능 모델 별로 제1 입력 데이터를 입력하여 출력된 값을 제1 출력 데이터와 비교할 수 있다. 이때, 장치(20)는 제1 입력 데이터 및 제1 출력 데이터를 기초로, 인공지능 모델 데이터베이스로부터 후보 인공지능 모델을 선정하고, 선정된 후보 인공지능 모델이 복수인 경우, 각 후보 인공지능 모델에 제1 입력 데이터를 입력하여 출력된 값을 제1 출력 데이터와 비교할 수 있다.When a plurality of artificial intelligence models are selected as candidate artificial intelligence models, the device 20 may input first input data for each selected candidate artificial intelligence model and compare the output value with the first output data. At this time, the device 20 selects a candidate artificial intelligence model from the artificial intelligence model database based on the first input data and the first output data, and if there are multiple selected candidate artificial intelligence models, each candidate artificial intelligence model A value output by inputting first input data may be compared with the first output data.
즉, 장치(20)는 선정된 후보 인공지능 모델이 사용자에게 적합한지 확인하기 위해 제1 입력 데이터를 선정된 후보 인공지능 모델에 입력함으로써 출력된 출력 값과 제1 출력 데이터를 비교하여 생성된 오차를 통해 사용자가 필요한 인공지능 모델이 맞는지 확인할 수 있다.That is, the device 20 inputs the first input data into the selected candidate artificial intelligence model to determine whether the selected candidate artificial intelligence model is suitable for the user, and compares the output value and the first output data to generate an error. Through this, users can check whether the artificial intelligence model they need is correct.
이후, 장치(20)는 선정된 후보 인공지능 모델 별로 제1 입력 데이터를 입력하여 출력된 값을 제1 출력 데이터와 비교하여 비교 결과를 분석하고, 비교 결과, 차이값이 가장 적은 후보 인공지능 모델을 추천 인공지능 모델로 선정할 수 있다.Afterwards, the device 20 inputs first input data for each selected candidate artificial intelligence model and compares the output value with the first output data to analyze the comparison result. As a result of the comparison, the candidate artificial intelligence model with the smallest difference value is selected. can be selected as a recommended artificial intelligence model.
즉, 장치(20)는 후보 인공지능 모델 별로 제1 입력 데이터를 입력하여 출력된 값과 제1 출력 데이터를 비교하여 차이값이 가장 적은 후보 인공지능 모델을 추천 인공지능 모델로 선정할 수 있다.That is, the device 20 may input first input data for each candidate artificial intelligence model, compare the output value with the first output data, and select the candidate artificial intelligence model with the smallest difference value as the recommended artificial intelligence model.
예를 들어, 후보 인공지능 모델로 제1 인공지능 모델, 제2 인공지능 모델, 제3 인공지능 모델이 선정되고, 가장 적은 차이값을 가지는 후보 인공지능 모델을 추천 인공지능 모델로 선정할 경우, 장치(20)는 제1 인공지능 모델에 제1 입력 데이터를 입력하여 출력된 제1 출력 값을 획득할 수 있고, 제1 출력 값과 제1 출력 데이터를 비교하여 차이값이 5%임을 확인할 수 있고, 제2 인공지능 모델에 제1 입력 데이터를 입력하여 출력된 제2 출력 값을 획득할 수 있고, 제2 출력 값과 제1 출력 데이터를 비교하여 차이값이 20%임을 확인할 수 있고, 제3 인공지능 모델에 제1 입력 데이터를 입력하여 출력된 제3 출력 값을 획득할 수 있고, 제3 출력 값과 제1 출력 데이터를 비교하여 차이값이 10%임을 확인할 수 있다. 이때, 장치(20)는 제1 인공지능 모델이 차이값이 5%로 가장 적기 때문에, 제1 인공지능 모델을 추천 인공지능 모델로 선정할 수 있다.For example, if the first artificial intelligence model, the second artificial intelligence model, and the third artificial intelligence model are selected as the candidate artificial intelligence models, and the candidate artificial intelligence model with the smallest difference value is selected as the recommended artificial intelligence model, The device 20 can obtain a first output value by inputting first input data to the first artificial intelligence model, and compare the first output value and the first output data to confirm that the difference value is 5%. And, by inputting the first input data to the second artificial intelligence model, the second output value can be obtained, and by comparing the second output value and the first output data, it can be confirmed that the difference value is 20%, 3 By inputting the first input data to the artificial intelligence model, the third output value can be obtained, and by comparing the third output value and the first output data, it can be confirmed that the difference is 10%. At this time, the device 20 may select the first artificial intelligence model as the recommended artificial intelligence model because the first artificial intelligence model has the smallest difference value of 5%.
이로 인해, 장치(20)는 인공지능 모델 데이터베이스에서 후보 인공지능 모델을 선정하고, 선정된 후보 인공지능 모델 별로 제1 입력 데이터를 입력하여 출력된 값과 제1 출력 데이터를 비교함으로써 차이값이 가장 적은 후보 인공지능 모델을 추천 인공지능 모델로 선정할 수 있어, 사용자의 의도에 더 적합한 인공지능 모델을 선별할 수 있는 효과가 있다.For this reason, the device 20 selects a candidate artificial intelligence model from the artificial intelligence model database, inputs first input data for each selected candidate artificial intelligence model, and compares the output value with the first output data to obtain the highest difference value. A small number of candidate AI models can be selected as a recommended AI model, which has the effect of selecting an AI model that is more suitable for the user's intention.
S708 단계에서, 장치(20)는 추천 인공지능 모델을 사용자 단말(10)로 제공할 수 있다.In step S708, the device 20 may provide a recommended artificial intelligence model to the user terminal 10.
구체적으로, 장치(20)는 사용자가 설정한 제1 구간 및 제2 구간에서 텍스트를 추출하고, 추출된 텍스트를 통해 사용자의 의도를 파악하고, 사용자의 의도를 기초로, 인공지능 모델 데이터베이스로부터 사용자가 필요한 추천 인공지능 모델을 추출하고, 추출된 추천 인공지능 모델을 사용자 단말(10)로 제공할 수 있다.Specifically, the device 20 extracts text from the first section and the second section set by the user, determines the user's intention through the extracted text, and based on the user's intention, retrieves the user from the artificial intelligence model database. The required recommended artificial intelligence model can be extracted and the extracted recommended recommended artificial intelligence model can be provided to the user terminal 10.
이로 인해, 장치(20)는 사용자가 자신이 필요한 인공지능 모델에 대해 알지 못해도, 사용자가 구간을 설정하는 것만으로, 사용자에게 필요한 인공지능 모델을 추출할 수 있고, 추출된 인공지능 모델을 사용자 단말(10)로 제공할 수 있다.Due to this, the device 20 can extract the artificial intelligence model needed by the user just by setting the section, even if the user does not know about the artificial intelligence model he needs, and sends the extracted artificial intelligence model to the user terminal. It can be provided as (10).
도 8은 일실시예에 따른 장치의 구성의 예시도이다.Figure 8 is an exemplary diagram of the configuration of a device according to an embodiment.
일실시예에 따른 장치(20)는 프로세서(21) 및 메모리(22)를 포함한다. 프로세서(21)는 도 1 내지 도 7을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 7을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(20)를 이용하는 자 또는 단체는 도 1 내지 도 7을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.Device 20 according to one embodiment includes a processor 21 and memory 22. The processor 21 may include at least one device described above with reference to FIGS. 1 to 7 or may perform at least one method described above with reference to FIGS. 1 to 7 . A person or organization using device 20 may provide services related to some or all of the methods described above with reference to FIGS. 1 to 7 .
메모리(22)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(22)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 22 may store information related to the methods described above or store a program in which methods described later are implemented. Memory 22 may be volatile memory or non-volatile memory.
프로세서(21)는 프로그램을 실행하고, 장치(20)를 제어할 수 있다. 프로세서(21)에 의하여 실행되는 프로그램의 코드는 메모리(22)에 저장될 수 있다. 장치(20)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 21 can execute programs and control the device 20. The code of the program executed by the processor 21 may be stored in the memory 22. The device 20 is connected to an external device (eg, a personal computer or a network) through an input/output device (not shown) and can exchange data through wired or wireless communication.
장치(20)는 인공지능 모델을 학습시키거나, 학습된 인공지능 모델을 이용하는데 사용될 수 있다. 메모리(22)는 학습 중인 또는 학습된 인공지능 모델을 포함할 수 있다. 프로세서(21)는 메모리(22)에 저장된 인공지능 모델의 알고리즘을 학습시키거나 실행시킬 수 있다. 인공지능 모델을 학습시키는 학습 장치와 학습된 인공지능 모델을 이용하는 장치(20)는 동일할 수도 있고 개별적일 수도 있다.The device 20 may be used to train an artificial intelligence model or use a learned artificial intelligence model. Memory 22 may include an artificial intelligence model that is being trained or has been trained. The processor 21 can learn or execute the algorithm of the artificial intelligence model stored in the memory 22. The learning device that trains the artificial intelligence model and the device 20 that uses the learned artificial intelligence model may be the same or may be separate.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using one or more general-purpose or special-purpose computers, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the following claims.
Claims (3)
사용자 단말로부터 웹소설의 텍스트를 획득하는 단계;
상기 웹소설의 텍스트를 미리 학습된 제1 인공지능 모델에 입력하고, 상기 제1 인공지능 모델의 입력에 대한 출력으로, 상기 웹소설의 텍스트를 대사와 지문으로 구분한 텍스트 집합을 획득하는 단계;
상기 텍스트 집합에서 지문으로 구분된 지문 텍스트를 미리 학습된 제2 인공지능 모델에 입력하고, 상기 제2 인공지능 모델의 입력에 대한 출력으로, 상기 지문 텍스트를 이용하여 지문 내용을 렌더링한 제1 이미지를 획득하는 단계;
상기 텍스트 집합에서 대사로 구분된 대사 텍스트와 상기 제1 이미지를 기반으로, 웹북을 생성하는 단계; 및
상기 웹북을 웹북 플랫폼 상에 업로드하여 등록하는 단계를 포함하고,
상기 제1 이미지를 획득하는 단계 이후,
상기 대사 텍스트를 이용하여 대사 내용을 오디오로 변환한 제1 오디오를 생성하는 단계;
상기 제1 이미지가 획득되면, 상기 제1 오디오와 상기 제1 이미지를 기반으로, 오디오북을 생성하는 단계; 및
상기 오디오북을 오디오북 플랫폼 상에 업로드하여 등록하는 단계를 더 포함하고,
상기 사용자 단말로부터 상기 오디오북의 일부인 제1 구간에 대한 선택 정보를 획득하는 단계;
상기 사용자 단말로부터 상기 웹북의 일부인 제2 구간에 대한 선택 정보를 획득하는 단계;
상기 제1 구간의 오디오를 제1 텍스트로 변환하는 단계;
상기 제2 구간의 텍스트를 제2 텍스트로 설정하는 단계;
상기 제1 텍스트 및 상기 제2 텍스트 중 적어도 하나를 기초로, 키워드를 추출하고, 상기 추출된 키워드를 분석하여, 사용자의 의도를 파악하는 단계;
상기 사용자의 의도를 기초로, 인공지능 모델 데이터베이스로부터 추천 인공지능 모델을 선정하는 단계; 및
상기 추천 인공지능 모델을 상기 사용자 단말로 제공하는 단계를 더 포함하고,
상기 사용자의 의도를 파악하는 단계는,
상기 제1 텍스트 및 상기 제2 텍스트 중 적어도 하나를 단어 및 형태소 단위로 분류하는 단계;
상기 분류된 단어 및 형태소를 기초로, 각 단어 및 형태소 간의 연관관계를 파악하여 핵심 키워드를 획득하는 단계;
상기 획득한 핵심 키워드를 요인과 결과로 분류하는 단계; 및
상기 요인으로 분류된 핵심 키워드를 제1 입력 데이터로 저장하고, 상기 결과로 분류된 핵심 키워드를 제1 출력 데이터로 저장하는 단계를 포함하고,
상기 추천 인공지능 모델을 선정하는 단계는,
상기 제1 입력 데이터와 카테고리가 일치하는 입력 데이터가 사용되고, 상기 제1 출력 데이터와 카테고리가 일치하는 출력 데이터가 사용된 후보 인공지능 모델을 인공지능 모델 데이터베이스로부터 선정하는 단계,
상기 후보 인공지능 모델로 상기 제1 인공지능 모델 및 상기 제2 인공지능 모델 중 어느 하나가 선정된 경우, 선정된 상기 후보 인공지능 모델을 추천 인공지능 모델로 설정하는 단계; 및
상기 후보 인공지능 모델로 상기 제1 인공지능 모델 및 상기 제2 인공지능 모델이 선정된 경우, 선정된 후보 인공지능 모델 별로 상기 제1 입력 데이터를 입력하여 출력된 값을 상기 제1 출력 데이터와 비교하여 비교 결과를 분석하고, 상기 비교 결과, 차이값이 가장 적은 후보 인공지능 모델을 추천 인공지능 모델로 선정하는 단계를 포함하고,
상기 제1 인공지능 모델은,
상기 웹소설의 텍스트 중에서 제1 문장을 추출하고,
상기 제1 문장 내에 있는 제1 키워드를 인식하고,
상기 제1 키워드가 대사로 사용될 확률을 제1 비율로 설정하고, 상기 제1 키워드가 지문으로 사용될 확률을 제2 비율로 설정하고,
상기 제1 비율 및 상기 제2 비율의 차이를 제1 차이 비율로 산출하고,
상기 제1 차이 비율이 미리 설정된 기준 비율 보다 높은 것으로 확인된 경우, 상기 제1 비율이 상기 제2 비율 보다 높은 것으로 확인되면, 상기 제1 문장을 대사로 분류하고, 상기 제2 비율이 상기 제1 비율 보다 높은 것으로 확인되면, 상기 제1 문장을 지문으로 분류하고,
상기 제1 차이 비율이 상기 기준 비율 보다 낮은 것으로 확인된 경우, 상기 제1 문장 내에 있는 제2 키워드를 추가로 인식하고,
상기 제2 키워드가 대사로 사용될 확률을 제3 비율로 설정하고, 상기 제2 키워드가 지문으로 사용될 확률을 제4 비율로 설정하고,
상기 제1 비율 및 상기 제3 비율의 평균값을 제5 비율로 산출하고, 상기 제2 비율 및 상기 제4 비율의 평균값을 제6 비율로 산출하고,
상기 제5 비율 및 상기 제6 비율의 차이를 제2 차이 비율로 산출하고,
상기 제2 차이 비율이 상기 기준 비율 보다 높은 것으로 확인된 경우, 상기 제5 비율이 상기 제6 비율 보다 높은 것으로 확인되면, 상기 제1 문장을 대사로 분류하고, 상기 제6 비율이 상기 제5 비율 보다 높은 것으로 확인되면, 상기 제1 문장을 지문으로 분류하는,
인공지능 모델을 활용한 웹소설 기반 웹북 생성 자동화 처리 방법.In the automated processing method of creating a web novel-based web book using an artificial intelligence model performed by a device,
Obtaining the text of a web novel from a user terminal;
Inputting the text of the web novel into a pre-trained first artificial intelligence model, and obtaining, as an output of the input of the first artificial intelligence model, a text set in which the text of the web novel is divided into dialogue and fingerprints;
The fingerprint text classified into fingerprints in the text set is input to a pre-learned second artificial intelligence model, and as an output of the input of the second artificial intelligence model, the first image is rendered by using the fingerprint text to render the fingerprint contents. Obtaining a;
generating a webbook based on the dialogue text divided into dialogues in the text set and the first image; and
Including the step of uploading and registering the webbook on a webbook platform,
After acquiring the first image,
generating first audio by converting the dialogue content into audio using the dialogue text;
When the first image is acquired, generating an audiobook based on the first audio and the first image; and
Further comprising the step of uploading and registering the audiobook on an audiobook platform,
Obtaining selection information about a first section that is part of the audiobook from the user terminal;
Obtaining selection information about a second section that is part of the webbook from the user terminal;
converting the audio of the first section into first text;
setting the text of the second section as a second text;
Extracting a keyword based on at least one of the first text and the second text and analyzing the extracted keyword to determine the user's intention;
Selecting a recommended artificial intelligence model from an artificial intelligence model database based on the user's intention; and
Further comprising providing the recommended artificial intelligence model to the user terminal,
The step of determining the user's intention is,
Classifying at least one of the first text and the second text into words and morphemes;
Based on the classified words and morphemes, obtaining key keywords by identifying associations between each word and morpheme;
Classifying the obtained key keywords into factors and results; and
Comprising the steps of storing key keywords classified by the factors as first input data and storing key keywords classified by the results as first output data,
The step of selecting the recommended artificial intelligence model is,
Selecting a candidate artificial intelligence model using input data whose category matches the first input data and output data whose category matches the first output data from an artificial intelligence model database,
When one of the first artificial intelligence model and the second artificial intelligence model is selected as the candidate artificial intelligence model, setting the selected candidate artificial intelligence model as a recommended artificial intelligence model; and
When the first artificial intelligence model and the second artificial intelligence model are selected as the candidate artificial intelligence model, the first input data is input for each selected candidate artificial intelligence model and the output value is compared with the first output data. Analyzing the comparison results, and selecting the candidate artificial intelligence model with the smallest difference value as the recommended artificial intelligence model as a result of the comparison,
The first artificial intelligence model is,
Extract the first sentence from the text of the web novel,
Recognize the first keyword in the first sentence,
The probability that the first keyword will be used as a dialogue is set as a first ratio, and the probability that the first keyword will be used as a fingerprint is set as a second ratio,
Calculating the difference between the first ratio and the second ratio as a first difference ratio,
When the first difference ratio is confirmed to be higher than the preset reference ratio, if the first ratio is confirmed to be higher than the second ratio, the first sentence is classified as a dialogue, and the second ratio is determined to be higher than the first ratio. If confirmed to be higher than the ratio, classify the first sentence as a fingerprint,
If the first difference ratio is confirmed to be lower than the reference ratio, additionally recognize a second keyword in the first sentence,
The probability that the second keyword will be used as a dialogue is set as a third ratio, and the probability that the second keyword will be used as a fingerprint is set as a fourth ratio,
Calculating the average of the first ratio and the third ratio as the fifth ratio, and calculating the average of the second ratio and the fourth ratio as the sixth ratio,
Calculating the difference between the fifth ratio and the sixth ratio as a second difference ratio,
If the second difference ratio is confirmed to be higher than the reference ratio, and the fifth ratio is confirmed to be higher than the sixth ratio, the first sentence is classified as a dialogue, and the sixth ratio is determined to be higher than the fifth ratio. If confirmed to be higher, classifying the first sentence as a fingerprint,
Automation processing method for web novel-based web book creation using an artificial intelligence model.
상기 제1 이미지를 획득하는 단계 이후,
상기 대사 텍스트 및 상기 지문 텍스트를 다국어로 번역하여 번역된 대사 텍스트 및 번역된 지문 텍스트를 생성하는 단계;
상기 번역된 대사 텍스트를 이용하여 대사 내용을 오디오로 변환한 제2 오디오를 생성하는 단계; 및
상기 대사 텍스트, 상기 지문 텍스트, 상기 제1 이미지, 상기 번역된 대사 텍스트, 상기 번역된 지문 텍스트, 상기 제1 오디오 및 상기 제2 오디오를 포함하는 웹북 컨테이너를 생성하는 단계를 더 포함하는,
인공지능 모델을 활용한 웹소설 기반 웹북 생성 자동화 처리 방법.According to paragraph 1,
After acquiring the first image,
Translating the dialogue text and the fingerprint text into multiple languages to generate translated dialogue text and translated fingerprint text;
generating second audio by converting the dialogue content into audio using the translated dialogue text; and
Further comprising generating a webbook container including the dialogue text, the fingerprint text, the first image, the translated dialogue text, the translated fingerprint text, the first audio, and the second audio,
Automation processing method for web novel-based web book creation using an artificial intelligence model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230033022A KR102586799B1 (en) | 2023-03-14 | 2023-03-14 | Method, device and system for automatically processing creation of web book based on web novel using artificial intelligence model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230033022A KR102586799B1 (en) | 2023-03-14 | 2023-03-14 | Method, device and system for automatically processing creation of web book based on web novel using artificial intelligence model |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102586799B1 true KR102586799B1 (en) | 2023-10-06 |
Family
ID=88296073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230033022A KR102586799B1 (en) | 2023-03-14 | 2023-03-14 | Method, device and system for automatically processing creation of web book based on web novel using artificial intelligence model |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102586799B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102652355B1 (en) * | 2023-11-22 | 2024-03-28 | 주식회사 더만타스토리 | Method for generating new scenario text content based on analysis results of scenario text content |
KR102693274B1 (en) * | 2023-12-07 | 2024-08-09 | 어포나티 주식회사 | Content Platform and Profit Sharing Method Based on Artificial Intelligence Secondary Content Production |
KR102693273B1 (en) | 2023-12-07 | 2024-08-09 | 어포나티 주식회사 | Apparatus for Providing Artificial Intelligence Content Production Service and Driving Method Thereof |
KR102720229B1 (en) | 2023-10-31 | 2024-10-21 | 주식회사 패러그래프 | Web novel-specific treatment generation program using natural language processing AI |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101087732B1 (en) | 2009-10-13 | 2011-11-30 | 신진숙 | Server and Method for creating and managing e-book |
KR20140097668A (en) | 2013-01-28 | 2014-08-07 | 주식회사 엘지유플러스 | Method for providing mobile photobook service based on online |
KR101499052B1 (en) | 2012-07-03 | 2015-03-24 | 주식회사 북이십일 | A method for building cardbook using knowledge card based on digital information |
KR20190027645A (en) | 2017-09-07 | 2019-03-15 | 엠플레어 주식회사 | Method for producing multimedia book |
KR20230001262A (en) * | 2021-06-28 | 2023-01-04 | 채진호 | Method for outputting creative voice lines and apparatus therefor |
KR20230018586A (en) * | 2021-07-30 | 2023-02-07 | 정종구 | System and method for realizing all or part of video, image, speech, BGM in cyber space according to input scenario |
-
2023
- 2023-03-14 KR KR1020230033022A patent/KR102586799B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101087732B1 (en) | 2009-10-13 | 2011-11-30 | 신진숙 | Server and Method for creating and managing e-book |
KR101499052B1 (en) | 2012-07-03 | 2015-03-24 | 주식회사 북이십일 | A method for building cardbook using knowledge card based on digital information |
KR20140097668A (en) | 2013-01-28 | 2014-08-07 | 주식회사 엘지유플러스 | Method for providing mobile photobook service based on online |
KR20190027645A (en) | 2017-09-07 | 2019-03-15 | 엠플레어 주식회사 | Method for producing multimedia book |
KR20230001262A (en) * | 2021-06-28 | 2023-01-04 | 채진호 | Method for outputting creative voice lines and apparatus therefor |
KR20230018586A (en) * | 2021-07-30 | 2023-02-07 | 정종구 | System and method for realizing all or part of video, image, speech, BGM in cyber space according to input scenario |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102720229B1 (en) | 2023-10-31 | 2024-10-21 | 주식회사 패러그래프 | Web novel-specific treatment generation program using natural language processing AI |
KR102652355B1 (en) * | 2023-11-22 | 2024-03-28 | 주식회사 더만타스토리 | Method for generating new scenario text content based on analysis results of scenario text content |
KR102693274B1 (en) * | 2023-12-07 | 2024-08-09 | 어포나티 주식회사 | Content Platform and Profit Sharing Method Based on Artificial Intelligence Secondary Content Production |
KR102693273B1 (en) | 2023-12-07 | 2024-08-09 | 어포나티 주식회사 | Apparatus for Providing Artificial Intelligence Content Production Service and Driving Method Thereof |
KR102726252B1 (en) * | 2024-02-21 | 2024-11-06 | (주)유밥 | Apparatus and method for providing contents service |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11797835B2 (en) | Explainable transducer transformers | |
CN111444709B (en) | Text classification method, device, storage medium and equipment | |
Ciaburro et al. | Neural Networks with R: Smart models using CNN, RNN, deep learning, and artificial intelligence principles | |
KR102586799B1 (en) | Method, device and system for automatically processing creation of web book based on web novel using artificial intelligence model | |
KR20180125905A (en) | Method and apparatus for classifying a class to which a sentence belongs by using deep neural network | |
KR102656620B1 (en) | Electronic apparatus, controlling method of thereof and non-transitory computer readable recording medium | |
EP4125029A1 (en) | Electronic apparatus, controlling method of thereof and non-transitory computer readable recording medium | |
CN112580352B (en) | Keyword extraction method, device and equipment and computer storage medium | |
Halvardsson et al. | Interpretation of swedish sign language using convolutional neural networks and transfer learning | |
Dessí et al. | Deep learning adaptation with word embeddings for sentiment analysis on online course reviews | |
CN116975350A (en) | Image-text retrieval method, device, equipment and storage medium | |
CN116720004A (en) | Recommendation reason generation method, device, equipment and storage medium | |
CN112131883A (en) | Language model training method and device, computer equipment and storage medium | |
KR102492774B1 (en) | Method for providing music contents licensing platform service based on artificial intelligence | |
CN117494051A (en) | Classification processing method, model training method and related device | |
KR102624135B1 (en) | Artificial intelligence-based non-face-to-face programming training automation platform service provision method, device and system for enterprises | |
KR102564182B1 (en) | Method, apparatus and system for extracting facial expression images based on image data using artificial intelligence models and creating contents using them | |
KR102543647B1 (en) | Method, apparatus and system for analyzing emotions in aspect-based sentences using adaptive masked attention mechanism | |
Huang et al. | Exploring the effect of emotions in human–machine dialog: an approach toward integration of emotional and rational information | |
CN115130461A (en) | Text matching method and device, electronic equipment and storage medium | |
KR102618066B1 (en) | Method, device and system for strengthening military security based on natural language process and image compare in soldier based community application | |
KR102700884B1 (en) | Method, device and system for providing sound source content accelerating platform service through automation of distribution and marketing for each sound source channel based on artificial intelligence model | |
KR102641137B1 (en) | Method, device, and system for providing inquiry and response to output data of artificial intelligence model-based space technology | |
KR102670871B1 (en) | Method, device and system for providing robotic-process-automation work automation subscription service platform for application no-code scalable application-programming-interface based on artificial-intelligence | |
KR102636797B1 (en) | Method, device and system for providing solution for this analizing user psychological state through analysis of hashtag based note topic and note content using artificial intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |