KR101348282B1 - Method for generating animation from text, Apparatus thereof - Google Patents

Method for generating animation from text, Apparatus thereof Download PDF

Info

Publication number
KR101348282B1
KR101348282B1 KR1020110123110A KR20110123110A KR101348282B1 KR 101348282 B1 KR101348282 B1 KR 101348282B1 KR 1020110123110 A KR1020110123110 A KR 1020110123110A KR 20110123110 A KR20110123110 A KR 20110123110A KR 101348282 B1 KR101348282 B1 KR 101348282B1
Authority
KR
South Korea
Prior art keywords
animation
word
candidate
candidate words
generating
Prior art date
Application number
KR1020110123110A
Other languages
Korean (ko)
Other versions
KR20130057277A (en
Inventor
정진우
소병철
박정수
조영원
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020110123110A priority Critical patent/KR101348282B1/en
Publication of KR20130057277A publication Critical patent/KR20130057277A/en
Application granted granted Critical
Publication of KR101348282B1 publication Critical patent/KR101348282B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 애니메이션 생성방법에 관한 것으로서 텍스트로부터 애니메이션 생성에 필요한 애니메이션 요소를 추출하는 단계, 및 상기 추출된 애니메이션 요소와 상기 애니메이션 요소에 대응하는 이미지를 이용하여 상기 애니메이션을 생성하는 단계를 포함하고, 상기 애니메이션 요소는 개체, 배경, 감정, 행동, 상호작용 중 적어도 어느 하나 이상인 것을 특징으로 하며, 텍스트를 입력받아 자동으로 애니메이션을 생성할 수 있다.The present invention relates to a method for generating an animation, comprising the steps of: extracting an animation element necessary for generating an animation from text; and generating the animation by using the extracted animation element and an image corresponding to the animation element. The animation element may be at least one of an object, a background, an emotion, an action, and an interaction, and may automatically generate an animation by receiving text.

Description

텍스트로부터 애니메이션을 생성하는 방법 및 장치{Method for generating animation from text, Apparatus thereof}Method and generating animation from text, Apparatus approx.

본 발명은 텍스트로부터 애니메이션을 생성하는 방법에 관한 것으로서, 더욱 상세하게는 텍스트를 입력받아 자동으로 애니메이션을 생성하는 애니메이션 생성방법, 애니메이션 생성장치 및 기록매체에 관한 것이다.The present invention relates to a method for generating an animation from text, and more particularly, to an animation generating method, an animation generating device, and a recording medium for automatically generating animation by receiving text.

콘텐츠는 책이나 웹 페이지 또는 언론 및 매체에 의해 제공되는 음악, 영화, 만화, 애니메이션, 게임 등에서 생성되는 각종 창작물을 의미한다. 최근 인터넷 환경의 발달로 디지털 콘텐츠 산업은 더욱 주목을 받고 있으며 온라인게임, 애니메이션, e-러닝 등의 디지털 콘텐츠 산업은 향후 세계 시장에서도 큰 성장을 예측하고 있다. 최근에는 유아에서 청소년들까지 이러한 정보통신 기술을 자주 접함으로써 첨단기술을 교육매체로 활용하자고 하는 교육의 패러다임에도 변화가 일고 있다. 이는 유아용 콘텐츠에 컴퓨터를 활용하는 것에 다소 부정적인 견해가 있었던 초기의 폐쇄적인 활용형태와는 정반대의 입장이라고 할 수 있다.Content refers to a variety of creations generated from music, movies, cartoons, animations, games, etc. provided by books or web pages or the press and media. Recently, the digital content industry is receiving more attention due to the development of the Internet environment, and the digital content industry such as online games, animation, and e-learning is predicting a great growth in the global market in the future. In recent years, there has been a change in the paradigm of education in which infants and adolescents frequently encounter such information and communication technologies and use advanced technology as an educational medium. This is in stark contrast to the earlier closed forms of use, where there was a rather negative view of the use of computers for infant content.

1980년대 후반부터 유아의 연령 및 발달에 적합한 교육용 소프트웨어들이 개발되기 시작하였고 1990년대 중반부터는 e-러닝이 대안적인 교육 및 학습전략으로 부각되면서 그 중심요소인 콘텐츠 개발산업이 주목받게 되었다. 전자책은 이러한 e-러닝의 대표적인 콘텐츠 중의 하나로써 컴퓨터에서뿐만 아니라 휴대폰, PMP, PDA 등의 휴대기기에서도 활용 가능한 대표적인 응용 예이다. 현재 유아용 전자책은 주로 동화책을 애니메이션으로 구성하고 배경음악에 맞춰 나레이터가 실제 동화책의 글을 읽어주는 방식으로 구성되어 있다.In the late 1980s, educational software suitable for the age and development of infants began to be developed. In the mid-1990s, the e-learning emerged as an alternative education and learning strategy, and the content development industry, which is a central element, attracted attention. E-book is one of the representative contents of the e-learning is a typical application that can be used not only in the computer but also in mobile devices such as mobile phones, PMP, PDA. Currently, e-books for toddlers are composed of animation books composed of animations, and the narrator reads the texts of fairy tales according to the background music.

이러한 디지털 미디어를 제작하는 데에 데이터베이스의 중요성을 빼놓을 수가 없다. 디지털 미디어의 도입은 21세기를 데이터베이스 패러다임의 시대로 바꾸어 놓았고 데이터베이스 패러다임은 애니메이션의 제작 과정과 산업에 큰 변화를 불러일으켰다. 본래 애니메이션은 모든 이미지들을 새롭게 생성해야 하는 특징을 가지고 있지만 디지털 기술의 도입으로 애니메이션을 위해 한 번 제작된 이미지들은 데이터베이스 시스템에 원본 그대로 저장하게 되었고, 영구 보존된 데이터들은 변형과 합성을 통해 손쉽게 새로운 이미지들을 생성하게 되었다. 즉 디지털 애니메이션은 데이터베이스 시스템을 활용함으로써 무한판본 생성의 시대를 맞이하여 효율성과 경제성을 추구하고 있다.The importance of the database is essential to producing such digital media. The introduction of digital media has transformed the 21st century into the era of the database paradigm, which has brought about major changes in the production and industry of animation. Originally, animation has the feature of creating all images newly, but with the introduction of digital technology, images created once for animation are stored as they are in the database system. To create them. In other words, digital animation is pursuing efficiency and economic feasibility in the age of infinite edition by utilizing database system.

이와 같은 디지털 미디어와 관련된 기술의 발달로 최근에는 개인이 직접 콘텐츠를 개발할 수 있는 환경도 만들어지고 있어 콘텐츠 개발산업에 대한 발전가능성은 더욱 높아지고 있다. 하지만 아직까지는 컴퓨터를 활용한 미디어 제작과 컴퓨터 언어 등에 대한 지식이 없는 비전문가의 경우 디지털 콘텐츠 제작 등의 작업은 시도하기가 쉽지 않은 실정이다.Recently, due to the development of technology related to digital media, an environment in which an individual can directly develop contents is being created, and thus the development potential of the content development industry is increasing. However, for non-experts who do not have knowledge about computer-based media production and computer language, it is not easy to try digital content creation.

본 발명이 해결하고자 하는 첫 번째 과제는 텍스트를 입력받아 자동으로 애니메이션을 생성하는 애니메이션 생성방법을 제공하는 것이다.The first problem to be solved by the present invention is to provide an animation generating method for automatically generating animation by receiving text.

본 발명이 해결하고자 하는 두 번째 과제는 텍스트를 입력받아 자동으로 애니메이션을 생성하는 애니메이션 생성장치를 제공하는 것이다.The second problem to be solved by the present invention is to provide an animation generating device that automatically generates animation by receiving text.

또한, 상기된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.It is another object of the present invention to provide a computer-readable recording medium storing a program for causing a computer to execute the above-described method.

본 발명은 상기 첫 번째 과제를 달성하기 위하여, 텍스트로부터 애니메이션 생성에 필요한 애니메이션 요소를 추출하는 단계, 및 상기 추출된 애니메이션 요소와 상기 애니메이션 요소에 대응하는 이미지를 이용하여 상기 애니메이션을 생성하는 단계를 포함하고, 상기 애니메이션 요소는 개체, 배경, 감정, 행동, 상호작용 중 적어도 어느 하나 이상인 것을 특징으로 하는 애니메이션 생성방법을 제공한다.The present invention includes the steps of extracting an animation element required for generating an animation from text, and generating the animation using the extracted animation element and the image corresponding to the animation element in order to achieve the first object. The animation element provides at least one of an object, a background, an emotion, an action, and an interaction.

본 발명의 일 실시예에 의하면, 상기 애니메이션 요소를 추출하는 단계는, 상기 텍스트의 어휘를 분석하여 구문정보를 생성하는 단계, 및 상기 구문정보로부터 각 구문의 의미를 분석하여 상기 각 구문에 대응하는 상기 애니메이션 요소를 추출하는 단계를 포함하고, 상기 애니메이션 요소 중, 개체 및 배경은 명사, 감정은 형용사, 행동 및 상호작용은 동사에 해당하는 것을 특징으로 하는 애니메이션 생성방법일 수 있고, 상기 구문정보를 생성하는 단계는, 상기 텍스트를 구성하는 각 단어의 형태소와 품사를 분석하는 단계, 및 상기 분석 결과를 이용하여 상기 텍스트에 대한 구문트리를 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the extracting of the animation element may include generating syntax information by analyzing the vocabulary of the text, and analyzing the meaning of each syntax from the syntax information corresponding to each syntax. The method may include extracting the animation element, and among the animation elements, an object and a background are a noun, an emotion is an adjective, and an action and an interaction correspond to a verb. The generating may include analyzing a morpheme and a part-of-speech of each word constituting the text, and generating a syntax tree for the text using the analysis result.

또한, 상기 각 단어에 대응하는 상기 애니메이션 요소를 추출하는 단계는, 상기 구문정보로부터 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당할 수 있는 후보 단어를 추출하는 단계, 사용자의 선택을 입력받아 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택하는 단계, 및 상기 선택된 단어의 종류를 구분하여 상기 단어가 상기 애니메이션 요소 중 어디에 해당하는지 판단하는 단계를 포함할 수 있으며, 상기 구문정보로부터 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당할 수 있는 후보 단어를 추출하는 단계는, 상기 주어는 주어로 구분될 수 있는 명사를 후보로 추출하고, 상기 목적어는 목적어로 구분될 수 있는 명사를 후보로 추출하고, 상기 서술어는 동사 및 형용사를 후보로 추출하고, 상기 상호작용 개체는 "~와" 또는 "~에게"에 연결되는 명사를 후보로 추출하고, 상기 배경 개체는 "~에서" 또는 "~으로"에 연결되는 명사를 후보로 추출하는 것을 특징으로 할 수 있다.The extracting of the animation element corresponding to each word may include extracting a candidate word that may correspond to a subject, a predicate, a background object, or an interactive object from the syntax information, and to select a user. Selecting a word corresponding to the subject, object, descriptive word, background object, or interactive object; and determining the type of the selected word to determine where the word corresponds to the animation element. And extracting a candidate word corresponding to a subject, object, descriptor, background object, or interaction entity from the syntax information, extracting a noun that may be distinguished from the subject as a candidate, and Objects are extracted as candidates for nouns that can be distinguished as objects, and the predicates are extracted as candidates for verbs and adjectives. The interactive entity extracts a noun connected to "to" or "to" as a candidate, and the background entity extracts a noun connected to "from" or "to" as a candidate. You can do

나아가, 상기 애니메이션 요소를 추출하는 단계는, 상기 텍스트의 각 단어를 애니메이션 요소 데이터베이스에 저장된 단어와 비교함으로써 각 단어의 의미를 분석하는 단계, 상기 분석된 단어의 의미를 이용하여 상기 단어로부터 애니메이션 요소를 추출하는 단계, 및 상기 추출된 애니메이션 요소를 상기 텍스트의 단어와 함께 상기 애니메이션 요소 데이터베이스에 저장하는 단계를 포함하는 애니메이션 생성방법일 수 있다.Further, the extracting of the animation element may include analyzing each word of the text by comparing each word of the text with a word stored in an animation element database, and extracting an animation element from the word using the meaning of the analyzed word. Extracting, and storing the extracted animation element together with the word of the text in the animation element database.

나아가, 상기 애니메이션을 생성하는 단계는, 상기 추출된 애니메이션 요소를 이용하여 애니메이션 생성언어를 생성하는 단계, 및 상기 생성된 애니메이션 생성언어를 이용하여 상기 애니메이션을 생성하는 단계를 포함하는 애니메이션 생성방법일 수 있다.The generating of the animation may include generating an animation generating language using the extracted animation element, and generating the animation using the generated animation generating language. have.

본 발명은 상기 두 번째 과제를 달성하기 위하여, 텍스트로부터 애니메이션 생성에 필요한 애니메이션 요소를 애니메이션 요소 추출부, 및 상기 추출된 애니메이션 요소와 상기 애니메이션 요소에 대응하는 이미지를 이용하여 애니메이션을 생성하는 애니메이션 생성부를 포함하고, 상기 애니메이션 요소는 개체, 배경, 감정, 행동, 상호작용 중 적어도 어느 하나 이상인 것을 특징으로 하는 애니메이션 생성장치를 제공한다.In order to achieve the second object, the present invention provides an animation element extracting unit for generating an animation element from text and an animation generating unit for generating an animation using the extracted animation element and the image corresponding to the animation element. The animation element provides at least one of an object, a background, an emotion, an action, and an interaction.

상기 다른 기술적 과제를 해결하기 위하여, 본 발명은 상기된 애니메이션 생성방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In order to solve the above other technical problem, the present invention provides a computer readable recording medium having recorded thereon a program for executing the above-described animation generating method on a computer.

본 발명에 따르면, 텍스트를 입력받아 상기 텍스트를 분석하여 자동으로 애니메이션을 생성할 수 있다. 또한, 본 발명에 따르면, 움직임의 축을 이용함으로써 개체의 행동을 자연스럽게 나타낼 수 있다. 나아가, 애니메이션 생성언어를 이용함으로써 상기 애니메이션 정보를 다른 사용자와 쉽게 공유할 수 있고, 응용프로그램이 달라도 호환이 가능하다.According to the present invention, the text can be received and the animation can be automatically generated by analyzing the text. In addition, according to the present invention, the use of the axis of movement can naturally represent the behavior of the individual. Furthermore, by using an animation generating language, the animation information can be easily shared with other users, and even if the application program is different, it is compatible.

도 1은 본 발명의 일 실시예에 따른 애니메이션 생성장치를 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 애니메이션 생성방법의 흐름도이다.
도 3은 본 발명의 실시예에 따른 애니메이션 요소를 추출하는 방법의 흐름도이다.
도 4는 본 발명의 실시예에 따른 구문정보로부터 애니메이션 요소를 추출하는 방법의 흐름도이다.
도 5는 본 발명의 실시예에 따른 애니메이션 요소를 추출하는데 있어 애니메이션 데이터베이스를 이용하는 방법의 흐름도이다.
도 6는 본 발명의 실시예에 따른 애니메이션 생성언어를 이용하여 애니메이션을 생성하는 방법의 흐름도이다.
1 is a block diagram illustrating an apparatus for generating animation according to an embodiment of the present invention.
2 is a flowchart of a method for generating animation according to an embodiment of the present invention.
3 is a flowchart of a method of extracting an animation element according to an embodiment of the present invention.
4 is a flowchart of a method of extracting an animation element from syntax information according to an embodiment of the present invention.
5 is a flowchart of a method of using an animation database to extract animation elements according to an embodiment of the present invention.
6 is a flowchart illustrating a method of generating an animation using an animation generation language according to an embodiment of the present invention.

본 발명에 관한 구체적인 내용의 설명에 앞서 이해의 편의를 위해 본 발명이 해결하고자 하는 과제의 해결 방안의 개요 혹은 기술적 사상의 핵심을 우선 제시한다.Prior to the description of the concrete contents of the present invention, for the sake of understanding, the outline of the solution of the problem to be solved by the present invention or the core of the technical idea is first given.

본 발명의 일 실시예에 따른 애니메이션 생성방법은 텍스트로부터 애니메이션 생성에 필요한 애니메이션 요소를 추출하는 단계, 및 상기 추출된 애니메이션 요소와 상기 애니메이션 요소에 대응하는 이미지를 이용하여 상기 애니메이션을 생성하는 단계를 포함하고, 상기 애니메이션 요소는 개체, 배경, 감정, 행동, 상호작용 중 적어도 어느 하나 이상인 것을 특징으로 한다.An animation generating method according to an embodiment of the present invention includes the steps of extracting an animation element necessary for generating an animation from text, and generating the animation using the extracted animation element and the image corresponding to the animation element. The animation element is at least one of an object, a background, an emotion, an action, and an interaction.

이하 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 실시 예를 상세히 설명한다. 그러나 이들 실시예는 본 발명을 보다 구체적으로 설명하기 위한 것으로, 본 발명의 범위가 이에 의하여 제한되지 않는다는 것은 당업계의 통상의 지식을 가진 자에게 자명할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art, however, that these examples are provided to further illustrate the present invention, and the scope of the present invention is not limited thereto.

본 발명이 해결하고자 하는 과제의 해결 방안을 명확하게 하기 위한 발명의 구성을 본 발명의 바람직한 실시예에 근거하여 첨부 도면을 참조하여 상세히 설명하되, 도면의 구성요소들에 참조번호를 부여함에 있어서 동일 구성요소에 대해서는 비록 다른 도면상에 있더라도 동일 참조번호를 부여하였으며 당해 도면에 대한 설명시 필요한 경우 다른 도면의 구성요소를 인용할 수 있음을 미리 밝혀둔다. 아울러 본 발명의 바람직한 실시 예에 대한 동작 원리를 상세하게 설명함에 있어 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명 그리고 그 이외의 제반 사항이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: It is to be noted that components are denoted by the same reference numerals even though they are shown in different drawings, and components of different drawings can be cited when necessary in describing the drawings. In the following detailed description of the principles of operation of the preferred embodiments of the present invention, it is to be understood that the present invention is not limited to the details of the known functions and configurations, and other matters may be unnecessarily obscured, A detailed description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따른 애니메이션 생성장치를 도시한 블록도이다.1 is a block diagram illustrating an apparatus for generating animation according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 애니메이션 생성장치는 애니메이션 요소 추출부(110) 및 애니메이션 생성부(120)로 구성되며, 애니메이션 요소 데이터베이스(130) 및 미디어 데이터베이스(140)를 더 포함할 수 있다.An animation generating apparatus according to an embodiment of the present invention is composed of an animation element extraction unit 110 and an animation generation unit 120 may further include an animation element database 130 and a media database 140.

애니메이션 요소 추출부(110)는 텍스트로부터 애니메이션 요소를 추출한다. The animation element extractor 110 extracts an animation element from text.

보다 구체적으로, 애니메이션 요소는 애니메이션을 생성하기 위한 개체, 배경, 감정, 행동, 상호작용으로 구성된다. 한국어 기본 문형은 주어, 목적어, 서술어를 포함한다. 여기에, 상호작용 개체와 배경 개체의 특징을 더 포함할 수 있다. 입력되는 텍스트로부터 각 단어를 주어, 목적어, 서술어, 상호작용 개체, 배경 개체로 구분하고, 상기 구분된 단어의 종류를 구분하여 상기 애니메이션 요소를 추출한다. 상기 주어, 목적어는 개체에 해당하고, 상기 서술어는 감정과 행동에 해당하며, 상호작용 개체는 상호작용에 해당하고, 배경 개체는 배경에 해당한다. 입력받은 텍스트의 어휘를 분석하여 구문정보를 생성하고, 상기 구문정보로부터 각 구문의 의미를 분석하여 상기 애니메이션 요소를 추출한다. 상기 텍스트는 동화책 또는 그림책과 같이 텍스트를 포함하고 있는 책 또는 시나리오 등에 기재되어 있는 텍스트일 수 있다.More specifically, animation elements consist of objects, backgrounds, emotions, actions, and interactions for generating animation. Korean basic sentence patterns include subject, object and predicate. It may further include features of the interactive object and the background object. Each word is given from the input text, and is divided into an object, a descriptor, an interactive object, and a background object, and the kind of the separated word is classified to extract the animation element. The subject, object corresponds to the entity, the descriptor corresponds to emotion and action, the interactive entity corresponds to the interaction, the background entity corresponds to the background. Syntax information is generated by analyzing a vocabulary of the input text, and the animation element is extracted by analyzing the meaning of each phrase from the syntax information. The text may be text described in a book or scenario including text, such as a fairy tale book or a picture book.

상기 애니메이션 요소를 추출함에 있어서, 상기 텍스트를 구성하는 각 단어에 대한 형태소분석과 품사부착을 수행하고, 상기 형태소분석과 품사부착을 수행한 결과를 이용하여 상기 텍스트에 대한 구문정보를 생성하며, 상기 구문정보로부터 각 단어의 의미를 분석하여 상기 각 단어에 대응하는 상기 애니메이션 요소를 추출할 수 있다. 상기 각 단어에 대응하는 상기 애니메이션 요소는 상기 구문정보로부터 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당할 수 있는 후보 단어를 추출하고, 사용자의 선택을 입력받아 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택하며, 상기 선택된 단어의 종류를 구분하여 상기 단어가 상기 애니메이션 요소 중 어디에 해당하는지 판단하여 추출할 수 있다. 상기 주어는 주어로 구분될 수 있는 명사를 후보로 추출하고, 상기 목적어는 목적어로 구분될 수 있는 명사를 후보로 추출하고, 상기 서술어는 동사 및 형용사를 후보로 추출하고, 상기 상호작용 개체는 "~와" 또는 "~에게"에 연결되는 명사를 후보로 추출하고, 상기 배경 개체는 "~에서" 또는 "~으로"에 연결되는 명사를 후보로 추출할 수 있다.In extracting the animation element, morphological analysis and part-of-speech attachment are performed on each word constituting the text, and syntax information of the text is generated using the result of the morphological analysis and part-of-speech attachment. The meaning of each word may be analyzed from syntax information to extract the animation element corresponding to each word. The animation element corresponding to each word extracts a candidate word that may correspond to a subject, a predicate, a background object, or an interactive entity from the syntax information, and receives the user's selection to receive the subject, object, and predicate. A word corresponding to a background object or an interactive object is selected, and the selected word may be classified to determine whether the word corresponds to the animation element and extracted. The subject extracts a noun that can be distinguished as a subject, the object extracts a noun that can be distinguished as an object, the predicate extracts a verb and an adjective as a candidate, and the interactive entity " Nouns connected to "to" or "to" may be extracted as candidates, and the background entity may extract nouns connected to "from" or "to" as candidates.

또한, 상기 애니메이션 요소를 추출함에 있어서, 상기 텍스트의 각 단어를 애니메이션 요소 데이터베이스(130)에 저장된 단어와 비교함으로써 각 단어의 의미를 분석하고, 상기 분석된 단어의 의미를 이용하여 상기 단어로부터 애니메이션 요소를 추출하며, 상기 추출된 애니메이션 요소를 상기 텍스트의 단어와 함께 상기 애니메이션 데이터베이스(130)에 저장할 수 있다.Further, in extracting the animation element, the meaning of each word is analyzed by comparing each word of the text with a word stored in the animation element database 130 and using the meaning of the analyzed word, the animation element from the word. The extracted animation element may be stored in the animation database 130 along with the word of the text.

상기 각 단어로부터 추출할 수 있는 애니메이션 요소의 후보가 2 이상인 경우, 상기 후보가 되는 애니메이션 요소를 사용자에게 선택할 수 있도록 할 수 있다. 또한, 애니메이션 요소 데이터베이스(130)에 저장된 정보를 이용하여 선택확률이 높은 애니메이션 요소를 추천할 수 있다. 애니메이션 요소 추출부(110)는 상기 사용자의 입력을 받아 상기 각 단어에 대응하는 애니메이션 요소를 추출할 수 있다.When there are two or more candidate candidates for animation elements extracted from each word, the user may be able to select the candidate animation elements. In addition, the animation element having a high probability of selection may be recommended using the information stored in the animation element database 130. The animation element extracting unit 110 may extract an animation element corresponding to each word in response to the user's input.

상기 애니메이션 요소를 추출하는 방법에 대한 상세한 설명은 도 3 내지 도 4에서 다루도록 한다.A detailed description of the method of extracting the animation element will be given with reference to FIGS. 3 to 4.

애니메이션 생성부(120)는 애니메이션 요소 추출부(110)가 추출한 애니메이션 요소를 이용하여 애니메이션을 생성한다. The animation generator 120 generates an animation using the animation elements extracted by the animation element extractor 110.

보다 구체적으로, 상기 애니메이션 요소에 대응하는 배경이미지를 배경으로 하고, 개체의 감정과 행동을 상기 개체 이미지를 동작시켜 표현하고, 상기 개체와 다른 개체와의 상호작용이 있는 경우, 상기 개체이미지와 다른 개체이미지를 상호 동작시켜 애니메이션을 생성한다. 또한, 상기 애니메이션 요소에 대응하고 미디어 데이터베이스(140)에 저장되어 있는 음성, 음악, 또는 효과음 중 적어도 어느 하나 이상을 이용하여 애니메이션을 생성할 수 있다. More specifically, when the background image corresponding to the animation element is set as a background, and the object image is expressed by operating the object image, and there is an interaction between the object and another object, the object image is different from the object image. Create animations by interacting with object images. In addition, an animation may be generated using at least one of voice, music, and effect sounds corresponding to the animation element and stored in the media database 140.

애니메이션 요소 데이터베이스(130)는 구문정보에 대응하는 애니메이션 요소가 저장되어 있다. 애니메이션 요소 데이터베이스(130)는 단어에 대응하여 상기 단어의 의미와 애니메이션 요소 중 어느 요소에 해당하는지에 대한 정보를 저장하고 있다. 상기 단어는 개체, 배경, 감정, 행동, 상호작용의 애니메이션 요소 중 적어도 하나 이상에 해당할 수 있다. 상기 애니메이션 요소 데이터베이스(130)에 저장된 정보는 누적 저장될 수 있다. 애니메이션 요소를 추출하기 위하여 애니메이션 데이터베이스(130)에 저장된 정보를 이용하고, 그 결과를 다시 애니메이션 요소 데이터베이스(130)에 저장함으로써 상기 정보를 누적하여 저장할 수 있다. 상기 정보의 누적 저장을 이용한 학습에 의해 애니메이션 요소를 추출하는데 있어서, 정확도를 높일 수 있다. 상기 단어로부터 애니메이션 요소를 추출함에 있어서, 상기 학습에 따른 확률이 적용될 수 있다. 동일한 단어라도 사용되는 품사와 의미에 따라 대응하는 애니메이션 요소가 달라질 수 있고, 상기 대응하는 애니메이션 정보가 될 수 있는 후보가 2 이상일 수 있다. 따라서 후보가 2 이상인 경우에는 이전까지의 정보를 검색하여 후보 애니메이션 요소 중 많이 사용되어, 확률이 높은 애니메이션 요소를 선택할 수 있다. 또는 후보 애니메이션 요소를 사용자에게 선택하도록 하고, 사용자의 입력에 따라 애니메이션 요소를 결정할 수 있다. 상기 사용자의 선택은 다시 애니메이션 요소 데이터베이스(130)에 저장하여 다음 텍스트에 대한 애니메이션 요소를 추출에 이용할 수 있다. 동일한 책의 경우, 특정 단어에 대한 애니메이션 요소를 상기 단어가 다음에 입력되는 경우 계속 사용할 수 있다.The animation element database 130 stores animation elements corresponding to syntax information. The animation element database 130 stores information on the meaning of the word and which of the animation elements corresponds to the word. The word may correspond to at least one of an animation element of an object, a background, an emotion, an action, and an interaction. Information stored in the animation element database 130 may be accumulated and stored. The information stored in the animation database 130 may be used to extract the animation element, and the result may be stored in the animation element database 130 to accumulate the information. In extracting animation elements by learning using cumulative storage of the information, accuracy can be increased. In extracting an animation element from the word, a probability according to the learning may be applied. Corresponding animation elements may vary according to parts of speech and meaning used even for the same word, and two or more candidates may be corresponding animation information. Therefore, when there are two or more candidates, a plurality of candidate animation elements are used by searching for information up to the past, so that an animation element having a high probability can be selected. Alternatively, the user may select a candidate animation element and determine the animation element according to the user's input. The user's selection may be stored in the animation element database 130 again to use the animation element for the next text for extraction. In the case of the same book, an animation element for a particular word can continue to be used when the word is next entered.

미디어 데이터베이스(140)는 상기 애니메이션 요소에 대응하는 이미지, 음성, 음악, 또는 효과음 등을 저장하고 있을 수 있다. 애니메이션 요소에 따라 대응하는 필요 미디어 요소들을 저장하고 있어, 애니메이션을 생성하는데 이용할 수 있다. 상기 이미지는 상기 텍스트와 함께 입력받은 그림을 분석하여 추출된 이미지 또는 미디어 데이터베이스(140)에 저장되어 있는 이미지 중 어느 하나일 수 있다. 상기 동화책과 같이 삽화 등이 그려져 있는 책의 그림을 입력받고, 상기 그림을 분석하여 추출된 이미지를 이용할 수 있다. 상기 그림에서 개체와 배경을 추출하여 애니메이션을 생성하는데 이용할 수 있다. 또는, 책에 그림이 없어 입력받은 이미지가 없거나 해당 배경 또는 개체 등에 대응하는 이미지가 없는 경우, 미디어 데이터베이스(140)에 미리 저장되어 있는 이미지를 이용할 수 있다.The media database 140 may store an image, voice, music, or sound effect corresponding to the animation element. Corresponding required media elements are stored according to animation elements and can be used to generate animations. The image may be any one of an image extracted by analyzing a picture input together with the text or an image stored in the media database 140. Like a fairy tale book, a picture of a book on which an illustration is drawn may be input, and the extracted image may be used by analyzing the picture. The object and the background can be extracted from the figure and used to create an animation. Alternatively, when there is no picture in the book and there is no input image, or there is no image corresponding to the background or the object, an image previously stored in the media database 140 may be used.

또한, 미디어 데이터베이스(140)는 이미지뿐만 아니라, 음성, 음악, 효과음 등을 저정할 수 있다. 애니메이션을 생성함에 있어서, 이미지뿐만 아니라 음성, 음악, 효과음 등이 필요한바, 애니메이션을 생성하기 위한 음성, 음악, 효과음 등을 저장할 수 있다. 음성은 미리 저장되어 있는 성우의 목소리를 이용할 수 있다. 애니메이션 요소 중 행동에 말하기가 있는 경우, 해당 대사를 상기 성우의 목소리를 이용하여 나타낼 수 있다. 또한, 배경음악, 효과음 등을 저장하고 있어 애니메이션에 음성적인 요소를 더할 수 있다. In addition, the media database 140 may store not only an image but also a voice, music, and an effect sound. In generating an animation, not only an image but also a voice, music, effect sound, etc. are required, and thus, a voice, music, effect sound, etc. for generating an animation may be stored. The voice may use a voice actor's voice stored in advance. If there is a speaking in the action among the animation elements, the corresponding dialogue may be expressed using the voice of the voice actor. It also stores background music, sound effects, and more, so you can add voice to your animation.

도 2는 본 발명의 일 실시예에 따른 애니메이션 생성방법의 흐름도이다.2 is a flowchart of a method for generating animation according to an embodiment of the present invention.

210단계는 텍스트로부터 애니메이션 생성에 필요한 애니메이션 요소를 추출하는 단계이다.Step 210 is a step of extracting animation elements required for animation generation from the text.

보다 구체적으로, 입력받은 텍스트로부터 애니메이션 생성에 필요한 개체, 배경, 감정, 행동, 상호작용에 해당하는 애니메이션 요소를 추출한다. 본 단계에 대한 상세한 설명은 도 1의 애니메이션 요소 추출부(110)에 대한 상세한 설명에 대응하는바, 도 1의 애니메이션 요소 추출부(110)에 대한 상세한 설명으로 대신한다.More specifically, an animation element corresponding to an object, a background, an emotion, an action, and an interaction required for generating an animation is extracted from the input text. The detailed description of this step corresponds to the detailed description of the animation element extraction unit 110 of FIG. 1, and is replaced with the detailed description of the animation element extraction unit 110 of FIG. 1.

220단계는 상기 추출된 애니메이션 요소와 상기 애니메이션 요소에 대응하는 이미지를 이용하여 상기 애니메이션을 생성하는 단계이다.In operation 220, the animation is generated using the extracted animation element and an image corresponding to the animation element.

보다 구체적으로, 110단계에서 추출한 애니메이션 요소와 상기 애니메이션 요소에 대응하는 이미지를 이용하여 애니메이션을 생성한다. 상기 이미지는 상기 애니메이션 요소 중 개체와 배경일 수 있다. 본 단계에 대한 상세한 설명은 도 1의 애니메이션 생성부(120)에 대한 상세한 설명에 대응하는바, 도 1의 애니메이션 생성부(120)에 대한 상세한 설명으로 대신한다.More specifically, an animation is generated using the animation element extracted in step 110 and an image corresponding to the animation element. The image may be an object and a background among the animation elements. The detailed description of this step corresponds to the detailed description of the animation generator 120 of FIG. 1, and is replaced with the detailed description of the animation generator 120 of FIG. 1.

또한, 상기 텍스트로부터 개체와 상기 개체의 행동이 추출되어, 상기 개체에 대응하는 이미지의 행동을 나타내는데 있어서, 상기 이미지 중 행동을 위한 움직임의 축이 되는 부분을 분석하고, 상기 움직임의 축을 중심으로 상기 이미지를 변형시켜 상기 개체의 행동을 나타낼 수 있다. 개체의 행동을 나타내기 위하여 다수의 화상을 이용할 수도 있으나, 상기 개체에 대응하는 이미지의 관절의 움직임을 이용하여 상기 이미지가 자연스럽게 행동할 수 있도록 애니메이션을 생성할 수 있다. 예를 들어 개체가 사람 또는 동물인 경우, 상기 사람이미지에서 움직임의 축이 되는 즉, 관절에 해당하는 부분을 분석하고, 상기 관절을 중심으로 이미지를 변형시켜 상기 사람의 움직임을 나타낼 수 있다. 사람이 걸어가는 애니메이션을 생성하는 경우, 사람이미지의 다리의 움직임의 축인 무릎을 중심으로 다리가 움직일 수 있도록 사람이미지를 변형시킴으로써, 상기 사람이미지가 걸어가는 애니메이션을 생성할 수 있다. In addition, the object and the behavior of the object is extracted from the text, and in showing the behavior of the image corresponding to the object, the portion of the image that is the axis of movement for the behavior is analyzed, and the axis of the movement The image can be modified to represent the behavior of the subject. Although a plurality of images may be used to indicate the behavior of an object, an animation may be generated to allow the image to behave naturally by using movement of joints of the image corresponding to the object. For example, when the object is a human or an animal, the movement of the human image may be analyzed, that is, a portion corresponding to a joint, and the image may be transformed around the joint to represent the movement of the human. In the case of generating an animation of walking by a person, an animation of walking of the human image may be generated by deforming the human image so that the leg may move around the knee which is the axis of the movement of the leg of the human image.

도 3은 본 발명의 실시예에 따른 애니메이션 요소를 추출하는 방법의 흐름도이다.3 is a flowchart of a method of extracting an animation element according to an embodiment of the present invention.

310단계는 상기 텍스트를 구성하는 각 단어에 대한 형태소분석과 품사부착을 수행하는 단계이다.Step 310 is a step of performing morpheme analysis and part-of-speech for each word constituting the text.

보다 구체적으로, 입력받은 텍스트를 단어단위로 나누어 상기 각 단어에 대해 형태소분석과 품사부착(품사태깅)을 수행한다. 형태소분석은 어떤 대상 어절에 대해 가능한 모든 분석 결과를 출력하는 것을 의미하며, 품사부착은 형태소분석의 결과 중, 문맥에 적합한 하나의 분석 결과를 선택하는 과정을 의미한다. 상기 형태소분석을 수행하기 위하여 결정적 규칙을 이용하여 입력문을 분석하는 규칙기반 접근법, 확률이나 통계를 이용하여 입력을 분석하는 통계기반 접근법, 또는 규칙기반 접근법과 통계기반 접근법의 장점을 취합한 방법인 혼합 접근법을 이용할 수 있다. 상기 방법들 중 어느 하나를 이용하여 입력받은 텍스트의 각 단어의 형태소를 분석한다. 상기 형태소분석을 통해 각 단어가 명사, 동사, 형용사인지를 분석한다. 상기 형태소분석 결과에 따른 다수의 분석 후보에 대해 상기 텍스트에 적합한 분석 후보를 선택하는 품사부착을 수행한다. 상기 품사부착을 수행하기 위하여 마르코프 모형, 은닉 마르코프 모형, 예측 접미 나무 모형, 또는 결정 나무 모형을 이용할 수 있다.More specifically, the input text is divided into word units to perform morphological analysis and part-of-speech attachment on each word. Morphological analysis means outputting all possible analysis results for a certain word, and attaching parts of speech refers to a process of selecting one analysis result that is appropriate to a context from the results of morphological analysis. In order to perform the morphological analysis, a rule-based approach that analyzes input statements using deterministic rules, a statistics-based approach that analyzes inputs using probabilities or statistics, or a method that combines the advantages of rule-based and statistical-based approaches. A mixed approach can be used. The morpheme of each word of the input text is analyzed using any one of the above methods. Analyze whether each word is a noun, a verb, an adjective. A part-of-speech attachment for selecting an analysis candidate suitable for the text is performed for a plurality of analysis candidates according to the morphological analysis result. In order to perform the part-of-speech attachment, a Markov model, a hidden Markov model, a predictive suffix tree model, or a crystal tree model may be used.

320단계는 상기 형태소분석과 품사부착을 수행한 결과를 이용하여 상기 텍스트에 대한 구문정보를 생성하는 단계이다.Step 320 is a step of generating syntax information for the text using the results of the morpheme analysis and the part-of-speech attachment.

보다 구체적으로, 310단계에서 형태소분석과 품사부착을 수행한 결과를 의미분석하기에 적합하도록 구문정보를 생성하는 단계이다. 310단계의 결과에 대해서 텍스트의 어휘가 문법대로 구성되었는가를 확인한다. 즉, 상기 형태소분석과 품사부착을 수행한 결과가 문법적으로 의미가 있는지를 확인한다. 상기 형태소분석과 품사부착을 수행한 결과가 문법적으로 구성된 경우, 구문 트리를 생성할 수 있다. 구문트리는 문법상 올바른 텍스트에 대해 그 텍스트의 구조를 나무 그림 형태로 나타낸 것을 말한다. More specifically, in step 310, the syntax information is generated to be suitable for semantic analysis of the result of the morpheme analysis and the part-of-speech attachment. With respect to the result of step 310, it is checked whether the vocabulary of the text is composed according to the grammar. That is, the results of the morphological analysis and the part-of-speech attachment are checked to see if they have a grammatical meaning. When the result of the morphological analysis and the part-of-speech attachment is grammatically constructed, a syntax tree may be generated. A syntax tree is a tree diagram of the structure of text for grammatically correct text.

330단계는 상기 구문정보로부터 각 구문의 의미를 분석하여 상기 각 구문에 대응하는 상기 애니메이션 요소를 추출하는 단계이다.In operation 330, the meaning of each syntax is analyzed from the syntax information to extract the animation element corresponding to each syntax.

보다 구체적으로, 320단계에서 생성한 구문정보로부터 각 구문의 의미를 분석하는 단계이다. 상기 구문정보는 문법상 올바른 정보로서 텍스트에서 요소들에 대한 계층 구조일 뿐 의미를 가지고 있지 않다. 의미가 없는 구문정보를 이용하여 의미를 분석함으로써 각 구문이 개체, 배경, 감정, 행동, 상호작용 중 어떤 애니메이션 요소에 해당하는지를 판단한다. 상기 구문트리로 생성된 구문정보에서 명사는 개체, 배경, 상호작용이 될 수 있고, 형용사는 감정, 동사는 행동, 상호작용에 해당할 수 있다. More specifically, it is a step of analyzing the meaning of each phrase from the syntax information generated in step 320. The syntax information is grammatically correct and is a hierarchical structure of elements in the text and does not have meaning. The meaning is analyzed using meaningless syntax information to determine which animation elements each object corresponds to: object, background, emotion, behavior, and interaction. In the syntax information generated by the syntax tree, nouns may be entities, backgrounds, and interactions, adjectives may correspond to emotions, and verbs may correspond to actions and interactions.

우선 각 구문으로부터 텍스트의 중요 요소인 주어, 목적어, 서술어를 추출할 수 있다. 주어는 개체가 될 수 있고, 주어로 구분되는 모든 명사를 주어의 후보로 추출한다. 목적어 또한 개체가 될 수 있고, 목적어로 구분되는 모든 명사를 목적어의 후보로 추출한다. 서술어는 감정, 행동이 될 수 있고, 종결어미, 관형형어미, 및 종속절에 속해 있는 동사 및 형용사 또는 연결동사의 동사 및 형용사를 서술어의 후보로 추출한다. 예를 들어, "숲에서 곰이 토끼에게 공을 던졌다"라는 텍스트에 대해 "곰"을 주어로 추출하고, "공"을 목적어로 추출하며, "던졌다"를 서술어로 추출할 수 있다.First, it is possible to extract the subject, object, and predicate which are important elements of text from each syntax. The subject can be an entity and extracts all nouns separated by the subject as candidates for the subject. The object can also be an entity, and all nouns separated by the object are extracted as candidates for the object. Predicates can be emotions, actions, and extract verbs and adjectives in verbs and adjectives or conjunctive verbs that belong to ending endings, tubular endings, and subordinate clauses. For example, the text "bear in the woods threw a ball to a rabbit" could be extracted by giving it a "bear", extracting "ball" as the object, and extracting "throw" as a descriptor.

상기 주어, 목적어, 서술어로 각 단어들이 추출된 경우, 상기 단어의 타입을 부여할 수 있다. 명사의 경우, 인물, 배경, 개체 또는 무형의 타입으로 나눌 수 있고, 동사의 경우, 가다, 먹다, 보다, 앉다의 타입과 동작이 없는 경우, 애니메이션으로 표현할 수 없는 경우 등의 타입으로 나눌 수 있다. 상기 단어의 타입은 미리 설정되어 있을 수 있으며, 또는, 새로운 명사나 동사가 입력되는 경우, 새로 정의할 수도 있다. When each word is extracted as the subject, object, or descriptor, the type of the word may be assigned. In the case of nouns, they can be divided into figures, backgrounds, objects, or intangibles, and in the case of verbs, they can be divided into types such as go, eat, see, sit, no action, and animation. . The word type may be set in advance, or may be newly defined when a new noun or a verb is input.

다음 각 구문으로부터 상호작용 개체와 배경을 추출할 수 있다. "~와", "~에게"에 연결되는 명사를 상호작용 개체의 후보로 추출하고, "~에서", "~으로"에 연결되는 명사를 배경의 후보로 추출한다. 예를 들어, "숲에서 곰이 토끼에게 공을 던졌다"에서 "~에게"에 연결된 "토끼"를 상호작용 개체로 추출할 수 있다. 또한, "~에서"와 연결된 "숲"을 배경으로 추출할 수 있다. 배경의 경우에는, 애니메이션 장면마다 동일한 배경을 사용하는 경우가 많으므로, 장면마다 하나의 배경을 추출할 수 있다. 책의 경우, 문단단위로 추출할 수 있다. You can extract the interaction object and background from each of the following statements: Nouns connected to "to" and "to" are extracted as candidates for the interactive entity, and nouns connected to "to" and "to" are extracted as candidates for the background. For example, you can extract the "rabbit" linked to "to" from "A bear throws a ball in a forest" as an interactive entity. In addition, the "forest" associated with "from" can be extracted in the background. In the case of the background, since the same background is often used for each animation scene, one background can be extracted for each scene. In the case of books, they can be extracted in paragraph units.

상기 "숲에서 곰이 토끼에게 공을 던졌다"는 텍스트에서 개체는 "곰" 및 "토끼"이고, 배경은 "숲"이고, 행동은 "던졌다"이며, 상호작용은 "곰이 토끼에게 공을 던졌다"이다. 상기 애니메이션 요소와 상기 애니메이션 요소에 대응하는 이미지를 이용하여 애니메이션을 생성한다.In the text "The bear threw the ball to the rabbit in the forest", the entities were "bear" and "rabbit", the background was "forest", the action was "threw", and the interaction was "bear to the rabbit." Threw ". An animation is generated using the animation element and an image corresponding to the animation element.

도 4는 본 발명의 실시예에 따른 구문정보로부터 애니메이션 요소를 추출하는 방법의 흐름도이다.4 is a flowchart of a method of extracting an animation element from syntax information according to an embodiment of the present invention.

410단계는 상기 구문정보로부터 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당할 수 있는 후보 단어를 추출하는 단계이다.In operation 410, a candidate word corresponding to a subject, a descriptor, a background object, or an interactive entity may be extracted from the syntax information.

보다 구체적으로, 한국어의 기본 문형에 따라 상기 구문정보로부터 주어, 목적어, 서술어와 배경 개체, 상호작용 개체를 구분한다. 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체 각각에 해당할 수 있는 후보 단어는 하나 이상일 수 있고, 없을 수도 있다. 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체 각각에 해당할 수 있는 후보 단어를 모두 추출한다. 상기 주어는 주어로 구분될 수 있는 명사를 후보로 추출하고, 상기 목적어는 목적어로 구분될 수 있는 명사를 후보로 추출하고, 상기 서술어는 동사 및 형용사를 후보로 추출할 수 있다. 예를 들어, "그날도 농부는 밭을 갈고 있었지"에서 "그날", "농부"는 주어로 추출될 수 있고, "밭"은 목적어로 추출될 수 있으며, "갈고 있었지"는 서술어로 추출될 수 있다. More specifically, according to the basic sentence type of Korean, given from the syntax information, the object, the predicate and the background object, the interaction object is distinguished. There may or may not be one or more candidate words that may correspond to a subject, object, descriptor, background entity, or interaction entity. The candidate words that may correspond to each of the subject, the object, the descriptor, the background entity, or the interaction entity are extracted. The subject may extract nouns that may be distinguished as subjects, the object may extract nouns that may be distinguished as object, and the predicates may extract verbs and adjectives as candidates. For example, "from that day the farmer was plowing the field" to "the day", "the farmer" could be extracted as the subject, "the field" could be extracted as the object, and "the plowing" could be extracted as the descriptor. have.

상기 상호작용 개체는 "~와" 또는 "~에게"에 연결되는 명사를 후보로 추출하고, 상기 배경 개체는 "~에서" 또는 "~으로"에 연결되는 명사를 후보로 추출할 수 있다. 예를 들어, "할머니와 할아버지가 함께 있어요"에서 "~와"로 연결되는 명사인 "할머니"를 상호작용 개체로 추출할 수 있다. 또한, "나무꾼이 산에서 나무를 합니다"에서 "~에서"에 연결되는 명사인 "산"을 배경 개체로 추출할 수 있다.The interactive entity may extract a noun connected to “to” or “to” as a candidate, and the background entity may extract a noun connected to “from” or “to” as a candidate. For example, you can extract "grandmother", a noun that links "to" with "grandmother and grandfather together," as an interactive entity. You can also extract "mountain", a noun linked to "from" in "lumberjack does wood on mountain" as a background object.

420단계는 사용자의 선택을 입력받아 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택하는 단계이다.In operation 420, a user's selection is input and a word corresponding to the subject, the object, the descriptor, the background object, or the interaction object is selected.

보다 구체적으로, 410단계에서 추출한 각 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체의 후보 단어를 사용자에게 선택하도록 하고, 상기 사용자의 선택을 입력받아 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택한다. 상기 단어들에 대한 저장되어 있는 정보가 없거나, 단어가 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체 중 어디에 해당하는지 알 수 없는 경우, 사용자의 선택에 의해 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택한다. 상기 단어가 데이터베이스에 미리 저장되어 있는 경우에는 사용자의 선택없이 바로 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택할 수 있다. 데이터베이스를 이용하는 방법은 도 5에 대한 상세한 설명에서 자세히 다루도록 한다. 또는 여러 후보 단어 중 상기 데이터베이스의 정보에 따라 후보 단어 중 선택확률이 높은 단어를 사용자에게 추천할 수도 있다.More specifically, the user selects candidate words of each subject, object, descriptor, background object, or interaction object extracted in step 410, and receives the user's selection to receive the subject, object, descriptor, background object, or Select the word corresponding to the interaction entity. If no information is stored about the words, or if the word corresponds to the subject, object, descriptor, background object, or interactive entity, the subject, object, descriptor, background is selected by the user. Select the word that corresponds to the entity or interaction entity. When the word is stored in the database in advance, a word corresponding to an object, a descriptor, a background object, or an interaction object may be selected without a user's selection. The method of using the database will be described in detail in the detailed description of FIG. 5. Alternatively, a word having a high probability of selection among candidate words may be recommended to the user according to the information of the database among several candidate words.

430단계는 상기 선택된 단어의 종류를 구분하여 상기 단어가 상기 애니메이션 요소 중 어디에 해당하는지 판단하는 단계이다.In operation 430, the type of the selected word may be classified to determine where the word corresponds to the animation element.

보다 구체적으로, 상기 구문정보로부터 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택한 경우, 상기 정보를 이용하여 각 단어의 종류를 구분하고, 상기 종류에 따라 애니메이션 요소를 판단하여 추출한다. 주어에 해당하는 개체가 어떤 인물인지를 판단하고, 서술어의 동작이 어떠한 것인지를 판단한다. 예를 들어, 명사와 동사의 종류를 다음 표 1과 같이 구분할 수 있다. More specifically, when a word corresponding to a subject, a predicate, a background object, or an interactive object is selected from the syntax information, the type of each word is classified using the information, and an animation element is determined according to the type. To extract. Determine what kind of person the subject corresponds to, and determine what the action of the predicate is. For example, the types of nouns and verbs can be divided as shown in Table 1 below.

Figure 112011092952272-pat00001
Figure 112011092952272-pat00001

상기 단어의 종류를 우선 명사와 동사로 구분한 후, 각 명사와 동사의 종류를 구분한다. 상기 명사와 동사의 종류는 데이터베이스에 저장되고, 명사 또는 동사의 종류가 책 등에 따라 달라질 수 있으므로 이는 추가될 수 있다. 동사 타입에 VT_NOTHING, VT_ADJ, VT_IMPOSSIBLE 이라는 타입은 애니메이션의 동작으로 표현할 수 없는 일종의 특수한 타입이다. VT_NOTHING 은 동작이 없다는 것을 나타내는데, 예를 들어 "있다"와 같은 동사의 타입이 될 수 있다. VT_ADJ는 서술어이기는 한데 동사가 아닌 경우를 나타낸다. 예를 들어, "꽃이 예쁘다"의 "예쁘다"는 서술어이긴 한데 동사가 아닌 형용사이다. 이처럼 움직임을 가지지 않는 서술어에는 VT_ADJ라는 타입을 적용하게 한다. VT_IMPOSSIBLE은 현재 시점에서 애니메이션으로 표현할 수 없는 동사를 가리키며 이는 차후 변경될 수 있는 요소이다. 배경의 경우에는 애니메이션 장면마다 바뀔 수 있고, 이는 문단 단위로 추출할 수 있다.The types of words are first divided into nouns and verbs, and then the types of nouns and verbs are distinguished. The types of nouns and verbs are stored in a database, and the types of nouns and verbs may vary according to books. The verb types VT_NOTHING, VT_ADJ, and VT_IMPOSSIBLE are a special type that can't be represented by animation. VT_NOTHING indicates no action, which can be a type of verb such as "is". VT_ADJ is a predicate but not a verb. For example, the word "pretty" in "flower is pretty" is an adjective, not a verb. In this way, the VT_ADJ type is applied to the descriptor without movement. VT_IMPOSSIBLE refers to a verb that cannot be animated at the present time, which can be changed later. The background can be changed for each animation scene, which can be extracted in paragraph units.

사용자의 선택이 데이터베이스에 누적 저장되고, 상기 데이터베이스의 정보를 이용하여 사용자에게 후보 단어 중 유력한 단어가 무엇인지 추천할 수 있다. 이러한 추천은 주어 및 목적어에 대해서 제공될 수 있으며, 서술어는 주어 및 목적어의 선택 점수를 계산하기 위한 기반으로 이용할 수 있다. 점수가 높은 단어가 유력한 단어가 되는데, 점수 계산을 위하여 조건부 확률을 이용할 수 있다. 상기 조건부 확률을 계산하는 식을 다음 수학식 1과 같다.The user's selection is accumulated and stored in a database, and the information of the database can be used to recommend to the user what the most likely words are among the candidate words. Such a recommendation may be provided for subjects and objects, and the predicates may be used as a basis for calculating the selection scores of subjects and objects. Words with high scores become prominent words, and conditional probabilities can be used to calculate scores. The equation for calculating the conditional probability is as shown in Equation 1 below.

[수학식 1][Equation 1]

P(Object|Predicate) = P(Object ∩ Predicate) / P(Predicate) - ①P (Object | Predicate) = P (Object ∩ Predicate) / P (Predicate)-①

P(Subject|Predicate) = P(Subject ∩ Predicate) / P(Predicate) - ②P (Subject | Predicate) = P (Subject ∩ Predicate) / P (Predicate)-②

P(Interactor|Subject) = P(Interactor ∩ Subject) / P(Subject) - ③P (Interactor | Subject) = P (Interactor ∩ Subject) / P (Subject)-③

식① 및 식②는 어떠한 서술어(Predicate) 가 나왔을 시 특정 목적어(Object) 또는 주어(Subject)가 나올 확률을 가리킨다. 예를 들어, "곰이 공을 던지다"에서 "던지다" 에 대한 서술어에 대해 "공" 이라는 목적어가 나올 확률은 [ ("공" +"던지다") 조합이 나타난 횟수 / "던지다" 서술어가 나타난 횟수 ]가 될 것이며 이는 주어에도 똑같이 적용된다. 서술어가 나왔을 시에 대하여 우선될 수 있는 주어와 목적어를 따지는 것은 주어와 목적어가 서술어에 의존적인 관계이기 때문이다. 예를 들어, 위의 "곰이 공을 던지다" 라는 텍스트에서 "던지다"라는 서술어에 대한 목적어로 "시간" 같은 명사가 올 수 없으며, 또한 주어로 "책" 같은 것이 오기는 힘들다. 즉, 서술어는 주어와 목적어의 범위를 한정시키는 효과를 가져오기 때문에 식① 및 식②를 사용해서 선택될 단어들의 우선순위를 정하는 것이 가능해진다.Equations ① and ② indicate the probability that a certain object or subject will appear when a predicate comes out. For example, the probability that the object "ball" appears for "death" in "bear throws" is the number of times the combination (["ball" + "throw") appears / "throw"). Number of times], which applies equally to the subject. The reason that a subject and object are given priority when a predicate comes out is that the subject and the object are dependent on the predicate. For example, in the text "bear throws the ball" above, nouns such as "time" can come from the object of the predicate "throw", and it's hard to come up with "book" as a subject. That is, since the predicate has the effect of limiting the range of the subject and the object, it is possible to determine the priority of the words to be selected by using the expressions ① and ②.

식③은 상호작용 개체로 선택될 수 있는 후보들에 대하여 우선순위를 매기는 방식이다. 이는 주어가 사전에 선택되었을 시 그에 대응해 추출 가능한 상호작용 개체의 조건부 확률을 나타낸다. 만약 주어로 "할머니" 가 선택되었을 시 "할아버지"가 상호작용 개체로 추천이 될 확률은 [ ("할머니" 주어 +"할아버지" 상호작용) 조합이 나타난 횟수 / "할머니" 주어가 나타난 횟수 ] 와 같다. 이러한 방식을 이용한 선택 단어 추천 기능은 위에서 논한 식을 사용하여 사용자에게 제시된 텍스트에 대한 단어 선택방향을 제시해 주게 된다.Equation ③ is a method of prioritizing candidates that can be selected as interactive entities. This represents the conditional probabilities of the interacting entities that can be extracted correspondingly when the subject is preselected. If "grandmother" is selected as the subject, the probability that "grandfather" is recommended as an interactive entity is [number of "grandma" + + grandfather interaction) combinations / number of "grandmother" subjects. same. The selection word recommendation function using this method suggests a word selection direction for the text presented to the user using the above-mentioned equation.

상기 애니메이션 요소 중 감정을 추출하기 위해선 형용사를 이용하여 수행한다. 형용사에 적용되는 감정은 부정과 긍정으로 나누어 표현할 수 있으며, 감정의 정도에 따라 복수의 단계로 나누어 표현할 수 있다. 긍정의 감정도 높은, 중간, 낮은의 긍정으로 표현할 수 있으며, 부정 또한 마찬가지이다. 또는 "깊다"와 같은 형용사는 아무런 감정이 없을 수 있다. 상기 형용사에 따른 감정은 배경음악을 선택하는데 이용될 수 있다.In order to extract emotions from the animation elements, an adjective is used. Emotions applied to adjectives can be divided into negative and positive, and can be expressed in multiple stages according to the degree of emotion. Emotions of affirmation can also be expressed as high, medium, or low affirmations, as are negative. Or adjectives such as "deep" may have no emotion. The emotion according to the adjective may be used to select background music.

도 5는 본 발명의 실시예에 따른 애니메이션 요소를 추출하는데 있어 애니메이션 데이터베이스를 이용하는 방법의 흐름도이다.5 is a flowchart of a method of using an animation database to extract animation elements according to an embodiment of the present invention.

510단계는 상기 텍스트의 각 단어를 애니메이션 요소 데이터베이스에 저장된 단어와 비교함으로써 각 단어의 의미를 분석하는 단계이다.In operation 510, the meaning of each word is analyzed by comparing each word of the text with a word stored in an animation element database.

보다 구체적으로, 입력받은 텍스트의 각 단어의 의미를 분석하는데 있어서, 애니메이션 요소 데이터베이스를 이용할 수 있다. 애니메이션 요소를 추출하기 위하여 도 3의 방법을 이용할 수 있으나, 애니메이션 요소를 정확하고 빠르게 추출하기 위하여 애니메이션 요소 데이터베이스를 이용할 수 있다. 상기 애니메이션 요소 데이터베이스는 단어의 의미와 상기 단어에 대응하는 애니메이션 요소를 저장하고 있다. 따라서, 상기 텍스트의 각 단어를 상기 애니메이션 요소 데이터베이스에 저장된 단어와 비교함으로써 각 단어의 의미를 분석할 수 있다. 예를 들어, "곰이 공을 던지다"라는 텍스트에서 서술어인 "던지다"의 주어가 될 수 있는 명사 후보로써 "곰"과 "공"이 있을 수 있다. 애니메이션 요소 데이터베이스의 정보를 이용하면 주어+서술어의 조합으로 "곰"+"던지다"의 경우와 "공"+"던지다"의 경우를 비교하여 어떤 조합이 많이 사용되었는지를 알 수 있다. 주어+서술어의 조합으로 "곰"+"던지다"가 많이 될 것으로 상기 조합이 추출될 것이다. 다수의 후보가 있는 경우에는, 상기 후보들을 사용자에게 선택하도록 하고, 사용자의 입력을 받아 선택될 수 있다. More specifically, in analyzing the meaning of each word of the input text, an animation element database may be used. The method of FIG. 3 may be used to extract animation elements, but an animation element database may be used to accurately and quickly extract animation elements. The animation element database stores meanings of words and animation elements corresponding to the words. Therefore, the meaning of each word can be analyzed by comparing each word of the text with a word stored in the animation element database. For example, in the text "bear throws a ball," there can be nominal candidates "bear" and "ball" that can be subject to the predicate "throw." Using the information in the animation element database, you can see which combination is used by comparing the case of "bear" + "throw" and "ball" + "throw" as a combination of subject + predicate. The combination will be extracted as "bear" + "throw" as a combination of subject + predicate. When there are a plurality of candidates, the candidates may be selected by the user and may be selected by receiving input from the user.

520단계는 상기 분석된 단어의 의미를 이용하여 상기 단어로부터 애니메이션 요소를 추출하는 단계이다.In operation 520, an animation element is extracted from the word using the analyzed word meaning.

본 단계에 대한 상세한 설명은 도 3의 330단계에 대한 상세한 설명에 대응하는바, 도 3의 330단계에 대한 상세한 설명으로 대신한다.The detailed description of this step corresponds to the detailed description of step 330 of FIG. 3 and replaces the detailed description of step 330 of FIG. 3.

530단계는 상기 추출된 애니메이션 요소를 상기 텍스트의 단어와 함께 상기 애니메이션 요소 데이터베이스에 저장하는 단계이다.In operation 530, the extracted animation element is stored in the animation element database together with the words of the text.

보다 구체적으로, 상기 각 단어로부터 애니메이션 요소를 추출한 정보를 누적하여 저장하는 단계이다. 입력받은 텍스트가 책인 경우, 한 책에서 사용되는 동일한 단어의 의미와 상기 단어의 의미에 대응하는 애니메이션 요소는 동일할 수 있다. 따라서, 애니메이션 요소를 추출하는 단계는 반복하지 않기 위하여, 상기 단어에 대한 구문정보를 누적하여 저장함으로써, 저장된 단어가 다시 입력되는 경우, 상기 구문정보로부터 애니메이션 요소를 바로 추출할 수 있다. 또한, 동일한 책이 아니더라도, 입력되는 책 등의 종류가 동화책같이 일정한 경우, 사용되는 단어가 동일 또는 유사한 것이 많을 수 있다. 따라서, 새로운 동화책이 입력되더라도, 상기 애니메이션 요소 데이터베이스에 저장된 정보를 이용하여 빠르고 정확하게 애니메이션 요소를 추출할 수 있다. 상기 애니메이션 요소 데이터베이스는 책 종류에 따라 별개의 저장공간으로 구현할 수 있다.More specifically, the step of accumulating and storing information extracted from the animation element from each word. When the input text is a book, the meaning of the same word used in one book and the animation element corresponding to the meaning of the word may be the same. Therefore, in order to not repeat the step of extracting an animation element, by accumulating and storing syntax information about the word, when the stored word is input again, the animation element may be extracted directly from the syntax information. In addition, even if the book is not the same, if the type of the book or the like is constant like a fairy tale book, the words used may be the same or similar. Therefore, even when a new fairy tale book is input, the animation element can be extracted quickly and accurately using the information stored in the animation element database. The animation element database may be implemented as a separate storage space according to the book type.

도 6은 본 발명의 실시예에 따른 애니메이션 생성언어를 이용하여 애니메이션을 생성하는 방법의 흐름도이다.6 is a flowchart illustrating a method for generating animation using an animation generation language according to an embodiment of the present invention.

610단계는 상기 추출된 애니메이션 요소를 이용하여 애니메이션 생성언어를 생성하는 단계이다.In operation 610, an animation generation language is generated using the extracted animation element.

보다 구체적으로, 210단계에서 추출한 애니메이션 요소를 이용하여 애니메이션을 생성함에 있어서, 애니메이션 생성언어를 이용할 수 있다. 상기 애니메이션 생성언어로 XML(extensible markup language)을 이용할 수 있다. XML은 확장성마크업언어로써, 문서의 내용에 관련된 태그를 사용자 직접 정의할 수 있고, 또한 그 태그를 다른 사용자들이 사용하도록 할 수 있다. 사용자 상호간 XML 분석에 대한 규약만 일치하면 한 사용자가 사용하던 XML도 다른 사용자가 다른 프로그램에서 공유하여 사용할 수 있다. 그리고 XML은 웹에서 구조화된 문서를 전송 가능하도록 설계된 언어인바, 문서를 구성하는 각 요소들이 서로 독립적이다. 따라서, 문서의 호환성, 내용의 독립성, 요소변경의 용이성에서 다른 생성언어에 비해 유리하다. 본 단계에서는 AniXML을 정의하여 애니메이션 생성언어로 이용할 수 있다. 상기 AniXML은 개체, 배경, 감정, 행동, 상호작용을 정의할 수 있다. 배경이 입력되면 미디어 데이터베이스에 저장되어 있고 상기 배경에 대응하는 이미지가 배경으로 설정된다. 감정이 입력되면 상기 미디어 데이터베이스에 저장되어 있고 상기 감정에 대응하는 음악이 설정된다. 개체, 행동, 상호작용이 입력되면, 행동의 주체와 상호작용 개체가 설정되고, 상기 주체의 행동 또는 상호작용 개체간의 상호작용이 설정된다. AniXML은 장면마다 생성할 수 있다. 책의 경우, 단락 당 하나씩 생성할 수 있다. 책 한권당 여러개의 AniXML 코드가 생성되고, 상기 AniXML 코드의 수만큼 애니메이션 장면이 제작될 수 있다.More specifically, in generating an animation using the animation element extracted in step 210, an animation generating language may be used. XML (extensible markup language) can be used as the animation generation language. XML is an extensibility markup language that allows you to define your own tags for the content of your document and make them available to other users. As long as the rules for XML parsing between users are met, the XML used by one user can be shared among other users. In addition, XML is a language designed to transmit structured documents on the Web. Each element of the document is independent of each other. Therefore, it is advantageous over other generation languages in terms of document compatibility, independence of contents, and ease of change of elements. In this step, you can define AniXML and use it as animation creation language. The AniXML can define objects, backgrounds, emotions, behaviors, and interactions. When a background is input, an image stored in the media database and corresponding to the background is set as the background. When an emotion is input, music stored in the media database and corresponding to the emotion is set. When an entity, action, or interaction is input, the subject of the action and the interacting entity are established, and the interaction between the subject's actions or interacting entities is established. AniXML can be generated per scene. For books, you can create one per paragraph. Several AniXML codes may be generated per book, and an animated scene may be produced as many as the AniXML codes.

620단계는 상기 생성된 애니메이션 생성언어를 이용하여 상기 애니메이션을 생성하는 단계이다.In operation 620, the animation is generated using the generated animation generation language.

보다 구체적으로, 610단계에서 생성한 애니메이션 생성언어를 이용하여 미리 정의된 방법에 의해 애니메이션을 생성하는 단계이다. 상기 생성언어에 의해 설정된 미디어 데이터베이스의 이미지, 음성, 음악 또는 효과음 중 하나 이상을 이용하여 애니메이션을 자동으로 생성한다. More specifically, the step of generating an animation by a predefined method using the animation generation language generated in step 610. An animation is automatically generated using at least one of an image, a voice, a music, or an effect sound of the media database set by the generation language.

본 발명의 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments of the present invention may be implemented in the form of program instructions that can be executed on various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described by specific embodiments such as specific components and the like. For those skilled in the art, various modifications and variations are possible from these descriptions.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

110: 애니메이션 요소 추출부
120: 애니메이션 생성부
130: 애니메이션 요소 데이터베이스
140: 미디어 데이터베이스
110: animation element extraction unit
120: animation generator
130: animation element database
140: media database

Claims (17)

애니메이션 요소 추출부가 텍스트로부터 애니메이션 생성에 필요한 애니메이션 요소를 추출하는 단계; 및
애니메이션 생성부가 상기 추출된 애니메이션 요소와 상기 애니메이션 요소에 대응하는 이미지를 이용하여 상기 애니메이션을 생성하는 단계를 포함하고,
상기 애니메이션 요소를 추출하는 단계는,
상기 텍스트를 구성하는 각 단어에 대한 형태소분석과 품사부착을 수행하는 단계;
상기 형태소분석과 품사부착을 수행한 결과를 이용하여 상기 텍스트에 대한 구문정보를 생성하는 단계; 및
상기 구문정보로부터 상기 각 단어의 의미를 분석하여 상기 각 단어에 대응하는 상기 애니메이션 요소를 추출하는 단계를 포함하고,
상기 각 단어에 대응하는 상기 애니메이션 요소를 추출하는 단계는,
상기 구문정보로부터 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당할 수 있는 후보 단어를 추출하는 단계;
애니메이션 요소 데이터베이스의 정보를 이용하여, 상기 후보 단어의 우선순위를 산출하는 단계;
상기 우선순위에 따라 상기 후보 단어 중 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택하는 단계; 및
상기 선택된 단어의 종류를 구분하여 상기 단어가 상기 애니메이션 요소 중 어디에 해당하는지 판단하는 단계를 포함하며,
상기 애니메이션 요소는 개체, 배경, 감정, 행동, 상호작용 중 적어도 어느 하나 이상인 것을 특징으로 하는 애니메이션 생성방법.
Extracting, by the animation element extraction unit, animation elements necessary for generating an animation from the text; And
Generating an animation by an animation generator by using the extracted animation element and an image corresponding to the animation element;
Extracting the animation element,
Performing morpheme analysis and part-of-speech attachment for each word constituting the text;
Generating syntax information for the text using the results of the morpheme analysis and the part-of-speech attachment; And
Analyzing the meaning of each word from the phrase information and extracting the animation element corresponding to each word;
Extracting the animation element corresponding to each word,
Extracting candidate words that may correspond to a subject, a predicate, a background entity, or an interactive entity from the syntax information;
Calculating priority of the candidate words using information of an animation element database;
Selecting a word corresponding to the subject, object, descriptor, background object, or interaction entity among the candidate words according to the priority; And
Determining whether the word corresponds to one of the animation elements by classifying the selected word type;
The animation element is at least one of an object, a background, an emotion, an action, an interaction.
삭제delete 제 1 항에 있어서,
상기 각 단어에 대응하는 상기 애니메이션 요소를 추출하는 단계는,
상기 우선순위가 동일한 후보 단어가 복수인 경우, 사용자의 선택을 입력받아 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택하는 단계를 더 포함하는 애니메이션 생성방법.
The method of claim 1,
Extracting the animation element corresponding to each word,
And selecting a word corresponding to the subject, object, descriptor, background object, or interaction object when receiving a selection of a user when the candidate words having the same priority are plural.
제 1 항에 있어서,
상기 구문정보로부터 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당할 수 있는 후보 단어를 추출하는 단계는,
상기 주어는 주어로 구분될 수 있는 명사를 후보로 추출하고,
상기 목적어는 목적어로 구분될 수 있는 명사를 후보로 추출하고,
상기 서술어는 동사 및 형용사를 후보로 추출하고,
상기 상호작용 개체는 "~와" 또는 "~에게"에 연결되는 명사를 후보로 추출하고,
상기 배경 개체는 "~에서" 또는 "~으로"에 연결되는 명사를 후보로 추출하는 것을 특징으로 하는 애니메이션 생성방법.
The method of claim 1,
Extracting a candidate word that may correspond to a subject, a predicate, a background object, or an interactive entity from the syntax information,
The subject extracts nouns that can be distinguished as subjects,
The object is extracted as a noun that can be classified as an object as a candidate,
The predicate extracts a verb and an adjective as a candidate,
The interactive entity extracts a noun linked to "to" or "to" as a candidate,
And the background object extracts a noun connected to “to” or “to” as a candidate.
삭제delete 제 1 항에 있어서,
상기 이미지는 상기 텍스트와 함께 입력받은 그림을 분석하여 추출된 이미지 또는 미디어 데이터베이스에 저장되어 있는 이미지 중 어느 하나인 것을 특징으로 하는 애니메이션 생성방법.
The method of claim 1,
And the image is any one of an image extracted by analyzing a picture received with the text or an image stored in a media database.
제 1 항에 있어서,
상기 이미지는,
상기 애니메이션 요소 중 개체에 대응하는 이미지의 행동을 나타내는데 있어서,
상기 이미지상 움직임의 축을 중심으로 상기 이미지를 변형시켜 상기 개체의 행동을 나타내는 것을 특징으로 하는 애니메이션 생성방법.
The method of claim 1,
The image may include:
In representing the behavior of the image corresponding to the object of the animation element,
And deforming the image around an axis of motion on the image to represent the object's behavior.
제 1 항에 있어서,
상기 애니메이션을 생성하는 단계는,
상기 애니메이션 요소에 대응하고 미디어 데이터베이스에 저장되어 있는 음성, 음악, 또는 효과음 중 적어도 어느 하나 이상을 이용하여 상기 애니메이션을 생성하는 것을 특징으로 하는 애니메이션 생성방법.
The method of claim 1,
Generating the animation,
And generating the animation using at least one of voice, music, and sound effects corresponding to the animation element and stored in a media database.
제 1 항에 있어서,
상기 애니메이션을 생성하는 단계는,
상기 추출된 애니메이션 요소를 이용하여 애니메이션 생성언어를 생성하는 단계; 및
상기 생성된 애니메이션 생성언어를 이용하여 상기 애니메이션을 생성하는 단계를 포함하는 애니메이션 생성방법.
The method of claim 1,
Generating the animation,
Generating an animation generation language using the extracted animation element; And
Generating the animation using the generated animation generation language.
제 9 항에 있어서,
상기 애니메이션 생성언어는 XML(extensible markup language)인 것을 특징으로 하는 애니메이션 생성방법.
The method of claim 9,
The animation generation language is an animation generation method, characterized in that the XML (extensible markup language).
제 1 항, 제 3 항 내지 제 4 항, 및 제 6 항 내지 제 10 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 1, 3 to 4, and 6 to 10 on a computer. 텍스트로부터 애니메이션 생성에 필요한 애니메이션 요소를 추출하는 애니메이션 요소 추출부; 및
상기 추출된 애니메이션 요소와 상기 애니메이션 요소에 대응하는 이미지를 이용하여 애니메이션을 생성하는 애니메이션 생성부를 포함하고,
상기 애니메이션 요소 추출부는,
상기 텍스트를 구성하는 각 단어에 대한 형태소분석과 품사부착을 수행하고, 상기 형태소분석과 품사부착을 수행한 결과를 이용하여 상기 텍스트에 대한 구문정보를 생성하며, 상기 구문정보로부터 각 단어의 의미를 분석하여 상기 각 단어에 대응하는 상기 애니메이션 요소를 추출하며,
상기 각 단어에 대응하는 상기 애니메이션 요소는,
상기 구문정보로부터 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당할 수 있는 후보 단어를 추출하고, 애니메이션 요소 데이터베이스의 정보를 이용하여, 상기 후보 단어의 우선순위를 산출하며, 상기 우선순위에 따라 상기 후보 단어 중 상기 주어, 목적어, 서술어, 배경 개체, 또는 상호작용 개체에 해당하는 단어를 선택하고, 상기 선택된 단어의 종류를 구분하여 상기 단어가 상기 애니메이션 요소 중 어디에 해당하는지 판단하며,
상기 애니메이션 요소는 개체, 배경, 감정, 행동, 상호작용 중 적어도 어느 하나 이상인 것을 특징으로 하는 애니메이션 생성장치.
An animation element extracting unit extracting an animation element required for generating an animation from text; And
An animation generator for generating an animation using the extracted animation element and the image corresponding to the animation element,
The animation element extraction unit,
Perform morpheme analysis and part-of-speech attachment for each word constituting the text, and generate syntax information for the text by using the result of the morpheme analysis and part-of-speech attachment, and the meaning of each word from the syntax information. Analyzing and extracting the animation element corresponding to each word,
The animation element corresponding to each word,
Extracting candidate words that may correspond to subjects, descriptors, background objects, or interaction objects from the phrase information, and calculating the priority of the candidate words using information of an animation element database; Selecting a word corresponding to the subject, object, descriptor, background object, or interaction object among the candidate words, and classifying the type of the selected word to determine where the word corresponds to the animation element,
The animation element is an animation generating device, characterized in that at least one or more of the object, background, emotion, behavior, interaction.
삭제delete 삭제delete 제 12 항에 있어서,
상기 애니메이션 생성부는,
상기 추출된 애니메이션 요소를 이용하여 애니메이션 생성언어를 생성하고, 상기 생성된 애니메이션 생성언어를 이용하여 상기 애니메이션을 생성하는 것을 특징으로 하는 애니메이션 생성장치.
13. The method of claim 12,
The animation generator,
Generating an animation generating language using the extracted animation element, and generating the animation using the generated animation generating language.
제 1 항에 있어서,
상기 후보 단어의 우선순위를 산출하는 단계는,
주어에 해당할 수 있는 후보 단어가 복수인 경우, 상기 후보 단어가 형성하는 문장의 서술어에 대해 상기 각 후보 단어가 주어로 선택되었던 확률을 이용하여 상기 주어에 해당할 수 있는 후보 단어의 우선순위를 산출하고,
목적어에 해당할 수 있는 후보 단어가 복수인 경우, 상기 후보 단어가 형성하는 문장의 서술어에 대해 상기 각 후보 단어가 목적어로 선택되었던 확률을 이용하여 상기 목적어에 해당할 수 있는 후보 단어의 우선순위를 산출하며,
상호작용 개체에 해당할 수 있는 후보 단어가 복수인 경우, 상기 후보 단어가 형성하는 문장의 주어에 대해 상기 각 후보 단어가 상호작용 개체로 선택되었던 확률을 이용하여 상기 상호작용 개체에 해당할 수 있는 후보 단어의 우선순위를 산출하는 것을 특징으로 하는 애니메이션 생성방법.
The method of claim 1,
Computing the priority of the candidate words,
When there are a plurality of candidate words that may correspond to a subject, the priorities of candidate words that may correspond to the subject may be determined by using a probability that the candidate words are selected as subjects for the predicates of the sentences formed by the candidate words. Calculate,
When there are a plurality of candidate words that may correspond to the target word, the priority of the candidate words that may correspond to the target word may be determined using the probability that the candidate words are selected as the target words for the predicates of the sentences formed by the candidate words. Yields,
When there are a plurality of candidate words that may correspond to the interacting entity, the candidate entity may correspond to the interacting entity using the probability that each candidate word is selected as the interacting entity for the subject of the sentence formed by the candidate word. Calculating the priority of candidate words.
제 12 항에 있어서,
상기 후보 단어의 우선순위는,
주어에 해당할 수 있는 후보 단어가 복수인 경우, 상기 후보 단어가 형성하는 문장의 서술어에 대해 상기 각 후보 단어가 주어로 선택되었던 확률을 이용하여 상기 주어에 해당할 수 있는 후보 단어의 우선순위를 산출하고,
목적어에 해당할 수 있는 후보 단어가 복수인 경우, 상기 후보 단어가 형성하는 문장의 서술어에 대해 상기 각 후보 단어가 목적어로 선택되었던 확률을 이용하여 상기 목적어에 해당할 수 있는 후보 단어의 우선순위를 산출하며,
상호작용 개체에 해당할 수 있는 후보 단어가 복수인 경우, 상기 후보 단어가 형성하는 문장의 주어에 대해 상기 각 후보 단어가 상호작용 개체로 선택되었던 확률을 이용하여 상기 상호작용 개체에 해당할 수 있는 후보 단어의 우선순위를 산출하는 것을 특징으로 하는 애니메이션 생성장치.
13. The method of claim 12,
Priority of the candidate word is,
When there are a plurality of candidate words that may correspond to a subject, the priorities of candidate words that may correspond to the subject may be determined by using a probability that the candidate words are selected as subjects for the predicates of the sentences formed by the candidate words. Calculate,
When there are a plurality of candidate words that may correspond to the target word, the priority of the candidate words that may correspond to the target word may be determined using the probability that the candidate words are selected as the target words for the predicates of the sentences formed by the candidate words. Yields,
When there are a plurality of candidate words that may correspond to the interacting entity, the candidate entity may correspond to the interacting entity using the probability that each candidate word is selected as the interacting entity for the subject of the sentence formed by the candidate word. An animation generating device, characterized in that for calculating the priority of candidate words.
KR1020110123110A 2011-11-23 2011-11-23 Method for generating animation from text, Apparatus thereof KR101348282B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110123110A KR101348282B1 (en) 2011-11-23 2011-11-23 Method for generating animation from text, Apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110123110A KR101348282B1 (en) 2011-11-23 2011-11-23 Method for generating animation from text, Apparatus thereof

Publications (2)

Publication Number Publication Date
KR20130057277A KR20130057277A (en) 2013-05-31
KR101348282B1 true KR101348282B1 (en) 2014-01-10

Family

ID=48665054

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110123110A KR101348282B1 (en) 2011-11-23 2011-11-23 Method for generating animation from text, Apparatus thereof

Country Status (1)

Country Link
KR (1) KR101348282B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170007106A (en) 2015-07-09 2017-01-18 주식회사 이앤아이월드 System for electronic book service
KR20200012581A (en) 2018-07-27 2020-02-05 한화시스템 주식회사 System and method for text-based simulator
KR20200012708A (en) 2019-03-15 2020-02-05 한화시스템 주식회사 Method for testing equipment using text-based simulator system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180023879A (en) * 2016-08-26 2018-03-07 스타십벤딩머신 주식회사 Apparatus and method for creating text animation
KR102338501B1 (en) * 2020-03-06 2021-12-13 주식회사 어라운드이펙트 Method and Apparatus for automatic placement of animation data Based on Text
CN112270197A (en) * 2020-10-20 2021-01-26 深圳市前海手绘科技文化有限公司 Animation draft generation method and device based on character paragraphs
KR102374599B1 (en) * 2021-04-26 2022-03-16 (주)멀틱스 hand language animation producing method for hearing impairment people
KR102555968B1 (en) * 2022-05-25 2023-07-18 주식회사 투바앤 Artificial intelligence-based digital content creation device and method for generating digital content from text information

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100104313A (en) * 2009-03-17 2010-09-29 삼성전자주식회사 Apparatus and method for producing animation of web text

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100104313A (en) * 2009-03-17 2010-09-29 삼성전자주식회사 Apparatus and method for producing animation of web text

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170007106A (en) 2015-07-09 2017-01-18 주식회사 이앤아이월드 System for electronic book service
KR20200012581A (en) 2018-07-27 2020-02-05 한화시스템 주식회사 System and method for text-based simulator
KR20200012708A (en) 2019-03-15 2020-02-05 한화시스템 주식회사 Method for testing equipment using text-based simulator system

Also Published As

Publication number Publication date
KR20130057277A (en) 2013-05-31

Similar Documents

Publication Publication Date Title
Bragg et al. Sign language recognition, generation, and translation: An interdisciplinary perspective
KR101348282B1 (en) Method for generating animation from text, Apparatus thereof
Sarkar Text analytics with python
Callaway et al. Narrative prose generation
Colin et al. The webnlg challenge: Generating text from dbpedia data
US10496756B2 (en) Sentence creation system
KR20110009205A (en) Systems and methods for natural language communication with a computer
Crasborn et al. Sharing sign language data online: Experiences from the ECHO project
US20220405484A1 (en) Methods for Reinforcement Document Transformer for Multimodal Conversations and Devices Thereof
Othman et al. English-asl gloss parallel corpus 2012: Aslg-pc12
Arumugam et al. Hands-On Natural Language Processing with Python: A practical guide to applying deep learning architectures to your NLP applications
Santana et al. A survey on narrative extraction from textual data
Agrawal et al. Mining videos from the web for electronic textbooks
Eryiğit et al. Building machine-readable knowledge representations for Turkish sign language generation
Rayner et al. Helping domain experts build phrasal speech translation systems
Eryiğit et al. Building the first comprehensive machine-readable Turkish sign language resource: methods, challenges and solutions
Sanaullah et al. A real-time automatic translation of text to sign language.
US20230123328A1 (en) Generating cascaded text formatting for electronic documents and displays
Meo et al. Aesop: A visual storytelling platform for conversational ai and common sense grounding
Keskes Discourse analysis of arabic documents and application to automatic summarization
Baker FrameNet, present and future
Ramesh et al. ‘Beach’to ‘Bitch’: Inadvertent Unsafe Transcription of Kids’ Content on YouTube
RU2668721C1 (en) Method for displaying subtitles in the process of playing media content (options)
Daoust et al. JSREAL: A text realizer for web programming
Baikadi et al. Towards a computational model of narrative visualization

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161202

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171204

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181203

Year of fee payment: 6