KR20100129122A - Animation system for reproducing text base data by animation - Google Patents

Animation system for reproducing text base data by animation Download PDF

Info

Publication number
KR20100129122A
KR20100129122A KR1020090102590A KR20090102590A KR20100129122A KR 20100129122 A KR20100129122 A KR 20100129122A KR 1020090102590 A KR1020090102590 A KR 1020090102590A KR 20090102590 A KR20090102590 A KR 20090102590A KR 20100129122 A KR20100129122 A KR 20100129122A
Authority
KR
South Korea
Prior art keywords
information
text
emotion
animation
based data
Prior art date
Application number
KR1020090102590A
Other languages
Korean (ko)
Other versions
KR101628050B1 (en
Inventor
민욱희
강보경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US12/762,258 priority Critical patent/US9665563B2/en
Priority to EP10162474A priority patent/EP2256642A3/en
Priority to JP2010119251A priority patent/JP5815214B2/en
Publication of KR20100129122A publication Critical patent/KR20100129122A/en
Application granted granted Critical
Publication of KR101628050B1 publication Critical patent/KR101628050B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Abstract

PURPOSE: An animation system for reproducing text base data by animation is provided to outputting text based data into animation. CONSTITUTION: A feeling analysis section(122) extracts the feeling corresponding to the sentence analysis result and user relationship information of the text based data from the reference database(110). A motion selection unit(123) selects the operation of coping with feeling from the reference database. A script generating unit(126) unites the feeling and the motion into the text based data to create the animation script.

Description

텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템{ANIMATION SYSTEM FOR REPRODUCING TEXT BASE DATA BY ANIMATION}ANIMATION SYSTEM FOR REPRODUCING TEXT BASE DATA BY ANIMATION}

하기에서 설명하는 것은, 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템에 관한 것으로, 특히 텍스트 기반 데이터에서 감정을 추출하고 감정에 따른 동작을 선택해서 애니메이션 스크립트를 생성하고, 생성된 애니메이션 스크립트를 재생하는 애니메이션 시스템에 관련된 것이다.The following description relates to an animation system for reproducing text-based data as an animation, and in particular, to extract an emotion from text-based data, select an action according to the emotion, generate an animation script, and play an animation script. It is related to the system.

통신 기술의 발달과 휴대용 단말기의 기능향상에 힘입어, 사용자 간의 짧은 메시지를 주고 받을 수 있는 단문 메시지 서비스(SMS: Short Message Service)가 널리 사용되고 있다.Short message service (SMS), which is able to send and receive short messages between users, is widely used due to the development of communication technology and the improvement of functions of portable terminals.

근래에 들어서는 음성 통화에 비하여 비교적 저렴하다는 장점 때문에 통화기능보다도 상기 "단문 메시지 서비스"를 더 선호하는 경향이 있고, 단순한 텍스트 기반 데이터에서 벗어나 동영상, 사진, 음악파일 등이 부가된 메시지 서비스인 멀티미디어 메시지 서비스(MMS: Multimedia Message System)는 단문 메시지 서비스의 장점과 이 메일서비스의 장점을 결합한 대표적인 유무선통합 서비스로 국내뿐만 아니라 해외에서도 휴대용 단말기 사용자의 사용 빈도가 높다.In recent years, due to its relatively inexpensive advantage over voice calls, the "short message service" tends to be preferred to the call function, and it is a message service to which video, pictures, music files, etc. are added, rather than simple text-based data. The multimedia message system (MMS) is a representative wire / wireless integrated service that combines the advantages of the short message service and the e-mail service.

기존의 메시지 발신자의 감정, 기분의 상태를 표현하기 위한 방법은 멀티미디어 메시지를 이용하여 동적인 메시지를 보내는 경우와 휴대용 단말기에서 제공되는 특수 문자를 조합하여 작성한 이모티콘(예를들어, ^^ (웃는 얼굴) 등)을 이용한 방법이었다. 이러한 이모티콘은 누구나 보면 이해할 수 있고 사용자의 미묘한 감정을 표현하기에 용이하다는 점에서 사이버 공간에서 널리 이용되고 있고, 채팅 사용자를 중심으로 다양한 표정이 개발되어, 발전된 이동통신 단말기에는 사용자의 다양한 이모티콘(Emoticon)이 저장되어 있지만 감정을 표현하기에는 한계가 있다.Conventional methods for expressing emotions and moods of message senders include emoticons (eg, ^^ (smiley faces) created by combining dynamic messages and special characters provided by mobile devices. ), Etc.). These emoticons are widely used in cyberspace because they are easy to understand and express subtle emotions of users, and various facial expressions have been developed around chatting users, and various emoticons of users are developed in advanced mobile communication terminals. ) Is stored, but there is a limit to expressing emotion.

이러한 방법은 텍스트 기반 데이터를 송신하는 사람의 희, 노, 애, 락과 같은 감정을 제대로 표현하지 못하고, 발신자의 감정, 심리상태, 및 기분의 표현이 가능한 멀티미디어 메시지는 단문 메시지보다 용량이 크다.Such a method does not properly express emotions such as joy, anger, grievances, and locks of a person who transmits text-based data, and a multimedia message capable of expressing a sender's emotions, psychological state, and mood is larger than a short message.

한편, 세컨드 라이프(Second Life)는 '자기 표현'과 '컨텐츠 생성을 통한 수익 발생'이 가능하다는 점에서 많은 사용자들을 확보하였고, 획기적인 컨텐츠 서비스 모델로 정착했다. 사용자들은 가상 현실 속의 2차원 또는 3차원 캐릭터를 통해 자신의 정체성(identity)을 재창조함으로써 자기 표현욕구를 만족시키고, 각종 오브젝트들을 창작하고 거래하고 소유함으로써 가상현실을 하나의 시장으로 만들었다.Second Life, meanwhile, has secured a large number of users in terms of 'self-expression' and 'profit generation through content creation', and has established itself as a groundbreaking content service model. Users satisfy their self-expression needs by re-creating their identity through two-dimensional or three-dimensional characters in virtual reality, and make virtual reality a market by creating, trading and owning various objects.

개시되는 실시예에 따른 애니메이션 스크립트 생성장치는, 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 레퍼런스 데이터베이스에서 추출하는 감정 분석부와, 상기 감정에 대응하는 동작을 상기 레퍼런스 데이터베이스에서 선택하는 동작 선택부 및 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 스크립트 생성부를 포함한다. An apparatus for generating animation scripts according to an embodiment of the present disclosure may include: an emotion analyzing unit extracting an emotion corresponding to a result of parsing text-based data and user relation information from a reference database; and an operation corresponding to the emotion in the reference database. It includes a motion selection unit for selecting and the script generation unit for generating the animation script by combining the emotion and the motion to the text-based data.

개시되는 실시예에 따른 애니메이션 재생장치는, 애니메이션 스크립트에 포함된 정보를 분석해서 감정정보, 캐릭터, 동작정보 및 텍스트 기반 데이터를 선택하는 애니메이션 스크립트 분석부와, 상기 캐릭터를 상기 동작정보에 따라 동작하는 그래픽을 생성하는 그래픽 생성부 및 상기 생성한 그래픽을 애니메이션으로 출력하는 애니메이션 재생부를 포함한다. An animation playback apparatus according to an embodiment of the present disclosure includes an animation script analysis unit configured to analyze information included in an animation script to select emotion information, characters, motion information, and text-based data, and to operate the character according to the motion information. And a graphic generator for generating a graphic and an animation reproducing unit for outputting the generated graphic as an animation.

개시되는 실시예에 따른 수신 단말 장치는, 사용자 관계정보, 캐릭터 정보 및 감정 정보를 포함하는 레퍼런스 데이터베이스 및 수신한 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 추출하고, 상기 감정에 대응하는 동작을 선택하고 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 애니메이션 스크립트 생성장치를 포함한다.According to an embodiment of the present disclosure, a receiving terminal apparatus extracts a result of parsing a reference database including user relation information, character information, and emotion information and received text-based data, and an emotion corresponding to user relation information. Selecting an operation corresponding to the and comprises the animation script generating device for generating the animation script by combining the emotion and the motion to the text-based data.

개시되는 실시예에 따른 송신 단말 장치는, 사용자 관계정보, 캐릭터 정보 및 감정 정보를 포함하는 레퍼런스 데이터베이스 및 송신할 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 추출하고, 상기 감정에 대응하는 동작을 선택하고, 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성해서 수신 단말 장치로 송신하는 애니메이션 스크립트 생성장치를 포함한다. According to an embodiment of the present disclosure, a transmission terminal apparatus extracts an emotion corresponding to a result of parsing a reference database including user relation information, character information, and emotion information and text-based data to be transmitted, and emotions corresponding to the user relation information. Selecting an operation corresponding to the, and combining the emotion and the operation in the text-based data to generate an animation script to transmit to the receiving terminal device.

개시되는 실시예에 따르면, 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템은 텍스트 기반 데이터에서 감정을 추출하고 감정에 따른 동작을 선택해서 애니메이션 스크립트를 생성하고, 생성된 애니메이션 스크립트를 재생하는 애니메이션 시스템에 관련된 것으로, 텍스트 기반 데이터를 감정과 동작으로 표현되는 애니메이션으로 출력하는 서비스를 제공한다.According to an embodiment of the present disclosure, an animation system for reproducing text-based data as an animation may extract an emotion from text-based data, select an action according to the emotion, generate an animation script, and relate to an animation system for reproducing the generated animation script. It provides a service that outputs text-based data as animations expressed by emotions and actions.

이하, 제안되는 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.

제안되는 실시예는 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템에 관한 것으로, 애니메이션 시스템은 애니메이션 스크립트 생성장치와 애니메이션 재생장치를 포함한다.The proposed embodiment relates to an animation system for reproducing text-based data as an animation, and the animation system includes an animation script generator and an animation player.

설명에 앞서 제안되는 실시예에서 텍스트 기반 데이터는 텍스트를 포함하는 데이터를 의미한다. 텍스트 기반 데이터는 문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메신저(instant messenger)를 통해 송수신되는 인스턴트 메시 지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)를 통해 서비스 되는 텍스트 메모, 이메일(E-mail) 서비스를 통해 송수신되는 텍스트 기반의 메일 등이 가능하다.In the embodiment proposed before the description, the text-based data means data including text. Text-based data can be sent via SMS messages, text scenarios, instant messages sent and received via instant messengers, text memos served via social network services, or email. (E-mail) It is possible to send and receive text-based mail through the service.

도 1은 제안되는 실시예에 따른 애니메이션 시스템에서 텍스트 기반 데이터를 애니메이션 스크립트로 생성하는 애니메이션 스크립트 생성장치의 구성을 도시한 도면이다. FIG. 1 is a diagram illustrating a configuration of an animation script generating apparatus for generating text-based data as an animation script in an animation system according to an exemplary embodiment.

도 1을 참조하면 레퍼런스 데이터베이스(110)를 이용하여 애니메이션 스크립트를 생성하는 애니메이션 스크립트 생성장치(120)는 자연어 처리부(121), 감정 분석부(122), 동작 선택부(123), 외부데이터 처리부(124), 연출부(125) 및 스크립트 생성부(126)를 포함한다.Referring to FIG. 1, the animation script generating apparatus 120 for generating an animation script using the reference database 110 includes a natural language processor 121, an emotion analyzer 122, an operation selector 123, and an external data processor ( 124, the rendering unit 125, and the script generation unit 126.

먼저 레퍼런스 데이터베이스(110)를 살펴보면 감정 어휘사전 데이터베이스(111), 감정추론 룰 데이터베이스(112), 사용자 프로파일 데이터베이스(113), 동작 룰 데이터베이스(114), 외부 데이터베이스(115) 및 연출 데이터베이스(116)를 포함한다.First, referring to the reference database 110, the emotional vocabulary dictionary database 111, the emotion inference rule database 112, the user profile database 113, the operation rule database 114, the external database 115, and the production database 116 are described. Include.

사용자 프로파일 데이터베이스(113)는 단말장치의 사용자가 관리하는 사람들과의 사용자 관계정보와 관리하는 사람들의 캐릭터 정보를 구조화한 데이터베이스 이다. 여기서 사용자 관계정보란 사용자와 관리하는 사람과의 관계(예를 들어 애인, 친구, 가족 등)에 관한 정보와 그 친밀도에 관한 정보이다.The user profile database 113 is a database in which user relationship information with people managed by a user of the terminal device and character information of people managed are structured. Here, the user relationship information is information about a relationship between a user and a person (for example, a lover, a friend, a family, etc.) and information about the intimacy thereof.

감정 어휘사전 데이터베이스(111)는 어휘와 사용자 관계정보에 대응하는 감정의 매핑 정보를 구조화한 데이터베이스이다.The emotional lexicon database 111 is a database in which mapping information of emotions corresponding to vocabulary and user relationship information is structured.

감정추론 룰 데이터베이스(112)는 어휘의 조합과 사용자 관계정보에 대응하는 감정의 매핑 정보를 구조화한 데이터베이스이다.The emotion inference rule database 112 is a database in which mapping information of emotions corresponding to a combination of vocabulary and user relation information is structured.

동작 룰 데이터베이스(114)는 감정과 사용자 관계정보에 대응하는 동작의 매핑 정보를 구조화한 데이터베이스이다.The motion rule database 114 is a database in which mapping information of motion corresponding to emotion and user relationship information is structured.

외부 데이터베이스(115)는 텍스트 기반 데이터의 송수신 시간, 날씨 정보 등을 저장하는 데이터베이스이다.The external database 115 is a database that stores transmission / reception time of the text-based data, weather information, and the like.

연출 데이터베이스(116)는 사용자 관계정보, 감정, 캐릭터 또는 동작 중에서 적어도 하나 이상의 정보에 대응하는 카메라 워크와 배경음향에 대한의 매핑 정보를 구조화한 데이터 베이스 이다.The production database 116 is a database in which mapping information of the camera work and the background sound corresponding to at least one or more information among user relation information, emotion, character, or motion is structured.

다음으로 애니메이션 스크립트 생성장치(120)의 세부 구성을 설명한다.Next, a detailed configuration of the animation script generating device 120 will be described.

자연어 처리부(121)는 텍스트 기반 데이터를 구문 분석해서 포함된 어휘를 확인하고, 또한 주어, 서술어 및 목적어와 같은 문장성분을 확인한다.The natural language processor 121 parses the text-based data to confirm the included vocabulary, and also checks sentence components such as the subject, the predicate, and the object.

감정 분석부(122)는 사용자 프로파일 데이터베이스(113)에서 텍스트 기반 데이터의 생성자에 대응하는 캐릭터와 사용자 관계정보를 확인한다. 그리고, 감정 분석부(122)는 감정 어휘사전 데이터베이스(111)에서 어휘와 사용자 관계정보에 대응하는 어휘 감정을 확인하고, 감정 추론 룰 데이터베이스(112)에서 어휘들의 조합과 사용자 관계정보에 대응하는 추론 감정을 확인한다. 이후, 감정 분석부(122)는 어휘 감정과 추론 감정을 합성해서 하나 이상의 감정을 추출한다.The emotion analysis unit 122 confirms the character and user relationship information corresponding to the creator of the text-based data in the user profile database 113. In addition, the emotion analysis unit 122 confirms the vocabulary emotion corresponding to the vocabulary and the user relationship information in the emotional vocabulary dictionary database 111, and the inference corresponding to the combination of the vocabulary and the user relationship information in the emotion inference rule database 112. Check your feelings. Thereafter, the emotion analyzing unit 122 extracts one or more emotions by combining the lexical emotions and the inference emotions.

예를 들어 수신하는 텍스트 기반 데이터가 “오늘 숙제 할게 열라 많아서 짜 증나 발표 준비 귀찮다”라는 문자 메시지인 경우 자연어 처리부(121) 및 감정 분석부(122)를 통해 감정을 확인하는 것을 아래 <표 1>을 통해 설명한다.For example, if the text-based data received is a text message that says, “I'm open to doing homework today, and I'm tired of getting ready for presentations or presentations,” it is recommended to check emotions through the natural language processor 121 and the emotion analyzer 122 below. Explain through.

Figure 112009065976444-PAT00001
Figure 112009065976444-PAT00001

즉, 자연어 처리부(121)에서 “오늘 숙제 할게 열라 많아서 짜증나 발표 준비 귀찮다”를 문장성분을 가지는 어휘들로 구분한다. 그리고, 감정 분석부(122)는 친밀도가 5인 친구로 표현되는 사용자 관계정보를 확인한다. 그리고, 감정 분석부(122)는 `짜증난다`와 `귀찮다`의 어휘 감정을 확인하고, `숙제`, `열라`, `많다`와 사용자 관계 정보를 이용해서 추론 감정을 확인한다. 그리고 감정 분석부(122)는 어휘 감정과 추론 감정을 합성해서 `contempt`의 감정를 추출한다.That is, the natural language processing unit 121 divides the words having a sentence component into "a lot of frustration and annoying preparation for presentation". The emotion analyzing unit 122 confirms user relationship information represented by a friend having an intimacy of five. In addition, the emotion analysis unit 122 checks the vocabulary feelings of 'troublesome' and 'troublesome', and confirms the inferred emotion by using 'homework', 'open', and 'many' and user relationship information. The emotion analysis unit 122 extracts the emotion of `contempt` by synthesizing the lexical emotion and the inference emotion.

한편, 감정 분석부(122)는 텍스트 기반 데이터에서 감정을 추출할 수 없거나, 텍스트 기반 데이터의 감정추출과 더불어, 사용자의 맥박 혹은 뇌파 등의 측정을 통해 감정 추출할 수도 있다.Meanwhile, the emotion analyzer 122 may not extract the emotion from the text-based data, or may extract the emotion through measurement of the user's pulse or brain wave, in addition to the emotion extraction of the text-based data.

동작 선택부(123)는 동작 룰 데이터베이스(114)에서 감정과 사용자 관계정보에 대응하는 동작을 선택한다.The operation selector 123 selects an operation corresponding to the emotion and the user relationship information from the operation rule database 114.

외부데이터 처리부(124)는 외부 데이터베이스(115)에 포함된 텍스트 기반 데이터의 송수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 날씨 또는 시간이 고려된 배경영상을 생성한다. 예를 들어 외부데이터 처리부(124)는 날씨가 비가오는 중이고, 시간이 밤시간이면, 배경을 비오는 밤으로 생성한다.The external data processor 124 generates a background image in consideration of weather or time by using at least one of transmission / reception time information, current time information, or weather information of text-based data included in the external database 115. For example, if the weather is raining and the time is night time, the external data processor 124 generates the background as a rainy night.

연출부(125)는 사용자 관계정보, 감정, 캐릭터 또는 동작 중에서 적어도 하나 이상의 정보를 이용해서 연출 데이터베이스(116)에서 대응하는 카메라 워크와 배경음향을 선택한다.The rendering unit 125 selects a corresponding camera work and a background sound from the rendering database 116 using at least one or more information among user relationship information, emotions, characters, or motions.

스크립트 생성부(126)는 텍스트 기반 데이터, 감정, 동작, 배경, 배경음향 및, 카메라 워크을 결합해서 애니메이션 스크립트로 생성한다.The script generator 126 combines text-based data, emotions, actions, backgrounds, background sounds, and camera work to generate an animation script.

도 2는 제안되는 실시예에 따른 애니메이션 시스템에서 애니메이션 스크립트를 재생하는 애니메이션 재생장치의 구성을 도시한 도면이다.2 is a diagram illustrating a configuration of an animation playback apparatus for playing back an animation script in an animation system according to a proposed embodiment.

도 2를 참조하면 애니메이션 재생장치(230)는 애니메이션 스크립트 분석부(232), 그래픽 생성부(234), 오디오 처리부(236) 및 애니메이션 재생부(238)를 포함한다.Referring to FIG. 2, the animation playback device 230 includes an animation script analyzer 232, a graphic generator 234, an audio processor 236, and an animation player 238.

애니메이션 스크립트 분석부(232)는 애니메이션 스크립트에 포함된 정보를 분석해서 감정정보, 캐릭터, 동작정보, 배경, 카메라 워크, 배경음향 및 텍스트 기반 데이터를 선택한다. The animation script analyzer 232 analyzes the information included in the animation script and selects emotion information, characters, motion information, background, camera walk, background sound, and text-based data.

그래픽 생성부(234)는 선택된 배경에서 캐릭터의 동작을 카메라 워크에 따라 그래픽으로 생성한다. 또한 그래픽 생성부(234)는 그래픽을 생성할 때 텍스트 기반 데이터의 텍스트를 포함하여 생성할 수 있다.The graphic generator 234 graphically generates the motion of the character in the selected background according to the camera walk. In addition, the graphic generator 234 may include text of text-based data when generating a graphic.

오디오 처리부(236)는 텍스트 기반 데이터를 감정정보에 따라 억양이나 음조가 반영된 음성으로 출력한다. 또한 오디오 처리부(236)는 배경음향을 출력할 수 있다. 여기서, 텍스트 기반 데이터의 텍스트를 음성으로 출력하는 기술을 문자 음성 변환(TTS: Text To Speech)이라하며, 제안하는 실시예는 감정정보에 따라 억양이나 음조를 다르게 할 수 있다.The audio processor 236 outputs the text-based data as a voice in which an intonation or tonality is reflected according to emotion information. In addition, the audio processor 236 may output the background sound. Here, a technique of outputting text of text-based data to speech is called text-to-speech (TTS), and the proposed embodiment may have different intonation or pitch according to emotion information.

애니메이션 재생부(238)는 그래픽 생성부(234)에서 생성한 그래픽과 오디오 처리부(236)에서 출력하는 음성 또는 배경음향을 통합해서 애니메이션으로 출력한다.The animation player 238 integrates the graphic generated by the graphic generator 234 and the voice or background sound output from the audio processor 236 and outputs the animation.

이하, 상기와 같이 구성된 애니메이션 시스템에서 텍스트 기반 데이터를 애니메이션으로 재생하는 방법을 아래에서 도면을 참조하여 설명한다.Hereinafter, a method of reproducing text-based data as an animation in the animation system configured as described above will be described with reference to the accompanying drawings.

도 3은 제안되는 실시예에 따른 애니메이션 스크립트 생성장치에서 텍스트 기반 데이터를 애니메이션 스크립트로 생성하는 과정을 도시한 흐름도이다.3 is a flowchart illustrating a process of generating text-based data as an animation script in the apparatus for generating an animation script according to the present embodiment.

도 3을 참조하면 제안되는 실시예에 따른 애니메이션 스크립트 생성장치(120)는 310단계에서 텍스트 기반 데이터를 수신하면, 312단계로 진행해서 텍스트 기반 데이터를 구문 분석해서 포함된 어휘와 문장성분을 확인한다.Referring to FIG. 3, when the animation script generating apparatus 120 receives the text-based data in step 310, the animation script generating apparatus 120 analyzes the text-based data in step 312 to identify the included vocabulary and sentence components. .

그리고, 애니메이션 스크립트 생성장치(120)는 314단계로 진행하여 텍스트 기반 데이터의 생성자에 대응하는 캐릭터를 확인하고 어휘와 문장성분과 사용자 관계정보에 대응하는 감정을 레퍼런스 데이터베이스(110)에서 추출한다.In operation 314, the animation script generating apparatus 120 identifies a character corresponding to the creator of the text-based data and extracts an emotion corresponding to the vocabulary, the sentence component, and the user relation information from the reference database 110.

그리고, 애니메이션 스크립트 생성장치(120)는 316단계로 진행하여 감정과 사용자 관계정보에 대응하는 동작을 레퍼런스 데이터베이스(110)에서 선택한다.In operation 316, the animation script generating apparatus 120 selects an operation corresponding to the emotion and the user relation information from the reference database 110.

그리고, 애니메이션 스크립트 생성장치(120)는 318단계로 진행하여 텍스트 기반 데이터의 송신 시간정보, 텍스트 기반 데이터의 수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 배경영상을 생성한다.In operation 318, the animation script generating apparatus 120 generates a background image using at least one or more information among transmission time information of text-based data, reception time information of text-based data, current time information, and weather information. .

그리고, 애니메이션 스크립트 생성장치(120)는 320단계로 진행하여 사용자 관계정보, 감정, 캐릭터 또는 동작 중에서 적어도 하나 이상의 정보를 이용해서 레퍼런스 데이터베이스(110)에서 대응하는 상기 카메라 워크와 상기 배경음향을 선택한다.In operation 320, the animation script generating apparatus 120 selects the corresponding camera work and the background sound from the reference database 110 by using at least one or more information among user relation information, emotions, characters, or motions. .

그리고, 애니메이션 스크립트 생성장치(120)는 322단계로 진행하여 텍스트 기반 데이터, 감정, 동작, 배경, 배경음향 및, 카메라 워크을 결합해서 애니메이션 스크립트를 생성한다.In operation 322, the animation script generating apparatus 120 generates an animation script by combining text-based data, emotions, motions, a background, a background sound, and a camera work.

도 4는 제안되는 실시예에 따른 애니메이션 재생장치에서 애니메이션 스크립트를 재생하는 과정을 도시한 흐름도이다.4 is a flowchart illustrating a process of playing back an animation script in the animation playback apparatus according to the proposed embodiment.

도 4를 참조하면 제안되는 애니메이션 재생장치(230)는 410단계에서 애니메이션 스크립트를 수신하면, 412단계로 진행해서 애니메이션 스크립트에 포함된 정보를 분석해서 감정정보, 캐릭터, 동작정보, 배경, 카메라 워크, 배경음향 및 텍스트 기반 데이터를 선택한다.Referring to FIG. 4, when the animation playback device 230 receives the animation script in step 410, the process proceeds to step 412, and analyzes the information included in the animation script, and includes emotion information, characters, motion information, background, camera walk, Select background sound and text-based data.

그리고 애니메이션 재생장치(230)는 414단계로 진행하여 선택된 배경에서 캐릭터의 동작을 카메라 워크에 따라 그래픽으로 생성하고, 동시에 416단계에서 텍스트 기반 데이터의 텍스트를 감정정보에 따라 억양이나 음조가 반영된 음성으로 출력하고, 418단계에서 배경음향을 출력한다.The animation playback device 230 proceeds to step 414 to generate the character's motion graphically according to the camera walk in the selected background, and at the same time to step 416, the text of the text-based data is voiced with the intonation or tone according to the emotion information. In step 418, the background sound is output.

이후, 그리고 애니메이션 재생장치(230)는 420단계로 진행하여 생성한 그래픽, 음성 또는 배경음향을 통합해서 애니메이션으로 출력한다.Thereafter, the animation playback device 230 proceeds to step 420 and integrates the generated graphic, voice, or background sound into an animation.

도 1과 도 2를 통해 설명한 제안되는 실시예인 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)는 송신 단말 장치에 포함시킬 수도 있고, 수신 단말 장치에 포함시킬 수도 있으며, 송/수신 단말 장치가 아닌 별도의 외부 장치로 구성할 수도 있다.The animation script generating apparatus 120 and the animation reproducing apparatus 230, which are the exemplary embodiments described with reference to FIGS. 1 and 2, may be included in the transmitting terminal apparatus, may be included in the receiving terminal apparatus, and the transmitting / receiving terminal apparatus. It can also be configured as a separate external device.

그러면, 상기와 같이 구성된 애니메이션 시스템을 휴대용 단말 장치에 적용한 실시예들을 아래에서 도 5에서 도 7을 참조하여 설명한다.Next, embodiments of applying the animation system configured as described above to the portable terminal device will be described with reference to FIGS. 5 to 7.

도 5는 제안되는 실시예에 따른 애니메이션 시스템을 수신 단말 장치에 적용한 예를 도시한 도면이다.5 is a diagram illustrating an example of applying an animation system according to an exemplary embodiment to a receiving terminal device.

도 5를 참조하면 송신 단말 장치(510)가 서비스 서버(520)를 통해 텍스트 기반 데이터를 수신 단말 장치(530)로 송신하면, 수신 단말 장치(530)는 애니메이션 스크립트 생성장치(120)를 통해 텍스트 기반 데이터를 애니메이션 스크립트로 생성한다. 그리고, 생성된 애니메이션 스크립트는 애니메이션 재생장치(230)를 통해 재생된다.Referring to FIG. 5, when the transmitting terminal apparatus 510 transmits text-based data to the receiving terminal apparatus 530 through the service server 520, the receiving terminal apparatus 530 receives the text through the animation script generating apparatus 120. Generate the base data as an animation script. The generated animation script is reproduced through the animation reproducing apparatus 230.

이때, 애니메이션 스크립트 생성장치(120)는 레퍼런스 데이터베이스(110)에 저장된 관계정보를 이용하여 텍스트 기반 데이터의 감정을 추출하고 동작을 선택한다.At this time, the animation script generating device 120 extracts the emotion of the text-based data using the relationship information stored in the reference database 110 and selects an operation.

따라서, 애니메이션 스크립트는 수신 단말 장치(530) 관점에서 분류된 사용자 관계정보를 바탕으로 생성되기 때문에 송신 단말 장치(510)가 송신하고자 하는 의도와는 다른 애니메이션 스크립트가 생성될 수도 있다.Therefore, since the animation script is generated based on the user relationship information classified from the viewpoint of the receiving terminal device 530, an animation script different from the intention to transmit by the transmitting terminal device 510 may be generated.

하지만 수신 단말 장치(530)는 일반적인 문자 데이터를 애니메이션으로 재생할 수 있다.However, the receiving terminal device 530 may reproduce general text data as an animation.

도 6은 제안되는 실시예에 따른 애니메이션 시스템을 송신 단말 장치와 수신 단말 장치에 적용한 예를 도시한 도면이다.6 is a diagram illustrating an example of applying an animation system to a transmitting terminal apparatus and a receiving terminal apparatus according to a proposed embodiment.

도 6을 참조하면 송신 단말 장치(610)는 애니메이션 스크립트 생성장치(120)를 통해 텍스트 기반 데이터를 애니메이션 스크립트로 생성하고, 생성한 애니메이션 스크립트를 서비스 서버(620)를 통해 수신 단말 장치(630)로 송신한다. 또한, 송신 단말 장치(610)는 포함된 애니메이션 재생장치(230)를 통해 생성한 애니메이션 스크립트를 재생할 수도 있다.Referring to FIG. 6, the transmitting terminal device 610 generates text-based data as an animation script through the animation script generating device 120, and generates the generated animation script to the receiving terminal device 630 through the service server 620. Send. Also, the transmitting terminal device 610 may play back an animation script generated through the included animation playback device 230.

그러면, 수신 단말 장치(630)는 수신한 생성한 애니메이션 스크립트를 애니메이션 재생장치(230)를 통해 재생한다.Then, the reception terminal device 630 reproduces the received generated animation script through the animation playback device 230.

이때, 애니메이션 스크립트 생성장치(120)는 레퍼런스 데이터베이스(110)에 저장된 관계정보를 이용하여 텍스트 기반 데이터의 감정을 추출하고 동작을 선택한다. 그리고, 애니메이션 스크립트 생성장치(120)는 감정 추출할 때 텍스트 기반 데이터에서 감정을 추출할 수 없거나, 텍스트 기반 데이터의 감정추출과 더불어, 사용자의 맥박 혹은 뇌파 등의 측정을 통해 감정 추출할 수도 있다.At this time, the animation script generating device 120 extracts the emotion of the text-based data using the relationship information stored in the reference database 110 and selects an operation. In addition, the animation script generating apparatus 120 may not extract the emotion from the text-based data when extracting the emotion, or may extract the emotion through measurement of the user's pulse or brain wave along with the extraction of the text-based data.

따라서, 애니메이션 스크립트는 송신 단말 장치(610) 관점에서 분류된 사용자 관계정보를 바탕으로 생성되기 때문에 수신 단말 장치(630)에서 재생되는 애니메이션은 송신 단말 장치(610)가 의도한 애니메이션이다.Therefore, since the animation script is generated based on the user relationship information classified from the perspective of the transmitting terminal device 610, the animation reproduced by the receiving terminal device 630 is an animation intended by the transmitting terminal device 610.

하지만 송신 단말 장치(610)는 일반적인 문자 데이터 보다 큰 데이터인 애니메이션 스크립트를 수신 단말 장치(630)로 송신해야 한다.However, the transmitting terminal device 610 should transmit the animation script, which is data larger than general text data, to the receiving terminal device 630.

도 7은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 일 예를 도시한 도면이다. FIG. 7 is a diagram illustrating an example of reproducing text-based data as an animation according to a proposed embodiment.

도 7은 도 6과 같이 수신 단말 장치(720)에 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)가 포함된 경우이다.FIG. 7 illustrates a case where an animation script generation device 120 and an animation playback device 230 are included in the reception terminal device 720 as shown in FIG. 6.

도 7을 참조하면 송신 단말 장치(710)는 텍스트 기반 데이터인 "자기야 뭐해?"라는 문자 메시지를 수신 단말 장치(720)로 송신한다. 그러면, 수신 단말 장치(720)는 애니메이션 스크립트 생성장치(120)를 통해 사용자 프로파일 데이터베이스(113)에서 사용자 관계정보인 `애인`을 확인하고, 감정추론 룰 데이터베이스(112)를 통해 `사랑`이라는 감정을 추출하고, 동작 룰 데이터베이스(114)에서 `턱 괴기`의 동작을 선택한다. 그리고, 애니메이션 재생장치(230)를 통해 도면과 같이 애니메이션으로 출력한다.Referring to FIG. 7, the transmitting terminal device 710 transmits a text message, “What are you doing?”, Which is text-based data, to the receiving terminal device 720. Then, the receiving terminal device 720 checks the user relationship information 'lover' in the user profile database 113 through the animation script generating device 120, and the emotion of 'love' through the emotion inference rule database 112. Then, the operation rule database 114 selects the operation of 'chin jaw'. Then, the animation reproducing apparatus 230 outputs the animation as shown in the figure.

도 8은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 다른 예를 도시한 도면이다. 도 8은 도 6과 같이 수신 단말 장치(820)에 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)가 포함된 경우이다.8 is a diagram illustrating another example of reproducing text-based data as an animation according to the proposed embodiment. FIG. 8 illustrates a case where an animation script generating device 120 and an animation playback device 230 are included in the receiving terminal device 820 as shown in FIG. 6.

도 8을 참조하면 송신 단말 장치(810)는 텍스트 기반 데이터인 텍스트 시나리오(830)를 수신 단말 장치(820)로 송신한다. 이때, 텍스트 시나리오(830)는 이메일(E-mail)을 통해 송신될 수 있다.Referring to FIG. 8, the transmitting terminal device 810 transmits a text scenario 830, which is text-based data, to the receiving terminal device 820. In this case, the text scenario 830 may be transmitted through an e-mail.

텍스트 시나리오(830)를 수신한 수신 단말 장치(820)의 애니메이션 스크립트 생성장치(120)는 텍스트 시나리오(830)의 내용을 토대로 대사와 소지문에서 감정을 감정추론 룰 데이터베이스(112)를 통해서 추출한다. 예를 들어 텍스트 시나리오(830)의“카메오의 세계에 오신걸 환영합니다”라는 대사에서 `엑스터시` 라는 감정을 추출한다.The animation script generating device 120 of the receiving terminal device 820 receiving the text scenario 830 extracts the emotion from the dialogue and the fingerprint through the emotion inference rule database 112 based on the content of the text scenario 830. . For example, in the text scenario (830), “Welcome to Cameo's World,” we extract the emotion of 'Ecstasy'.

그리고, 수신 단말 장치(820)의 애니메이션 스크립트 생성장치(120)는 동작 룰 데이터베이스(114)에서 텍스트 시나리오(830)의 대사와 소지문에서 동작을 추출한다. 예를들어 텍스트 시나리오(830)의 소지문 `(신나하며)`에서 펄쩍펄뻑 뛰기 라는 동작을 추출할 수 있다.The animation script generating device 120 of the receiving terminal device 820 extracts an action from the dialogue and the text of the text scenario 830 in the action rule database 114. For example, in the text scenario 830, the text `(exciting)` may be extracted.

그리고, 수신 단말 장치(820)의 애니메이션 스크립트 생성장치(120)는 추출한 감정과 동작을 포함하는 애니메이션 스크립트(840)를 생성한다. 그리고, 수신 단말 장치(820)의 애니메이션 재생장치(230)는 애니메이션 스크립트(840)를 애니메이션으로 출력한다.The animation script generation device 120 of the reception terminal device 820 generates an animation script 840 including the extracted emotions and actions. The animation playback device 230 of the reception terminal device 820 outputs an animation script 840 as an animation.

도 9는 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 일 예를 도시한 도면이다. 도 9는 도 6과 같이 수신 단말 장치(920)에 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)가 포함된 경우이다.9 is a diagram illustrating an example of reproducing text-based data as an animation according to a proposed embodiment. FIG. 9 illustrates a case where the receiving terminal device 920 includes the animation script generation device 120 and the animation playback device 230 as shown in FIG. 6.

도 9를 참조하면 송신 단말 장치(910)는 인스턴트 메신저(instant messenger)(930)를 통해 인스턴트 메시지(instant message)(932)를 수신 단말 장치(920)로 송신한다.Referring to FIG. 9, the transmitting terminal device 910 transmits an instant message 932 to the receiving terminal device 920 through an instant messenger 930.

인스턴트 메시지(932)를 수신한 수신 단말 장치(920)의 애니메이션 스크립트 생성장치(120)는 인스턴트 메시지(932)의 송신자를 사용자 프로파일 데이터베이스(113)에서 검색해서 사용자 관계정보를 선택한다.The animation script generating device 120 of the receiving terminal device 920 that receives the instant message 932 searches the sender of the instant message 932 in the user profile database 113 and selects user relationship information.

그리고, 수신 단말 장치(920)의 애니메이션 스크립트 생성장치(120)는 감정추론 룰 데이터베이스(112)를 통해 `사랑`이라는 감정을 추출하고, 동작 룰 데이터베이스(114)를 통해 `어깨에 기대기`의 동작을 선택한다. Then, the animation script generating device 120 of the receiving terminal device 920 extracts the emotion of 'love' through the emotion inference rule database 112 and the operation of 'leaning on the shoulder' through the action rule database 114. Select.

그리고, 수신 단말 장치(920)의 애니메이션 스크립트 생성장치(120)는 추출한 감정과 동작을 포함하는 애니메이션 스크립트(940)를 생성한다. 그리고, 애니메이션 재생장치(230)를 통해 도면과 같이 애니메이션 스크립트(940)를 애니메이션(950)으로 출력한다.The animation script generation device 120 of the reception terminal device 920 generates an animation script 940 including the extracted emotions and actions. Then, the animation playback device 230 outputs the animation script 940 to the animation 950 as shown in the figure.

도 10은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 또 다른 예를 도시한 도면이다. 도 10은 도 6과 같이 수신 단말 장치(1020)에 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)가 포함된 경우이다.FIG. 10 illustrates another example of reproducing text-based data as an animation according to the proposed embodiment. FIG. 10 illustrates a case where an animation script generating device 120 and an animation playback device 230 are included in the receiving terminal device 1020 as shown in FIG. 6.

도 10을 참조하면 송신 단말 장치(1010)는 사용자의 메모를 소셜 네트워크 서비스(SNS: Social Network Service)(1030)에 텍스트 메모(1032)로 입력한다. 수신 단말 장치(1020)의 사용자가 텍스트 메모(1032)를 애니메이션 보기로 선택하면 수신 단말 장치(1020)의 애니메이션 스크립트 생성장치(120)는 텍스트 메모(1032)의 입력자를 사용자 프로파일 데이터베이스(113)에서 검색해서 사용자 관계정보를 선택한다.Referring to FIG. 10, the transmitting terminal apparatus 1010 inputs a memo of a user as a text memo 1032 into a social network service (SNS) 1030. When the user of the receiving terminal apparatus 1020 selects the text memo 1032 as the animation view, the animation script generating apparatus 120 of the receiving terminal apparatus 1020 receives an input of the text memo 1032 from the user profile database 113. Search and select user relationship information.

그리고, 수신 단말 장치(1020)의 애니메이션 스크립트 생성장치(120)는 감정추론 룰 데이터베이스(112)를 통해 텍스트 메모(1032)에 포함된 `^^`에서 `joy`이라는 감정을 추출한다. 그리고, 수신 단말 장치(1020)의 애니메이션 스크립트 생성장치(120)는 동작 룰 데이터베이스(114)을 통해 `살짝 웃기`의 동작을 추출한다. The animation script generating device 120 of the receiving terminal device 1020 extracts an emotion of 'joy' from `^^` included in the text memo 1032 through the emotion inference rule database 112. Then, the animation script generating device 120 of the receiving terminal device 1020 extracts the action of 'smiling laugh' through the action rule database 114.

그리고, 수신 단말 장치(1020)의 애니메이션 스크립트 생성장치(120)는 추출한 감정과 동작을 포함하는 애니메이션 스크립트(1040)를 생성한다. 그리고, 애니메이션 재생장치(230)를 통해 도면과 같이 애니메이션 스크립트(940)를 애니메이션으로 출력한다.The animation script generating device 120 of the receiving terminal device 1020 generates an animation script 1040 including the extracted emotions and actions. Then, the animation playback device 230 outputs the animation script 940 as an animation as shown in the figure.

상기한 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The methods described above may be embodied in the form of program instructions that may be executed by various computer means and may be recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. The medium may be a transmission medium such as an optical or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, or the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

도 1은 제안되는 실시예에 따른 애니메이션 시스템에서 텍스트 기반 데이터를 애니메이션 스크립트로 생성하는 애니메이션 스크립트 생성장치의 구성을 도시한 도면,1 is a diagram illustrating a configuration of an animation script generating apparatus for generating text-based data as an animation script in an animation system according to a proposed embodiment;

도 2는 제안되는 실시예에 따른 애니메이션 시스템에서 애니메이션 스크립트를 재생하는 애니메이션 재생장치의 구성을 도시한 도면,2 is a diagram illustrating a configuration of an animation playback apparatus for playing back an animation script in an animation system according to a proposed embodiment;

도 3은 제안되는 실시예에 따른 애니메이션 스크립트 생성장치에서 텍스트 기반 데이터를 애니메이션 스크립트로 생성하는 과정을 도시한 흐름도,3 is a flowchart illustrating a process of generating text-based data as an animation script in the animation script generating apparatus according to the present embodiment;

도 4는 제안되는 실시예에 따른 애니메이션 재생장치에서 애니메이션 스크립트를 재생하는 과정을 도시한 흐름도,4 is a flowchart illustrating a process of playing an animation script in the animation playback apparatus according to the present embodiment;

도 5는 제안되는 실시예에 따른 애니메이션 시스템을 수신 단말 장치에 적용한 예를 도시한 도면,5 is a diagram illustrating an example of applying an animation system to a receiving terminal device according to an exemplary embodiment;

도 6은 제안되는 실시예에 따른 애니메이션 시스템을 송신 단말 장치와 수신 단말 장치에 적용한 예를 도시한 도면,6 is a diagram illustrating an example of applying an animation system to a transmitting terminal apparatus and a receiving terminal apparatus according to a proposed embodiment;

도 7은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 일 예를 도시한 도면,7 is a diagram illustrating an example of reproducing text-based data as an animation according to a proposed embodiment;

도 8은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 다른 예를 도시한 도면,8 illustrates another example of reproducing text-based data as an animation according to a proposed embodiment.

도 9는 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 일 예를 도시한 도면 및,9 is a diagram illustrating an example of reproducing text-based data with animation according to a proposed embodiment;

도 10은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 또 다른 예를 도시한 도면이다.FIG. 10 illustrates another example of reproducing text-based data as an animation according to the proposed embodiment.

Claims (32)

텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 레퍼런스 데이터베이스에서 추출하는 감정 분석부;An emotion analysis unit for extracting an emotion corresponding to a result of parsing text-based data and user relation information from a reference database; 상기 감정에 대응하는 동작을 상기 레퍼런스 데이터베이스에서 선택하는 동작 선택부; 및An operation selector which selects an operation corresponding to the emotion from the reference database; And 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 스크립트 생성부를 포함하는And a script generation unit generating the animation script by combining the emotion and the motion with the text-based data. 애니메이션 스크립트 생성장치.Animation script generator. 제1항에 있어서,The method of claim 1, 상기 텍스트 기반 데이터는,The text-based data, 문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메시지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)의 텍스트 메모 또는 텍스트 기반의 이메일(E-mail)을 포함하는Including SMS messages, text scenarios, instant messages, text notes from Social Network Services (SNS) or text-based email. 애니메이션 스크립트 생성장치.Animation script generator. 제1항에 있어서,The method of claim 1, 상기 사용자 관계정보는,The user relationship information, 상기 텍스트 기반 데이터의 생성자와 수신자 간의 관계 또는 친밀도 정도를 나타내는 정보인Information indicating a degree of intimacy or relationship between the creator and the receiver of the text-based data. 애니메이션 스크립트 생성장치.Animation script generator. 제1항에 있어서,The method of claim 1, 상기 텍스트 기반 데이터를 구문 분석한 결과 상기 텍스트 기반 데이터에 포함된 어휘를 확인하는 자연어 처리부를 더 포함하고,The apparatus may further include a natural language processor configured to identify a vocabulary included in the text-based data as a result of parsing the text-based data. 상기 감정 분석부는,The emotion analysis unit, 상기 텍스트 기반 데이터의 생성자에 대응하는 캐릭터를 선택하고 상기 어휘와 상기 사용자 관계정보에 대응하는 상기 감정을 상기 레퍼런스 데이터베이스에서 추출하는Selecting a character corresponding to the creator of the text-based data and extracting the emotion corresponding to the vocabulary and the user relation information from the reference database 애니메이션 스크립트 생성장치.Animation script generator. 제1항에 있어서,The method of claim 1, 상기 텍스트 기반 데이터의 송신 시간정보, 상기 텍스트 기반 데이터의 수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 배경영상을 생성하는 외부데이터 처리부를 더 포함하고,The apparatus may further include an external data processor configured to generate a background image using at least one of transmission time information of the text-based data, reception time information of the text-based data, current time information, and weather information. 상기 스크립트 생성부는,The script generation unit, 상기 배경영상을 포함해서 상기 애니메이션 스크립트를 생성하는Generating the animation script including the background image 애니메이션 스크립트 생성장치.Animation script generator. 제1항에 있어서, The method of claim 1, 상기 레퍼런스 데이터베이스는,The reference database, 상기 텍스트 기반 데이터의 생성자에 대응하는 사용자 관계정보의 매핑 정보와 캐릭터의 매핑 정보를 저장하는 사용자 프로파일 데이터베이스;A user profile database storing mapping information of character information and mapping information of user relationship information corresponding to the creator of the text-based data; 어휘와 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정어휘 사전 데이터베이스;An emotional vocabulary dictionary database that stores mapping information of emotions corresponding to the vocabulary and user relationship information; 어휘의 조합과 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정추론 룰 데이터베이스; 및An emotion inference rule database that stores mapping information of emotions corresponding to the combination of vocabulary and user relationship information; And 감정과 사용자 관계정보에 대응하는 동작의 매핑 정보를 저장하는 동작 룰 데이터베이스를 포함하는 An action rule database that stores mapping information of an action corresponding to emotion and user relationship information; 애니메이션 스크립트 생성장치.Animation script generator. 제6항에 있어서, The method of claim 6, 상기 감정 분석부는,The emotion analysis unit, 상기 사용자 프로파일 데이터베이스에서 상기 텍스트 기반 데이터의 생성자에 대응하는 캐릭터와 상기 사용자 관계정보를 확인하고, Confirm the character and the user relation information corresponding to the creator of the text-based data in the user profile database; 상기 감정 어휘사전 데이터베이스에서 상기 어휘와 상기 사용자 관계정보에 대응하는 어휘 감정을 확인하고, Confirming a vocabulary emotion corresponding to the vocabulary and the user relationship information in the emotional vocabulary dictionary database, 상기 감정 추론 룰 데이터베이스에서 상기 어휘들의 조합과 상기 사용자 관계정보에 대응하는 추론 감정을 확인하고 Identify inference emotions corresponding to the combination of the vocabulary and the user relation information in the emotion inference rule database; 상기 어휘 감정과 상기 추론 감정을 합성해서 하나 이상의 감정을 추출하는Extracting one or more emotions by combining the vocabulary emotions and the inference emotion 애니메이션 스크립트 생성장치.Animation script generator. 제6항에 있어서, The method of claim 6, 상기 동작 선택부는The operation selector 상기 동작 룰 데이터베이스에서 상기 감정과 상기 사용자 관계정보에 대응하는 상기 동작을 선택하는Selecting the motion corresponding to the emotion and the user relationship information in the motion rule database 애니메이션 스크립트 생성장치.Animation script generator. 제6항에 있어서, The method of claim 6, 상기 레퍼런스 데이터베이스는,The reference database, 상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적 어도 하나 이상의 정보에 대응하는 카메라 워크의 매핑 정보와 배경음향의 매핑 정보를 저장하는 연출 데이터베이스를 더 포함하는 And a direction database for storing the mapping information of the camera work and the mapping information of the background sound corresponding to at least one of the user relation information, the emotion, the character, or the motion. 애니메이션 스크립트 생성장치.Animation script generator. 제9항에 있어서,10. The method of claim 9, 상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보를 이용해서 상기 연출 데이터베이스에서 대응하는 상기 카메라 워크와 상기 배경음향을 선택하는 연출부를 더 포함하고,And a director for selecting the camera work and the background sound corresponding to the director database using at least one of the user relation information, the emotion, the character, and the motion. 상기 스크립트 생성부는,The script generation unit, 상기 배경음향을 포함해서 상기 카메라 워크로 상기 애니메이션 스크립트를 생성하는Generating the animation script with the camera walk including the background sound. 애니메이션 스크립트 생성장치.Animation script generator. 애니메이션 스크립트에 포함된 정보를 분석해서 감정정보, 캐릭터, 동작정보 및 텍스트 기반 데이터를 선택하는 애니메이션 스크립트 분석부;An animation script analysis unit analyzing the information included in the animation script to select emotion information, characters, motion information, and text-based data; 상기 캐릭터를 상기 동작정보에 따라 동작하는 그래픽을 생성하는 그래픽 생성부; 및A graphic generator which generates a graphic which operates the character according to the motion information; And 상기 생성한 그래픽을 애니메이션으로 출력하는 애니메이션 재생부를 포함 하는An animation playback unit for outputting the generated graphic as an animation 애니메이션 재생장치.Animation player. 제10항에 있어서,The method of claim 10, 상기 텍스트 기반 데이터는,The text-based data, 문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메시지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)의 텍스트 메모 또는 텍스트 기반의 이메일(E-mail)을 포함하는Including SMS messages, text scenarios, instant messages, text notes from Social Network Services (SNS) or text-based email. 애니메이션 재생장치.Animation player. 제11항에 있어서, The method of claim 11, 상기 그래픽 생성부는,The graphic generator, 상기 그래픽을 생성할 때 상기 텍스트 기반 데이터의 텍스트를 포함하여 생성하는When generating the graphic to include the text of the text-based data to generate 애니메이션 재생장치.Animation player. 제11항에 있어서,The method of claim 11, 상기 텍스트 기반 데이터를 상기 감정정보에 따라 억양이나 음조가 반영된 음성으로 출력하는 오디오 처리부를 더 포함하고,And an audio processor configured to output the text-based data as a voice in which intonation or tonality is reflected according to the emotion information. 상기 애니메이션 재생부는 상기 생성한 그래픽과 상기 음성을 통합하여 애니메이션으로 출력하는The animation reproducing unit integrates the generated graphic and the voice and outputs the animation. 애니메이션 재생장치.Animation player. 제11항에 있어서,The method of claim 11, 상기 스크립트 분석부에서 상기 애니메이션 스크립트에서 배경음향을 선택하면, 상기 배경음향을 출력하는 오디오 처리부를 더 포함하고,If the script analysis unit selects a background sound in the animation script, further comprises an audio processor for outputting the background sound, 상기 애니메이션 재생부는 상기 생성한 그래픽과 상기 배경음향을 통합하여 애니메이션으로 출력하는The animation playback unit integrates the generated graphic with the background sound and outputs the animation. 애니메이션 재생장치.Animation player. 사용자 관계정보, 캐릭터 정보 및 감정 정보를 포함하는 레퍼런스 데이터베이스; 및A reference database including user relationship information, character information, and emotion information; And 수신한 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 추출하고, 상기 감정에 대응하는 동작을 선택하고 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 애니 메이션 스크립트 생성장치를 포함하는Annie extracts the emotion corresponding to the result of parsing the received text-based data and user relationship information, selects an action corresponding to the emotion, and combines the emotion and the action to the text-based data to generate an animation script. Simulation script generator 수신 단말 장치.Receiving terminal device. 제16항에 있어서,The method of claim 16, 상기 텍스트 기반 데이터는,The text-based data, 문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메시지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)의 텍스트 메모 또는 텍스트 기반의 이메일(E-mail)을 포함하는Including SMS messages, text scenarios, instant messages, text notes from Social Network Services (SNS) or text-based email. 수신 단말 장치.Receiving terminal device. 제16항에 있어서,The method of claim 16, 상기 사용자 관계정보는,The user relationship information, 상기 텍스트 기반 데이터의 생성자와 수신자 간의 관계 또는 친밀도 정도를 나타내는 정보인Information indicating a degree of intimacy or relationship between the creator and the receiver of the text-based data. 수신 단말 장치.Receiving terminal device. 제16항에 있어서, The method of claim 16, 상기 애니메이션 스크립트를 분석해서 애니메이션을 재생하는 애니메이션 재생장치를 더 포함하는Further comprising an animation playback device for analyzing the animation script to play the animation; 수신 단말 장치.Receiving terminal device. 제16항에 있어서, The method of claim 16, 상기 레퍼런스 데이터베이스는,The reference database, 상기 텍스트 기반 데이터의 생성자에 대응하는 사용자 관계정보의 매핑 정보와 캐릭터의 매핑 정보를 저장하는 사용자 프로파일 데이터베이스;A user profile database storing mapping information of character information and mapping information of user relationship information corresponding to the creator of the text-based data; 어휘와 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정어휘 사전 데이터베이스;An emotional vocabulary dictionary database that stores mapping information of emotions corresponding to the vocabulary and user relationship information; 어휘의 조합과 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정추론 룰 데이터베이스; 및An emotion inference rule database that stores mapping information of emotions corresponding to the combination of vocabulary and user relationship information; And 감정과 사용자 관계정보에 대응하는 동작의 매핑 정보를 저장하는 동작 룰 데이터베이스를 포함하는 An action rule database that stores mapping information of an action corresponding to emotion and user relationship information; 수신 단말 장치.Receiving terminal device. 제20항에 있어서, 21. The method of claim 20, 상기 애니메이션 스크립트 생성장치는,The animation script generating device, 상기 텍스트 기반 데이터를 구문 분석해서 포함된 어휘를 확인하는 자연어 처리부;A natural language processor which parses the text-based data and checks the included vocabulary; 상기 사용자 프로파일 데이터베이스에서 상기 텍스트 기반 데이터의 생성자에 대응하는 상기 캐릭터와 상기 사용자 관계정보를 확인하고, 상기 감정 어휘사전 데이터베이스에서 상기 어휘와 상기 사용자 관계정보에 대응하는 어휘 감정을 확인하고, 상기 감정 추론 룰 데이터베이스에서 상기 어휘들의 조합과 상기 사용자 관계정보에 대응하는 추론 감정을 확인하고 상기 어휘 감정과 상기 추론 감정을 합성해서 하나 이상의 감정을 추출하는 감정 분석부;Identify the character and the user relation information corresponding to the creator of the text-based data in the user profile database, identify the lexical emotion corresponding to the vocabulary and the user relation information in the emotional vocabulary dictionary database, and infer the emotion An emotion analysis unit for identifying inference emotions corresponding to the combination of the vocabulary and the user relation information in a rule database, and extracting one or more emotions by combining the vocabulary emotion and the inference emotion; 상기 동작 룰 데이터베이스에서 상기 감정과 상기 사용자 관계정보에 대응하는 상기 동작을 선택하는 동작 선택부; 및An operation selecting unit which selects the operation corresponding to the emotion and the user relation information in the operation rule database; And 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 스크립트 생성부를 포함하는And a script generation unit generating the animation script by combining the emotion and the motion with the text-based data. 수신 단말 장치.Receiving terminal device. 제20항에 있어서,21. The method of claim 20, 상기 애니메이션 스크립트 생성장치는,The animation script generating device, 상기 텍스트 기반 데이터의 송신 시간정보, 상기 텍스트 기반 데이터의 수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 배경영상을 생성하는 외부데이터 처리부를 더 포함하고,The apparatus may further include an external data processor configured to generate a background image using at least one of transmission time information of the text-based data, reception time information of the text-based data, current time information, and weather information. 상기 스크립트 생성부는,The script generation unit, 상기 배경영상을 포함해서 상기 애니메이션 스크립트를 생성하는Generating the animation script including the background image 수신 단말 장치.Receiving terminal device. 제20항에 있어서, 21. The method of claim 20, 상기 레퍼런스 데이터베이스는,The reference database, 상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보에 대응하는 카메라 워크의 매핑 정보와 배경음향의 매핑 정보를 저장하는 연출 데이터베이스를 더 포함하는 The apparatus may further include a production database configured to store mapping information of a camera work corresponding to at least one of the user relationship information, the emotion, the character, or the motion, and mapping information of a background sound. 수신 단말 장치.Receiving terminal device. 제23항에 있어서,24. The method of claim 23, 상기 애니메이션 스크립트 생성장치는,The animation script generating device, 상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보를 이용해서 상기 연출 데이터베이스에서 대응하는 카메라 워크와 배경음향을 선택하는 연출부를 더 포함하고,And a director for selecting a corresponding camera walk and a background sound from the director database by using at least one of the user relation information, the emotion, the character, or the motion. 상기 스크립트 생성부는,The script generation unit, 상기 배경음향을 포함해서 상기 카메라 워크로 상기 애니메이션 스크립트를 생성하는Generating the animation script with the camera walk including the background sound. 수신 단말 장치.Receiving terminal device. 사용자 관계정보, 캐릭터 정보 및 감정 정보를 포함하는 레퍼런스 데이터베이스; 및A reference database including user relationship information, character information, and emotion information; And 송신할 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 추출하고, 상기 감정에 대응하는 동작을 선택하고, 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성해서 수신 단말 장치로 송신하는 애니메이션 스크립트 생성장치를 포함하는Parsing the text-based data to be sent and the emotion corresponding to the user relation information are extracted, selecting an action corresponding to the emotion, and combining the emotion and the motion with the text-based data to generate an animation script. An animation script generating device for transmitting to the receiving terminal device 송신 단말 장치.Transmission terminal device. 제25항에 있어서,The method of claim 25, 상기 텍스트 기반 데이터는,The text-based data, 문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메시지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)의 텍스트 메모 또는 텍스트 기반의 이메일(E-mail)을 포함하는Including SMS messages, text scenarios, instant messages, text notes from Social Network Services (SNS) or text-based email. 송신 단말 장치.Transmission terminal device. 제25항에 있어서,The method of claim 25, 상기 사용자 관계정보는,The user relationship information, 상기 텍스트 기반 데이터의 생성자와 수신자 간의 관계 또는 친밀도 정도를 나타내는 정보인Information indicating a degree of intimacy or relationship between the creator and the receiver of the text-based data. 송신 단말 장치.Transmission terminal device. 제25항에 있어서, The method of claim 25, 상기 레퍼런스 데이터베이스는,The reference database, 상기 텍스트 기반 데이터의 생성자에 대응하는 사용자 관계정보의 매핑 정보와 캐릭터의 매핑 정보를 저장하는 사용자 프로파일 데이터베이스;A user profile database storing mapping information of character information and mapping information of user relationship information corresponding to the creator of the text-based data; 어휘와 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정어휘 사전 데이터베이스;An emotional vocabulary dictionary database that stores mapping information of emotions corresponding to the vocabulary and user relationship information; 어휘의 조합과 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정추론 룰 데이터베이스; 및An emotion inference rule database that stores mapping information of emotions corresponding to the combination of vocabulary and user relationship information; And 감정과 사용자 관계정보에 대응하는 동작의 매핑 정보를 저장하는 동작 룰 데이터베이스를 포함하는 An action rule database that stores mapping information of an action corresponding to emotion and user relationship information; 송신 단말 장치.Transmission terminal device. 제28항에 있어서, The method of claim 28, 상기 애니메이션 스크립트 생성장치는,The animation script generating device, 상기 텍스트 기반 데이터를 구문 분석해서 포함된 어휘를 확인하는 자연어 처리부;A natural language processor which parses the text-based data and checks the included vocabulary; 상기 사용자 프로파일 데이터베이스에서 상기 텍스트 기반 데이터의 생성자에 대응하는 상기 캐릭터와 상기 사용자 관계정보를 확인하고, 상기 감정 어휘사전 데이터베이스에서 상기 어휘와 상기 사용자 관계정보에 대응하는 어휘 감정을 확인하고, 상기 감정 추론 룰 데이터베이스에서 상기 어휘들의 조합과 상기 사용자 관계정보에 대응하는 추론 감정을 확인하고 상기 어휘 감정과 상기 추론 감정을 합성해서 하나 이상의 감정을 추출하는 감정 분석부;Identify the character and the user relation information corresponding to the creator of the text-based data in the user profile database, identify the lexical emotion corresponding to the vocabulary and the user relation information in the emotional vocabulary dictionary database, and infer the emotion An emotion analysis unit for identifying inference emotions corresponding to the combination of the vocabulary and the user relation information in a rule database, and extracting one or more emotions by combining the vocabulary emotion and the inference emotion; 상기 동작 룰 데이터베이스에서 상기 감정과 상기 사용자 관계정보에 대응하는 상기 동작을 선택하는 동작 선택부; 및An operation selecting unit which selects the operation corresponding to the emotion and the user relation information in the operation rule database; And 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 스크립트 생성부를 포함하는And a script generation unit generating the animation script by combining the emotion and the motion with the text-based data. 송신 단말 장치.Transmission terminal device. 제28항에 있어서,The method of claim 28, 상기 애니메이션 스크립트 생성장치는,The animation script generating device, 상기 텍스트 기반 데이터의 송신 시간정보, 상기 텍스트 기반 데이터의 수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 배경영상을 생성하는 외부데이터 처리부를 더 포함하고,The apparatus may further include an external data processor configured to generate a background image using at least one of transmission time information of the text-based data, reception time information of the text-based data, current time information, and weather information. 상기 스크립트 생성부는,The script generation unit, 상기 배경영상을 포함해서 상기 애니메이션 스크립트를 생성하는Generating the animation script including the background image 송신 단말 장치.Transmission terminal device. 제28항에 있어서, The method of claim 28, 상기 레퍼런스 데이터베이스는,The reference database, 상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보에 대응하는 카메라 워크의 매핑 정보와 배경음향의 매핑 정보를 저장하는 연출 데이터베이스를 더 포함하는 The apparatus may further include a production database configured to store mapping information of a camera work corresponding to at least one of the user relationship information, the emotion, the character, or the motion, and mapping information of a background sound. 송신 단말 장치.Transmission terminal device. 제31항에 있어서,The method of claim 31, wherein 상기 애니메이션 스크립트 생성장치는,The animation script generating device, 상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보를 이용해서 상기 연출 데이터베이스에서 대응하는 카메라 워크와 배경음향을 선택하는 연출부를 더 포함하고,And a director for selecting a corresponding camera walk and a background sound from the director database by using at least one of the user relation information, the emotion, the character, or the motion. 상기 스크립트 생성부는,The script generation unit, 상기 배경음향을 포함해서 상기 카메라 워크로 상기 애니메이션 스크립트를 생성하는Generating the animation script with the camera walk including the background sound. 송신 단말 장치.Transmission terminal device.
KR1020090102590A 2009-05-28 2009-10-28 Animation system for reproducing text base data by animation KR101628050B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/762,258 US9665563B2 (en) 2009-05-28 2010-04-16 Animation system and methods for generating animation based on text-based data and user information
EP10162474A EP2256642A3 (en) 2009-05-28 2010-05-11 Animation system for generating animation based on text-based data and user information
JP2010119251A JP5815214B2 (en) 2009-05-28 2010-05-25 Animation script generation device, animation output device, reception terminal device, transmission terminal device, portable terminal device and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20090047161 2009-05-28
KR1020090047161 2009-05-28

Publications (2)

Publication Number Publication Date
KR20100129122A true KR20100129122A (en) 2010-12-08
KR101628050B1 KR101628050B1 (en) 2016-06-22

Family

ID=43505893

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090102590A KR101628050B1 (en) 2009-05-28 2009-10-28 Animation system for reproducing text base data by animation

Country Status (1)

Country Link
KR (1) KR101628050B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101308601B1 (en) * 2013-03-26 2013-09-17 성완 Method for providing animation messenger service
WO2014028409A1 (en) * 2012-08-15 2014-02-20 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
US8781991B2 (en) 2011-07-14 2014-07-15 Samsung Electronics Co., Ltd. Emotion recognition apparatus and method
US9425974B2 (en) 2012-08-15 2016-08-23 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
KR20160118316A (en) * 2014-02-05 2016-10-11 페이스북, 인크. Ideogrms based on sentiment analysis
WO2018038586A1 (en) * 2016-08-26 2018-03-01 스타십벤딩머신 주식회사 Method for generating text animation, and apparatus therefor
US10116598B2 (en) 2012-08-15 2018-10-30 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
WO2020045712A1 (en) * 2018-08-27 2020-03-05 주식회사 닫닫닫 Device, method and computer-readable recording medium for providing asynchronous instant messaging service
KR20210138924A (en) * 2020-05-13 2021-11-22 류경희 Dementia patient care and record support system
KR102368300B1 (en) * 2020-09-08 2022-03-02 박일호 System for expressing act and emotion of character based on sound and facial expression
WO2023003183A1 (en) * 2021-07-20 2023-01-26 삼성전자 주식회사 Electronic device and real-time message generation method
KR102619428B1 (en) * 2023-10-13 2023-12-29 주식회사 디오랩스 School violence, youth drug and suicide prevention system through artificial intelligence-based smartphone monitoring and emotional analysis

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155494A (en) * 2004-12-01 2006-06-15 Matsushita Electric Ind Co Ltd Animation production device and animation production method
KR20060121679A (en) * 2005-05-25 2006-11-29 오끼 덴끼 고오교 가부시끼가이샤 Picture composing apparatus, commnunication terminal and picture communication system using the apparatus, and chatting server in the system
KR20070018843A (en) * 2004-01-30 2007-02-14 콤보츠 프로덕트 게엠바하 엔 코 카게 Method and system of telecommunication with virtual representatives
KR20070114082A (en) * 2007-10-02 2007-11-29 삼성전자주식회사 Method of providing layer structure for organizing screen and method of providing screen and the mobile communication terminal therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070018843A (en) * 2004-01-30 2007-02-14 콤보츠 프로덕트 게엠바하 엔 코 카게 Method and system of telecommunication with virtual representatives
JP2006155494A (en) * 2004-12-01 2006-06-15 Matsushita Electric Ind Co Ltd Animation production device and animation production method
KR20060121679A (en) * 2005-05-25 2006-11-29 오끼 덴끼 고오교 가부시끼가이샤 Picture composing apparatus, commnunication terminal and picture communication system using the apparatus, and chatting server in the system
KR20070114082A (en) * 2007-10-02 2007-11-29 삼성전자주식회사 Method of providing layer structure for organizing screen and method of providing screen and the mobile communication terminal therefor

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8781991B2 (en) 2011-07-14 2014-07-15 Samsung Electronics Co., Ltd. Emotion recognition apparatus and method
US10116598B2 (en) 2012-08-15 2018-10-30 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
WO2014028409A1 (en) * 2012-08-15 2014-02-20 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
KR20150087179A (en) * 2012-08-15 2015-07-29 아이엠브이유 인코포레이티드 System and method for increasing clarity and expressiveness in network communications
US9425974B2 (en) 2012-08-15 2016-08-23 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
US9443271B2 (en) 2012-08-15 2016-09-13 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
KR101308601B1 (en) * 2013-03-26 2013-09-17 성완 Method for providing animation messenger service
KR20160118316A (en) * 2014-02-05 2016-10-11 페이스북, 인크. Ideogrms based on sentiment analysis
WO2018038586A1 (en) * 2016-08-26 2018-03-01 스타십벤딩머신 주식회사 Method for generating text animation, and apparatus therefor
WO2020045712A1 (en) * 2018-08-27 2020-03-05 주식회사 닫닫닫 Device, method and computer-readable recording medium for providing asynchronous instant messaging service
KR20210138924A (en) * 2020-05-13 2021-11-22 류경희 Dementia patient care and record support system
KR20220065746A (en) * 2020-05-13 2022-05-20 류경희 Supporting system for service about processing record data of dementia patient
KR102368300B1 (en) * 2020-09-08 2022-03-02 박일호 System for expressing act and emotion of character based on sound and facial expression
WO2023003183A1 (en) * 2021-07-20 2023-01-26 삼성전자 주식회사 Electronic device and real-time message generation method
KR102619428B1 (en) * 2023-10-13 2023-12-29 주식회사 디오랩스 School violence, youth drug and suicide prevention system through artificial intelligence-based smartphone monitoring and emotional analysis

Also Published As

Publication number Publication date
KR101628050B1 (en) 2016-06-22

Similar Documents

Publication Publication Date Title
KR101628050B1 (en) Animation system for reproducing text base data by animation
US10360716B1 (en) Enhanced avatar animation
JP5815214B2 (en) Animation script generation device, animation output device, reception terminal device, transmission terminal device, portable terminal device and method
US20220230374A1 (en) User interface for generating expressive content
Schröder The SEMAINE API: towards a standards-based framework for building emotion-oriented systems
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
US9368102B2 (en) Method and system for text-to-speech synthesis with personalized voice
CN107657471B (en) Virtual resource display method, client and plug-in
US10991380B2 (en) Generating visual closed caption for sign language
CN107040452B (en) Information processing method and device and computer readable storage medium
US20030028380A1 (en) Speech system
JP2003521750A (en) Speech system
WO2022170848A1 (en) Human-computer interaction method, apparatus and system, electronic device and computer medium
JP2019061662A (en) Method and apparatus for extracting information
CN111145777A (en) Virtual image display method and device, electronic equipment and storage medium
US20230047858A1 (en) Method, apparatus, electronic device, computer-readable storage medium, and computer program product for video communication
WO2022242706A1 (en) Multimodal based reactive response generation
KR20140123715A (en) System and method for editing text and translating text to voice
KR102312993B1 (en) Method and apparatus for implementing interactive message using artificial neural network
US20080243510A1 (en) Overlapping screen reading of non-sequential text
CN112235183B (en) Communication message processing method and device and instant communication client
CN109241331B (en) Intelligent robot-oriented story data processing method
CN112562733A (en) Media data processing method and device, storage medium and computer equipment
US20220319516A1 (en) Conversation method, conversation system, conversation apparatus, and program
An et al. EmoWear: Exploring Emotional Teasers for Voice Message Interaction on Smartwatches

Legal Events

Date Code Title Description
AMND Amendment
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190520

Year of fee payment: 4