KR20120044911A - Affect producing servece providing system and method, and device for producing affect and method therefor - Google Patents

Affect producing servece providing system and method, and device for producing affect and method therefor Download PDF

Info

Publication number
KR20120044911A
KR20120044911A KR1020110110704A KR20110110704A KR20120044911A KR 20120044911 A KR20120044911 A KR 20120044911A KR 1020110110704 A KR1020110110704 A KR 1020110110704A KR 20110110704 A KR20110110704 A KR 20110110704A KR 20120044911 A KR20120044911 A KR 20120044911A
Authority
KR
South Korea
Prior art keywords
emotional
emotion
word
word dictionary
information
Prior art date
Application number
KR1020110110704A
Other languages
Korean (ko)
Inventor
박외진
이세화
김종희
유지연
박미선
박진아
Original Assignee
(주)엠씨에스로직
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엠씨에스로직 filed Critical (주)엠씨에스로직
Publication of KR20120044911A publication Critical patent/KR20120044911A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0235Character input methods using chord techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Acoustics & Sound (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE: A system for providing an emotion direction service, a method thereof, a device thereof, and a method for directing emotions thereof are provided to use an intelligent emotion inferring module to infer the emotional state of a user using a probabilistic model to adaptively express the emotions. CONSTITUTION: A directing information storing server(120) stores emotion directing information corresponding to each emotion class classified in an emotion word dictionary. An emotion inferring server(130) infers the emotion matched to the emotion word dictionary. A direction information extracting server(140) extracts emotion directing information corresponding to the emotion from the directing information storing server.

Description

감성연출 서비스 제공시스템 및 그 제공방법, 및 감성연출이 가능한 장치 및 그 감성연출 방법{Affect Producing Servece Providing System and Method, and Device for Producing Affect and Method therefor}Affective Producing Servece Providing System and Method, and Device for Producing Affect and Method therefor}

본 발명의 실시예는 감성연출 서비스 제공 시스템 및 그 제공방법, 및 감성연출이 가능한 장치 및 그 감성연출 방법에 관한 것이다. 보다 상세하게는, 확률모델 방법을 이용하여 사용자의 감성상태를 추론하고 추론된 결과에 따라 적응적으로 감성을 표출할 수 있도록 하는 지능형 감성 추론모듈을 이용함으로써, 네트워크로 연결된 타인 단말기에 지능적으로 감성연출을 할 수 있는 감성연출 서비스 제공시스템 및 그 제공방법, 및 감성연출이 가능한 장치 및 그 감성연출 방법에 관한 것이다.An embodiment of the present invention relates to a system for providing emotional expression service, a method of providing the same, an apparatus capable of emotional expression and an emotional expression method thereof. More specifically, by using the intelligent emotional reasoning module that infers the emotional state of the user by using the probabilistic model method and adaptively expresses the emotion according to the inferred result, the emotional terminal intelligently affects the other terminal connected to the network. Emotional expression service providing system capable of directing and a method of providing the same, and an apparatus capable of emotional expression and the emotional expression method.

최근, 인터넷의 보급은 무선 인터넷으로까지 널리 확장되어 보급되고 있으며, 그에 따라 사용자들은 유선 컴퓨터를 통해서뿐만 아니라, PDA(Personal Digital Assistant), 노트북, 휴대폰, 스마트폰 등과 같은 이동통신 단말기를 이용하여 이동하는 중에도 다른 유선 또는 무선 통신 단말기의 사용자와 통신이 가능하게 되었다. 이와 같은 유선 및 무선 통신은 단순히 음성 신호나 데이터 파일의 교환에 그치지 않고, 메신저를 이용하여 문자로 다른 사용자와 대화를 하거나 자신 또는 다른 통신 사용자의 블로그(Blog)를 방문하여 문자기록 작성, 이미지 또는 동영상 업로드 등의 활동을 통해 온라인상의 새로운 커뮤니티(Community)를 형성하기도 한다.Recently, the spread of the Internet has been widely extended to the wireless Internet, so that users can move not only through a wired computer but also by using a mobile communication terminal such as a PDA (Personal Digital Assistant), a notebook, a mobile phone, a smartphone, and the like. In the meantime, it is possible to communicate with users of other wired or wireless communication terminals. Such wired and wireless communication is not just an exchange of voice signals or data files, but a messenger is used to communicate with other users by text or visit a blog of himself or another communication user to create a text record, image or Other activities, such as uploading videos, form a new community online.

이와 같이 온라인상에 형성된 커뮤니티 내의 커뮤니케이션 활동 중에는 오프라인에서와 마찬가지로 자신의 감정상태를 다른 사용자에게 표현하거나 다른 사용자의 감정 상태를 추측할 필요가 종종 있다. 이를 위해 온라인상의 커뮤니티 서비스 제공업자들은 다양한 방법으로 사용자의 감정상태를 표현하거나 추측할 수 있도록 하고 있다. 예를 들어, 메신저를 이용한 커뮤니티 서비스 제공업자는 감정상태에 대응하는 다양한 이모티콘 선택메뉴를 제공하며, 사용자가 자신의 감정상태에 따라 이모티콘을 선택할 수 있도록 함으로써 대화창을 통해 사용자의 감정상태가 표시되도록 한다. 또한, 대화창 또는 게시판을 통해 사용자가 입력하는 문장 중에 특정 단어가 있는지를 검색하며 그 특정 단어가 검색되는 경우에는 그에 대응하는 아이콘이 표시되도록 함으로써 문장의 입력에 따른 감정표현이 자동으로 이루어지도록 하기도 한다.As described above, it is often necessary to express one's emotional state to another user or to guess the emotional state of another user in the communication activity in the community formed online. To this end, online community service providers are able to express or guess the emotional state of users in various ways. For example, a community service provider using a messenger provides various emoticon selection menus corresponding to emotional states, and allows a user to select an emoticon according to his or her emotional state so that the emotional state of the user is displayed through a chat window. . In addition, the user may search for a specific word in a sentence that the user inputs through a chat window or a bulletin board, and if the specific word is found, an icon corresponding to the specific word may be displayed so that the emotional expression is automatically performed according to the input of the sentence. .

그런데, 인간의 감정은 항상 고정되어 있는 것이 아니라, 상황이나 장소, 분위기 등에 따라 시시각각 변화되는 것이 일반적이며, 이와 같이 상황 또는 환경에 따라 변화되는 감정을 사용자가 매번 이모티콘을 선택하여 변경하기란 상당히 번거로운 일이다.However, human emotions are not always fixed, and are generally changed every time according to a situation, a place, or an atmosphere, and it is quite cumbersome for a user to select an emoticon each time to change the emotion that changes according to a situation or an environment. It's work.

또한, 감정 또는 느낌은 다분히 개인적인 속성을 가지는데, 이러한 인간의 감정을 좌우하는 심리적인 요인은 크게 놀람, 공포, 혐오, 노여움, 기쁨, 행복, 슬픔 등으로 나누어질 수 있다. 그런데, 동일한 상황에 대해서도 개개인이 느끼는 심리적인 요인은 다를 수 있으며, 표출되는 감성의 강도도 개인에 따라 다양한 차이를 나타낼 수 있다. 그럼에도 불구하고, 사용자가 입력하는 문장에서 특정 단어를 검색하여 획일적으로 표현하는 것은 해당 개인의 현재의 감정상태에 대한 정확한 표현이 되지 못하는 문제점이 있다.In addition, emotions or feelings have personal properties, and the psychological factors that influence human emotions can be largely divided into surprise, fear, disgust, anger, joy, happiness, and sadness. However, even in the same situation, the psychological factors of the individual may be different, and the intensity of the expressed emotion may also vary according to the individual. Nevertheless, searching for a specific word in a sentence input by the user and uniformly expressing a problem does not provide an accurate expression of the current emotional state of the individual.

본 발명의 실시예는 전술한 문제점을 해결하기 위하여 창안된 것으로서, 확률모델 방법을 이용하여 사용자의 감성상태를 추론하고 추론된 결과에 따라 적응적으로 감성을 표출할 수 있도록 하는 지능형 감성 추론모듈을 이용함으로써, 네트워크로 연결된 타인 단말기에 지능적으로 감성연출을 할 수 있는 감성연출 서비스 제공시스템 및 그 제공방법, 및 감성연출이 가능한 장치 및 그 감성연출 방법을 제공하는 것을 목적으로 한다.An embodiment of the present invention has been devised to solve the above-described problem, using an intelligent emotional inference module to infer the emotional state of the user using a probability model method and to express the emotion adaptively according to the inferred result It is an object of the present invention to provide an emotional rendering service providing system capable of intelligently expressing emotion to another terminal connected to a network, and a method of providing the same, and a device capable of expressing emotion and a method of expressing emotion.

전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 감성연출 서비스 제공 시스템은, 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하는 단어사전 저장서버; 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 연출정보 저장서버; 네트워크를 통해 연결된 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 감성 단어사전에 매칭되는 감성을 추론하는 감성 추론서버; 연출정보 저장서버로부터 감성에 대응하는 감성 연출정보를 추출하는 연출정보 추출서버; 및 사용자 단말기로부터 목적지 단말기에 대한 정보를 수신하며, 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나와 추출된 감성 연출정보를 상기 목적지 단말기로 전송하는 감성 연출서버를 포함하는 것을 특징으로 한다.Emotional expression service providing system according to an embodiment of the present invention for achieving the above object, the emotional word is classified into an item containing at least one of the emotion class, similarity, positive or negative, emotional strength emotional word dictionary Word dictionary storage server for storing as; A presentation information storage server for storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a moving picture, an image, and an audio signal; An emotion inference server for inferring an emotion matching an emotion word dictionary with respect to at least one of a text and an audio signal received from a user terminal connected through a network; A production information extraction server for extracting emotion production information corresponding to the emotion from the production information storage server; And an emotion directing server for receiving information on the destination terminal from the user terminal, and transmitting at least one of the text and voice signals received from the user terminal and the extracted emotion directing information to the destination terminal.

여기서, 감성 추론서버는, 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 문장 변환부; 변환된 단어 및 구문 중 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 매칭 확인부; 및 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 확률 모델에 따라 감성을 추론하는 감성 추론부를 포함할 수 있다.Here, the emotional reasoning server, a sentence converter for grasping the word and phrase for the text and converts it to the basic form; Matching confirmation unit for checking a word or phrase matching the emotional word dictionary of the converted words and phrases; And a probabilistic model based on the co-occurrence of the converted words and phrases, and an emotional inference unit for inferring emotion according to the applied probabilistic model.

또한, 감성 추론서버는, 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장하는 감성 저장부; 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 음원 검출부; 및 검출된 음원에 기초하여 감성 저장부로부터 매칭되는 감성을 추론하는 감성 추론부를 포함할 수도 있다.In addition, the emotion reasoning server stores emotions corresponding to at least one of color, image, font, emoticon, avatar, video, voice, tone, sound quality, and sound wave, corresponding to each emotion class classified in the emotional word dictionary. Emotional storage unit; A sound source detector for detecting a sound source including at least one of a tone, sound quality, and sound wave from a voice signal; And an emotion inference unit that infers a matched emotion from the emotion storage unit based on the detected sound source.

전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 지능형 감성연출이 가능한 통신단말기는, 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하는 단어사전 저장부; 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 연출정보 저장부; 수신되는 텍스트 및 음성신호 중의 적어도 하나로부터 감성 단어사전에 매칭되는 감성을 추론하는 감성 추론부; 연출정보 저장부로부터 감성에 대응하는 감성 연출정보를 추출하는 연출정보 추출부; 및 목적지 단말기에 대한 정보를 수신하며, 수신되는 텍스트 및 음성신호 중의 적어도 하나와 추출된 감성 연출정보를 목적지 단말기로 전송하는 감성 연출부를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, a communication terminal capable of intelligent emotional expression according to an embodiment of the present invention may be classified into an item including emotional class, similarity, positive or negative, or emotional strength for an emotional word. A word dictionary storage for storing the word dictionary; A production information storage unit for storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a moving picture, an image, and an audio signal; An emotion inference unit for inferring an emotion matching the emotion word dictionary from at least one of the received text and voice signal; Directing information extraction unit for extracting the emotional directing information corresponding to the emotion from the directing information storage unit; And an emotion directing unit for receiving information on the destination terminal and transmitting at least one of the received text and voice signals and the extracted emotion directing information to the destination terminal.

여기서, 지능형 감성연출이 가능한 장치는, 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 문장 변환부; 및 변환된 단어 및 구문 중 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 매칭 확인부를 더 포함하며, 감성 추론부는 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하고, 적용된 확률 모델에 따라 감성을 추론할 수 있다.Here, the apparatus capable of intelligent emotional expression, sentence conversion unit for grasping the word and phrase for the text to convert to basic form; And a matching check unit for checking a word or phrase that matches the emotional word dictionary among the converted words and phrases, and the emotional inference unit based on the co-occurrence of the converted word and phrase (Probabilistic model). ), And emotion can be inferred according to the applied probability model.

또한, 지능형 감성연출이 가능한 장치는, 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장하는 감성 저장부; 및 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 음원 검출부를 더 포함하며, 감성 추론부는 검출된 음원에 기초하여 감성 저장부로부터 매칭되는 감성을 추론할 수도 있다.In addition, the device capable of intelligent emotional expression, corresponding to at least one of the color, image, font, emoticon, avatar, video, voice, tone, sound quality, sound waves corresponding to each emotion class classified in the emotional word dictionary Emotional storage unit for storing the; And a sound source detector that detects a sound source including at least one of a tone, sound quality, and sound wave from the voice signal, wherein the emotion inference unit may infer a matched emotion from the emotion storage unit based on the detected sound source.

전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 감성연출 서비스 제공방법은, 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하며, 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장하는 단계; 네트워크를 통해 연결된 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 감성 단어사전에 매칭되는 감성을 추론하는 단계; 저장된 감성 연출정보로부터 감성에 대응하는 감성 연출정보를 추출하는 단계; 사용자 단말기로부터 목적지 단말기에 대한 정보를 수신하는 단계; 및 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나와 추출된 감성 연출정보를 목적지 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.Emotional expression service providing method according to an embodiment of the present invention for achieving the above object, emotional word dictionary classified by the item containing at least one of the emotion class, similarity, positive or negative, emotional strength Storing emotion directing information corresponding to each emotion class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a video, an image, and an audio signal; Inferring an emotion matched with an emotional word dictionary for at least one of a text and an audio signal received from a user terminal connected through a network; Extracting emotion directing information corresponding to the emotion from the stored emotion directing information; Receiving information about a destination terminal from a user terminal; And transmitting at least one of the text and voice signals received from the user terminal and the extracted emotion directing information to the destination terminal.

여기서, 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 단계; 변환된 단어 및 구문 중 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 단계; 및 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하는 단계를 더 포함할 수 있다. 이 경우, 추론단계는 적용된 상기 확률 모델에 따라 감성을 추론할 수 있다.Here, the step of identifying words and phrases with respect to the text and converting to basic form; Identifying a word or phrase that matches the emotional word dictionary among the converted words and phrases; And applying a probabilistic model based on the co-occurrence of the converted word and phrase. In this case, the inference step can infer emotion according to the applied probability model.

또한, 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장하는 단계; 및 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 단계를 포함할 수도 있다. 이 경우, 검출된 음원에 기초하여 감성 저장부로부터 매칭되는 감성을 추론할 수 있다.The method may further include storing emotions corresponding to at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave, corresponding to each emotion class classified in the emotion word dictionary; And detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal. In this case, the matched emotion may be inferred from the emotion storage based on the detected sound source.

전술한 목적을 달성하기 위한 감성연출이 가능한 장치의 지능형 감성연출 방법은, 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하며, 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 단계; 수신되는 텍스트 및 음성신호 중의 적어도 하나로부터 감성 단어사전에 매칭되는 감성을 추론하는 단계; 저장된 감성 연출정보로부터 감성에 대응하는 감성 연출정보를 추출하는 단계; 목적지 단말기에 대한 정보를 입력받는 단계; 및 텍스트 및 음성신호 중의 적어도 하나와 추출된 감성 연출정보를 목적지 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.The intelligent emotional expression method of the device capable of emotional expression to achieve the above-mentioned object is classified as an item containing emotional class, similarity, positive or negative, emotional intensity, and stored as an emotional word dictionary. Storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a video, an image, and an audio signal; Inferring the emotion matching the emotional word dictionary from at least one of the received text and voice signal; Extracting emotion directing information corresponding to the emotion from the stored emotion directing information; Receiving information about a destination terminal; And transmitting at least one of the text and the voice signal and the extracted emotion directing information to the destination terminal.

바람직하게는, 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 단계; 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 단계; 및 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하는 단계를 더 포함할 수 있다. 이 경우, 감성 추론단계는 적용된 상기 확률 모델에 따라 감성을 추론할 수 있다.Preferably, the step of identifying the words and phrases for the text to the basic form; Identifying a word or phrase that matches the emotional word dictionary among the converted words and phrases; And applying a probabilistic model based on the co-occurrence of the converted word and phrase. In this case, the emotion inference step may infer emotion according to the applied probability model.

또한, 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장하는 단계; 및 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 단계를 더 포함할 수도 있다. 이 경우, 감성 추론단계는 검출된 음원에 기초하여 저장된 감성으로부터 매칭되는 감성을 추론할 수 있다.The method may further include storing emotions corresponding to at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave, corresponding to each emotion class classified in the emotion word dictionary; And detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal. In this case, the emotion inference step may infer a matched emotion from the stored emotion based on the detected sound source.

본 발명의 실시예에 따르면, 확률모델 방법을 이용하여 사용자의 감성상태를 추론하고 추론된 결과에 따라 적응적으로 감성을 표출할 수 있도록 하는 지능형 감성 추론모듈을 이용함으로써, 네트워크로 연결된 타인 단말기에 지능적으로 감성연출을 할 수 있게 된다.According to an embodiment of the present invention, by using an intelligent emotional reasoning module that infers the emotional state of the user by using a probability model method and adaptively expresses emotion according to the inferred result, Emotional expression can be made intelligently.

도 1은 본 발명의 실시예에 따른 감성연출 서비스 제공 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 감성 단어사전의 예를 나타낸 도면이다.
도 3은 도 1의 감성 추론서버의 구성의 예를 나타낸 도면이다.
도 4는 도 3의 감성로그 저장부에 의한 감성 로그정보의 예를 나타낸 도면이다.
도 5는 도 1의 감성 추론서버의 구성의 다른 예를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 감성연출이 가능한 장치의 구성 예를 나타낸 도면이다.
도 7은 도 1의 감성연출 서비스 제공 시스템에 의한 감성연출 서비스 제공방법을 나타낸 흐름도이다.
도 8은 도 6의 감성연출이 가능한 장치에 의한 감성연출 방법을 나타낸 흐름도이다.
1 is a diagram schematically showing a system for providing emotional service according to an embodiment of the present invention.
2 is a diagram illustrating an example of an emotional word dictionary according to an embodiment of the present invention.
3 is a diagram illustrating an example of the configuration of the emotional reasoning server of FIG. 1.
4 is a diagram illustrating an example of emotional log information by the emotional log storage of FIG. 3.
5 is a diagram illustrating another example of the configuration of the emotional reasoning server of FIG. 1.
6 is a view showing an example of the configuration of the apparatus capable of emotional expression according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating a method for providing emotional service by the emotional service providing system of FIG. 1.
8 is a flowchart illustrating a method of emotional expression by the apparatus capable of emotional expression of FIG. 6.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are only for distinguishing the components from other components, and the nature, order or order of the components are not limited by the terms. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected or connected to that other component, but between components It will be understood that may be "connected", "coupled" or "connected".

도 1은 본 발명의 실시예에 따른 감성연출 서비스 제공 시스템을 개략적으로 도시한 도면이다. 도 1을 참조하면, 감성연출 서비스 제공 시스템(100)은 네트워크(150)를 통하여 유선통신 단말기(160) 또는 무선통신 단말기(170)와 연결될 수 있다. 또한, 감성연출 서비스 제공 시스템(100)은 단어사전 저장서버(110), 연출정보 저장서버(120), 감성 추론서버(130), 연출정보 추출서버(140) 및 감성 연출서버(145)를 포함할 수 있다. 여기서, 감성연출 서비스 제공 시스템(100)은 복수의 서버가 연결되어 구성된 것으로 설명하였지만, 여러 개의 구성요소의 조합으로 이루어진 하나의 장치로 구현될 수도 있다.1 is a diagram schematically showing a system for providing emotional service according to an embodiment of the present invention. Referring to FIG. 1, the emotion rendering service providing system 100 may be connected to a wired communication terminal 160 or a wireless communication terminal 170 through a network 150. In addition, the emotional directing service providing system 100 includes a word dictionary storage server 110, directed information storage server 120, emotional reasoning server 130, directed information extraction server 140 and emotional directed server 145. can do. Here, although the emotional rendering service providing system 100 has been described as a plurality of servers connected to each other, it may be implemented as a single device consisting of a combination of several components.

단어사전 저장서버(110)는 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장한다. 감성은 자극이나 자극의 변화를 느끼는 성질로서, 놀람, 공포, 혐오, 노여움, 기쁨, 행복, 슬픔 등과 같은 심리적인 요인에 의해 좌우된다. 그런데, 동일한 자극에 대해서도 개인마다 느끼는 감성이 다를 수 있으며, 감성의 강도 또한 다를 수 있다. 이와 같은 성질을 감안하여 단어사전 저장서버(110)는 행복하다, 창피하다, 허탈하다 등과 같은 감성단어에 대하여 각각의 감성 클래스를 분류하며, 분류된 감성 클래스에 대한 유사성, 긍정 또는 부정도, 감성 강도 등을 분류하여 감성 단어사전으로 저장한다. 여기서, 감성 클래스는 만족, 그리움, 행복 등과 같은 인간의 내적 감정상태들을 분류한 것으로서 본 발명의 실시예에서는 전체 77개의 감성 클래스로 분류하고 그 중, 해당 단어가 속하는 감성 클래스를 매칭시킬 수 있다. 여기서, 감성 클래스의 개수는 분류 가능한 감성의 종류의 예시일 뿐이며, 이에 한정되는 것은 아니다. 유사성은 해당 단어와 감성 클래스 내의 항목 간의 유사도를 나타내는 것으로서 일정한 범위 내의 수치로 표현할 수 있다. 긍정 또는 부정도는 해당 단어의 속성이 긍정적인 감성인지 또는 부정적인 감성인지를 나타내는 정도로서 0을 기준으로 일정한 범위 내의 음의 수 또는 양의 수로 표현할 수 있다. 감성 강도는 해당 단어의 속성 중 감성에 대한 세기를 나타내며, 일정한 범위 내의 수치로 표현할 수 있다. 도 2는 본 발명의 실시예에 따른 감성 단어사전의 예를 나타낸 도면으로서, 여기서는 유사성은 0 내지 10의 범위 내의 수치로 표현하였으며, 긍정 또는 부정도는 0, 1 또는 -1로 표현하였고, 감성 강도는 0 내지 10의 수치로 표현하였다. 그러나, 이와 같은 수치는 도시한 범위에 한정되는 것이 아니며 다양한 변형이 가능하다. 예를 들어, 긍정 또는 부정도는 -1 내지 1의 범위 내에서 0.1 단위의 수치로 표현될 수 있으며, 유사성이나 감성 강도 또한 0 내지 1의 범위 내에서 0.1 단위의 수치로 표현될 수도 있다. 또한, 도 2의 간지럽다, 따뜻하다, 뭉클하다 등과 같이 감성단어 저장부(102)는 동일한 감성 단어에 대하여 복수의 감성 클래스를 분류할 수 있으며, 이 경우 분류된 각각의 감성 클래스에 대하여 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 분류하여 감성 단어사전으로 저장할 수 있다. 또한, 동일한 감성단어라고 하더라도 사용자별로 로그되는 문장의 입력시간, 장소, 날씨 중 적어도 하나를 포함하는 환경정보에 따라 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도가 달라지거나, 사용자별 성별, 나이, 성격, 직업을 포함하는 프로파일 정보에 따라 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도가 달라질 수 있는데, 사용자별 환경정보 및 프로파일 정보를 고려하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나가 다르게 추론되는 경우에는 사용자별 감성 로그정보에 기초하여 사용자별 감성 단어사전을 설정하여 저장할 수도 있다.The word dictionary storage server 110 stores the sentiment word as an emotional word dictionary by classifying the sentiment word into an item including at least one of an emotion class, similarity, positive or negative, and sentiment strength. Emotion is a property of feelings of stimulus or change of stimulus, and depends on psychological factors such as surprise, fear, disgust, anger, joy, happiness, and sadness. However, even for the same stimulus, the emotions may be different for each individual, and the intensity of the emotions may also be different. In view of such a property, the word dictionary storage server 110 classifies each emotional class for emotional words such as happy, embarrassing, and depriving, and similarity, positive or negative, sensitivity to the classified emotional classes. Classify the intensity and store it as an emotional word dictionary. Here, the emotion class classifies the internal emotional states of human beings such as satisfaction, longing, and happiness, and according to an embodiment of the present invention, the emotion class may be classified into a total of 77 emotional classes, and among them, the emotional class to which the corresponding word belongs may be matched. Here, the number of emotion classes is only an example of a sortable emotion, but is not limited thereto. Similarity represents the similarity between the word and the item in the emotion class, and can be expressed as a numerical value within a certain range. Positive or negative degree is a degree indicating whether the attribute of the word is a positive emotion or a negative emotion, can be expressed as a negative or positive number within a certain range based on zero. Emotional strength indicates the strength of emotion among attributes of the word, and may be expressed as a numerical value within a certain range. 2 is a view showing an example of the emotional word dictionary according to an embodiment of the present invention, where the similarity is expressed as a numerical value in the range of 0 to 10, positive or negative is expressed as 0, 1 or -1, Intensity is expressed as a number from 0 to 10. However, such a numerical value is not limited to the illustrated range and various modifications are possible. For example, positive or negative may be expressed as a numerical value of 0.1 unit within the range of -1 to 1, similarity or emotional strength may also be expressed as a numerical value of 0.1 unit within the range of 0 to 1. Also, the emotional word storage unit 102 may classify a plurality of emotional classes for the same emotional word, such as tickle, warm, or lumpy, and in this case, similarity, At least one of positive or negative or emotional strength may be classified and stored as an emotional word dictionary. In addition, even if the same emotional words, emotional class, similarity, positive or negative, emotional intensity is different or gender, age for each user according to environmental information including at least one of input time, place, and weather of sentences logged for each user. Emotion class, similarity, positive or negative, and emotional strength may vary according to profile information including personality, personality, and occupation.Emotion class, similarity, positive or negative, emotional strength in consideration of user-specific environment information and profile information If at least one is inferred differently, an emotional word dictionary for each user may be set and stored based on the emotional log information for each user.

연출정보 저장서버(120)는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장한다. 즉, 연출정보 저장서버(120)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 감성 연출정보를 저장할 수 있으며, 감성 연출정보는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등으로 표현될 수 있다. 여기서, 아바타는 온라인상의 가상사회에서 자신의 분신을 의미하는 시각적 이미지를 말한다. 이모티콘(emoticon)은 감정을 뜻하는 이모션(emotion)과 아이콘(icon)의 합성어로서 한글로는 '그림말'이라고도 하며, 온라인상의 가상공간에서 컴퓨터 자판의 문자, 기호, 숫자 등을 조합하여 감정이나 의사를 나타내는 표현을 말한다. 플래시 영상은 플래시(flash) 소프트웨어를 이용하여 제작된 애니메이션을 말한다. 동영상은 사용자가 직접 자신의 감성을 표현하기 위하여 촬영한 영상을 말한다. 이미지는 사진적인 처리 과정에 의해 스크린 상에 나타나는 장면의 시각적인 재현으로서, 일정한 화면 사이즈와 카메라 앵글로 구성된 낱장의 그림을 말한다. 음향신호는 소리로 알리는 신호로서, 개, 고양이, 사자 등의 동물소리나, 배, 기차, 자동차, 악기 등의 사물소리, 또는 시냇물, 파도, 물방울 등의 자연계 소리나, 웃음, 울음, 성난 소리 등의 사람의 소리 등을 포함한다. 여기서, 연출정보 저장서버(120)는 감성연출 서비스 제공업자에 의해 마련된 감성 연출정보뿐만 아니라, 사용자에 의해 등록된 감성 연출정보를 사용자별로 구별하여 저장할 수도 있다. 즉, 사용자는 자신이 선택한 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등을 대응되는 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중의 적어도 하나와 함께 매칭시켜 저장할 수 있다. 또한, 동영상의 경우에도 3D 영상 등을 활용하여 자신만의 독특한 감성 연출정보를 편집하여 저장시킬 수 있다. 이에 따라 감성연출 서비스 제공 시스템(100)은 사용자의 선택 또는 편집에 따라 사용자 개개인에 대응하는 독특한 감성 연출의 제공이 가능하게 된다. 이때, 연출정보 저장서버(120)는 사용자 별로 저장된 연출정보를 사용자 상호간에 교환, 배포하거나 공유할 수 있도록 구현될 수 있다.The directed information storage server 120 stores the emotional directed information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a video, an image, and an audio signal. That is, the directing information storage server 120 may store the emotional directing information corresponding to a total of 77 emotional classes classified in the emotional word dictionary, and the emotional directing information is avatar, emoticon, flash image, video, image, sound. It can be represented as a signal. Here, the avatar refers to a visual image representing an alter ego in an online virtual society. An emoticon is a compound word of emotion and icon, which means emotion. It is also called 'Graphics' in Korean. In the virtual space online, a combination of letters, symbols, and numbers from computer keyboards Say an expression that represents your intention. Flash images refer to animations created using flash software. The video refers to an image photographed by a user to express his emotion. An image is a visual representation of a scene that appears on a screen by a photographic process, and refers to a single picture composed of a constant screen size and camera angle. The sound signal is a sound signal. The sound of animals such as dogs, cats, and lions, the sounds of objects such as ships, trains, cars, and musical instruments, or the sounds of nature, such as streams, waves, and water drops, and laughter, crying, and angry sounds. It includes the sound of a person such as the back. In this case, the direction information storage server 120 may store the emotion direction information registered by the user as well as the emotion direction information provided by the emotion directing service provider for each user. That is, the user may match and store the avatar, emoticon, flash image, video, image, and audio signal selected by the user with at least one of a corresponding emotional class, similarity, positive or negative, and emotional strength. In addition, even in the case of a video, it is possible to use the 3D image or the like to edit and store your own unique emotional presentation information. Accordingly, the emotion directing service providing system 100 may provide a unique emotion directing corresponding to each user according to a user's selection or editing. At this time, the direction information storage server 120 may be implemented to exchange, distribute or share the direction information stored for each user between users.

감성 추론서버(130)는 네트워크(150)를 통해 연결된 사용자 단말기(160, 170)로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 감성 단어사전에 매칭되는 감성을 추론한다. 이와 같은 감성 추론서버(130)는 도 3에 도시한 바와 같은 감성 추론장치(300)로 구현될 수도 있다. The emotion inference server 130 infers the emotion matched to the emotional word dictionary for at least one of the text and voice signals received from the user terminals 160 and 170 connected through the network 150. The emotional reasoning server 130 may be implemented as an emotional reasoning apparatus 300 as shown in FIG. 3.

도 3은 도 1의 감성 추론서버(130)의 구성을 개략적으로 도시한 도면이다. 이하에서는 감성 추론장치(300)가 감성연출 서비스 제공 시스템(100)의 감성 추론서버(130)로 사용된 경우를 가정하여 설명한다. 도 3을 참조하면, 감성 추론서버(300)는 문장 변환부(310), 매칭 확인부(320), 감성 추론부(330), 감성로그 저장부(340) 및 로그정보 검색부(350)를 포함할 수 있다. 3 is a diagram schematically showing the configuration of the emotional reasoning server 130 of FIG. Hereinafter, it will be described on the assumption that the emotional reasoning apparatus 300 is used as the emotional reasoning server 130 of the emotional expression service providing system 100. Referring to FIG. 3, the emotional reasoning server 300 may include a sentence converter 310, a matching checker 320, an emotional reasoner 330, an emotional log storage 340, and a log information searcher 350. It may include.

문장 변환부(310)는 네트워크(150)를 통해 연결된 사용자 단말기(160, 170)로부터 수신되는 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환한다. 즉, 문장 변환부(310)는 사용자 단말기(160, 170)로부터 수신되는 텍스트에 대하여 1차적으로 복수의 단어로 분절한 후 기본형으로 변환할 수 있으며, 분절된 단어들 중 관용적으로 사용되는 단어와 단어의 조합을 통해 구문을 파악한 후 기본형으로 변환할 수 있다.The sentence converting unit 310 detects words and phrases with respect to texts received from the user terminals 160 and 170 connected through the network 150 and converts them into basic forms. That is, the sentence converting unit 310 may first divide the text received from the user terminals 160 and 170 into a plurality of words, and then convert the text into a basic form. The combination of words allows you to identify phrases and convert them to basic forms.

매칭 확인부(320)는 문장 변환부(310)에 의해 변환된 각각의 단어 및 구문을 단어사전 저장서버(110)에 저장된 감성 단어사전과 비교하여 매칭되는 단어 또는 구문을 확인한다.The matching confirming unit 320 compares each word and phrase converted by the sentence converting unit 310 with the emotional word dictionary stored in the word dictionary storage server 110 to identify a matching word or phrase.

감성 추론부(330)는 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 확률 모델에 따라 감성을 추론할 수 있다. 예를 들어, 문장 변환부(310)에 의해 기본형으로 변환된 단어 중 '벅차다'라는 단어가 감성 단어사전의 '감동'의 감성 클래스와 매칭된다고 가정하면, 감성 추론부(330)는 '벅차다'라는 단어와 기본형으로 변환된 다른 단어 또는 구문의 조합에 기초하여 확률 모델을 적용하고, 적용된 확률 모델에 따라 감성을 추론할 수 있다. 여기서, 확률 모델은 전체 코퍼스(corpus)에서 특정 단어 또는 구문의 빈도수를 이용하여 특정 감성에 속할 확률을 계산하는 알고리즘으로서, 이를 바탕으로 새로운 단어가 특정 감성에 속할 확률을 계산할 수 있다. 예를 들어, 수학식 1에 나타낸 바와 같이 코퍼스 내에서 새로운 단어 W의 전체 빈도수에 대한 코퍼스 내의 문장에서 새로운 단어 W와 특정 감성 C가 조합으로 사용된 빈도수를 계산하여 새로운 단어에 대한 감성 유사도를 유추할 수 있다.The emotion inference unit 330 applies a probabilistic model based on the co-occurrence of the converted words and phrases, and infers emotion according to the applied probability model. For example, assuming that the word 'bucked up' among the words converted into the basic form by the sentence converter 310 matches the emotional class of 'emotion' of the emotional word dictionary, the emotional reasoning unit 330 is 'bucked up'. A probability model may be applied based on a combination of the word and other words or phrases converted into a basic form, and the emotion may be inferred according to the applied probability model. Here, the probability model is an algorithm for calculating the probability of belonging to a specific emotion by using the frequency of a specific word or phrase in the entire corpus, and based on this, the probability of a new word belonging to a specific emotion may be calculated. For example, as shown in Equation 1, inferring the similarity of emotion for a new word by calculating the frequency of the combination of the new word W and a specific emotional C in a sentence in the corpus for the total frequency of the new word W in the corpus. can do.

Figure pat00001
Figure pat00001

또한, 단어 유사도(Co-occurrence similarity)를 구하기 위하여 PMI(Pointwise Mutual Information)를 이용할 수 있다. 이때, PMI는 수학식 2와 같이 계산될 수 있다.In addition, PMI (Pointwise Mutual Information) may be used to obtain Co-occurrence similarity. In this case, PMI may be calculated as in Equation 2.

Figure pat00002
Figure pat00002

PMI와 유사한 식으로 Dice 계수 Dice(W,C)를 이용할 수도 있다.Dice coefficients Dice (W, C) may be used in a manner similar to PMI.

Figure pat00003
Figure pat00003

감성 유사도를 유추하는 계산식은 제시된 식에 한정되는 것은 아니며, 다양한 변형이 가능하다.The formula for inferring emotional similarity is not limited to the presented equation, and various modifications are possible.

감성 추론부(330)는 이와 같은 방식으로 < 단어 + 단어 >, < 단어 + 구문 > 및 < 구문 + 구문 >에 대한 감성을 추론한 후, 추론한 각각의 감성을 조합하여 문장 전체에 대한 감성을 추론할 수도 있다.The emotion reasoning unit 330 infers the emotions for <word + word>, <word + phrase>, and <phrase + phrase> in this manner, and then combines each of the inferred emotions to provide emotion for the whole sentence. It can be inferred.

감성로그 저장부(340)는 매칭 확인부(320)에 의해 확인된 단어 또는 구문에 기초하여 단어 및 단어, 단어 및 구문, 구문 및 구문을 포함하는 형태의 감성 로그를 저장할 수 있다. 즉, 감성로그 저장부(340)는 새로운 단어에 대한 감성 유추를 위해 사용자에 의해 로그되는 문장들을 의미있는 단어 및 단어, 단어 및 구문, 구문 및 구문의 조합으로 저장할 수 있다. 예를 들어, 감성로그 저장부(110)는 매칭 확인부(320)에 의해 "사랑함"이라는 감성을 가지는 것으로 확인된 "사랑하다"라는 기본형의 단어를, 문장 내의 감성이 없는 단어인 "완소" 및 "친구"와 각각 결합하여 <완소-사랑하다>, <친구-사랑하다>의 2개의 감성 로그를 생성하여 저장할 수 있다. 이때, 감성 로그는 도 4에 도시한 바와 같이, 시간정보를 함께 저장할 수 있다. 이때, 감성 로그정보와 함께 저장되는 정보는 시간정보에 한정되지 않으며, 날씨 정보, 사용자의 위치정보 등이 함께 저장될 수도 있다.The emotional log storage unit 340 may store an emotional log including a word and a word, a word and a phrase, a phrase, and a phrase based on the word or phrase checked by the matching verifier 320. That is, the emotion log storage unit 340 may store sentences logged by the user as a combination of meaningful words and words, words and phrases, phrases, and phrases to infer emotions for new words. For example, the emotion log storage unit 110 uses the basic type word "love" that is confirmed as having a feeling of "love" by the matching confirmation unit 320, and "completion" which is a word without emotion in the sentence. And "friends", respectively, and two emotional logs of <slow-love> and <friend-love> can be generated and stored. In this case, as shown in FIG. 4, the emotional log may store time information together. In this case, the information stored together with the emotion log information is not limited to time information, and weather information, location information of the user, and the like may be stored together.

로그정보 검색부(350)는 감성로그 저장부(340)에 저장된 로그정보에 대하여 설정된 값 이상이 되는 로그정보가 있는지 여부를 검색할 수 있다. 즉, 로그정보 검색부(350)는 감성로그 저장부(340)에 저장된 로그정보들의 횟수가 설정된 값 이상이 되었는지를 검색한다. 이때, 감성 추론부(330)는 로그정보 검색부(350)를 통해 특정 단어 또는 구문이 감성로그 저장부(340)에 설정된 횟수 이상으로 저장된 경우에만 해당 단어 또는 구문과 조합된 구문 또는 문장에 대해서 감성을 추론하도록 구현될 수 있다.The log information search unit 350 may search whether there is log information that is greater than or equal to a value set for the log information stored in the emotional log storage unit 340. That is, the log information search unit 350 searches whether the number of log information stored in the emotional log storage unit 340 is greater than or equal to a set value. In this case, the emotional reasoning unit 330 may be associated with the phrase or sentence combined with the word or phrase only when a specific word or phrase is stored more than the number of times set in the emotional log storage unit 340 through the log information search unit 350. It can be implemented to infer emotion.

도 5는 도 1의 감성 추론서버(130)의 다른 구성 예를 나타낸 도면이다. 이와 같은 감성 추론서버(130)는 도 5에 도시한 바와 같은 감성 추론장치(300)로 구현될 수도 있다. 이하에서는 감성 추론장치(300)가 인스턴트 메신저 서비스 제공 시스템(100)의 감성 추론서버(130)로 사용된 경우를 가정하여 설명한다. 5 is a diagram illustrating another configuration example of the emotional reasoning server 130 of FIG. 1. The emotional reasoning server 130 may be implemented as an emotional reasoning apparatus 300 as shown in FIG. 5. Hereinafter, it will be described on the assumption that the emotional reasoning apparatus 300 is used as the emotional reasoning server 130 of the instant messenger service providing system 100.

감성 추론서버(500)는 감성 저장부(510), 음원 검출부(520) 및 감성 추론부(530)를 포함할 수 있다. The emotion reasoning server 500 may include an emotion storage unit 510, a sound source detector 520, and an emotion reasoning unit 530.

감성 저장부(510)는 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장한다. 즉, 감성 저장부(510)는 감성 단어사전에 분류된 전체를 약 77개의 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질 또는 음파를 매칭시켜 표현할 수 있으며, 각각의 감성 클래스에 매칭된 음색, 음질 또는 음파에 대응하는 감성을 함께 저장한다. The emotion storage unit 510 stores emotions represented by at least one of color, image, font, emoticon, avatar, video, voice, tone, sound quality, and sound wave corresponding to each emotion class classified in the emotion word dictionary. That is, the emotion storage unit 510 may express colors, images, fonts, emoticons, avatars, videos, voices, tones, sound quality, or sound waves corresponding to each of the 77 emotional classes in the whole classified in the emotional word dictionary. It may store the emotions corresponding to the tone, sound quality or sound waves matched with each emotion class.

여기서, 음색은 음의 성분 차이에서 나타나는 감각적 특성을 말한다. 같은 높이의 음을 같은 크기로 올려도 발음체의 차이나 진동방법에 따라 음이 지니는 감각적인 성질에 차이가 생기며, 이것은 진동에 의해 어떤 부분음이 어느 정도의 강도로 발생하는가에 따라 결정된다. 예컨대, 음의 높이는 같아도 피아노와 바이올린의 음색이 전혀 다른 느낌을 주는 것은 바로 이와 같은 이유 때문이다. Here, the tone refers to the sensory characteristic that appears in the difference of the components of the sound. Even if the sound of the same height is raised to the same size, there is a difference in the sensory properties of the sound depending on the difference in the pronunciation and the vibration method, which is determined by what intensity of the partial sound is generated by the vibration. For example, it is for this reason that the sounds of the piano and violin are completely different even though the pitch is the same.

또한, 음질은 음의 날카로움 또는 부드러움의 정도를 의미하며, 톤(tone)이라고도 한다. 또한, 음파란 물체의 진동이 균일하던 매질(공기)에 부분적으로 압력 변화를 일으켜서 종파의 형태로 고막을 진동시키는 것으로서, 줄이나 물체의 진동이 임의의 방향으로 운동하고 있는 공기 입자들을 교란시키면 부분적으로 압력이 높은 곳과 낮은 곳이 나타나게 되며, 그때 압력 차에 의해 공기 입자들이 압력이 높은 곳에서 압력이 낮은 곳으로 이동하게 되어 음파는 퍼져 나가게 되고, 공기의 압력 변화가 사람들의 귀에 도달하면 고막을 진동시키게 된다.In addition, the sound quality means the degree of sharpness or softness of the sound, also called tone. In addition, sound waves vibrate the eardrum in the form of a longitudinal wave by partially changing the pressure in the medium (air) where the vibration of the object was uniform, and when the vibration of the string or the object moves in an arbitrary direction, it partially The high and low pressures appear at that time, and the pressure difference causes the air particles to move from the high pressure to the low pressure, so that the sound waves spread out, and when the air pressure changes reach people's ears, the eardrum Will vibrate.

음원 검출부(520)는 네트워크(150)를 통해 연결된 사용자 단말기(160, 170)로부터 수신되는 음성신호에 대하여 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출한다. 이때, 음원 검출부(520)는 감성 저장부(510)에 저장된 음원과 동일한 음원을 검출하는 것이 바람직하다. 즉, 감성 저장부(510)에 음색이 저장된 경우, 음원 검출부(520)는 사용자 단말기(160)로부터 수신되는 음성신호에 대하여 음색을 검출하는 것이 바람직하다.The sound source detector 520 detects a sound source including at least one of a tone, sound quality, and sound wave with respect to a voice signal received from the user terminals 160 and 170 connected through the network 150. In this case, the sound source detector 520 preferably detects the same sound source as the sound source stored in the emotion storage unit 510. That is, when the tone is stored in the emotion storage unit 510, the sound source detector 520 may detect the tone in response to the voice signal received from the user terminal 160.

감성 추론부(530)는 음원 검출부(520)에 의해 검출된 음원에 기초하여 감성 저장부(510)로부터 매칭되는 감성을 추론한다. 즉, 감성 추론부(530)는 음원 검출부(520)에 의해 검출된 음색, 음질 또는 음파와, 감성 저장부(510)에 저장된 음색, 음원 또는 음파를 비교하여 대응하는 감성을 추론한다.The emotion inference unit 530 infers a matched emotion from the emotion storage unit 510 based on the sound source detected by the sound source detector 520. That is, the emotion inference unit 530 infers the corresponding emotion by comparing the tone, sound quality or sound wave detected by the sound source detection unit 520 with the tone, sound source or sound wave stored in the emotion storage unit 510.

도 1의 연출정보 추출서버(140)는 연출정보 저장서버(120)로부터 감성 추론서버(130)에 의해 추론된 감성에 대응하는 감성 연출정보를 추출한다. The directed information extraction server 140 of FIG. 1 extracts the emotional directed information corresponding to the emotion inferred by the emotional inference server 130 from the directed information storage server 120.

감성 연출서버(145)는 사용자 단말기(160)로부터 목적지 단말기(170)에 대한 정보를 수신하며, 사용자 단말기(160)로부터 수신되는 텍스트 및/또는 음성신호와 추출된 감성 연출정보를 목적지 단말기(170)로 전송한다. 여기서, 목적지 단말기(170)에 대한 정보는 목적지 단말기의 전화번호, 목적지 단말기 사용자의 성명 등을 포함할 수 있다. 여기서, 유선 단말기(160)가 사용자 단말기이며, 무선 단말기(170)가 목적지 단말기인 것으로 가정하였다. 그러나, 이에 한정되는 것은 아니며, 그 반대의 경우이거나 서로 동종의 단말기로 구현될 수도 있다. 이하, 마찬가지이다.The emotion directing server 145 receives information on the destination terminal 170 from the user terminal 160, and transmits the text and / or voice signal received from the user terminal 160 and the extracted emotional direction information to the destination terminal 170. To send). The information on the destination terminal 170 may include a phone number of the destination terminal, a name of the destination terminal user, and the like. Here, it is assumed that the wired terminal 160 is a user terminal and the wireless terminal 170 is a destination terminal. However, the present invention is not limited thereto and vice versa or may be implemented in the same type of terminal. The same applies to the following.

이때, 감성 연출서버(145)는 감성 연출정보를 푸시업(Push Up) 방식으로 강제적으로 목적지 단말기(170)로 전송할 수 있다. 또한, 감성 연출서버(145)는 사용자가 텍스트 또는 음성신호가 전송된 후 일정한 시간 뒤에 감성 연출이 제공되길 원하거나, 기타 다른 부가정보가 함께 전송되길 원하는 경우에는, 사용자로부터 그에 대한 전송조건 정보를 수신하고, 그에 따라 감성 연출정보를 목적지 단말기(170)로 전송할 수도 있다. 이로써, 목적지 단말기(170)는 사용자 단말기(160)로부터 텍스트 및/또는 음성신호를 수신하면서, 그 화면에서 텍스트 및/또는 음성신호에 대한 감성 연출정보를 확인할 수 있게 된다.
In this case, the emotion directing server 145 may forcibly transmit the emotion directing information to the destination terminal 170 in a push up manner. In addition, if the emotional directing server 145 wants to provide emotional directing after a certain time after the text or voice signal is transmitted, or other additional information is to be transmitted together, the transmission condition information for the user from the user Receiving, and accordingly sent emotion directing information to the destination terminal 170. As a result, the destination terminal 170 may receive the text and / or the voice signal from the user terminal 160 and check the emotional direction information on the text and / or the voice signal on the screen.

도 6은 본 발명의 실시예에 따른 지능형 감성연출이 가능한 장치의 구성 예를 나타낸 도면이다. 6 is a view showing an example of the configuration of a device capable of intelligent emotional expression according to an embodiment of the present invention.

도 6을 참조하면, 감성연출이 가능한 장치(600)는 단어사전 저장부(610), 연출정보 저장부(620), 감성 추론부(630), 문장 변환부(640), 매칭 확인부(650), 감성 저장부(660), 음원 검출부(670), 연출정보 추출부(680) 및 감성 연출부(690)를 포함할 수 있다. Referring to FIG. 6, the apparatus 600 capable of emotional expression includes a word dictionary storage unit 610, a presentation information storage unit 620, an emotional reasoning unit 630, a sentence converter 640, and a matching confirmation unit 650. ), An emotion storage unit 660, a sound source detector 670, a direction information extractor 680, and an emotion director 690.

여기서, 감성연출이 가능한 장치(600)는 사용자의 키 조작에 따라 통신망()을 경유하여 각종 데이터를 송수신할 수 있는 각종 장치를 말하는 것이며, 바람직하게는 스마트 폰(Smart Phone)일 수 있으나 이에 한정되는 것은 아니다. 즉, 감성연출이 가능한 장치(600)는 태블릿 PC(Tablet PC), 랩톱(Laptop), 개인용 컴퓨터(PC: Personal Computer), 개인휴대용 정보단말기(PDA: Personal Digital Assistant) 및 이동통신 단말기(Mobile Communication Terminal) 등 중 어느 하나로 구현될 수 있을 뿐만 아니라, 스마트 TV와 같은 가전기기로 구현될 수도 있다. 한편, 이러한 감성연출이 가능한 장치(600)는 네트워크(150)를 통하여 데이터 읽고 쓰기 및 저장, 네트워크, 컨텐츠 사용 등의 서비스를 이용할 수 있는 클라우드 컴퓨팅(Cloud Computing)을 지원하는 클라우드 컴퓨팅 장치와 연동할 수 있다. 즉, 감성연출이 가능한 장치(600)는 네트워크(150)를 이용하여 음성 또는 데이터 통신을 수행하는 장치이며, 네트워크(150)를 경유하여 외부 장치와 통신하기 위한 프로그램 또는 프로토콜을 저장하기 위한 메모리, 해당 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하고 있는 단말기를 의미한다. 즉, 감성연출이 가능한 장치(600)는 외부 장치와 서버-클라이언트 통신이 가능하다면 그 어떠한 장치라도 가능하며, 노트북 컴퓨터, 이동통신 단말기, PDA, 스마트 TV 등 여하한 통신 컴퓨팅 장치를 모두 포함하는 넓은 개념이다. Here, the device 600 capable of emotional expression refers to various devices capable of transmitting and receiving various data via a communication network () according to a user's key manipulation. Preferably, the device 600 may be a smart phone. It doesn't happen. That is, the device 600 capable of emotional expression includes a tablet PC, a laptop, a personal computer, a personal digital assistant, and a mobile communication terminal. Terminal) and the like, as well as may be implemented as a home appliance, such as a smart TV. On the other hand, the device 600 capable of emotional expression can be linked to a cloud computing device that supports cloud computing (Cloud Computing) that can use services such as data reading and writing and storage, network, content use through the network 150 Can be. That is, the apparatus 600 capable of emotional expression is a device for performing voice or data communication using the network 150, a memory for storing a program or protocol for communicating with an external device via the network 150, Means a terminal equipped with a microprocessor for executing and controlling the program. That is, the device 600 capable of emotional expression can be any device as long as it can communicate with an external device and can include any communication computing device such as a notebook computer, a mobile communication terminal, a PDA, and a smart TV. Concept.

단어사전 저장부(610)는 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장한다. The word dictionary storage 610 classifies the emotional word into an item including at least one of an emotion class, similarity, positive or negative, and emotional strength, and stores the emotional word as an emotional word dictionary.

연출정보 저장부(620)는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장한다. 즉, 연출정보 저장부(620)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 감성 연출정보를 저장할 수 있으며, 감성 연출정보는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등으로 표현될 수 있다. 여기서, 연출정보 저장부(620)는 감성연출이 가능한 장치(600)에 기 저장된 감성 연출정보뿐만 아니라, 사용자에 의해 생성 또는 편집된 감성 연출정보를 저장할 수도 있다. 즉, 사용자는 자신이 선택한 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등을 대응되는 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중의 적어도 하나와 함께 매칭시켜 연출정보 저장부(620)에 저장할 수 있다. 또한, 동영상의 경우에도 3D 영상 등을 활용하여 자신만의 독특한 감성 연출정보를 편집하여 저장시킬 수 있다. 이에 따라 감성연출이 가능한 장치(600)는 사용자의 선택 또는 편집에 따라 사용자 개개인에 대응하는 독특한 감성 연출의 제공이 가능하게 된다.The direction information storage unit 620 stores emotion direction information corresponding to each emotion class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a video, an image, and an audio signal. That is, the directing information storage unit 620 may store emotional directing information corresponding to a total of 77 emotional classes classified in the emotional word dictionary, and the emotional directing information is avatar, emoticon, flash image, video, image, sound. It can be represented as a signal. Here, the direction information storage unit 620 may store the emotional direction information generated or edited by the user as well as the emotional direction information previously stored in the apparatus 600 capable of emotional expression. That is, the user matches the avatar, emoticon, flash image, video, image, and audio signal selected by the user with at least one of a corresponding emotional class, similarity, positive or negative, emotional intensity, and outputting information storage unit 620. Can be stored in In addition, even in the case of a video, it is possible to use the 3D image or the like to edit and store your own unique emotional presentation information. Accordingly, the apparatus 600 capable of emotional expression can provide a unique emotional presentation corresponding to each user according to a user's selection or editing.

감성 추론부(630)는 네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 감성 단어사전에 매칭되는 감성을 추론한다. The emotion inference unit 630 infers the emotion matched in the emotional word dictionary on at least one of the text and voice signals received from the user terminal 160 connected through the network 150.

이때, 문장 변환부(640)는 네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환할 수 있다. 또한, 매칭 확인부(650)는 문장 변환부(640)에 의해 변환된 단어 및 구문 중 감성 단어사전에 매칭되는 단어 또는 구문을 확인할 수 있다. 이 경우, 감성 추론부(630)는 문장 변환부(640)에 의해 변환된 단어 또는 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델을 적용하며, 적용된 확률 모델의 결과 값에 따라 감성을 추론할 수 있다.In this case, the sentence converter 640 may identify the word and the phrase with respect to the text received from the user terminal 160 connected through the network 150 and convert the word and phrase into a basic form. In addition, the matching checker 650 may check a word or phrase that matches the emotional word dictionary among the words and phrases converted by the sentence converter 640. In this case, the emotional reasoning unit 630 applies a probability model based on the co-occurrence of the word or phrase converted by the sentence converter 640, and applies the emotional model according to the result value of the applied probability model. Can deduce.

한편, 감성 저장부(660)는 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장할 수 있다. 즉, 감성 저장부(510)는 감성 단어사전에 분류된 전체를 약 77개의 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질 또는 음파를 매칭시켜 표현할 수 있으며, 각각의 감성 클래스에 매칭된 음색, 음질 또는 음파에 대응하는 감성을 함께 저장할 수 있다. 또한, 음원 검출부(670)는 네트워크(150)를 통해 연결된 사용자 단말기(160, 170)로부터 수신되는 음성신호에 대하여 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출한다. 이때, 음원 검출부(670)는 감성 저장부(660)에 저장된 음원과 동일한 음원을 검출하는 것이 바람직하다. 즉, 감성 저장부(510)에 음색이 저장된 경우, 음원 검출부(670)는 사용자 단말기(100)(이 경우, 감성연출이 가능한 장치(600)가 사용자 단말기의 역할을 한다)로부터 수신되는 음성신호에 대하여 음색을 검출하는 것이 바람직하다. 이 경우, 감성 추론부(630)는 음원 검출부(670)에 의해 검출된 음원에 기초하여 감성 저장부(660)로부터 매칭되는 감성을 추론할 수 있다. 즉, 감성 추론부(630)는 음원 검출부(670)에 의해 검출된 음색, 음질 또는 음파와, 감성 저장부(660)에 저장된 음색, 음원 또는 음파를 비교하여 대응하는 감성을 추론할 수 있다.Meanwhile, the emotion storage unit 660 may store emotions represented by at least one of color, image, font, emoticon, avatar, video, voice, tone, sound quality, and sound wave corresponding to each emotion class classified in the emotion word dictionary. have. That is, the emotion storage unit 510 may express colors, images, fonts, emoticons, avatars, videos, voices, tones, sound quality, or sound waves corresponding to each of the 77 emotional classes in the whole classified in the emotional word dictionary. The emotion corresponding to the tone, sound quality or sound wave matched with each emotion class may be stored together. In addition, the sound source detector 670 detects a sound source including at least one of a tone, sound quality, and sound wave with respect to a voice signal received from the user terminals 160 and 170 connected through the network 150. In this case, the sound source detector 670 may detect the same sound source as the sound source stored in the emotion storage unit 660. That is, when a tone is stored in the emotion storage unit 510, the sound source detection unit 670 may receive a voice signal received from the user terminal 100 (in this case, the device 600 capable of emotion generation serves as a user terminal). It is preferable to detect the tone with respect to. In this case, the emotion inference unit 630 may infer a matched emotion from the emotion storage unit 660 based on the sound source detected by the sound source detector 670. That is, the emotion inference unit 630 may infer a corresponding emotion by comparing the tone, sound quality, or sound wave detected by the sound source detection unit 670 with the tone, sound source, or sound wave stored in the emotion storage unit 660.

연출정보 추출부(680)는 감성 추론부(630)에 의해 추론된 감성에 대응하는 감성 연출정보를 연출정보 저장부(620)로부터 추출한다. The director information extracting unit 680 extracts emotion director information corresponding to the emotion inferred by the emotion reasoning unit 630 from the director information storage unit 620.

감성 연출부(690)는 사용자 단말기(160)로부터 목적지 단말기(170)에 대한 정보를 수신하며, 사용자 단말기(160)로부터 수신되는 텍스트 및/또는 음성신호와 추출된 감성 연출정보를 목적지 단말기(170)로 전송한다. 여기서, 목적지 단말기(170)에 대한 정보는 목적지 단말기의 전화번호, 목적지 단말기 사용자의 성명 등을 포함할 수 있다. 이때, 감성 연출부(690)는 감성 연출정보를 푸시업(Push Up) 방식으로 강제적으로 목적지 단말기(170)로 전송할 수 있다. 또한, 감성 연출부(690)는 사용자가 텍스트 또는 음성신호가 전송된 후 일정한 시간 뒤에 감성 연출이 제공되길 원하거나, 기타 다른 부가정보가 함께 전송되길 원하는 경우에는, 사용자로부터 그에 대한 전송조건 정보를 수신하고, 그에 따라 감성 연출정보를 목적지 단말기(170)로 전송할 수도 있다. 이로써, 목적지 단말기(170)는 사용자 단말기(160)로부터 텍스트 및/또는 음성신호를 수신하면서, 그 화면에서 텍스트 및/또는 음성신호에 대한 감성 연출정보를 확인할 수 있게 된다.
The emotion directing unit 690 receives information on the destination terminal 170 from the user terminal 160, and transmits the text and / or voice signal received from the user terminal 160 and the extracted emotion directing information to the destination terminal 170. To send. The information on the destination terminal 170 may include a phone number of the destination terminal, a name of the destination terminal user, and the like. In this case, the emotion directing unit 690 may forcibly transmit the emotion directing information to the destination terminal 170 in a push up manner. In addition, the emotion directing unit 690 receives the transmission condition information from the user when the user wants to provide the emotional direction after a certain time after the text or voice signal is transmitted, or other additional information is to be transmitted together. In addition, the emotion directing information may be transmitted to the destination terminal 170 accordingly. As a result, the destination terminal 170 may receive the text and / or the voice signal from the user terminal 160 and check the emotional direction information on the text and / or the voice signal on the screen.

도 7은 도 1의 감성연출 서비스 제공 시스템에 의한 감성연출 서비스 제공방법을 나타낸 흐름도이다.FIG. 7 is a flowchart illustrating a method for providing emotional service by the emotional service providing system of FIG. 1.

도 1 및 도 7을 참조하면, 단어사전 저장서버(110)는 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장한다(S701).1 and 7, the word dictionary storage server 110 stores the emotional word as an emotional word dictionary by classifying it into an item including at least one of an emotional class, similarity, positive or negative, and emotional strength ( S701).

또한, 연출정보 저장서버(120)는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장한다(S703). 즉, 연출정보 저장서버(120)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 감성 연출정보를 저장할 수 있으며, 감성 연출정보는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등으로 표현될 수 있다. 도면에는 감성 단어사전 저장단계와 감성 연출정보 저장단계가 각각 별도의 단계로 구성된 것으로 도시하였지만, 감성 단어사전 저장단계 및 감성 연출정보 저장단계는 하나의 단계로 구현될 수도 있다.In addition, the direction information storage server 120 stores emotion direction information corresponding to each emotion class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a video, an image, and an audio signal (S703). ). That is, the directing information storage server 120 may store the emotional directing information corresponding to a total of 77 emotional classes classified in the emotional word dictionary, and the emotional directing information is avatar, emoticon, flash image, video, image, sound. It can be represented as a signal. In the drawing, although the emotional word dictionary storing step and the emotional directing information storing step are configured as separate steps, the emotional word dictionary storing step and the emotional directing information storing step may be implemented as one step.

감성 추론서버(130)의 감성 저장부(510)는 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장할 수 있다(S705). 즉, 감성 저장부(510)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 음색, 음질 또는 음파를 매칭시킬 수 있으며, 각각의 감성 클래스에 매칭된 음색, 음질 또는 음파에 대응하는 감성을 함께 저장할 수 있다. The emotional storage unit 510 of the emotional reasoning server 130 corresponds to at least one of color, image, font, emoticon, avatar, video, voice, tone, sound quality, and sound wave corresponding to each emotional class classified in the emotional word dictionary. The corresponding emotion may be stored (S705). That is, the emotion storage unit 510 may match a tone, sound quality, or sound wave corresponding to all 77 emotion classes classified in the emotional word dictionary, and correspond to the tone, sound quality, or sound wave matched with each emotion class. You can save your emotions together.

네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 신호가 텍스트 신호인 경우(S707), 감성 추론서버(130)의 문장 변환부(310)는 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환할 수 있다(S709). 즉, 문장 변환부(310)는 사용자 단말기들(160)로부터 수신되는 텍스트에 대하여 1차적으로 복수의 단어로 분절한 후 기본형으로 변환할 수 있으며, 분절된 단어들 중 관용적으로 사용되는 단어와 단어의 조합을 통해 구문을 파악한 후 기본형으로 변환할 수 있다.When the signal received from the user terminal 160 connected through the network 150 is a text signal (S707), the sentence converter 310 of the emotional reasoning server 130 grasps words and phrases with respect to the text, and then converts the text into a basic form. Can be converted (S709). That is, the sentence converting unit 310 may first divide the text received from the user terminals 160 into a plurality of words and then convert the text into a basic form, and words and words used conventionally among the segmented words. You can use the combination of to figure out the syntax and convert it to the basic form.

또한, 매칭 확인부(320)는 문장 변환부(310)에 의해 변환된 각각의 단어 및 구문을 단어사전 저장서버(110)에 저장된 감성 단어사전과 비교하여 매칭되는 단어 또는 구문을 확인할 수 있다(S711).In addition, the matching checker 320 may check the words or phrases matched by comparing each word and phrase converted by the sentence converter 310 with the emotional word dictionary stored in the word dictionary storage server 110 ( S711).

감성 추론부(330)는 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 확률 모델에 따라 감성을 추론할 수 있다(S713). 예를 들어, 문장 변환부(310)에 의해 기본형으로 변환된 단어 중 '벅차다'라는 단어가 감성 단어사전의 '감동'의 감성 클래스와 매칭된다고 가정하면, 감성 추론부(330)는 '벅차다'라는 단어와 기본형으로 변환된 다른 단어 또는 구문의 조합에 기초하여 확률 모델을 적용하고, 적용된 확률 모델에 따라 감성을 추론할 수 있다. The emotion inference unit 330 applies a probabilistic model based on the co-occurrence of the converted words and phrases, and infers emotion according to the applied probability model (S713). For example, assuming that the word 'bucked up' among the words converted into the basic form by the sentence converter 310 matches the emotional class of 'emotion' of the emotional word dictionary, the emotional reasoning unit 330 is 'bucked up'. A probability model may be applied based on a combination of the word and other words or phrases converted into a basic form, and the emotion may be inferred according to the applied probability model.

네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 신호가 음성 신호인 경우(S715), 음원 검출부(520)는 네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출할 수 있다(S717). 이때, 음원 검출부(520)는 감성 저장부(510)에 저장된 음원과 동일한 음원을 검출하는 것이 바람직하다. 즉, 감성 저장부(510)에 음색이 저장된 경우, 음원 검출부(520)는 사용자 단말기들(160)로부터 수신되는 음성신호로부터 음색을 검출하는 것이 바람직하다.When the signal received from the user terminal 160 connected through the network 150 is a voice signal (S715), the sound source detector 520 may generate a tone from the voice signal received from the user terminal 160 connected through the network 150. The sound source including at least one of sound quality and sound waves may be detected (S717). In this case, the sound source detector 520 preferably detects the same sound source as the sound source stored in the emotion storage unit 510. That is, when the tone is stored in the emotion storage unit 510, the sound source detector 520 may detect the tone from the voice signals received from the user terminals 160.

감성 추론부(530)는 음원 검출부(520)에 의해 검출된 음원에 기초하여 감성 저장부(510)로부터 매칭되는 감성을 추론할 수 있다(S719). 즉, 감성 추론부(530)는 음원 검출부(520)에 의해 검출된 음색, 음질 또는 음파와, 감성 저장부(510)에 저장된 음색, 음원 또는 음파를 비교하여 대응하는 감성을 추론할 수 있다.The emotion inference unit 530 may infer a matched emotion from the emotion storage unit 510 based on the sound source detected by the sound source detection unit 520 (S719). That is, the emotion inference unit 530 may infer a corresponding emotion by comparing the tone, sound quality, or sound wave detected by the sound source detection unit 520 with the tone, sound source, or sound wave stored in the emotion storage unit 510.

연출정보 추출서버(140)는 연출정보 저장서버(120)로부터 감성 추론서버(130)에 의해 추론된 감성에 대응하는 감성 연출정보를 추출한다(S721). The directed information extraction server 140 extracts emotional directed information corresponding to the emotion inferred by the emotional inference server 130 from the directed information storage server 120 (S721).

감성 연출서버(145)는 사용자 단말기(160)로부터 목적지 단말기(170)에 대한 정보를 수신하며(S723), 사용자 단말기(160)로부터 수신되는 텍스트 및/또는 음성신호와 추출된 감성 연출정보를 목적지 단말기(170)로 전송한다(S725). The emotion directing server 145 receives the information on the destination terminal 170 from the user terminal 160 (S723), and receives the text and / or voice signal and the extracted emotion directing information received from the user terminal 160 as a destination. The terminal 170 transmits the data to the terminal 170 (S725).

이때, 감성 연출서버(145)는 감성 연출정보를 푸시업(Push Up) 방식으로 강제적으로 목적지 단말기(170)로 전송할 수 있다. 이로써, 목적지 단말기(170)는 사용자 단말기(160)로부터 텍스트 및/또는 음성신호를 수신하면서, 그 화면에서 텍스트 및/또는 음성신호에 대한 감성 연출정보를 확인할 수 있게 된다.
In this case, the emotion directing server 145 may forcibly transmit the emotion directing information to the destination terminal 170 in a push up manner. As a result, the destination terminal 170 may receive the text and / or the voice signal from the user terminal 160 and check the emotional direction information on the text and / or the voice signal on the screen.

도 8은 도 6의 감성연출이 가능한 장치에 의한 지능형 감성연출 방법을 나타낸 흐름도이다. 도 6 및 도 8을 참조하면, 단어사전 저장부(610)는 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장한다(S801).8 is a flowchart illustrating an intelligent emotional expression method by the apparatus capable of emotional expression of FIG. 6. Referring to FIGS. 6 and 8, the word dictionary storage unit 610 classifies the emotional word into an item including at least one of an emotional class, similarity, positive or negative, and emotional strength, and stores the emotional word as an emotional word dictionary. S801).

또한, 연출정보 저장부(620)는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장한다(S803). 즉, 연출정보 저장부(620)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 감성 연출정보를 저장할 수 있으며, 감성 연출정보는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등으로 표현될 수 있다. 도면에는 감성 단어사전 저장단계와 감성 연출정보 저장단계가 각각 별도의 단계로 구성된 것으로 도시하였지만, 감성 단어사전 저장단계 및 감성 연출정보 저장단계는 하나의 단계로 구현될 수도 있다.In addition, the direction information storage unit 620 stores emotion direction information corresponding to each emotion class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a video, an image, and an audio signal (S803). ). That is, the directing information storage unit 620 may store emotional directing information corresponding to a total of 77 emotional classes classified in the emotional word dictionary, and the emotional directing information is avatar, emoticon, flash image, video, image, sound. It can be represented as a signal. In the drawing, although the emotional word dictionary storing step and the emotional directing information storing step are configured as separate steps, the emotional word dictionary storing step and the emotional directing information storing step may be implemented as one step.

감성 저장부(660)는 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장할 수 있다(S805). 즉, 감성 저장부(660)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 음색, 음질 또는 음파를 매칭시킬 수 있으며, 각각의 감성 클래스에 매칭된 음색, 음질 또는 음파에 대응하는 감성을 함께 저장할 수 있다. The emotion storage unit 660 may store emotions corresponding to at least one of color, image, font, emoticon, avatar, video, voice, tone, sound quality, and sound wave corresponding to each emotion class classified in the emotion word dictionary. (S805). That is, the emotion storage unit 660 may match the tone, sound quality, or sound waves corresponding to the total 77 emotion classes classified in the emotional word dictionary, and correspond to the tone, sound quality, or sound waves matched with each emotion class. You can save your emotions together.

감성연출이 가능한 장치(600)로부터 수신되는 신호가 텍스트 신호인 경우(S807), 문장 변환부(640)는 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환할 수 있다(S809). 즉, 문장 변환부(640)는 감성연출이 가능한 장치(600)로부터 수신되는 텍스트에 대하여 1차적으로 복수의 단어로 분절한 후 기본형으로 변환할 수 있으며, 분절된 단어들 중 관용적으로 사용되는 단어와 단어의 조합을 통해 구문을 파악한 후 기본형으로 변환할 수 있다. 매칭 확인부(650)는 변환된 각각의 단어 및 구문을 단어사전 저장부(610)에 저장된 감성 단어사전과 비교하여 매칭되는 단어 또는 구문을 확인할 수 있다(S811). 이때, 감성 추론부(630)는 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 확률 모델에 따라 감성을 추론할 수 있다(S813). 예를 들어, 문장 변환부(310)에 의해 기본형으로 변환된 단어 중 '벅차다'라는 단어가 감성 단어사전의 '감동'의 감성 클래스와 매칭된다고 가정하면, 감성 추론부(330)는 '벅차다'라는 단어와 기본형으로 변환된 다른 단어 또는 구문의 조합에 기초하여 확률 모델을 적용하고, 적용된 확률 모델에 따라 감성을 추론할 수 있다. When the signal received from the apparatus 600 capable of emotional expression is a text signal (S807), the sentence converter 640 may identify a word and a phrase with respect to the text and convert the text into a basic type (S809). That is, the sentence converting unit 640 may first divide the text received from the apparatus 600 capable of emotional expression into a plurality of words, and then convert the text into a basic form, and words conventionally used among the segmented words The combination of and words can be used to identify a phrase and convert it to a basic form. The matching checker 650 may check the matched word or phrase by comparing each converted word and phrase with the emotional word dictionary stored in the word dictionary storage 610 (S811). In this case, the emotion inference unit 630 applies a probabilistic model based on the co-occurrence of the converted words and phrases, and infers emotion according to the applied probability model (S813). For example, assuming that the word 'bucked up' among the words converted into the basic form by the sentence converter 310 matches the emotional class of 'emotion' of the emotional word dictionary, the emotional reasoning unit 330 is 'bucked up'. A probability model may be applied based on a combination of the word and other words or phrases converted into a basic form, and the emotion may be inferred according to the applied probability model.

감성연출이 가능한 장치(600)의 사용자로부터 수신되는 신호가 음성 신호인 경우(S815), 음원 검출부(670)는 사용자로부터 수신되는 음성신호에 대하여 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출할 수 있다(S817). 이때, 음원 검출부부(670)는 저장된 음원과 동일한 음원을 검출하는 것이 바람직하다. 즉, 음색이 저장된 경우, 음원 검출부(670)는 감성연출이 가능한 장치(600)로부터 수신되는 음성신호에 대하여 음색을 검출하는 것이 바람직하다. 이때, 감성 추론부(630)는 검출된 음원에 기초하여 매칭되는 감성을 추론할 수 있다(S819). 즉, 연출정보 추출부(630)는 검출된 음색, 음질 또는 음파와, 저장된 음색, 음원 또는 음파를 비교하여 대응하는 감성을 추론할 수 있다.When the signal received from the user of the apparatus 600 capable of emotional expression is a voice signal (S815), the sound source detector 670 may generate a sound source including at least one of a tone, sound quality, and sound wave with respect to the voice signal received from the user. It can be detected (S817). In this case, the sound source detector 670 may detect the same sound source as the stored sound source. That is, when the tone is stored, it is preferable that the sound source detector 670 detects the tone in response to the voice signal received from the apparatus 600 capable of emotional expression. In this case, the emotion reasoning unit 630 may infer a matched emotion based on the detected sound source (S819). That is, the direction information extractor 630 may infer a corresponding emotion by comparing the detected tone, sound quality or sound wave with the stored tone, sound source or sound wave.

연출정보 추출부(680)는 감성 추론부(630)에 의해 추론된 감성에 대응하는 감성 연출정보를 연출정보 저장부(620)로부터 추출한다(S821). The director information extracting unit 680 extracts emotion director information corresponding to the emotion inferred by the emotion reasoning unit 630 from the director information storage unit 620 (S821).

감성 연출부(690)는 감성연출이 가능한 장치(600)의 사용자로부터 목적지 단말기(170)에 대한 정보를 수신하며(S823), 사용자로부터 수신되는 텍스트 및/또는 음성신호와 추출된 감성 연출정보를 목적지 단말기(170)로 전송한다(S825). 여기서, 목적지 단말기(170)에 대한 정보는 목적지 단말기의 전화번호, 목적지 단말기 사용자의 성명 등을 포함할 수 있다. 이때, 감성 연출부(690)는 감성 연출정보를 푸시업(Push Up) 방식으로 강제적으로 목적지 단말기(170)로 전송할 수 있다. 이로써, 목적지 단말기(170)는 사용자 단말기(160)로부터 텍스트 및/또는 음성신호를 수신하면서, 그 화면에서 텍스트 및/또는 음성신호에 대한 감성 연출정보를 확인할 수 있게 된다.
The emotion directing unit 690 receives information on the destination terminal 170 from the user of the apparatus 600 capable of emotional presentation (S823), and receives the text and / or voice signal received from the user and the extracted emotional direction information. It transmits to the terminal 170 (S825). The information on the destination terminal 170 may include a phone number of the destination terminal, a name of the destination terminal user, and the like. In this case, the emotion directing unit 690 may forcibly transmit the emotion directing information to the destination terminal 170 in a push up manner. As a result, the destination terminal 170 may receive the text and / or the voice signal from the user terminal 160 and check the emotional direction information on the text and / or the voice signal on the screen.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. In other words, within the scope of the present invention, all of the components may be selectively operated in combination with one or more. In addition, although all of the components may be implemented in one independent hardware, each or all of the components may be selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, the terms "comprise", "comprise" or "having" described above mean that the corresponding component may be inherent unless specifically stated otherwise, and thus excludes other components. It should be construed that it may further include other components instead. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms used generally, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.

100: 감성연출 서비스 제공 시스템
110: 단어사전 저장서버 120: 연출정보 저장서버
130: 감성 추론서버 140: 연출정보 추출서버
150: 감성 연출서버
100: emotional directing service providing system
110: word dictionary storage server 120: directing information storage server
130: emotional reasoning server 140: directed information extraction server
150: emotional production server

Claims (12)

감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하는 단어사전 저장서버;
아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 연출정보 저장서버;
네트워크를 통해 연결된 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 상기 감성 단어사전에 매칭되는 감성을 추론하는 감성 추론서버;
상기 연출정보 저장서버로부터 상기 감성에 대응하는 감성 연출정보를 추출하는 연출정보 추출서버; 및
상기 사용자 단말기로부터 목적지 단말기에 대한 정보를 수신하며, 상기 사용자 단말기로부터 수신되는 상기 텍스트 및 음성신호 중의 적어도 하나와 추출된 상기 감성 연출정보를 상기 목적지 단말기로 전송하는 감성 연출서버
를 포함하는 것을 특징으로 하는 감성연출 서비스 제공 시스템.
A word dictionary storage server for classifying an emotional word into an item including at least one of an emotional class, similarity, positive or negative, and emotional strength, and storing the emotional word as an emotional word dictionary;
A presentation information storage server for storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a moving picture, an image, and an audio signal;
An emotional reasoning server for inferring an emotion matching the emotional word dictionary with respect to at least one of a text and an audio signal received from a user terminal connected through a network;
A production information extraction server for extracting emotion production information corresponding to the emotion from the production information storage server; And
Emotion directing server for receiving information on the destination terminal from the user terminal, and transmits at least one of the text and voice signal received from the user terminal and the extracted emotional direction information to the destination terminal.
Emotional expression service providing system comprising a.
제 1항에 있어서, 상기 감성 추론서버는,
상기 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 문장 변환부;
상기 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 매칭 확인부; 및
상기 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 상기 확률 모델에 따라 감성을 추론하는 감성 추론부
를 포함하는 것을 특징으로 하는 감성연출 서비스 제공 시스템.
The method of claim 1, wherein the emotional reasoning server,
A sentence converter for grasping words and phrases from the text and converting them into basic forms;
A matching checker for checking a word or phrase that matches the emotional word dictionary among the converted words and phrases; And
Emotion reasoning unit applying a probabilistic model based on the co-occurrence of the converted word and phrase, and inferring emotion according to the applied probability model
Emotional expression service providing system comprising a.
제 1항에 있어서, 상기 감성 추론서버는,
상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장하는 감성 저장부;
상기 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 음원 검출부; 및
검출된 상기 음원에 기초하여 상기 감성 저장부로부터 매칭되는 감성을 추론하는 감성 추론부
를 포함하는 것을 특징으로 하는 감성연출 서비스 제공 시스템.
The method of claim 1, wherein the emotional reasoning server,
An emotion storage unit for storing emotions represented by at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave corresponding to each emotion class classified in the emotion word dictionary;
A sound source detector for detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal; And
Emotion inference unit that infers a matched emotion from the emotion storage unit based on the detected sound source
Emotional expression service providing system comprising a.
감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하는 단어사전 저장부;
아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 연출정보 저장부;
수신되는 텍스트 및 음성신호 중의 적어도 하나로부터 상기 감성 단어사전에 매칭되는 감성을 추론하는 감성 추론부;
상기 연출정보 저장부로부터 상기 감성에 대응하는 감성 연출정보를 추출하는 연출정보 추출부; 및
목적지 단말기에 대한 정보를 수신하며, 수신되는 상기 텍스트 및 음성신호 중의 적어도 하나와 추출된 상기 감성 연출정보를 상기 목적지 단말기로 전송하는 감성 연출부
를 포함하는 것을 특징으로 하는 지능형 감성연출이 가능한 장치.
A word dictionary storage unit classifying an emotional word into an item including at least one of an emotion class, similarity, positive or negative, and emotional strength, and storing the emotional word as an emotional word dictionary;
A production information storage unit for storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a moving picture, an image, and an audio signal;
An emotional inference unit for inferring an emotion matching the emotional word dictionary from at least one of a received text and an audio signal;
Directing information extraction unit for extracting the emotional directing information corresponding to the emotion from the directing information storage unit; And
Emotion directing unit for receiving information on the destination terminal, and transmits at least one of the received text and voice signal and the extracted emotion directing information to the destination terminal
Apparatus capable of intelligent emotional expression comprising a.
제 4항에 있어서,
상기 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 문장 변환부; 및
상기 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 매칭 확인부
를 더 포함하며,
상기 감성 추론부는 상기 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 상기 확률 모델에 따라 감성을 추론하는 것을 특징으로 하는 지능형 감성연출이 가능한 장치.
The method of claim 4, wherein
A sentence converter for grasping words and phrases from the text and converting them into basic forms; And
Matching confirmation unit for confirming a word or phrase matching the emotional word dictionary of the converted words and phrases
More,
The emotional reasoning unit applies a probabilistic model based on the co-occurrence of the converted words and phrases, and induces emotional emotion according to the applied probability model. Device.
제 4항에 있어서,
상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장하는 감성 저장부; 및
상기 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 음원 검출부
를 더 포함하며,
상기 감성 추론부는 검출된 상기 음원에 기초하여 상기 감성 저장부로부터 매칭되는 감성을 추론하는 것을 특징으로 하는 지능형 감성연출이 가능한 장치.
The method of claim 4, wherein
An emotion storage unit for storing emotions represented by at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave corresponding to each emotion class classified in the emotion word dictionary; And
A sound source detection unit for detecting a sound source including at least one of a tone, sound quality, sound waves from the voice signal
More,
And the emotional inference unit infers the emotions matched from the emotional storage unit based on the detected sound source.
감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하며, 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장하는 단계;
네트워크를 통해 연결된 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 상기 감성 단어사전에 매칭되는 감성을 추론하는 단계;
저장된 상기 감성 연출정보로부터 상기 감성에 대응하는 감성 연출정보를 추출하는 단계;
상기 사용자 단말기로부터 목적지 단말기에 대한 정보를 수신하는 단계; 및
상기 사용자 단말기로부터 수신되는 상기 텍스트 및 음성신호 중의 적어도 하나와 추출된 상기 감성 연출정보를 상기 목적지 단말기로 전송하는 단계
를 포함하는 것을 특징으로 하는 감성연출 서비스 제공방법.
The emotional word is classified into an item including at least one of emotional class, similarity, positive or negative, and emotional strength, and stored as an emotional word dictionary, and at least one of an avatar, an emoticon, a flash image, a video, an image, an audio signal Storing emotion directing information corresponding to each emotion class classified into the emotion word dictionary using the emotion word dictionary;
Inferring an emotion matching the emotional word dictionary with respect to at least one of a text and an audio signal received from a user terminal connected through a network;
Extracting emotion directing information corresponding to the emotion from the stored emotion directing information;
Receiving information on a destination terminal from the user terminal; And
Transmitting at least one of the text and voice signals received from the user terminal and the extracted emotion directing information to the destination terminal;
Emotional expression service providing method comprising a.
제 7항에 있어서, 상기 감성 추론단계는,
상기 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 단계;
상기 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 단계; 및
상기 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하는 단계
를 포함하며,
적용된 상기 확률 모델에 따라 감성을 추론하는 것을 특징으로 하는 감성연출 서비스 제공방법.
The method of claim 7, wherein the emotional reasoning step,
Identifying a word and a phrase with respect to the text and converting the same into a basic form;
Identifying a word or phrase that matches the emotional word dictionary among the converted words and phrases; And
Applying a probabilistic model based on the co-occurrence of the converted words and phrases
Including;
Emotional expression service providing method comprising inferring the emotion according to the applied probability model.
제 7항에 있어서, 상기 감성 추론단계는,
상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장하는 단계; 및
상기 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 단계
를 포함하며,
검출된 상기 음원에 기초하여 상기 감성 저장부로부터 매칭되는 감성을 추론하는 것을 특징으로 하는 감성연출 서비스 제공방법.
The method of claim 7, wherein the emotional reasoning step,
Storing emotions represented by at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave, corresponding to each emotion class classified in the emotion word dictionary; And
Detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal
Including;
Based on the detected sound source inferred emotion matching service from the emotional storage unit.
감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하며, 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 단계;
수신되는 텍스트 및 음성신호 중의 적어도 하나로부터 상기 감성 단어사전에 매칭되는 감성을 추론하는 단계;
저장된 상기 감성 연출정보로부터 상기 감성에 대응하는 감성 연출정보를 추출하는 단계;
목적지 단말기에 대한 정보를 입력받는 단계; 및
상기 텍스트 및 음성신호 중의 적어도 하나와 추출된 상기 감성 연출정보를 상기 목적지 단말기로 전송하는 단계
를 포함하는 것을 특징으로 하는 감성연출이 가능한 장치의 지능형 감성연출 방법.
The emotional word is classified into an item including at least one of emotional class, similarity, positive or negative, and emotional strength, and stored as an emotional word dictionary, and at least one of an avatar, an emoticon, a flash image, a video, an image, an audio signal Storing emotion rendering information corresponding to each emotion class classified by the emotion word dictionary using the emotion word dictionary;
Inferring an emotion matching the emotional word dictionary from at least one of the received text and voice signal;
Extracting emotion directing information corresponding to the emotion from the stored emotion directing information;
Receiving information about a destination terminal; And
Transmitting at least one of the text and voice signal and the extracted emotion directing information to the destination terminal;
Intelligent emotional expression method of the apparatus capable of emotional expression comprising a.
제 10항에 있어서,
상기 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 단계;
상기 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 단계; 및
상기 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하는 단계
를 더 포함하며,
상기 감성 추론단계는 적용된 상기 확률 모델에 따라 감성을 추론하는 것을 특징으로 하는 감성연출이 가능한 장치의 지능형 감성연출 방법.
The method of claim 10,
Identifying a word and a phrase with respect to the text and converting the same into a basic form;
Identifying a word or phrase that matches the emotional word dictionary among the converted words and phrases; And
Applying a probabilistic model based on the co-occurrence of the converted words and phrases
More,
The emotional reasoning step is a method for intelligent emotional expression of the emotion-expressing device, characterized in that inferring emotion according to the applied probability model.
제 10항에 있어서,
상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장하는 단계; 및
상기 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 단계
를 더 포함하며,
상기 감성 추론단계는 검출된 상기 음원에 기초하여 상기 저장된 감성으로부터 매칭되는 감성을 추론하는 것을 특징으로 하는 감성연출이 가능한 장치의 지능형 감성연출 방법.
The method of claim 10,
Storing emotions represented by at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave, corresponding to each emotion class classified in the emotion word dictionary; And
Detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal
More,
The emotional reasoning step is an intelligent emotional expression method of the emotion-expressing device, characterized in that it infers a matched emotion from the stored emotion based on the detected sound source.
KR1020110110704A 2010-10-28 2011-10-27 Affect producing servece providing system and method, and device for producing affect and method therefor KR20120044911A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100106316 2010-10-28
KR1020100106316 2010-10-28

Publications (1)

Publication Number Publication Date
KR20120044911A true KR20120044911A (en) 2012-05-08

Family

ID=46264571

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110110704A KR20120044911A (en) 2010-10-28 2011-10-27 Affect producing servece providing system and method, and device for producing affect and method therefor

Country Status (1)

Country Link
KR (1) KR20120044911A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101403329B1 (en) * 2012-05-09 2014-06-09 한양대학교 산학협력단 Apparatus and method for providing with study contents based on affective event ontology
KR20170013015A (en) 2015-07-27 2017-02-06 주식회사 프론트유 An emotion communication system by using smart toys

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101403329B1 (en) * 2012-05-09 2014-06-09 한양대학교 산학협력단 Apparatus and method for providing with study contents based on affective event ontology
KR20170013015A (en) 2015-07-27 2017-02-06 주식회사 프론트유 An emotion communication system by using smart toys

Similar Documents

Publication Publication Date Title
CN110288077B (en) Method and related device for synthesizing speaking expression based on artificial intelligence
US9368102B2 (en) Method and system for text-to-speech synthesis with personalized voice
CN110782900B (en) Collaborative AI storytelling
CN107153496B (en) Method and device for inputting emoticons
US20210335381A1 (en) Artificial intelligence apparatus for converting text and speech in consideration of style and method for the same
US10170101B2 (en) Sensor based text-to-speech emotional conveyance
KR101160193B1 (en) Affect and Voice Compounding Apparatus and Method therefor
KR102196199B1 (en) Photograph sharing method, apparatus and system based on voice recognition
US20210065695A1 (en) Program storage medium, method, and apparatus for determining point at which trend of conversation changed
JP6122792B2 (en) Robot control apparatus, robot control method, and robot control program
US11328711B2 (en) User adaptive conversation apparatus and method based on monitoring of emotional and ethical states
KR101191922B1 (en) Instant Messenger Service Providing System and Method therefor, and Communication Terminal and Method
KR101250520B1 (en) Community Formation System, Mobile and Method based on Affect
KR20120044911A (en) Affect producing servece providing system and method, and device for producing affect and method therefor
CN109714248B (en) Data processing method and device
CN116741149A (en) Cross-language voice conversion method, training method and related device
JP2015146550A (en) information processing apparatus, information processing method, and program
CN110781329A (en) Image searching method and device, terminal equipment and storage medium
CN103297611A (en) Method and system masking message on electronic device
US11749270B2 (en) Output apparatus, output method and non-transitory computer-readable recording medium
CN114567693B (en) Video generation method and device and electronic equipment
KR102388465B1 (en) Virtual contents creation method
CN108255917A (en) Image management method, equipment and electronic equipment
CN112489619A (en) Voice processing method, terminal device and storage medium
KR101503802B1 (en) Method for providing sensitivity pattern and device performing the same

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application