WO2013094979A1 - 통신 단말 및 그 통신 단말의 정보처리 방법 - Google Patents

통신 단말 및 그 통신 단말의 정보처리 방법 Download PDF

Info

Publication number
WO2013094979A1
WO2013094979A1 PCT/KR2012/011101 KR2012011101W WO2013094979A1 WO 2013094979 A1 WO2013094979 A1 WO 2013094979A1 KR 2012011101 W KR2012011101 W KR 2012011101W WO 2013094979 A1 WO2013094979 A1 WO 2013094979A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
emotion
string
voice
information
Prior art date
Application number
PCT/KR2012/011101
Other languages
English (en)
French (fr)
Inventor
장준호
안지현
변건호
Original Assignee
인포뱅크 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020110136900A external-priority patent/KR101916107B1/ko
Priority claimed from KR1020110136898A external-priority patent/KR20130069260A/ko
Application filed by 인포뱅크 주식회사 filed Critical 인포뱅크 주식회사
Publication of WO2013094979A1 publication Critical patent/WO2013094979A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L2013/083Special characters, e.g. punctuation marks

Definitions

  • the present invention relates to a communication terminal and an information processing method of the communication terminal to enable more convenient and efficient message checking by using text synthesis (TTS; Text-to-Speech) when a message including a text is received in the communication terminal.
  • TTS text synthesis
  • Text-to-Speech Text-to-Speech
  • Patent Publication No. 10-2001-0086402 voice recognition device
  • Patent Publication No. 10-2002-0094988 voice synthesis method and implementation thereof
  • Voice synthesizer describes a device and a method for synthesizing a specific sentence into an arbitrary voice.
  • the user in order for the user to check the data including the received text message or character string, the user should watch the screen displaying the text message or character string. I had to convert it to a character and check it.
  • An object of the present invention for solving the above problems, it is possible to convert between the string and the voice transmitted between the communication terminal, and to efficiently express the emotion of the sender in the conversion process between the string and the voice transmitted between the communication terminal. In order to allow the recipient to more conveniently check the message and easily share the emotions of the sender.
  • the communication unit capable of transmitting and receiving text messages or data communication;
  • An emotion that retrieves whether an emotion expression string is included in the text message or the string included in the data including the character string and attaches a setting value for the emotion expression string to the received text message or data;
  • Processing unit A storage unit which stores an emotion expression string and a setting value corresponding to the emotion expression string in a database format;
  • a text-to-speech (TTS) processor configured to generate voice information corresponding to a set value of the emotion expression string and the received string;
  • An audio unit for outputting voice information generated by the TTS processing unit and a control unit for controlling each component.
  • the text message or a string any one or more of a string transmitted on the SMS (Short Message Service), EMS (Electronic Mail System), MMS (Multimedia Messaging System), LMS (Long Message Service), instant messenger It may include.
  • the set value may include association string information for converting to another string associated with the emotion expression string.
  • the set value may include information on the volume of the volume output when the voice is output for the emotion expression string.
  • the set value may include information on the pitch of the sound that is output when the voice for the emotion expression string is output.
  • the set value may include information on an output speed of the voice output when the voice is output for the emotion expression string.
  • An information processing method in a communication terminal includes a message receiving step of receiving data including a text message or a character string through a communication unit; An emotion expression string searching step of determining whether an emotion expression string is included in the data including the received text message or character string; A setting value searching step of determining whether there is a setting value corresponding to the emotion expression string searched in the string searching step; A voice synthesis step of generating voice information corresponding to the received text message or data including the string according to the emotion expression string searched in the character string search step and the set value search step and the setting value corresponding to the emotion expression string; And outputting voice information generated in the voice synthesis step.
  • the setting value may include association string information for converting to another string associated with the emotion expression string.
  • the set value of claim 7, wherein the set value may include information on the volume of the volume output when the voice output for the emotion expression string.
  • the set value may include information on the pitch of the sound that is output when the voice for the emotion expression string is output.
  • the set value may include information on an output speed of the voice output when the voice is output for the emotion expression string.
  • the communication unit capable of data communication;
  • a voice recognition unit for extracting feature data from voice data received through the communication unit;
  • An emotion processing unit for extracting emotion data of a user corresponding to the voice data from the feature data extracted from the voice recognition unit, and retrieving a setting value corresponding to the extracted emotion data from a storage unit;
  • a storage unit which stores setting values corresponding to the feature data and the emotion data in a database format;
  • a text generation unit configured to generate a text message from the feature data according to setting values corresponding to the feature data and the emotion data;
  • a display unit displaying a text message generated by the text generator on a screen.
  • the emotion processing unit when extracting the emotion data from the feature data, including the volume of the voice data is extracted, the set value, in the text message generated according to the information about the volume contained in the emotion data You can change the size of the string to be included.
  • the emotion processing unit when extracting the emotion data from the feature data, extracts the emotion data including information on the length of the section in which the character determined to be one syllable consecutively, the set value, The same message may be repeatedly output according to the length of the syllable included in the emotion data, or a text message may be generated by adding a special character to the end of the syllable.
  • the setting value may include related information for generating a text message by changing to a separate emoticon or icon for feature data to be converted into a specific character string.
  • An information processing method in a communication terminal includes a voice data receiving step of receiving voice data through a communication unit; A voice recognition step of extracting feature data from the received voice data by a voice recognition unit; An emotion data extraction step of extracting emotion data of the user corresponding to the voice data by the emotion processor from the feature data; A text generation step of retrieving setting values corresponding to the feature data and the emotion data stored in the storage unit and generating a text message from the feature data according to the setting values; And an output step of displaying the text message generated in the text generation step on the screen.
  • the emotion data extraction step when extracting the emotion data from the feature data, including the data about the volume of the voice data is extracted, the setting value, according to the data about the volume contained in the emotion data You can change the size of the string to be included in the generated text message.
  • the emotion data extracting step when extracting the emotion data from the feature data, extracts the emotion data including the length of the section in which the character is determined to be one syllable consecutively, the set value is the emotion Depending on the length of the syllables included in the data, the same character may be output repeatedly or a special message may be added to the end of the syllable to generate a text message.
  • the set value may be related information for generating a text message by changing to a separate emoticon or icon for feature data to be converted into a specific character string.
  • the present invention it is possible to provide the convenience of allowing the recipient to check the contents of the received text message or string even when the recipient does not look at the screen with respect to the data including the received text message or string. Effectively communicated to ensure improved efficiency in communicating.
  • FIG. 1 is a diagram showing an overall system configuration according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a detailed configuration of a second communication terminal according to the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a voice conversion output process including an emotional expression when a text message is received according to the first embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a text conversion output process including an emotional expression when a voice message is received according to an exemplary embodiment of the present invention.
  • FIG 5 is an embodiment diagram according to the second embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a detailed configuration of a second communication terminal according to the second embodiment of the present invention.
  • the present invention relates to a preferred method among various methods for effectively explaining the features, and the present invention is not limited only to the following drawings and description.
  • the detailed description of the present invention if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the present invention.
  • FIG. 1 is a diagram showing an overall system configuration according to an embodiment of the present invention.
  • FIG. 1 illustrates that the first communication terminal 100 transmits data including text messages or character strings generated by the first communication terminal to the server 120 via the communication network to the second communication terminal 110. It shows a configuration for.
  • the server 120 serves to transmit data including text messages or character strings transmitted from the first communication terminal 100 to the second communication terminal 110.
  • the information transmitted from the first communication terminal includes one or more Short Message Service (SMS), Long Message Service (LMS), and Multimedia Message Service (MMS)
  • SMS Short Message Service
  • LMS Long Message Service
  • MMS Multimedia Message Service
  • EMS Electronic Mail System
  • the information transmitted from the first communication terminal by the instant messenger If the data is generated and transmitted, it may be a relay server for operating each instant messenger.
  • the first communication terminal 100 and the second communication terminal 110 means a terminal for transmitting a message or an email including one or more SMS, LMS, MMS, EMS, or executes a messenger, a mobile phone , Smartphones, tablet PCs, PCs, telematics terminal, including all the terminals capable of sending and receiving text.
  • the second communication terminal receives data including a text message or a string transmitted from the first communication terminal, and stores a list of emotion expression strings and setting values corresponding to the emotion expression strings on the storage unit 260. Storing and registering in advance, searching whether the emotion expression string is included in the data including the received text message or character string, and searching the data including the received text message or character string according to the searched result. Synthesize and output the corresponding voice.
  • FIG. 2 is a diagram showing a detailed configuration of a second communication terminal according to the first embodiment of the present invention.
  • Figure 2 is a communication terminal operating on a mobile communication or communication system is applied to the information processing according to the present invention, although not shown in detail in the drawing, the second communication terminal 110 is in appearance in terms of hardware It may include a body, a speaker, a microphone, a keypad, a liquid crystal display (LCD) screen, an antenna, a battery, and the like, and may include all the functions and configurations of a communication terminal capable of present or future communication.
  • the second communication terminal 110 is in appearance in terms of hardware It may include a body, a speaker, a microphone, a keypad, a liquid crystal display (LCD) screen, an antenna, a battery, and the like, and may include all the functions and configurations of a communication terminal capable of present or future communication.
  • LCD liquid crystal display
  • the main functional configuration of the second communication terminal 110 referring to the above-described hardware characteristics, the communication unit 210, the input unit 220, the display unit 230, TTS processing unit 240, emotion processing unit 250, storage unit 280, audio unit 280, speaker 285, and a control unit 200 for controlling the respective components and programs
  • Each component may be added or excluded according to the type and characteristic of the communication terminal and the method of the person skilled in the art.
  • the communication unit 210 serves to receive data including various text messages or character strings received by the second communication terminal 110.
  • the input unit 220 serves to process input of voice information or text input information of a user, and a key input device, a virtual keyboard or a microphone corresponds to this.
  • the input unit 220 may process the input directly through the input device provided in the second communication terminal 110 itself, but may be configured as a separate device to process the user's input.
  • the display unit 230 serves to display data including text messages or character strings received through the communication unit 210 on a screen.
  • the TTS processing unit 240 uses a text-to-speech (TTS) engine that converts the text message or string into voice information, and receives the text message or string received through the communication unit 210.
  • Speech information is synthesized from the data including the data.
  • the voice information is synthesized by changing the volume, the height of the sound, the voice output speed, etc. according to the setting value for the emotion expression string. do.
  • the emotion processing unit 250 determines whether or not the emotional expression string stored in the storage unit 280 in the data including the text message or the string received through the communication unit 210 and When the emotional expression string is included in the data including the text message or the character string, the controller 280 searches for a setting value corresponding to the emotional expression string through the control unit 200. It serves to transmit to the TTS processing unit 240.
  • the storage unit 260 stores a list of emotion expression strings and setting values for the emotion expression strings, and receives the text message received from the emotion expression strings stored at the request of the emotion processing unit 250. Or whether the emotion expression string included in the data including the string exists and, if the emotion expression string exists, returns a setting value for the emotion expression string.
  • the set value when the set value includes special characters expressing emotions such as ' ⁇ ', ' ⁇ ' in the data including the text message or character string, among the set values stored in the storage unit 280.
  • the association string information it may be generated by converting the information corresponding to the emotion, such as 'haha', 'black and white'.
  • the set value includes a '!' At the end of the string, or a string that expresses an emotion such as 'angry', etc. Or, in the case of including a string such as 'depressed', such as to output voice information by adjusting the volume when the output of the string can be made small.
  • the set value in the case of a string for expressing a particular emotion, such as' excited ',' happy ', so that the frequency of the output of the string is generated, or' depressed ','
  • voice information may be generated by changing the height of the sound by generating a low frequency sound when the corresponding string is output.
  • the set value in the case of a string expressing a particular emotion, such as 'excited', 'happy', the speed of the voice output speed, or express a specific emotion, such as 'depressed', 'sad'
  • the voice information may be generated by slowing down the voice output speed when the corresponding string is output.
  • the audio unit 280 plays a role of outputting voice information generated by the TTS processor 240 as a voice through the speaker 285.
  • the control unit 200 serves to control the operation of each unit described above.
  • FIG. 3 is a diagram illustrating a voice conversion output process including an emotional expression when a text message is received according to the first embodiment of the present invention.
  • the emotion processing unit 250 searches whether there is a string included in the emotion expression string stored in the storage unit 260 among the text message or the string received in step S310 (S320).
  • the emotion processing unit 250 may be configured in the storage unit 260 (S320).
  • step S340 a setting value corresponding to the emotion expression string searched for is searched, and when the emotion expression string is not included in the received text message or string, the voice information is generated by the TTS processor 240 according to a default value. (S365).
  • the TTS processing unit 240 when a setting value corresponding to the searched emotion expression string exists in the storage unit 260 (S350), the TTS processing unit 240 generates voice information according to the corresponding setting value.
  • voice information is generated by the TTS processing unit 240 according to a default value (S365).
  • the audio unit 280 outputs the voice information generated by the TTS processor 240 through the speaker 285 (S370).
  • FIG 4 is an embodiment diagram according to an embodiment of the present invention.
  • the communication terminal installed in the vehicle corresponding to the second wireless terminal 110 may have an emotional expression string among the corresponding text messages. Corresponds to 'haha' and 'haha', and synthesizes 'naduyo' into a voice with a slow output speed and outputs it through the speaker.
  • FIG. 1 is a diagram showing an overall system configuration according to an embodiment of the present invention.
  • FIG. 1 illustrates a configuration in which the first communication terminal 100 is connected to the server 120 to transmit voice data generated by the first communication terminal to the second communication terminal 110 through a communication network.
  • the server 120 serves to transmit voice data transmitted from the first communication terminal 100 to the second communication terminal 110.
  • the server 120 may be a service center server on a communication network when the information transmitted from the first communication terminal is in a multimedia message service (MMS) format, and the information transmitted from the first communication terminal may be In the case of EMS (Electronic Mail System) format, it may be an e-mail relay server on a communication network.
  • MMS multimedia message service
  • EMS Electronic Mail System
  • a relay server operating each instant messenger can be.
  • the first communication terminal 100 and the second communication terminal 110 means a terminal for transmitting a message or an email including one or more MMS, EMS, or executes a messenger, a mobile phone, a smart phone, This includes all terminals capable of sending and receiving text, such as tablet PCs, PCs, and telematics terminals.
  • the second communication terminal receives voice data transmitted from the first communication terminal, extracts feature data from the voice data, extracts emotion expression data from the feature data, and maps the emotion data.
  • a text message is generated according to a preset value stored and registered in the storage unit 570 and output to the screen.
  • FIG. 5 is a diagram illustrating a detailed configuration of a second communication terminal according to the second embodiment of the present invention.
  • FIG. 5 illustrates that a communication terminal operating on a mobile communication system or the communication system is applied to information processing according to the present invention.
  • the second communication terminal 110 has an external appearance in terms of hardware. It may include a body, a speaker, a microphone, a keypad, a liquid crystal display (LCD) screen, an antenna, a battery, and the like, and may include all the functions and configurations of a communication terminal capable of present or future communication.
  • LCD liquid crystal display
  • the main functional configuration of the second communication terminal 110 referring to the above-described hardware characteristics, the communication unit 510, the input unit 520, the display unit 530, The voice recognition unit 540, the emotion processing unit 550, the character generator 560, the storage unit 570, and the controller 500 for controlling the respective components and programs may be configured.
  • Each component may be added or excluded according to the type and characteristic of the communication terminal and the method of the person skilled in the art.
  • the communication unit 510 serves to receive data including various text messages or character strings received by the second communication terminal 110.
  • Input unit 520 serves to process the user's voice information or text input, such as a key input device, a virtual keyboard or a microphone.
  • the input unit 520 may process the input directly through the input device provided in the second communication terminal 110 itself, but may be configured as a separate device to process the user's input.
  • the display unit 530 serves to display a text message converted from voice data received through the communication unit 510 into a text form that can be displayed as an image.
  • the text message may include not only text but also various images such as pictures and videos.
  • the voice recognition unit 540 extracts feature data from voice data received through the communication unit 510 by using voice recognition technology.
  • voice recognition technology has been variously disclosed in the prior art, and thus detailed description thereof will be omitted since it does not correspond to the gist of the present invention.
  • the feature data basically includes information for converting the quantized voice data into text, and may further include information about a volume, a tone, or a length of sound that can be expressed by voice.
  • the emotion processing unit 550 extracts emotion data on the user's emotion from the feature data extracted from the voice data.
  • the emotion data is extracted from the feature data
  • the emotion data according to an embodiment of the present invention is extracted by including information on the volume of the voice data in the emotion data, or a character that is determined to be one syllable is continuously connected. It can be extracted including information about the length of the interval.
  • the text generation unit 560 generates a text message according to the feature data and a setting value stored in the storage unit 570 corresponding to the emotion data.
  • the text message may include not only a character string but also information that can be represented by an icon or other image, and the text message may be generated by modifying the size and color of the character.
  • the storage unit 570 stores a setting value corresponding to the emotion data and returns a setting value corresponding to the emotion data at the request of the emotion processing unit 550. .
  • the set value according to an embodiment of the present invention may change the size of a string to be included in a text message generated according to the information about the volume included in the emotion data. For example, a syllable having a large volume may be output in a large font, and a syllable having a small volume may be output in a small font.
  • the set value may be outputted by repeatedly outputting the same character according to the length of the syllables included in the emotion data, or by adding a special character to the end of the syllable to generate a text message.
  • a syllable of 'A' which is pronounced longer than a normal speed voice, may be generated as a string of ' ⁇ ⁇ ' or 'A ⁇ '.
  • the set value may change the font of the character according to the tone included in the emotion data to generate a text message.
  • the set value may change the color of the text according to the tone included in the emotion data to generate a text message.
  • the set value may include association conversion information for generating a text message by changing to a separate emoticon or icon for feature data to be converted into a specific character string. For example, 'haha' corresponding to the laughter sound may be converted to ' ⁇ ' and output or may be output as a separate image.
  • Each component may be implemented as a separate device or program, and the controller 500 may control each operation.
  • FIG. 6 is a diagram illustrating a text conversion output process including an emotional expression when a voice message is received according to a second embodiment of the present invention.
  • voice data is received through the communication unit 510 (S610).
  • the voice recognition unit 540 extracts feature data including information for converting the voice data into a text from among the received voice data using a voice recognition technology.
  • the feature data may further include information about a volume, a tone, a length of sound, etc. which can be expressed by voice (S620).
  • the emotion data regarding the volume, pitch, tone, and the like of the voice data are extracted from the feature data extracted in step S620 (S630).
  • the storage unit 570 retrieves a setting value such as a volume, pitch, tone, and associated conversion information corresponding to the emotion data extracted in step S630 (S640).
  • step S640 when the search result setting value in step S640 exists (S650), when generating a character string from the feature data in the character generating unit 550, the size, color, etc. of the character are changed or changed according to the corresponding setting value.
  • a text message is generated as a character string or a separate image (S660). Otherwise, the character generator 550 generates a character string from the feature data according to a default value (S665).
  • the generated text message is output to the screen through the display unit 530 (S670).
  • FIG 4 is an embodiment diagram according to an embodiment of the present invention.
  • the telematics terminal installed in the vehicle corresponding to the first communication terminal 100 may emit a voice of “ha ha ha” or “I want to see too much” for the first wireless terminal 100.
  • the mobile phone corresponding to the second communication terminal 110 receiving the voice message outputs a ' ⁇ * ⁇ ', which is an emotional expression string thereof.
  • it generates and outputs a text message called 'Too ⁇ I want to see' which is a string converted according to the font size and syllable length.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 통신 단말 및 그 통신 단말의 정보처리방법과 기록매체에 관한 것으로, 본 발명에 따른 통신 단말은, 문자메시지 송수신 또는 데이터 통신이 가능한 통신부와, 상기 통신부를 통하여 수신된 문자메시지 또는 문자열을 포함한 데이터에 포함된 문자열 중 감정 표현 문자열이 포함되어 있는지 여부를 검색하고, 해당 감정 표현 문자열에 대한 설정값을 상기 수신된 문자메시지 또는 데이터에 첨부하는 감정처리부와, 감정 표현 문자열 및 상기 감정 표현 문자열에 대응하는 설정값을 데이터베이스 형식으로 저장하고 있는 저장부와, 상기 감정 표현 문자열에 대한 설정값 및 수신한 문자열에 상응하는 음성정보를 생성하는 TTS(Text-To-Speech) 처리부와, 상기 TTS 처리부에서 생성된 음성정보를 출력하는 오디오부를 구비한다.

Description

통신 단말 및 그 통신 단말의 정보처리 방법
본 발명은 통신 단말에서 문자를 포함한 메시지 수신 시, 음성 합성(TTS; Text-to-Speech)를 이용하여 보다 편리하고 효율적으로 메시지 확인이 가능하도록 하는 통신 단말 및 그 통신 단말의 정보처리 방법에 관한 것이다.
종래에 음성과 문자 간의 변환을 위하여 다양한 음성인식 기술(STT;Speech-to-Text)과 음성 합성 기술(TTS; Text-to-Speech)들이 개발되어 왔다. 특허공개번호 제10-2001-0086402호(음성인식 장치)에 따르면, 사용자의 음성을 인식하는 장치와 방법에 대하여 기술하고 있으며, 특허공개번호 제10-2002-0094988호(음성합성방법 및 그것을 실시하는 음성합성장치)에 따르면, 특정 문장을 임의의 음성으로 합성할 수 있는 장치 및 방법에 대하여 기술하고 있다.
또한, 종래의 통신단말에서는 수신한 문자 메시지 또는 문자열을 포함한 데이터를 사용자가 확인하기 위해서는 사용자가 해당 문자 메시지 또는 문자열을 표시하는 화면을 주시하여야 하였으며, 음성 데이터를 수신한 경우 해당 음성 데이터를 재생하거나 문자로 변환하여 확인하여야 했다.
그러나, 이러한 경우, 사용자의 상황에 따라 화면을 주시하기 어려운 경우, 수신한 문자열 또는 음성을 확인할 수 없는 불편함이 있었으며, 상기 수신한 문자열 또는 음성을 발신한 발신인의 감정을 정확히 전달할 수 없는 문제점이 있었다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 통신 단말간에 전송되는 문자열과 음성 간에 변환이 가능하도록 하고, 통신 단말간에 전송되는 문자열과 음성 간의 변환과정에서 송신인의 감정을 효율적으로 표현 할 수 있도록 함으로써, 수신인이 보다 편리하게 메시지를 확인하고, 송신인의 감정을 용이하게 공유할 수 있도록 하기 위함에 있다.
본 발명에 따른 통신단말은, 문자메시지 송수신 또는 데이터 통신이 가능한 통신부; 상기 통신부를 통하여 수신된 문자메시지 또는 문자열을 포함한 데이터에 포함된 문자열 중 감정 표현 문자열이 포함되어 있는지 여부를 검색하고, 해당 감정 표현 문자열에 대한 설정값을 상기 수신된 문자메시지 또는 데이터에 첨부하는 감정처리부; 감정 표현 문자열 및 상기 감정 표현 문자열에 대응하는 설정값을 데이터베이스 형식으로 저장하고 있는 저장부; 상기 감정 표현 문자열에 대한 설정값 및 수신한 문자열에 상응하는 음성정보를 생성하는 TTS(Text-To-Speech) 처리부; 상기 TTS 처리부에서 생성된 음성정보를 출력하는 오디오부 및 상기 각 구성부를 제어하는 제어부를 포함한다.
일측에 따르면, 상기 문자메시지 또는 문자열은, SMS(Short Message Service), EMS(Electronic Mail System), MMS(Multimedia Messaging System), LMS(Long Message Service), 인스턴트 메신저 상에서 전송되는 문자열 중 어느 하나 이상을 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 연관된 다른 문자열로 변환하기 위한 연관 문자열 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음량의 크기에 대한 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음의 높낮이에 대한 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음성의 출력 속도에 대한 정보를 포함할 수 있다.
본 발명에 따른 통신 단말에서의 정보처리 방법은, 통신부를 통하여 문자메시지 또는 문자열을 포함하는 데이터를 수신하는 메시지 수신단계; 상기 수신한 문자메시지 또는 문자열을 포함하는 데이터에 감정 표현 문자열이 포함되어 있는 지 여부를 판단하는 감정 표현 문자열 검색단계; 상기 문자열 검색단계에서 검색된 감정 표현 문자열에 상응하는 설정값이 존재하는지를 판단하는 설정값 검색단계; 상기 문자열 검색단계 및 설정값 검색단계에서 검색된 감정 표현 문자열 및 상기 감정 표현 문자열에 상응하는 설정값에 따라 상기 수신한 문자메시지 또는 문자열을 포함하는 데이터에 상응하는 음성정보를 생성하는 음성합성 단계; 및 상기 음성합성 단계에서 생성된 음성정보를 출력하는 단계를 포함한다.
일측에 따르면, 상기 설정값은, 감정 표현 문자열에 연관된 다른 문자열로 변환하기 위한 연관 문자열 정보를 포함할 수 있다.
또 다른 측면에 따르면, 제7항에 있어서, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음량의 크기에 대한 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음의 높낮이에 대한 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음성의 출력 속도에 대한 정보를 포함할 수 있다.
본 발명에 따른 통신단말은, 데이터 통신이 가능한 통신부; 상기 통신부를 통하여 수신된 음성 데이터로부터 특징 데이터를 추출하는 음성인식부; 상기 음성인식부로부터 추출된 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하고, 상기 추출한 감정 데이터에 상응하는 설정값을 저장부로부터 검색하는 감정 처리부; 특징 데이터 및 감정 데이터에 상응하는 설정값을 데이터베이스 형식으로 저장하는 저장부; 상기 특징 데이터와 감정 데이터에 상응하는 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성부; 및 상기 문자 생성부에서 생성된 문자 메시지를 화면에 표시하는 표시부를 포함한다.
일측에 따르면, 상기 감정 처리부는, 상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의의 음량을 포함하여 추출하고, 상기 설정값은, 상기 감정 데이터에 포함된 음량 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경할 수 있다.
또 다른 측면에 따르면, 상기 감정 처리부는, 상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 감정 데이터를 추출하고, 상기 설정값은, 상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보를 포함할 수 있다.
본 발명에 따른 통신 단말에서의 정보처리 방법은, 통신부를 통하여 음성 데이터를 수신하는 음성 데이터 수신 단계; 상기 수신한 음성 데이터로부터 음성인식부에 의해 특징 데이터를 추출하는 음성인식 단계; 상기 특징 데이터로부터 감정 처리부에 의해 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 감정 데이터 추출 단계; 저장부에 저장된 특징 데이터 및 감정 데이터에 상응하는 설정값을 검색하고, 상기 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성 단계; 및 상기 문자 생성 단계에서 생성된 문자 메시지를 화면에 표시 하는 출력 단계를 포함한다.
일측에 따르면, 상기 감정 데이터 추출 단계는, 상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의 음량에 대한 데이터를 포함하여 추출하고, 상기 설정값은, 상기 감정 데이터에 포함된 음량에 대한 데이터에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경할 수 있다.
또 다른 측면에 따르면, 상기 감정 데이터 추출 단계는, 상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이 포함하여 감정 데이터를 추출하고, 상기 설정값은, 상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보일 수 있다.
본 발명에 따르면, 수신한 문자메시지 또는 문자열을 포함한 데이터에 대하여, 수신인이 화면을 주시하지 않은 상태에서도 수신한 문자메시지 또는 문자열의 내용을 확인할 수 있도록 하는 편리성을 제공하는 동시에 발신인의 감정을 보다 효과적으로 전달하여 의사소통을 함에 있어서 보다 개선된 효율을 가질 수 있도록 한다.
또한, 본 발명에 따르면, 음성으로 송신한 메시지를 문자열로 변환하여 수신인이 용이하게 확인할 수 있는 동시에 발신인의 감정을 보다 효과적으로 전달하여 의사소통을 함에 있어서 보다 개선된 효율을 가질 수 있도록 한다.
도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성을 도시한 도면이다.
도 2는 본 발명의 제1실시 방법에 따른 제 2통신단말의 세부 구성을 도시한 도면이다.
도 3은 본 발명의 제1실시 방법에 따른 문자 메시지 수신 시 감정 표현을 포함한 음성 변환 출력 프로세스를 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따른 음성 메시지 수신 시 감정 표현을 포함한 문자 변환 출력 프로세스를 도시한 도면이다.
도 5는 본 발명의 제2실시 방법에 따른 일실시예도이다.
도 6은 본 발명의 제2실시 방법에 따른 제 2통신단말의 세부 구성을 도시한 도면이다.
특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다. 또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
본 발명의 제1실시 방법에 대해서 설명하기로 한다.
도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성을 도시한 도면이다.
보다 상세하게 본 도 1은 제 1통신단말(100)이 통신망을 통해 제 1통신단말에서 생성된 문자메시지 또는 문자열을 포함한 데이터를 서버(120)에 연결되어 제 2통신단말(110)로 전송하기 위한 구성을 도시한 것이다.
본 발명에 따른 서버(120)는 제 1통신단말(100)에서 전송되는 문자메시지 또는 문자열을 포함한 데이터를 상기 제 2통신단말(110)로 전송하는 역할을 수행한다.
본 발명에 따르면, 상기 서버(120)는, 제 1통신단말에서 전송되는 정보가SMS(Short Message service), LMS(Long Message Service), MMS(Multimedia Message Service)를 하나 이상 포함하는 경우, 통신망 상의 메시지 서비스 센터 서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 EMS(Electronic Mail System)인 경우, 통신망 상의 이메일 중계서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 인스턴트 메신저에 의해 생성되고 전송되는 데이터인 경우, 각각의 인스턴트 메신저를 운영하는 중계서버일 수 있다.
본 발명에 따른 제 1통신단말(100) 및 제 2통신단말(110)은 SMS, LMS, MMS, EMS를 하나 이상 포함하는 메시지 내지 이메일을 전송하거나, 또는 메신저를 실행하는 단말을 의미하며, 휴대폰, 스마트폰, 태블릿PC, PC, 텔레매틱스 단말 등 문자 송수신이 가능한 모든 단말을 포함한다.
본 발명에 따른 제 2통신단말은, 제 1통신단말에서부터 전송된 문자메시지 또는 문자열을 포함한 데이터를 수신하고, 감정 표현 문자열 목록 및 상기 감정 표현 문자열에 대응하는 설정값을 저장부(260) 상에 미리 저장, 등록하고, 상기 수신된 문자메시지 또는 문자열을 포함한 데이터 상에 감정 표현 문자열이 포함되어 있는 지 여부를 검색하고, 상기 검색 결과 검색된 설정값에 따라 상기 수신된 문자메시지 또는 문자열을 포함한 데이터에 대응하는 음성을 합성하여 출력하는 역할을 수행한다.
도 2는 본 발명의 제1실시 방법에 따른 제 2통신단말의 세부 구성을 도시한 도면이다.
도 2는 이동통신 내지 통신 시스템 상에서 운용되는 통신단말이 본 발명에 따른 정보처리에 적용되는 것으로서, 본 도면상에 구체적인 도시는 생략하였으나, 상기 제 2통신단말(110)은 하드웨어적인 측면에서 외형상 몸체와 스피커와 마이크, 키패드, LCD(Liquid Crystal Display) 화면, 안테나 및 배터리 등을 포함할 수 있으며, 이외 현재 또는 향후 통신이 가능한 통신단말의 기능과 구성을 모두 포함할 수 있다.
바람직하게, 전술한 하드웨어적인 특성을 참조하는 본 발명에 따른 제 2통신단말(110)의 주요 기능구성은, 도시된 바와 같이 통신부(210)와, 입력부(220)와, 표시부(230)와, TTS 처리부(240)와, 감정 처리부(250)와, 저장부(280)와, 오디오부(280)와, 스피커(285)와, 상기 각각의 구성부와 프로그램을 제어하는 제어부(200)를 포함하여 구성될 수 있으며, 통신단말의 종류와 특성, 그리고 당업자의 실시방식에 따라 상기 각 구성부는 추가 또는 제외될 수 있다.
도 2를 참조하면, 상기 통신부(210)는, 상기 제 2통신단말(110)로 수신되는 각종 문자메시지 또는 문자열을 포함한 데이터를 수신하는 역할을 수행한다.
본 발명에 따른 입력부(220)는 사용자의 음성정보 또는 문자 입력 정보 입력을 처리하는 역할을 수행하는 것으로 키 입력 장치, 가상 키보드나 마이크가 이에 해당한다.
물론, 상기 입력부(220)는 제 2통신단말(110)에 자체적으로 구비된 입력장치를 통해 직접 입력을 처리할 수도 있으나, 별도의 장치로 구성되어 사용자의 입력을 처리할 수 있다.
본 발명의 실시방법에 따른 표시부(230)는 상기 통신부(210)를 통하여 수신한 문자메시지 또는 문자열을 포함한 데이터를 화면 상으로 표시하는 역할을 수행한다.
본 발명의 실시방법에 따른 TTS 처리부(240)는, 상기 문자메시지 또는 문자열을 음성 정보로 변환하는 TTS(Text-to-Speech) 엔진을 활용하여 상기 통신부(210)를 통하여 수신한 문자메시지 또는 문자열을 포함한 데이터로부터 음성 정보를 합성한다. 여기서, 문자 합성 시, 해당 문자열이 감정 처리부(250)의 검색 결과 감정 표현 문자열인 경우, 해당 감정 표현 문자열에 대한 설정값에 따라 음량, 음의 높낮이, 음성 출력 속도 등을 변경하여 음성 정보를 합성한다.
본 발명에 따르면, 감정 처리부(250)는, 상기 통신부(210)를 통하여 수신된 문자메시지 또는 문자열을 포함한 데이터 내에 저장부(280)에서 저장하고 있는 감정 표현 문자열을 포함하고 있는 지 여부를 판단하고, 상기 문자 메시지 또는 문자열을 포함한 데이터 내에 감정 표현 문자열이 포함되어 있는 경우, 해당 감정 표현 문자열에 해당하는 설정값을 저장부(280)에서 검색하여 감정 표현 문자열 및 설정값을 제어부(200)를 통하여 TTS 처리부(240)로 전송하는 역할을 수행한다.
본 발명에 따르면, 저장부(260)는, 감정 표현 문자열 목록 및 해당 감정 표현 문자열에 대한 설정값을 저장하고, 상기 감정 처리부(250)의 요청에 따라 저장 되어 있는 감정 표현 문자열 중 수신된 문자메시지 또는 문자열을 포함한 데이터에 포함되어 있는 감정 표현 문자열이 존재하는지 여부와, 상기 감정 표현 문자열이 존재하는 경우, 상기 감정 표현 문자열에 대한 설정값을 반환하는 역할을 수행한다.
본 발명에 따르면, 상기 설정값은, 상기 문자메시지 또는 문자열을 포함한 데이터 내에 ‘^^’, ‘ㅠㅠ’ 등 감정을 표현하는 특수문자를 포함하고 있는 경우, 저장부(280)에 저장된 설정값 중 연관 문자열 정보에 따라 해당 감정에 대응하는 정보인 ‘하하’, ‘흑흑’ 등으로 변환하여 생성하도록 할 수 있다.
또한, 본 발명에 따르면, 상기 설정값은, 해당 문자열의 말미에 ‘!’를 포함하고 있거나, ‘화가 난다’ 등의 감정을 표현하는 문자열을 포함하는 경우 등에는 해당 문자열의 출력시 음량을 크게 하거나, ‘우울하다’ 등의 문자열을 포함하는 경우 등에는 해당 문자열의 출력시 음량을 작게 조절하여 음성 정보를 생성하도록 할 수 있다.
또한, 본 발명에 따르면, 상기 설정값은, ‘신난다’, ‘기쁘다’ 등 특정 감정을 표현하기 위한 문자열의 경우, 해당 문자열의 출력시 주파수가 높은 음을 생성하도록 하거나, ‘우울하다’, ‘슬프다’ 등의 특정 감정을 표현하기 위한 문자열의 경우, 문자열을 포함하는 경우 등에는 해당 문자열의 출력시 주파수가 낮은 음을 생성하여 음의 높낮이를 변경하여 음성 정보를 생성하도록 할 수 있다.
또한, 본 발명에 따르면, 상기 설정값은, ‘신난다’, ‘기쁘다’ 등 특정 감정을 표현하는 문자열의 경우, 음성 출력 속도를 빠르게 하거나, ‘우울하다’, ‘슬프다’ 등의 특정 감정을 표현하는 문자열을 포함하는 경우 등에는 해당 문자열의 출력시 음성 출력 속도를 느리게 하여 음성 정보를 생성하도록 할 수 있다.
본 발명의 실시 방법에 따른 오디오부(280)는, 상기 TTS 처리부(240)에서 생성된 음성 정보를 스피커(285)를 통하여 음성으로 출력하는 역할을 수행한다.
본 발명에 따른 제어부(200)는, 상기 기술한 각 부의 동작을 제어하는 역할을 수행한다.
도 3은 본 발명의 제1실시 방법에 따른 문자 메시지 수신 시 감정 표현을 포함한 음성 변환 출력 프로세스를 도시한 도면이다.
우선, 상기 통신부(210)를 통하여 문자메시지 또는 문자열을 포함한 데이터를 수신한다(S310).
이후, 감정 처리부(250)는 상기 (S310)단계에서 수신한 문자메시지 또는 문자열 중 상기 저장부(260)에 저장된 감정 표현 문자열에 포함되어 있는 문자열이 존재하는지 여부를 검색한다(S320).
이후, 상기 (S320)단계의 검색 결과에 따라 수신한 문자메시지 또는 문자열 내에 감정 표현 문자열이 포함되어 있는 경우(S330), 상기 감정 처리부(250)는 상기 저장부(260) 내에서 상기 (S320)단계에서 검색된 감정 표현 문자열에 상응하는 설정값을 검색하고(S340), 상기 수신한 문자메시지 또는 문자열 내에 감정 표현 문자열이 포함되어 있지 않은 경우, 기본값에 따라 TTS 처리부(240)에 의해 음성 정보를 생성한다(S365).
상기 (S340)단계의 검색 결과에 따라, 상기 검색된 감정 표현 문자열에 상응하는 설정값이 저장부(260) 내에 존재하는 경우(S350), 해당 설정값에 따라 TTS 처리부(240)에 의해 음성 정보를 생성하고(S360), 상기 검색된 감정 표현 문자열에 상응하는 설정값이 저장부(260) 내에 존재하지 않는 경우(S350), 기본값에 따라 TTS 처리부(240)에 의해 음성 정보를 생성한다(S365).
이후, 오디오부(280)는 상기 TTS처리부(240)에 의해 생성된 음성 정보를 스피커(285)를 통하여 음성 정보를 출력한다(S370).
도 4는 본 발명의 실시 방법에 따른 일실시예도이다.
도 4에서 보는 바와 같이, 제 1무선단말(100)에 해당하는 스마트폰에서 문자메시지를 전송하면, 제 2무선단말(110)에 해당하는 차량에 설치된 통신단말은, 해당 문자메시지 중 감정 표현 문자열에 해당하는 ‘ㅎㅎ’를 ‘하하’라는 음성으로, ‘나두요~’를 느린 출력속도를 가지는 음성으로 합성하여 스피커를 통해 출력한다.
본 발명의 제2실시예에 대해서 설명하기로 한다.
도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성을 도시한 도면이다.
보다 상세하게 본 도 1은 제 1통신단말(100)이 통신망을 통해 제 1통신단말에서 생성된 음성 데이터를 서버(120)에 연결되어 제 2통신단말(110)로 전송하기 위한 구성을 도시한 것이다.
본 발명에 따른 서버(120)는 제 1통신단말(100)에서 전송되는 음성 데이터를 상기 제 2통신단말(110)로 전송하는 역할을 수행한다.
본 발명에 따르면, 상기 서버(120)는, 제 1통신단말에서 전송되는 정보가MMS(Multimedia Message Service) 형식인 경우, 통신망 상의 서비스 센터 서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 EMS(Electronic Mail System) 형식인 경우, 통신망 상의 이메일 중계서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 인스턴트 메신저의 의해 생성되고 전송되는 데이터인 경우, 각각의 인스턴트 메신저를 운영하는 중계서버일 수 있다.
본 발명에 따른 제 1통신단말(100) 및 제 2통신단말(110)은 MMS, EMS를 하나 이상 포함하는 메시지 내지 이메일을 전송하거나, 또는 메신저를 실행하는 단말을 의미하며, 휴대폰, 스마트폰, 태블릿PC, PC, 텔레매틱스 단말 등 문자 송수신이 가능한 모든 단말을 포함한다.
본 발명에 따른 제 2통신단말은, 제 1통신단말에서부터 전송된 음성 데이터를 수신하고, 상기 음성데이터로부터 특징 데이터를 추출하고, 상기 특징 데이터로부터 감정 표현 데이터를 추출하고, 상기 감정 데이터와 맵핑되고 저장부(570) 상에 미리 저장, 등록된 설정값에 따라 문자메시지를 생성하여 화면에 출력하는 역할을 수행한다.
도 5는 본 발명의 제2실시 방법에 따른 제 2통신단말의 세부 구성을 도시한 도면이다.
도 5는 이동통신 내지 통신 시스템 상에서 운용되는 통신단말이 본 발명에 따른 정보처리에 적용되는 것으로서, 본 도면상에 구체적인 도시는 생략하였으나, 상기 제 2통신단말(110)은 하드웨어적인 측면에서 외형상 몸체와 스피커와 마이크, 키패드, LCD(Liquid Crystal Display) 화면, 안테나 및 배터리 등을 포함할 수 있으며, 이외 현재 또는 향후 통신이 가능한 통신단말의 기능과 구성을 모두 포함할 수 있다.
바람직하게, 전술한 하드웨어적인 특성을 참조하는 본 발명에 따른 제 2통신단말(110)의 주요 기능구성은, 도시된 바와 같이 통신부(510)와, 입력부(520)와, 표시부(530)와, 음성인식부(540)와, 감정 처리부(550)와, 문자 생성부(560)와, 저장부(570)와, 상기 각각의 구성부와 프로그램을 제어하는 제어부(500)를 포함하여 구성될 수 있으며, 통신단말의 종류와 특성, 그리고 당업자의 실시방식에 따라 각 구성부는 추가 또는 제외될 수 있다.
도 5를 참조하면, 상기 통신부(510)는, 상기 제 2통신단말(110)로 수신되는 각종 문자메시지 또는 문자열을 포함한 데이터를 수신하는 역할을 수행한다.
본 발명에 따른 입력부(520)는 사용자의 음성정보 또는 문자 입력을 처리하는 역할을 수행하는 것으로 키 입력 장치, 가상 키보드나 마이크가 이에 해당한다.
물론, 상기 입력부(520)는 제 2통신단말(110)에 자체적으로 구비된 입력장치를 통해 직접 입력을 처리할 수도 있으나, 별도의 장치로 구성되어 사용자의 입력을 처리할 수 있다.
본 발명의 실시방법에 따른 표시부(530)는 상기 통신부(510)를 통하여 수신한 음성데이터를 영상으로 표시 가능한 문자 형태로 변환한 문자메시지를 표시하는 역할을 수행한다.
물론, 상기 문자메시지에는 문자 뿐만 아니라 그림, 동영상 등 다양한 화상을 포함할 수 있다.
본 발명의 실시방법에 따른 음성인식부(540)는, 음성인식 기술을 활용하여 상기 통신부(510)를 통해 수신한 음성 데이터로부터 특징 데이터를 추출한다. 여기서, 음성인식 기술은 종래에 다양하게 공개된 바 있으며, 본 발명의 요지에 해당하지 않으므로 상세한 설명은 생략한다.
여기서, 상기 특징 데이터는 양자화 되어 있는 상기 음성 데이터를 문자로 변환하기 위한 정보를 기본적으로 포함하며, 그 외 음성으로 표현 가능한 음량, 음색, 또는 음의 길이 등에 대한 정보를 더 포함할 수 있다.
본 발명의 실시방법에 따른 감정 처리부(550)는, 상기 음성 데이터로부터 추출된 특징 데이터에서 사용자의 감정에 대한 감정 데이터를 추출한다.
본 발명의 일 실시예에 따른 상기 감정 데이터는, 상기 특징 데이터로부터 감정 데이터 추출 시, 감정 데이터 내에 음성 데이터의의 음량에 대한 정보를 포함하여 추출하거나, 또는 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 추출할 수 있다.
본 발명의 실시방법에 따른 문자 생성부(560)는, 상기 특징 데이터와, 상기 감정 데이터에 상응하는 저장부(570)에 저장된 설정값에 따라 문자 메시지를 생성한다. 물론, 상기 문자 메시지에는 문자열뿐만 아니라 아이콘이나 기타 화상으로 표현 가능한 정보가 포함될 수 있으며, 또한 문자의 크기, 색상 등을 변형하여 문자메시지를 생성할 수 있다.
본 발명의 실시방법에 따른 저장부(570)는, 상기 감정 데이터에 상응하는 설정값을 저장하고, 상기 감정처리부(550)의 요청에 따라 감정 데이터에 상응하는 설정값을 반환하는 역할을 수행한다.
본 발명의 일 실시예에 따른 상기 설정값은, 상기 감정 데이터에 포함된 음량에 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하도록 할 수 있다. 예를 들어, 큰 음량을 가지는 음절의 경우 큰 글씨체로 출력하도록 하고, 작은 음량을 가지는 음절의 경우 작은 글씨체로 출력하도록 할 수 있다.
본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 할 수 있다. 예를 들어, 일반적인 속도의 음성에 비해 길게 발음된 ‘아’라는 음절을 ‘아아아아아아’라는 문자열로 생성하거나, 또는 ‘아~’라는 문자열로 생성하도록 할 수 있다.
본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음색에 따라 문자의 글씨체를 변경하여 문자메시지를 생성하도록 할 수 있다.
본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음색에 따라 문자의 색상을 변경하여 문자메시지를 생성하도록 할 수 있다.
본 발명에 따르면 상기 설정값은, 특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 변환정보를 포함할 수 있다. 예를 들어, 웃음 소리에 해당하는 ‘하하’의 경우 ‘^^’로 변환하여 출력하거나, 별도의 화상으로 출력하도록 할 수 있다.
상기 각 구성부는 별도의 장치 또는 프로그램으로 구현될 수 있으며, 제어부(500)에 의하여 각 동작을 제어할 수 있다.
도 6은 본 발명의 제2실시 방법에 따른 음성 메시지 수신 시 감정 표현을 포함한 문자 변환 출력 프로세스를 도시한 도면이다.
우선, 상기 통신부(510)를 통하여 음성 데이터를 수신한다(S610).
이후, 상기 음성인식부(540)는 음성인식 기술을 활용하여 상기 수신한 음성 데이터 중 상기 음성 데이터를 문자로 변환하기 위한 정보를 기본적으로 포함하는 특징 데이터를 추출한다. 여기서, 상기 특징 데이터는 음성으로 표현 가능한 음량, 음색, 또는 음의 길이 등에 대한 정보를 더 포함할 수 있다(S620).
이후, (S620) 단계에서 추출한 특징 데이터로부터 음성 데이터에 대한 음량, 음정, 음색 등에 대한 감정 데이터를 추출한다(S630).
이후, (S630) 단계에서 추출한 감정 데이터에 상응하는 음량, 음정, 음색, 연관 변환정보 등의 설정값을 저장부(570)에서 검색한다(S640).
이후, 상기 (S640)단계에서의 검색 결과 설정값이 존재 하는 경우(S650), 문자 생성부(550)에서 특징데이터로부터 문자열 생성 시, 해당 설정값에 따라 문자의 크기, 색상 등을 변경하거나 다른 문자열 또는 별도의 화상으로 문자 메시지를 생성하고(S660), 그렇지 않은 경우, 문자생성부(550)에서 기본값에 따라 특징데이터로부터 문자열을 생성한다(S665).
이후, 상기 생성된 문자 메시지를 표시부(530)를 통하여 화면으로 출력한다(S670).
도 4는 본 발명의 실시 방법에 따른 일실시예도이다.
도 4에서 보는 바와 같이, 제 1통신단말(100)에 해당하는 차량에 설치된 텔레매틱스 단말은, 사용자가 ‘하하하’라는 웃음소리 또는 ‘너무 보고 싶다’ 라는 음성을 발성하여 제 1무선단말(100)의 입력부(520)에 음성을 입력하여 입력된 음성 메시지를 전송하면, 상기 음성 메시지를 수신한 제 2통신단말(110)에 해당하는 휴대폰에서는 이에 대한 감정 표현 문자열인 ‘^*^’를 출력하거나 또는 글자크기와 음절길이에 따라 변환된 문자열인 ‘너~무~ 보고 싶다’라는 문자메시지를 생성하여 출력한다.

Claims (19)

  1. 통신 단말에 있어서,
    문자메시지 송수신 또는 데이터 통신이 가능한 통신부;
    상기 통신부를 통하여 수신된 문자메시지 또는 문자열을 포함한 데이터에 포함된 문자열 중 감정 표현 문자열이 포함되어 있는지 여부를 검색하고, 해당 감정 표현 문자열에 대한 설정값을 상기 수신된 문자메시지 또는 데이터에 첨부하는 감정처리부;
    감정 표현 문자열 및 상기 감정 표현 문자열에 대응하는 설정값을 데이터베이스 형식으로 저장하고 있는 저장부;
    상기 감정 표현 문자열에 대한 설정값 및 수신한 문자열에 상응하는 음성정보를 생성하는 TTS(Text-To-Speech) 처리부;
    상기 TTS 처리부에서 생성된 음성정보를 출력하는 오디오부; 및
    상기 각 구성부를 제어하는 제어부;를 포함하는 것을 특징으로 하는 통신 단말.
  2. 제1항에 있어서, 상기 문자메시지 또는 문자열은,
    SMS(Short Message Service), EMS(Electronic Mail System), MMS(Multimedia Messaging System), LMS(Long Message Service), 인스턴트 메신저 상에서 전송되는 문자열 중 어느 하나 이상을 포함하는 것을 특징으로 하는 통신 단말.
  3. 제1항에 있어서, 상기 설정값은,
    감정 표현 문자열에 연관된 다른 문자열로 변환하기 위한 연관 문자열 정보를 포함하는 것을 특징으로 하는 통신 단말.
  4. 제1항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음량의 크기에 대한 정보를 포함하는 것을 특징으로 하는 통신 단말.
  5. 제1항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음의 높낮이에 대한 정보를 포함하는 것을 특징으로 하는 통신 단말.
  6. 제1항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음성의 출력 속도에 대한 정보를 포함하는 것을 특징으로 하는 통신 단말.
  7. 본 발명에 따른 통신 단말에서의 정보처리 방법은, 통신부를 통하여 문자메시지 또는 문자열을 포함하는 데이터를 수신하는 메시지 수신단계;
    상기 수신한 문자메시지 또는 문자열을 포함하는 데이터에 감정 표현 문자열이 포함되어 있는 지 여부를 판단하는 감정 표현 문자열 검색단계;
    상기 문자열 검색단계에서 검색된 감정 표현 문자열에 상응하는 설정값이 존재하는지를 판단하는 설정값 검색단계;
    상기 문자열 검색단계 및 설정값 검색단계에서 검색된 감정 표현 문자열 및 상기 감정 표현 문자열에 상응하는 설정값에 따라 상기 수신한 문자메시지 또는 문자열을 포함하는 데이터에 상응하는 음성정보를 생성하는 음성합성 단계; 및
    상기 음성합성 단계에서 생성된 음성정보를 출력하는 단계;를 포함하는 것을 특징으로 하는 통신 단말에서의 정보처리 방법.
  8. 제7항에 있어서, 상기 설정값은,
    감정 표현 문자열에 연관된 다른 문자열로 변환하기 위한 연관 문자열 정보를 포함하는 것을 특징으로 하는 정보처리 방법.
  9. 제7항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음량의 크기에 대한 정보를 포함하는 것을 특징으로 하는 정보처리 방법.
  10. 제7항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음의 높낮이에 대한 정보를 포함하는 것을 특징으로 하는 정보처리 방법.
  11. 제7항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음성의 출력 속도에 대한 정보를 포함하는 것을 특징으로 하는 정보처리 방법.
  12. 통신 단말에 있어서,
    데이터 통신이 가능한 통신부;
    상기 통신부를 통하여 수신된 음성 데이터로부터 특징 데이터를 추출하는 음성인식부;
    상기 음성인식부로부터 추출된 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하고, 상기 추출한 감정 데이터에 상응하는 설정값을 저장부로부터 검색하는 감정 처리부;
    특징 데이터 및 감정 데이터에 상응하는 설정값을 데이터베이스 형식으로 저장하는 저장부;
    상기 특징 데이터와 감정 데이터에 상응하는 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성부; 및
    상기 문자 생성부에서 생성된 문자 메시지를 화면에 표시하는 표시부;를 포함하는 것을 특징으로 하는 통신 단말.
  13. 제 12항에 있어서,
    상기 감정 처리부는,
    상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의의 음량을 포함하여 추출하고,
    상기 설정값은,
    상기 감정 데이터에 포함된 음량 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하는 것
    을 특징으로 하는 통신 단말.
  14. 제 12항에 있어서,
    상기 감정 처리부는,
    상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 감정 데이터를 추출하고,
    상기 설정값은,
    상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 하는 것
    을 특징으로 하는 통신 단말.
  15. 제 12항에 있어서,
    상기 설정값은,
    특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보를 포함하는 것
    을 특징으로 하는 통신 단말.
  16. 통신 단말에서의 정보처리 방법에 있어서,
    통신부를 통하여 음성 데이터를 수신하는 음성 데이터 수신 단계;
    상기 수신한 음성 데이터로부터 음성인식부에 의해 특징 데이터를 추출하는 음성인식 단계;
    상기 특징 데이터로부터 감정 처리부에 의해 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 감정 데이터 추출 단;계
    저장부에 저장된 특징 데이터 및 감정 데이터에 상응하는 설정값을 검색하고, 상기 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성 단계; 및
    상기 문자 생성 단계에서 생성된 문자 메시지를 화면에 표시 하는 출력 단계;를 포함하는 것을 특징으로 하는 통신 단말에서의 정보처리 방법.
  17. 제 16항에 있어서,
    상기 감정 데이터 추출 단계는,
    상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의 음량에 대한 데이터를 포함하여 추출하고,
    상기 설정값은,
    상기 감정 데이터에 포함된 음량에 대한 데이터에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하는 것
    을 특징으로 하는 통신 단말에서의 정보처리 방법.
  18. 제 16항에 있어서,
    상기 감정 데이터 추출 단계는,
    상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이 포함하여 감정 데이터를 추출하고,
    상기 설정값은,
    상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 하는 것
    을 특징으로 하는 통신 단말에서의 정보처리 방법.
  19. 제 16항에 있어서,
    상기 설정값은,
    특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보인 것
    을 특징으로 하는 통신 단말에서의 정보처리 방법.
PCT/KR2012/011101 2011-12-18 2012-12-18 통신 단말 및 그 통신 단말의 정보처리 방법 WO2013094979A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020110136900A KR101916107B1 (ko) 2011-12-18 2011-12-18 통신 단말 및 그 통신 단말의 정보처리 방법
KR10-2011-0136900 2011-12-18
KR1020110136898A KR20130069260A (ko) 2011-12-18 2011-12-18 통신 단말 및 그 통신 단말의 정보처리 방법
KR10-2011-0136898 2011-12-18

Publications (1)

Publication Number Publication Date
WO2013094979A1 true WO2013094979A1 (ko) 2013-06-27

Family

ID=48668797

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/011101 WO2013094979A1 (ko) 2011-12-18 2012-12-18 통신 단말 및 그 통신 단말의 정보처리 방법

Country Status (1)

Country Link
WO (1) WO2013094979A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109388369A (zh) * 2018-09-10 2019-02-26 杭州骇音科技有限公司 一种将监听信息转换语音播报的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030046444A (ko) * 2000-09-13 2003-06-12 가부시키가이샤 에이.지.아이 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어
KR20070117195A (ko) * 2006-06-07 2007-12-12 삼성전자주식회사 휴대용 단말기에서 사용자의 감정이 이입된 문자메시지를송수신하는 방법 및 장치
KR20090069133A (ko) * 2007-12-24 2009-06-29 한국전자통신연구원 이동 단말기 및 그 제어방법
KR20090085376A (ko) * 2008-02-04 2009-08-07 삼성전자주식회사 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
KR20100135782A (ko) * 2008-04-08 2010-12-27 가부시키가이샤 엔.티.티.도코모 미디어 처리 서버 장치 및 미디어 처리 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030046444A (ko) * 2000-09-13 2003-06-12 가부시키가이샤 에이.지.아이 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어
KR20070117195A (ko) * 2006-06-07 2007-12-12 삼성전자주식회사 휴대용 단말기에서 사용자의 감정이 이입된 문자메시지를송수신하는 방법 및 장치
KR20090069133A (ko) * 2007-12-24 2009-06-29 한국전자통신연구원 이동 단말기 및 그 제어방법
KR20090085376A (ko) * 2008-02-04 2009-08-07 삼성전자주식회사 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
KR20100135782A (ko) * 2008-04-08 2010-12-27 가부시키가이샤 엔.티.티.도코모 미디어 처리 서버 장치 및 미디어 처리 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109388369A (zh) * 2018-09-10 2019-02-26 杭州骇音科技有限公司 一种将监听信息转换语音播报的方法

Similar Documents

Publication Publication Date Title
CN101622854B (zh) 提供和显示动画sms消息的设备和方法
FI115868B (fi) Puhesynteesi
US9111545B2 (en) Hand-held communication aid for individuals with auditory, speech and visual impairments
WO2016021937A1 (ko) 문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법
WO2021006538A1 (ko) 텍스트 메시지를 브이모지로 표현하는 아바타 비주얼 변환 장치 및 메시지 변환 방법
JPWO2009125710A1 (ja) メディア処理サーバ装置およびメディア処理方法
CN104010267A (zh) 支持基于翻译的通信服务方法和系统和支持该服务的终端
WO2019164234A1 (en) Method to learn personalized intents
WO2015041434A1 (ko) 다국어 메시지 번역 시스템 및 그 방법
CN111768786B (zh) 聋哑人通话智能终端平台及其通话方法
WO2013094982A1 (ko) 정보처리 방법 및 시스템과 기록매체
WO2013094979A1 (ko) 통신 단말 및 그 통신 단말의 정보처리 방법
KR101916107B1 (ko) 통신 단말 및 그 통신 단말의 정보처리 방법
JP2004056290A (ja) 無線通信装置
WO2015037871A1 (ko) 텍스트 인식을 이용한 음성재생 서비스 제공 시스템, 서버 및 단말
KR20080006955A (ko) 이동통신 단말기의 문자메시지 변환 장치 및 방법
JP2002207671A (ja) 携帯電話機及び電子メール文章送信/再生方法
US20100310058A1 (en) Mobile communication terminal and control method thereof
KR20090054609A (ko) 감정적 콘텐츠 효과를 포함하는 전화 통신 서비스를제공하는 VoIP 전화 통신 시스템 및 방법
KR20130069261A (ko) 정보처리 방법 및 시스템과 기록매체
KR101597248B1 (ko) VoIP 기반 음성 통화 시 음성 인식을 이용한 광고 제공 시스템 및 방법
JP2004023225A (ja) 情報通信装置およびその信号生成方法、ならびに情報通信システムおよびそのデータ通信方法
WO2013095019A1 (ko) 정보처리 방법 및 시스템과 기록매체
KR100487446B1 (ko) 이동 통신 단말의 오디오 장치를 이용한 감정 표현 방법및 이를 위한 이동 통신 단말
KR100945162B1 (ko) 링백톤제공시스템 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12859203

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12859203

Country of ref document: EP

Kind code of ref document: A1