WO2013094982A1 - 정보처리 방법 및 시스템과 기록매체 - Google Patents

정보처리 방법 및 시스템과 기록매체 Download PDF

Info

Publication number
WO2013094982A1
WO2013094982A1 PCT/KR2012/011105 KR2012011105W WO2013094982A1 WO 2013094982 A1 WO2013094982 A1 WO 2013094982A1 KR 2012011105 W KR2012011105 W KR 2012011105W WO 2013094982 A1 WO2013094982 A1 WO 2013094982A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
emotion
voice
string
information
Prior art date
Application number
PCT/KR2012/011105
Other languages
English (en)
French (fr)
Inventor
장준호
안지현
변건호
Original Assignee
인포뱅크 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020110136901A external-priority patent/KR20130069263A/ko
Priority claimed from KR1020110136899A external-priority patent/KR20130069261A/ko
Application filed by 인포뱅크 주식회사 filed Critical 인포뱅크 주식회사
Publication of WO2013094982A1 publication Critical patent/WO2013094982A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Definitions

  • the present invention relates to an information processing system and an information processing method of the system for enabling a user to check a message more conveniently and efficiently by using a text-to-speech (TTS) when receiving a message including a text in a communication terminal.
  • TTS text-to-speech
  • Patent Publication No. 10-2001-0086402 voice recognition device
  • Patent Publication No. 10-2002-0094988 voice synthesis method and implementation thereof
  • Voice synthesizer describes a device and a method for synthesizing a specific sentence into an arbitrary voice.
  • the user in order for the user to check the data including the received text message or character string, the user should watch the screen displaying the text message or character string. I had to convert it to a character and check it.
  • An object of the present invention for solving the above problems, it is possible to convert between the string and the voice transmitted between the communication terminal, and to efficiently the emotion of the voice or string sender in the conversion process between the string and the voice transmitted between the communication terminal In order to express the message, the recipient can more conveniently check the message and easily share the emotion of the sender.
  • An information processing system includes a receiving unit for receiving a message from a first communication terminal; An emotion that retrieves whether an emotion expression string is included in the strings included in the text message or the data received through the receiver and attaches a setting value for the emotion expression string to the received text message or data.
  • Processing unit A storage unit which stores an emotion expression string and a setting value corresponding to the emotion expression string; A text-to-speech (TTS) processing unit corresponding to a set value of the emotion expression string and generating voice information corresponding to the received string; And a transmitter for transmitting the voice information generated by the TTS processor to a second communication terminal.
  • TTS text-to-speech
  • the text message may include a Short Message Service (SMS), an Electronic Mail System (EMS), and a Multimedia Messaging System (MMS).
  • SMS Short Message Service
  • EMS Electronic Mail System
  • MMS Multimedia Messaging System
  • the set value may include association string information for converting to another string associated with the emotion expression string.
  • the set value may include information on the volume of the volume output when the voice is output for the emotion expression string.
  • the set value may include information on the pitch of the sound that is output when the voice for the emotion expression string is output.
  • the set value may include information on an output speed of the voice output when the voice is output for the emotion expression string.
  • An information processing method includes a message receiving step of receiving data including a text message or a character string from a first communication terminal through a receiving unit; An emotion expression string searching step of determining whether an emotion expression string is included in the data including the received text message or character string; A setting value searching step of determining whether there is a setting value corresponding to the emotion expression string searched in the string searching step; A voice synthesis step of generating voice information corresponding to the received text message or data including the string according to the emotion expression string searched in the character string search step and the set value search step and the setting value corresponding to the emotion expression string; And transmitting the voice information generated in the voice synthesis step to a second communication terminal.
  • the setting value may include association string information for converting to another string associated with the emotion expression string.
  • the set value may include information on the volume of the volume output when the voice is output for the emotion expression string.
  • the set value may include information on the pitch of the sound that is output when the voice for the emotion expression string is output.
  • the set value may include information on an output speed of the voice output when the voice is output for the emotion expression string.
  • An information processing system includes a receiving unit for receiving voice data from a first communication terminal; A voice recognition unit for extracting feature data from voice data received through the reception unit; An emotion processor extracting emotion data of a user corresponding to the voice data from the feature data extracted from the voice recognition unit; A storage unit which stores setting values corresponding to the feature data and the emotion data in a database format; A text generation unit configured to generate a text message from the feature data according to setting values corresponding to the feature data and the emotion data; And a transmitter for transmitting the text message generated by the text generator to a second communication terminal.
  • the emotion processing unit when extracting the emotion data from the feature data, including the volume of the voice data is extracted, the set value, in the text message generated according to the information about the volume contained in the emotion data You can change the size of the string to be included.
  • the emotion processing unit when extracting the emotion data from the feature data, extracts the emotion data including information on the length of the section in which the character that is determined to be one syllable consecutively, the set value,
  • the same message may be repeatedly output according to the length of the syllable included in the emotion data, or a text message may be generated by adding a special character to the end of the syllable.
  • the setting value may include related information for generating a text message by changing to a separate emoticon or icon for feature data to be converted into a specific character string.
  • An information processing method includes a voice data receiving step of receiving voice data from a first communication terminal through a receiving unit; A voice recognition step of extracting feature data from the received voice data; Extracting emotion data of a user corresponding to the voice data from the feature data; A text generation step of retrieving setting values corresponding to the feature data and the emotion data stored in the storage unit and generating a text message from the feature data according to the setting values; And a transmission step of transmitting the text message generated in the text generation step to a second communication terminal.
  • the emotion data extraction step when extracting the emotion data from the feature data, including the data about the volume of the voice data is extracted, the setting value, according to the data about the volume contained in the emotion data You can change the size of the string to be included in the generated text message.
  • the emotion data extracting step when extracting the emotion data from the feature data, extracts the emotion data including the length of the section in which the character is determined to be one syllable consecutively, the set value is the emotion Depending on the length of the syllables included in the data, the same character may be output repeatedly or a special message may be added to the end of the syllable to generate a text message.
  • the set value may be related information for generating a text message by changing to a separate emoticon or icon for feature data to be converted into a specific character string.
  • a message transmitted by voice is converted into a character string so that a recipient can easily check and at the same time more effectively transmit the emotions of the sender so that the communication can be improved.
  • FIG. 1 is a diagram showing an overall system configuration according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a detailed configuration of a server according to the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a voice conversion and transmission process including an emotional expression in a text message relay transmission in an information processing system according to a first embodiment of the present invention.
  • FIG 4 is an embodiment diagram according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a detailed configuration of a server according to the second embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a voice conversion and transmission process including an emotional expression in a text message relay transmission in an information processing system according to a second embodiment of the present invention.
  • FIG. 1 is a diagram showing an overall system configuration according to an embodiment of the present invention.
  • FIG. 1 illustrates a configuration in which the first communication terminal 100 transmits data including a text message or a character string generated in the first communication terminal to a server 120 through a communication network to a second communication terminal. It is shown.
  • the server 120 serves to transmit data including text messages or character strings transmitted from the first communication terminal 100 to the second communication terminal 110.
  • the information transmitted from the first communication terminal includes at least one of a short message service (SMS), a long message service (LMS), and a multimedia message service (MMS)
  • SMS short message service
  • LMS long message service
  • MMS multimedia message service
  • a message on a communication network is provided.
  • It may be a service center server
  • the information transmitted from the first communication terminal is an EMS (Electronic Mail System)
  • EMS Electronic Mail System
  • it may be an email relay server on the communication network
  • the information transmitted from the first communication terminal is generated by an instant messenger
  • it may be a relay server operating each instant messenger.
  • the first communication terminal 100 and the second communication terminal 110 means a terminal for transmitting a message or an email including one or more SMS, LMS, MMS, EMS, or executes a messenger, a mobile phone , Smartphones, tablet PCs, PCs, telematics terminal, including all the terminals capable of sending and receiving text.
  • the second communication terminal receives data including a text message or a string transmitted from the first communication terminal, and stores a list of emotion expression strings and setting values corresponding to the emotion expression strings on the storage unit 280. Storing and registering in advance, searching whether the emotion expression string is included in the data including the received text message or character string, and searching the data including the received text message or character string according to the searched result. Synthesize and output the corresponding voice.
  • FIG. 2 is a diagram showing a detailed configuration of a server according to the first embodiment of the present invention.
  • the main functional configuration of the server 120 according to the present invention, the receiver 210, the TTS processing unit 220, the emotion processing unit 230, the storage unit 240, the transmission unit 250 and It may be configured to include a control unit 200 for controlling each component and the program, each component may be added or excluded depending on the characteristics of the information processing system, and the implementation manner of those skilled in the art.
  • the receiving unit 210 serves to receive data including various text messages or character strings transmitted from the first communication terminal 100.
  • the TTS processing unit 220 utilizes a text-to-speech (TTS) engine for converting the text message or the text into voice information, and the data including the text message or the text received through the reception unit 210.
  • Speech information is synthesized from the.
  • the voice information is synthesized by changing the volume, the pitch of the sound, the voice output speed, etc. according to the setting value for the emotion expression string. do.
  • the emotion processing unit 230 determines whether the emotion expression string stored in the storage unit 240 is included in the data including the text message or the string received through the reception unit 210 and When the emotional expression string is included in the data including the text message or the character string, the controller 240 searches for a setting value corresponding to the emotional expression string through the control unit 200. It serves to transmit to the TTS processing unit 220.
  • the storage unit 240 stores a list of emotion expression strings and setting values for the emotion expression strings, and receives the text message received from the emotion expression strings stored at the request of the emotion processing unit 230. Or whether the emotional expression string included in the data including the string exists and, if the emotional expression string exists, returns a setting value for the emotional expression string.
  • the set value when the set value includes special characters expressing emotions such as ' ⁇ ', ' ⁇ ' in the data including the text message or character string, among the set values stored in the storage unit 280.
  • the association string information it may be generated by converting the information corresponding to the emotion, such as 'haha', 'black and white'.
  • the set value includes a '!' At the end of the string, or a string that expresses an emotion such as 'angry', etc. Or, in the case of including a string such as 'depressed', such as to output voice information by adjusting the volume when the output of the string can be made small.
  • the set value in the case of a string for expressing a particular emotion, such as' excited ',' happy ', so that the frequency of the output of the string is generated, or' depressed ','
  • voice information may be generated by changing the height of the sound by generating a low frequency sound when the corresponding string is output.
  • the set value in the case of a string expressing a particular emotion, such as 'excited', 'happy', the speed of the voice output speed, or express a specific emotion, such as 'depressed', 'sad'
  • the voice information may be generated by slowing down the voice output speed when the corresponding string is output.
  • the transmitter 250 performs a role of transmitting to the second communication terminal 110 through a communication network.
  • the control unit 200 serves to control the operation of each unit described above.
  • FIG. 3 is a diagram illustrating a voice conversion and transmission process including an emotional expression in a text message relay transmission in an information processing system according to a first embodiment of the present invention.
  • the emotion processing unit 230 searches whether there is a string included in the emotion expression string stored in the storage unit 240 among the text message or the string received in step S310 (S320).
  • the emotion processing unit 230 is the storage unit 240 in the (S320).
  • a search value corresponding to the emotional expression string searched for is found (S340). If the emotional expression string is not included in the received text message or character string, the voice information is transmitted by the TTS processor 220 according to a default value. Create (S365).
  • the voice information is transmitted by the TTS processing unit 220 according to the setting value.
  • voice information is generated by the TTS processing unit 240 according to a default value (S365).
  • the transmitter 250 transmits the voice information generated by the TTS processor 220 to the second communication terminal 110 through the communication network as data in the form of a voice file (S370).
  • the second communication terminal 110 receiving the voice file reproduces the received voice file and outputs a voice message.
  • FIG 4 is an embodiment diagram according to an embodiment of the present invention.
  • the communication terminal installed in the vehicle corresponding to the second wireless terminal 110 may have an emotional expression string among the corresponding text messages. Corresponds to 'haha' and 'haha', and synthesizes 'naduyo' into a voice with a slow output speed and outputs it through the speaker.
  • FIG. 1 is a diagram showing an overall system configuration according to an embodiment of the present invention.
  • FIG. 1 illustrates a configuration in which the first communication terminal 100 is connected to the server 120 to transmit voice data generated by the first communication terminal to the second communication terminal 110 through a communication network.
  • the server 120 receives voice data transmitted from the first communication terminal 100, extracts feature data from the voice data, extracts the emotion data from the feature data, and extracts the emotion data from the voice data. It is mapped and stores the text message according to a preset value stored and registered in advance in the storage unit 250 and transmits it to the second communication terminal 110.
  • the server 120 may be a service center server on a communication network when the information transmitted from the first communication terminal is in a multimedia message service (MMS) format, and the information transmitted from the first communication terminal may be In the case of EMS (Electronic Mail System) format, it may be an e-mail relay server on a communication network.
  • MMS multimedia message service
  • EMS Electronic Mail System
  • a relay server operating each instant messenger can be.
  • the first communication terminal 100 and the second communication terminal 110 means a terminal for transmitting a message or an email including one or more MMS, EMS, or executes a messenger, a mobile phone, a smart phone, This includes all terminals capable of sending and receiving text, such as tablet PCs, PCs, and telematics terminals.
  • FIG. 5 is a diagram illustrating a detailed configuration of a server according to the second embodiment of the present invention.
  • the receiver 510 receives voice data transmitted from the first communication terminal 100.
  • the voice recognition unit 520 extracts feature data from the voice data received through the receiver 510 using a voice recognition technology.
  • the voice recognition technology has been variously disclosed in the prior art, and thus detailed description thereof will be omitted since it does not correspond to the gist of the present invention.
  • the feature data basically includes information for converting the quantized voice data into text, and may further include information about a volume, a tone, or a length of sound that can be expressed by voice.
  • the emotion processing unit 530 extracts emotion data on the user's emotion from the feature data extracted from the voice data.
  • the emotion data is extracted from the feature data
  • the emotion data according to an embodiment of the present invention is extracted by including information on the volume of the voice data in the emotion data, or a character that is determined to be one syllable is continuously connected. It can be extracted including information about the length of the interval.
  • the text generation unit 540 generates a text message according to the feature data and a setting value stored in the storage unit 550 corresponding to the emotion data.
  • the text message may include not only a character string but also information that can be represented by an icon or other image, and the text message may be generated by modifying the size and color of the character.
  • the storage unit 550 stores a setting value corresponding to the emotion data and returns a setting value corresponding to the emotion data at the request of the emotion processing unit 530. .
  • the set value according to an embodiment of the present invention may change the size of a string to be included in a text message generated according to the information about the volume included in the emotion data. For example, a syllable having a large volume may be output in a large font, and a syllable having a small volume may be output in a small font.
  • the set value may be outputted by repeatedly outputting the same character according to the length of the syllables included in the emotion data, or by adding a special character to the end of the syllable to generate a text message.
  • a syllable of 'A' which is pronounced longer than a normal speed voice, may be generated as a string of ' ⁇ ⁇ ' or 'A ⁇ '.
  • the set value may change the font of the character according to the tone included in the emotion data to generate a text message.
  • the set value may change the color of the text according to the tone included in the emotion data to generate a text message.
  • the set value may include association conversion information for generating a text message by changing to a separate emoticon or icon for feature data to be converted into a specific character string. For example, 'haha' corresponding to the laughter sound may be converted to ' ⁇ ' and output or may be output as a separate image.
  • the transmitter 560 transmits a text message generated by the text generator 540 to the second communication terminal 110 through a communication network.
  • Each component may be implemented as a separate device or program, and the controller 500 may control each operation.
  • FIG. 6 is a diagram illustrating a text conversion output process including emotions when transmitting a voice message relay according to the second embodiment of the present invention.
  • voice data is received through the receiver 510 (S610).
  • the voice recognition unit 540 extracts feature data including information for converting the voice data into a text from among the received voice data using a voice recognition technology.
  • the feature data may further include information about a volume, a tone, a length of sound, or the like that can be expressed by voice (S620).
  • the emotion data regarding the volume, pitch, tone, etc. of the voice data is extracted from the feature data extracted in step S620 (S630).
  • the storage unit 550 retrieves setting values such as volume, pitch, tone, and associated conversion information corresponding to the emotion data extracted in step S630 (S640).
  • the search result setting value in the step S640 exists (S650)
  • the size, color, etc. of the character may be changed according to the corresponding setting value.
  • a text message is generated from another character string or a separate image (S660). Otherwise, the character generator 540 generates a character string from the feature data according to a default value (S665).
  • the generated text message is transmitted to the second communication terminal through the transmitter 560 (S670).
  • FIG 4 is an embodiment diagram according to an embodiment of the present invention.
  • the telematics terminal installed in the vehicle corresponding to the first communication terminal 100 may emit a voice of 'ha ha ha' or 'I want to see too much' to the first wireless terminal ( 100) and transmits the voice message to the server 120, the server 120 receiving the voice message is converted to the character expression string ' ⁇ * ⁇ ' or the character size and the length of the syllable It generates a text message of 'you want to see ⁇ ' to be transmitted to the mobile phone corresponding to the second communication terminal 110 to be output.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 정보처리 시스템 및 그 시스템의 정보처리 방법에 관한 것으로, 본 발명에 따른 정보처리 시스템은, 제 1통신단말로부터 메시지를 수신하는 수신부와, 상기 수신부를 통하여 수신된 문자메시지 또는 문자열을 포함한 데이터에 포함된 문자열 중 감정 표현 문자열이 포함되어 있는지 여부를 검색하고, 해당 감정 표현 문자열에 대한 설정값을 상기 수신된 문자메시지 또는 데이터에 첨부하는 감정처리부와, 감정 표현 문자열 및 상기 감정 표현 문자열에 대응하는 설정값을 저장하고 있는 저장부와, 상기 감정 표현 문자열에 대한 설정값에 상응하며, 수신한 문자열에 상응하는 음성정보를 생성하는 TTS(Text-To-Speech) 처리부 및 상기 TTS 처리부에서 생성된 음성정보를 제 2통신단말로 송신하는 송신부를 구비한다.

Description

정보처리 방법 및 시스템과 기록매체
본 발명은 통신 단말에서 문자를 포함한 메시지 수신 시, 음성 합성(TTS; Text-to-Speech)를 이용하여 보다 편리하고 효율적으로 메시지 확인이 가능하도록 하는 정보처리 시스템 및 그 시스템의 정보처리 방법에 관한 것이다.
종래에 음성과 문자 간의 변환을 위하여 다양한 음성인식 기술(STT;Speech-to-Text)과 음성 합성 기술(TTS; Text-to-Speech)들이 개발되어 왔다. 특허공개번호 제10-2001-0086402호(음성인식 장치)에 따르면, 사용자의 음성을 인식하는 장치와 방법에 대하여 기술하고 있으며, 특허공개번호 제10-2002-0094988호(음성합성방법 및 그것을 실시하는 음성합성장치)에 따르면, 특정 문장을 임의의 음성으로 합성할 수 있는 장치 및 방법에 대하여 기술하고 있다.
또한, 종래의 통신단말에서는 수신한 문자 메시지 또는 문자열을 포함한 데이터를 사용자가 확인하기 위해서는 사용자가 해당 문자 메시지 또는 문자열을 표시하는 화면을 주시하여야 하였으며, 음성 데이터를 수신한 경우 해당 음성 데이터를 재생하거나 문자로 변환하여 확인하여야 했다.
그러나, 이러한 경우, 사용자의 상황에 따라 화면을 주시하기 어려운 경우, 수신한 문자열 또는 음성을 확인할 수 없는 불편함이 있었으며, 상기 수신한 문자열 또는 음성을 발신한 발신인의 감정을 정확히 전달할 수 없는 문제점이 있었다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 통신 단말간에 전송되는 문자열과 음성 간에 변환이 가능하도록 하고, 통신 단말간에 전송되는 문자열과 음성 간의 변환과정에서 음성 또는 문자열 송신인의 감정을 효율적으로 표현 할 수 있도록 함으로써, 수신인이 보다 편리하게 메시지를 확인하고, 송신인의 감정을 용이하게 공유할 수 있도록 하기 위함에 있다.
본 발명에 따른 정보처리 시스템은, 제 1통신단말로부터 메시지를 수신하는 수신부; 상기 수신부를 통하여 수신된 문자메시지 또는 문자열을 포함한 데이터에 포함된 문자열 중 감정 표현 문자열이 포함되어 있는지 여부를 검색하고, 해당 감정 표현 문자열에 대한 설정값을 상기 수신된 문자메시지 또는 데이터에 첨부하는 감정처리부; 감정 표현 문자열 및 상기 감정 표현 문자열에 대응하는 설정값을 저장하고 있는 저장부; 상기 감정 표현 문자열에 대한 설정값에 상응하며, 수신한 문자열에 상응하는 음성정보를 생성하는 TTS(Text-To-Speech) 처리부; 및 상기 TTS 처리부에서 생성된 음성정보를 제 2통신단말로 송신하는 송신부;를 포함한다.
일측에 따르면, 상기 문자메시지는, SMS(Short Message Service), EMS(Electronic Mail System), MMS(Multimedia Messaging System)을 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 연관된 다른 문자열로 변환하기 위한 연관 문자열 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음량의 크기에 대한 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음의 높낮이에 대한 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음성의 출력 속도에 대한 정보를 포함할 수 있다.
본 발명에 따른 정보처리 방법은, 수신부를 통하여 제 1통신단말로부터 문자메시지 또는 문자열을 포함하는 데이터를 수신하는 메시지 수신단계; 상기 수신한 문자메시지 또는 문자열을 포함하는 데이터에 감정 표현 문자열이 포함되어 있는 지 여부를 판단하는 감정 표현 문자열 검색단계; 상기 문자열 검색단계에서 검색된 감정 표현 문자열에 상응하는 설정값이 존재하는지를 판단하는 설정값 검색단계; 상기 문자열 검색단계 및 설정값 검색단계에서 검색된 감정 표현 문자열 및 상기 감정 표현 문자열에 상응하는 설정값에 따라 상기 수신한 문자메시지 또는 문자열을 포함하는 데이터에 상응하는 음성정보를 생성하는 음성합성 단계; 및 상기 음성합성 단계에서 생성된 음성정보를 제 2통신단말로 전송하는 단계;를 포함한다.
일측에 따르면, 상기 설정값은, 감정 표현 문자열에 연관된 다른 문자열로 변환하기 위한 연관 문자열 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음량의 크기에 대한 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음의 높낮이에 대한 정보를 포함할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 감정 표현 문자열에 대한 음성 출력 시, 출력되는 음성의 출력 속도에 대한 정보를 포함할 수 있다.
본 발명에 따른 정보처리 시스템은, 제 1통신단말로부터 음성 데이터를 수신하는 수신부; 상기 수신부를 통하여 수신된 음성 데이터로부터 특징 데이터를 추출하는 음성인식부; 상기 음성인식부로부터 추출된 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 감정 처리부; 특징 데이터 및 감정 데이터에 상응하는 설정값을 데이터베이스 형식으로 저장하는 저장부; 상기 특징 데이터와 감정 데이터에 상응하는 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성부; 및 상기 문자 생성부에서 생성된 문자 메시지를 제 2통신단말로 전송하는 송신부;를 포함한다.
일측에 따르면, 상기 감정 처리부는, 상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의의 음량을 포함하여 추출하고, 상기 설정값은, 상기 감정 데이터에 포함된 음량 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경할 수 있다.
또 다른 측면에 따르면, 상기 감정 처리부는, 상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 감정 데이터를 추출하고, 상기 설정값은, 상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보를 포함할 수 있다.
본 발명에 따른 정보처리 방법은, 수신부를 통하여 제 1통신단말로부터음성 데이터를 수신하는 음성 데이터 수신 단계; 상기 수신한 음성 데이터로부터 특징 데이터를 추출하는 음성인식 단계; 상기 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 단계; 저장부에 저장된 특징 데이터 및 감정 데이터에 상응하는 설정값을 검색하고, 상기 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성 단계; 및 상기 문자 생성 단계에서 생성된 문자 메시지를 제 2 통신단말로 전송하는 송신 단계;를 포함한다.
일측에 따르면, 상기 감정 데이터 추출 단계는, 상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의 음량에 대한 데이터를 포함하여 추출하고, 상기 설정값은, 상기 감정 데이터에 포함된 음량에 대한 데이터에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경할 수 있다.
또 다른 측면에 따르면, 상기 감정 데이터 추출 단계는, 상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이 포함하여 감정 데이터를 추출하고, 상기 설정값은, 상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성할 수 있다.
또 다른 측면에 따르면, 상기 설정값은, 특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보일 수 있다.
본 발명에 따르면, 수신한 문자메시지 또는 문자열을 포함한 데이터에 대하여, 제 2통신단말의 사용자인 수신인이 화면을 주시하지 않은 상태에서도 수신한 문자메시지 또는 문자열의 내용을 확인할 수 있도록 하는 편리성을 제공하는 동시에 발신인의 감정을 보다 효과적으로 전달하여 의사소통을 함에 있어서 보다 개선된 효율을 가질 수 있도록 한다.
본 발명에 따르면, 음성으로 송신한 메시지를 문자열로 변환하여 수신인이 용이하게 확인할 수 있는 동시에 발신인의 감정을 보다 효과적으로 전달하여 의사소통을 함에 있어서 보다 개선된 효율을 가질 수 있도록 한다.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 전술한 발명의 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되지 않아야 한다.
도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성을 도시한 도면이다.
도 2는 본 발명의 제1실시 방법에 따른 서버의 세부 구성을 도시한 도면이다.
도 3은 본 발명의 제1실시 방법에 따른 정보처리 시스템에서의 문자 메시지 중계 전송 시 감정 표현을 포함한 음성 변환 및 전송 프로세스를 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따른 일실시예도이다.
도 5는 본 발명의 제2실시 방법에 따른 서버의 세부 구성을 도시한 도면이다.
도 6은 본 발명의 제2실시 방법에 따른 정보처리 시스템에서의 문자 메시지 중계 전송 시 감정 표현을 포함한 음성 변환 및 전송 프로세스를 도시한 도면이다.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다. 또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
본 발명의 제1실시 방법에 대해서 설명하기로 한다.
도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성을 도시한 도면이다.
보다 상세하게 본 도 1은 제 1통신단말(100)이 통신망을 통해 제 1통신단말에서 생성된 문자메시지 또는 문자열을 포함한 데이터를 서버(120)에 연결되어 제 2통신단말로 전송하기 위한 구성을 도시한 것이다.
본 발명에 따른 서버(120)는 제 1통신단말(100)에서 전송되는 문자메시지 또는 문자열을 포함한 데이터를 상기 제 2통신단말(110)로 전송하는 역할을 수행한다.
본 발명에 따르면, 상기 서버(120)는 제 1통신단말에서 전송되는 정보가SMS(Short Message service), LMS(Long Message Service), MMS(Multimedia Message Service)를 하나 이상 포함하는 경우, 통신망 상의 메시지 서비스 센터 서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 EMS(Electronic Mail System)인 경우, 통신망 상의 이메일 중계서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 인스턴트 메신저에 의해 생성되고 전송되는 데이터인 경우, 각각의 인스턴트 메신저를 운영하는 중계서버일 수 있다.
본 발명에 따른 제 1통신단말(100) 및 제 2통신단말(110)은 SMS, LMS, MMS, EMS를 하나 이상 포함하는 메시지 내지 이메일을 전송하거나, 또는 메신저를 실행하는 단말을 의미하며, 휴대폰, 스마트폰, 태블릿PC, PC, 텔레매틱스 단말 등 문자 송수신이 가능한 모든 단말을 포함한다.
본 발명에 따른 제 2통신단말은, 제 1통신단말에서부터 전송된 문자메시지 또는 문자열을 포함한 데이터를 수신하고, 감정 표현 문자열 목록 및 상기 감정 표현 문자열에 대응하는 설정값을 저장부(280) 상에 미리 저장, 등록하고, 상기 수신된 문자메시지 또는 문자열을 포함한 데이터 상에 감정 표현 문자열이 포함되어 있는 지 여부를 검색하고, 상기 검색 결과 검색된 설정값에 따라 상기 수신된 문자메시지 또는 문자열을 포함한 데이터에 대응하는 음성을 합성하여 출력하는 역할을 수행한다.
도 2는 본 발명의 제1실시 방법에 따른 서버의 세부 구성을 도시한 도면이다.
본 발명에 따른 서버(120)의 주요 기능구성은, 도시된 바와 같이 수신부(210)와, TTS 처리부(220)와, 감정 처리부(230)와, 저장부(240)와, 송신부(250) 및 상기 각 구성부와 프로그램을 제어하는 제어부(200)를 포함하여 구성될 수 있으며, 정보처리 시스템의 특성, 그리고 당업자의 실시방식에 따라 각 구성부는 추가 또는 제외될 수 있다.
도 2를 참조하면, 상기 수신부(210)는, 상기 제 1통신단말(100)로부터 전송되는 각종 문자메시지 또는 문자열을 포함한 데이터를 수신하는 역할을 수행한다.
본 발명에 따른 TTS 처리부(220)는, 상기 문자메시지 또는 문자열을 음성 정보로 변환하는 TTS(Text-to-Speech) 엔진을 활용하여 상기 수신부(210)를 통하여 수신한 문자메시지 또는 문자열을 포함한 데이터로부터 음성 정보를 합성한다. 여기서, 문자 합성 시, 해당 문자열이 감정 처리부(230)의 검색 결과 감정 표현 문자열인 경우, 해당 감정 표현 문자열에 대한 설정값에 따라 음량, 음의 높낮이, 음성 출력 속도 등을 변경하여 음성 정보를 합성한다.
본 발명에 따르면, 감정 처리부(230)는, 상기 수신부(210)를 통하여 수신된 문자메시지 또는 문자열을 포함한 데이터 내에 저장부(240)에서 저장하고 있는 감정 표현 문자열을 포함하고 있는 지 여부를 판단하고, 상기 문자 메시지 또는 문자열을 포함한 데이터 내에 감정 표현 문자열이 포함되어 있는 경우, 해당 감정 표현 문자열에 해당하는 설정값을 저장부(240)에서 검색하여 감정 표현 문자열 및 설정값을 제어부(200)를 통하여 TTS 처리부(220)로 전송하는 역할을 수행한다.
본 발명에 따르면, 저장부(240)는, 감정 표현 문자열 목록 및 해당 감정 표현 문자열에 대한 설정값을 저장하고, 상기 감정 처리부(230)의 요청에 따라 저장되어 있는 감정 표현 문자열 중 수신된 문자메시지 또는 문자열을 포함한 데이터에 포함되어 있는 감정 표현 문자열이 존재하는 지 여부와, 상기 감정 표현 문자열이 존재하는 경우, 상기 감정 표현 문자열에 대한 설정값을 반환하는 역할을 수행한다.
본 발명에 따르면, 상기 설정값은, 상기 문자메시지 또는 문자열을 포함한 데이터 내에 ‘^^’, ‘ㅠㅠ’ 등 감정을 표현하는 특수문자를 포함하고 있는 경우, 저장부(280)에 저장된 설정값 중 연관 문자열 정보에 따라 해당 감정에 대응하는 정보인 ‘하하’, ‘흑흑’ 등으로 변환하여 생성하도록 할 수 있다.
또한, 본 발명에 따르면, 상기 설정값은, 해당 문자열의 말미에 ‘!’를 포함하고 있거나, ‘화가 난다’ 등의 감정을 표현하는 문자열을 포함하는 경우 등에는 해당 문자열의 출력시 음량을 크게 하거나, ‘우울하다’ 등의 문자열을 포함하는 경우 등에는 해당 문자열의 출력시 음량을 작게 조절하여 음성 정보를 생성하도록 할 수 있다.
또한, 본 발명에 따르면, 상기 설정값은, ‘신난다’, ‘기쁘다’ 등 특정 감정을 표현하기 위한 문자열의 경우, 해당 문자열의 출력시 주파수가 높은 음을 생성하도록 하거나, ‘우울하다’, ‘슬프다’ 등의 특정 감정을 표현하기 위한 문자열의 경우, 문자열을 포함하는 경우 등에는 해당 문자열의 출력시 주파수가 낮은 음을 생성하여 음의 높낮이를 변경하여 음성 정보를 생성하도록 할 수 있다.
또한, 본 발명에 따르면, 상기 설정값은, ‘신난다’, ‘기쁘다’ 등 특정 감정을 표현하는 문자열의 경우, 음성 출력 속도를 빠르게 하거나, ‘우울하다’, ‘슬프다’ 등의 특정 감정을 표현하는 문자열을 포함하는 경우 등에는 해당 문자열의 출력시 음성 출력 속도를 느리게 하여 음성 정보를 생성하도록 할 수 있다.
본 발명의 실시 방법에 따른 송신부(250)는 통신망을 통하여 제 2통신단말(110)로 전송하는 역할을 수행한다.
본 발명에 다른 제어부(200)는, 상기 기술한 각 부의 동작을 제어하는 역할을 수행한다.
도 3은 본 발명의 제1실시 방법에 따른 정보처리 시스템에서의 문자 메시지 중계 전송 시 감정 표현을 포함한 음성 변환 및 전송 프로세스를 도시한 도면이다.
우선, 상기 수신부(210)를 통하여 문자메시지 또는 문자열을 포함한 데이터를 수신한다(S310).
이후, 감정 처리부(230)는 상기 (S310)단계에서 수신한 문자메시지 또는 문자열 중 상기 저장부(240)에 저장된 감정 표현 문자열에 포함되어 있는 문자열이 존재하는지 여부를 검색한다(S320).
이후, 상기 (S320)단계의 검색 결과에 따라 수신한 문자메시지 또는 문자열 내에 ㄱ마정 표현 문자열이 포함되어 있는 경우(S330), 상기 감정 처리부(230)는 상기 저장부(240) 내에서 상기 (S320)단계에서 검색된 감정 표현 문자열에 상응하는 설정값을 검색하고(S340), 상기 수신한 문자메시지 또는 문자열 내에 감정 표현 문자열이 포함되어 있지 않은 경우, 기본값에 따라 TTS 처리부(220)에 의해 음성 정보를 생성한다(S365).
상기 (S340)단계의 검색 결과에 다라, 상기 검색된 감정 표현 문자열에 상응하는 설정값이 저장부(240) 내에 존재하는 경우(S350), 해당 설정값에 따라 TTS 처리부(220)에 의해 음성 정보를 생성하고(S360), 상기 검색된 감정 표현 문자열에 상응하는 설정값이 저장부(240) 내에 존재하지 않는 경우(S350), 기본값에 따라 TTS 처리부(240)에 의해 음성 정보를 생성한다(S365).
이후, 송신부(250)는 상기 TTS 처리부(220)에 의해 생성된 음성 정보를 음성 파일 형태의 데이터로 통신망을 통하여 제 2통신단말(110)로 전송한다(S370). 상기 음성 파일을 수신한 제 2통신단말(110)은 상기 수신한 음성 파일을 재생하여 음성 형태의 메시지를 출력한다.
도 4는 본 발명의 실시 방법에 따른 일실시예도이다.
도 4에서 보는 바와 같이, 제 1무선단말(100)에 해당하는 스마트폰에서 문자메시지를 전송하면, 제 2무선단말(110)에 해당하는 차량에 설치된 통신단말은, 해당 문자메시지 중 감정 표현 문자열에 해당하는 ‘ㅎㅎ’를 ‘하하’라는 음성으로, ‘나두요~’를 느린 출력속도를 가지는 음성으로 합성하여 스피커를 통해 출력한다.
본 발명의 제2실시 방법에 대해서 설명하기로 한다.
도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성을 도시한 도면이다.
보다 상세하게 본 도 1은 제 1통신단말(100)이 통신망을 통해 제 1통신단말에서 생성된 음성 데이터를 서버(120)에 연결되어 제 2통신단말(110)로 전송하기 위한 구성을 도시한 것이다.
본 발명에 따른 서버(120)는 제 1통신단말(100)에서 전송되는 음성 데이터를 수신하고, 상기 음성데이터로부터 특징 데이터를 추출하고, 상기 특징 데이터로부터 상기 감정 데이터를 추출하고, 상기 감정 데이터와 맵핑되고 저장부(250) 상에 미리 저장, 등록된 설정값에 따라 문자메시지를 생성하여 제 2통신단말(110)로 전송하는 역할을 수행한다.
본 발명에 따르면, 상기 서버(120)는, 제 1통신단말에서 전송되는 정보가MMS(Multimedia Message Service) 형식인 경우, 통신망 상의 서비스 센터 서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 EMS(Electronic Mail System) 형식인 경우, 통신망 상의 이메일 중계서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 인스턴트 메신저의 의해 생성되고 전송되는 데이터인 경우, 각각의 인스턴트 메신저를 운영하는 중계서버일 수 있다.
본 발명에 따른 제 1통신단말(100) 및 제 2통신단말(110)은 MMS, EMS를 하나 이상 포함하는 메시지 내지 이메일을 전송하거나, 또는 메신저를 실행하는 단말을 의미하며, 휴대폰, 스마트폰, 태블릿PC, PC, 텔레매틱스 단말 등 문자 송수신이 가능한 모든 단말을 포함한다.
도 5는 본 발명의 제2실시 방법에 따른 서버의 세부 구성을 도시한 도면이다.
본 발명에 따른 서버(120)의 주요 기능구성은, 도시된 바와 같이 수신부(510)와, 음성인식부(520)와, 감정 처리부(530)와, 문자 생성부(540)와, 저장부(550)와, 송신부(560) 및 상기 각 구성부와 프로그램을 제어하는 제어부(500)를 포함하여 구성될 수 있으며, 정보처리 시스템의 특성, 그리고 당업자의 실시방식에 따라 각 구성부는 추가 또는 제외될 수 있다.
도 5를 참조하면, 상기 수신부(510)는, 상기 제 1통신단말(100)로부터 전송되는 음성 데이터를 수신하는 역할을 수행한다.
본 발명에 따른 음성인식부(520)는, 음성인식 기술을 활용하여 상기 수신부(510)를 통해 수신한 음성 데이터로부터 특징 데이터를 추출한다. 여기서, 음성인식 기술은 종래에 다양하게 공개된 바 있으며, 본 발명의 요지에 해당하지 않으므로 상세한 설명은 생략한다.
여기서, 상기 특징 데이터는 양자화 되어 있는 상기 음성 데이터를 문자로 변환하기 위한 정보를 기본적으로 포함하며, 그 외 음성으로 표현 가능한 음량, 음색, 또는 음의 길이 등에 대한 정보를 더 포함할 수 있다.
본 발명의 실시방법에 따른 감정 처리부(530)는, 상기 음성 데이터로부터 추출된 특징 데이터에서 사용자의 감정에 대한 감정 데이터를 추출한다.
본 발명의 일 실시예에 따른 상기 감정 데이터는, 상기 특징 데이터로부터 감정 데이터 추출 시, 감정 데이터 내에 음성 데이터의의 음량에 대한 정보를 포함하여 추출하거나, 또는 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 추출할 수 있다.
본 발명의 실시방법에 따른 문자 생성부(540)는, 상기 특징 데이터와, 상기 감정 데이터에 상응하는 저장부(550)에 저장된 설정값에 따라 문자 메시지를 생성한다. 물론, 상기 문자 메시지에는 문자열뿐만 아니라 아이콘이나 기타 화상으로 표현 가능한 정보가 포함될 수 있으며, 또한 문자의 크기, 색상 등을 변형하여 문자 메시지를 생성할 수 있다.
본 발명의 실시방법에 따른 저장부(550)는, 상기 감정데이터에 상응하는 설정값을 저장하고, 상기 감정 처리부(530)의 요청에 따라 감정 데이터에 상응하는 설정값을 반환하는 역할을 수행한다.
본 발명의 일 실시예에 따른 상기 설정값은, 상기 감정 데이터에 포함된 음량에 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하도록 할 수 있다. 예를 들어, 큰 음량을 가지는 음절의 경우 큰 글씨체로 출력하도록 하고, 작은 음량을 가지는 음절의 경우 작은 글씨체로 출력하도록 할 수 있다.
본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 할 수 있다. 예를 들어, 일반적인 속도의 음성에 비해 길게 발음된 ‘아’라는 음절을 ‘아아아아아아’라는 문자열로 생성하거나, 또는 ‘아~’라는 문자열로 생성하도록 할 수 있다.
본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음색에 따라 문자의 글씨체를 변경하여 문자메시지를 생성하도록 할 수 있다.
본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음색에 따라 문자의 색상을 변경하여 문자메시지를 생성하도록 할 수 있다.
본 발명에 따르면 상기 설정값은, 특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 변환정보를 포함할 수 있다. 예를 들어, 웃음 소리에 해당하는 ‘하하’의 경우 ‘^^’로 변환하여 출력하거나, 별도의 화상으로 출력하도록 할 수 있다.
본 발명의 실시방법에 따른 송신부(560)는, 상기 문자 생성부(540)에서 생성한 문자 메시지를 통신망을 통하여 제 2통신단말(110)으로 전송하는 역할을 수행한다.
상기 각 구성부는 별도의 장치 또는 프로그램으로 구현될 수 있으며, 제어부(500)에 의하여 각 동작을 제어할 수 있다.
도 6은 본 발명의 제2실시 방법에 따른 음성 메시지 중계 전송 시 감정을 포함한 문자 변환 출력 프로세스를 도시한 도면이다.
우선, 상기 수신부(510)를 통하여 음성 데이터를 수신한다(S610).
이후, 상기음성인식부(540)는 음성인식 기술을 활용하여 상기 수신한 음성 데이터 중 상기 음성 데이터를 문자로 변환하기 위한 정보를 기본적으로 포함하는 특징 데이터를 추출한다. 여기서, 상기 특징 데이터는 음성으로 표현 가능한 음량, 음색, 또는 음의 길이 등에 대한정보를 더 포함할 수 있다(S620).
이후, (S620) 단계에서 추출한 특징데이터로부터 음성 데이터에 대한 음량, 음정, 음색 등에 대한 감정데이터를 추출한다(S630).
이후, (S630) 단계에서 추출한 감정 데이터에 상응하는 음량, 음정, 음색, 연관 변환정보 등의 설정값을 저장부(550)에서 검색한다(S640).
이후, 상기 (S640) 단계에서의 검색 결과 설정값이 존재 하는 경우(S650), 문자 생성부(540)에서 특징데이터로부터 문자메시지 생성 시, 해당 설정값에 따라 문자의 크기, 색상 등을 변경하거나 다른 문자열 또는 별도의 화상으로 문자 메시지를 생성하고(S660), 그렇지 않은 경우, 문자생성부(540)에서 기본값에 따라 특징데이터로부터 문자열을 생성한다(S665).
이후, 상기생성된 문자 메시지를 송신부(560)를 통하여 제 2통신단말로 전송한다(S670).
도 4는 본 발명의 실시 방법에 따른 일실시예도이다.
도 4에서 보는 바와 같이, 제 1통신단말(100)에 해당하는 차량에 설ㅊ된 텔레매틱스 단말은, 사용자가 ‘하하하’라는 웃음소리 또는 ‘너무 보고 싶다’라는 음성을 발성하여 제 1무선단말(100)에 입력해 음성 메시지를 서버(120)로 전송하면, 상기 음성 메시지를 수신한 서버(120)에서는 이에 대한 감정표현 문자열인 ‘^*^’ 또는 글자크기 및 음절의 길이에 따라 변환된 문자열인 ‘너~무~ 보고 싶다’ 라는 문자메시지를 생성하여 제 2통신단말(110)에 해당하는 휴대폰으로 전송하여 출력될 수 있도록 한다.

Claims (19)

  1. 제 1통신단말로부터 메시지를 수신하는 수신부;
    상기 수신부를 통하여 수신된 문자메시지 또는 문자열을 포함한 데이터에 포함된 문자열 중 감정 표현 문자열이 포함되어 있는지 여부를 검색하고, 해당 감정 표현 문자열에 대한 설정값을 상기 수신된 문자메시지 또는 데이터에 첨부하는 감정처리부;
    감정 표현 문자열 및 상기 감정 표현 문자열에 대응하는 설정값을 저장하고 있는 저장부;
    상기 감정 표현 문자열에 대한 설정값에 상응하며, 수신한 문자열에 상응하는 음성정보를 생성하는 TTS(Text-To-Speech) 처리부; 및
    상기 TTS 처리부에서 생성된 음성정보를 제 2통신단말로 송신하는 송신부;를 포함하는 것을 특징으로 하는 정보처리 시스템.
  2. 제1항에 있어서, 상기 문자메시지는,
    SMS(Short Message Service), EMS(Electronic Mail System), MMS(Multimedia Messaging System)을 포함하는 것을 특징으로 하는 정보처리 시스템.
  3. 제1항에 있어서, 상기 설정값은,
    감정 표현 문자열에 연관된 다른 문자열로 변환하기 위한 연관 문자열 정보를 포함하는 것을 특징으로 하는 정보처리 시스템.
  4. 제1항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음량의 크기에 대한 정보를 포함하는 것을 특징으로 하는 정보처리 시스템.
  5. 제1항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음의 높낮이에 대한 정보를 포함하는 것을 특징으로 하는 정보처리 시스템.
  6. 제1항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음성의 출력 속도에 대한 정보를 포함하는 것을 특징으로 하는 정보처리 시스템.
  7. 수신부를 통하여 제 1통신단말로부터 문자메시지 또는 문자열을 포함하는 데이터를 수신하는 메시지 수신단계;
    상기 수신한 문자메시지 또는 문자열을 포함하는 데이터에 감정 표현 문자열이 포함되어 있는 지 여부를 판단하는 감정 표현 문자열 검색단계;
    상기 문자열 검색단계에서 검색된 감정 표현 문자열에 상응하는 설정값이 존재하는지를 판단하는 설정값 검색단계;
    상기 문자열 검색단계 및 설정값 검색단계에서 검색된 감정 표현 문자열 및 상기 감정 표현 문자열에 상응하는 설정값에 따라 상기 수신한 문자메시지 또는 문자열을 포함하는 데이터에 상응하는 음성정보를 생성하는 음성합성 단계; 및
    상기 음성합성 단계에서 생성된 음성정보를 제 2통신단말로 전송하는 단계;를 포함하는 것을 특징으로 하는 정보처리 방법.
  8. 제7항에 있어서, 상기 설정값은,
    감정 표현 문자열에 연관된 다른 문자열로 변환하기 위한 연관 문자열 정보를 포함하는 것을 특징으로 하는 정보처리 방법.
  9. 제7항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음량의 크기에 대한 정보를 포함하는 것을 특징으로 하는 정보처리 방법.
  10. 제7항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음의 높낮이에 대한 정보를 포함하는 것을 특징으로 하는 정보처리 방법.
  11. 제7항에 있어서, 상기 설정값은,
    감정 표현 문자열에 대한 음성 출력 시, 출력되는 음성의 출력 속도에 대한 정보를 포함하는 것을 특징으로 하는 정보처리 방법.
  12. 제 1통신단말로부터 음성 데이터를 수신하는 수신부;
    상기 수신부를 통하여 수신된 음성 데이터로부터 특징 데이터를 추출하는 음성인식부;
    상기 음성인식부로부터 추출된 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 감정 처리부;
    특징 데이터 및 감정 데이터에 상응하는 설정값을 데이터베이스 형식으로 저장하는 저장부;
    상기 특징 데이터와 감정 데이터에 상응하는 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성부; 및
    상기 문자 생성부에서 생성된 문자 메시지를 제 2통신단말로 전송하는 송신부;를 포함하는 것을 특징으로 하는 정보처리 시스템.
  13. 제 12항에 있어서,
    상기 감정 처리부는,
    상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의의 음량을 포함하여 추출하고,
    상기 설정값은,
    상기 감정 데이터에 포함된 음량 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하는 것
    을 특징으로 하는 정보처리 시스템.
  14. 제 12항에 있어서,
    상기 감정 처리부는,
    상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 감정 데이터를 추출하고,
    상기 설정값은,
    상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 하는 것
    을 특징으로 하는 정보처리 시스템.
  15. 제 12항에 있어서,
    상기 설정값은,
    특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보를 포함하는 것
    을 특징으로 하는 정보처리 시스템.
  16. 수신부를 통하여 제 1통신단말로부터음성 데이터를 수신하는 음성 데이터 수신 단계;
    상기 수신한 음성 데이터로부터 특징 데이터를 추출하는 음성인식 단계;
    상기 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 단계;
    저장부에 저장된 특징 데이터 및 감정 데이터에 상응하는 설정값을 검색하고, 상기 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성 단계; 및
    상기 문자 생성 단계에서 생성된 문자 메시지를 제 2 통신단말로 전송하는 송신 단계;를 포함하는 것을 특징으로 하는 정보처리 방법.
  17. 제 16항에 있어서,
    상기 감정 데이터 추출 단계는,
    상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의 음량에 대한 데이터를 포함하여 추출하고,
    상기 설정값은,
    상기 감정 데이터에 포함된 음량에 대한 데이터에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하는 것
    을 특징으로 하는 통신 단말에서의 정보처리 방법.
  18. 제 16항에 있어서,
    상기 감정 데이터 추출 단계는,
    상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이 포함하여 감정 데이터를 추출하고,
    상기 설정값은,
    상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 하는 것
    을 특징으로 하는 통신 단말에서의 정보처리 방법.
  19. 제 16항에 있어서,
    상기 설정값은,
    특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보인 것
    을 특징으로 하는 통신 단말에서의 정보처리 방법.
PCT/KR2012/011105 2011-12-18 2012-12-18 정보처리 방법 및 시스템과 기록매체 WO2013094982A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020110136901A KR20130069263A (ko) 2011-12-18 2011-12-18 정보처리 방법 및 시스템과 기록매체
KR10-2011-0136901 2011-12-18
KR10-2011-0136899 2011-12-18
KR1020110136899A KR20130069261A (ko) 2011-12-18 2011-12-18 정보처리 방법 및 시스템과 기록매체

Publications (1)

Publication Number Publication Date
WO2013094982A1 true WO2013094982A1 (ko) 2013-06-27

Family

ID=48668799

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/011105 WO2013094982A1 (ko) 2011-12-18 2012-12-18 정보처리 방법 및 시스템과 기록매체

Country Status (1)

Country Link
WO (1) WO2013094982A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10210865B2 (en) 2016-08-30 2019-02-19 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for inputting information
CN113366483A (zh) * 2019-02-14 2021-09-07 索尼集团公司 信息处理装置、信息处理方法及信息处理程序
CN113409790A (zh) * 2020-03-17 2021-09-17 Oppo广东移动通信有限公司 语音转换方法、装置、终端及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030046444A (ko) * 2000-09-13 2003-06-12 가부시키가이샤 에이.지.아이 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어
KR20070117195A (ko) * 2006-06-07 2007-12-12 삼성전자주식회사 휴대용 단말기에서 사용자의 감정이 이입된 문자메시지를송수신하는 방법 및 장치
KR20090069133A (ko) * 2007-12-24 2009-06-29 한국전자통신연구원 이동 단말기 및 그 제어방법
KR20090085376A (ko) * 2008-02-04 2009-08-07 삼성전자주식회사 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
KR20100135782A (ko) * 2008-04-08 2010-12-27 가부시키가이샤 엔.티.티.도코모 미디어 처리 서버 장치 및 미디어 처리 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030046444A (ko) * 2000-09-13 2003-06-12 가부시키가이샤 에이.지.아이 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어
KR20070117195A (ko) * 2006-06-07 2007-12-12 삼성전자주식회사 휴대용 단말기에서 사용자의 감정이 이입된 문자메시지를송수신하는 방법 및 장치
KR20090069133A (ko) * 2007-12-24 2009-06-29 한국전자통신연구원 이동 단말기 및 그 제어방법
KR20090085376A (ko) * 2008-02-04 2009-08-07 삼성전자주식회사 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
KR20100135782A (ko) * 2008-04-08 2010-12-27 가부시키가이샤 엔.티.티.도코모 미디어 처리 서버 장치 및 미디어 처리 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10210865B2 (en) 2016-08-30 2019-02-19 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for inputting information
CN113366483A (zh) * 2019-02-14 2021-09-07 索尼集团公司 信息处理装置、信息处理方法及信息处理程序
CN113409790A (zh) * 2020-03-17 2021-09-17 Oppo广东移动通信有限公司 语音转换方法、装置、终端及存储介质

Similar Documents

Publication Publication Date Title
FI115868B (fi) Puhesynteesi
US9111545B2 (en) Hand-held communication aid for individuals with auditory, speech and visual impairments
WO2009125710A1 (ja) メディア処理サーバ装置およびメディア処理方法
CN104010267A (zh) 支持基于翻译的通信服务方法和系统和支持该服务的终端
WO2021006538A1 (ko) 텍스트 메시지를 브이모지로 표현하는 아바타 비주얼 변환 장치 및 메시지 변환 방법
WO2013094982A1 (ko) 정보처리 방법 및 시스템과 기록매체
CN111768786B (zh) 聋哑人通话智能终端平台及其通话方法
EP1854756A1 (en) Elevator car inside display
KR20120051517A (ko) 음성데이터를 이용한 문서생성 방법 및 시스템과, 이를 구비한 화상형성장치
JP2010072578A (ja) 対話文生成装置及び方法
WO2015037871A1 (ko) 텍스트 인식을 이용한 음성재생 서비스 제공 시스템, 서버 및 단말
KR101916107B1 (ko) 통신 단말 및 그 통신 단말의 정보처리 방법
WO2013094979A1 (ko) 통신 단말 및 그 통신 단말의 정보처리 방법
JP2003177776A (ja) 議事録記録システム
KR20130069261A (ko) 정보처리 방법 및 시스템과 기록매체
US20130210419A1 (en) System and Method for Associating Media Files with Messages
WO2012057561A2 (ko) 인스턴트 메신저 서비스 제공시스템 및 그 제공방법, 및 통신 단말기 및 그 통신방법
KR20090069133A (ko) 이동 단말기 및 그 제어방법
JP2002207671A (ja) 携帯電話機及び電子メール文章送信/再生方法
JP2004023225A (ja) 情報通信装置およびその信号生成方法、ならびに情報通信システムおよびそのデータ通信方法
WO2013095019A1 (ko) 정보처리 방법 및 시스템과 기록매체
TW514824B (en) Input device for voice and keystroke data, vocal articulation recognition system having same, and voice recognition input device
KR100945162B1 (ko) 링백톤제공시스템 및 그 방법
JPH10304068A (ja) 音声情報交換方式
KR100487446B1 (ko) 이동 통신 단말의 오디오 장치를 이용한 감정 표현 방법및 이를 위한 이동 통신 단말

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12860886

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12860886

Country of ref document: EP

Kind code of ref document: A1