KR101916107B1 - Communication Terminal and Information Processing Method Thereof - Google Patents

Communication Terminal and Information Processing Method Thereof Download PDF

Info

Publication number
KR101916107B1
KR101916107B1 KR1020110136900A KR20110136900A KR101916107B1 KR 101916107 B1 KR101916107 B1 KR 101916107B1 KR 1020110136900 A KR1020110136900 A KR 1020110136900A KR 20110136900 A KR20110136900 A KR 20110136900A KR 101916107 B1 KR101916107 B1 KR 101916107B1
Authority
KR
South Korea
Prior art keywords
data
emotion
communication terminal
text message
character
Prior art date
Application number
KR1020110136900A
Other languages
Korean (ko)
Other versions
KR20130069262A (en
Inventor
장준호
안지현
변건호
Original Assignee
인포뱅크 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인포뱅크 주식회사 filed Critical 인포뱅크 주식회사
Priority to KR1020110136900A priority Critical patent/KR101916107B1/en
Priority to PCT/KR2012/011101 priority patent/WO2013094979A1/en
Publication of KR20130069262A publication Critical patent/KR20130069262A/en
Application granted granted Critical
Publication of KR101916107B1 publication Critical patent/KR101916107B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • G06Q50/50
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements

Abstract

본 발명은 통신 단말 및 그 통신 단말의 정보처리방법과 기록매체에 관한 것으로, 본 발명에 따른 통신 단말은, 데이터 통신이 가능한 통신부와, 상기 통신부를 통하여 수신된 음성 데이터로부터 특징 데이터를 추출하는 음성인식부와, 상기 음성인식부로부터 추출된 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하고, 상기 추출한 감정 데이터에 상응하는 설정값을 저장부로부터 검색하는 감정 처리부와, 특징 데이터 및 감정 데이터에 상응하는 설정값을 데이터베이스 형식으로 저장하는 저장부와, 상기 특징 데이터와 감정 데이터에 상응하는 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성부 및 상기 문자 생성부에서 생성된 문자 메시지를 화면에 표시하는 표시부를 구비한다.A communication terminal according to the present invention comprises a communication unit capable of data communication, a voice unit for extracting characteristic data from the voice data received through the communication unit, An emotion processor for extracting emotion data of the user corresponding to the voice data from the feature data extracted from the voice recognition unit and searching for a setting value corresponding to the extracted emotion data from the storage unit, A character generator for generating a text message from the feature data according to the feature data and the set value corresponding to the emotion data; and a character generator for generating a character generated by the character generator, And a display unit for displaying the message on the screen.

Description

통신 단말 및 그 통신 단말의 정보처리 방법 {Communication Terminal and Information Processing Method Thereof}TECHNICAL FIELD [0001] The present invention relates to a communication terminal and an information processing method of the communication terminal.

본 발명은 통신 단말에서 음성 메시지 수신 시, 음성인식기술을이용하여 보다 편리하고 효율적으로 메시지 확인이 가능하도록 하는 통신 단말 및 그 통신 단말의 정보처리 방법에 관한 것이다.
The present invention relates to a communication terminal which enables a message confirmation more conveniently and efficiently by using a speech recognition technology when receiving a voice message at a communication terminal and a method of processing information of the communication terminal.

종래에 음성과 문자 간의 변환을 위하여 다양한 음성인식 기술(STT;Speech-to-Text)과 음성 합성 기술(TTS; Text-to-Speech)들이 개발되어 왔다. 특허공개번호 제10-2001-0086402호(음성인식 장치)에 따르면, 사용자의 음성을 인식하는 장치와 방법에 대하여 기술하고 있으며, 특허공개번호 제10-2002-0094988호(음성합성방법 및 그것을 실시하는 음성합성장치)에 따르면, 특정 문장을 임의의 음성으로 합성할 수 있는 장치 및 방법에 대하여 기술하고 있다.
Conventionally, various speech recognition technology (STT) and text-to-speech (TTS) have been developed for conversion between voice and text. According to Japanese Patent Application Laid-Open No. 10-2001-0086402 (speech recognition apparatus), an apparatus and a method for recognizing a user's voice are described, and Patent Application Publication No. 10-2002-0094988 , A device and a method capable of synthesizing a specific sentence with an arbitrary voice are described.

또한, 종래의 통신단말에서는 음성 데이터를 수신한 경우 해당 음성 데이터를 재생하거나 문자로 변환하여 확인하여야 했다.
Further, in the conventional communication terminal, when the voice data is received, the voice data must be reproduced or converted into a character and confirmed.

그러나, 이러한 경우, 상기 수신한 문자열 또는 음성을 발신한 발신인의 감정을 정확히 전달할 수 없는 문제점이 있었다.
However, in this case, there is a problem that the emotion of the sender who has transmitted the received string or voice can not be correctly transmitted.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 통신 단말간에 전송되는 문자열과 음성 간에 변환이 가능하도록 하고, 통신 단말간에 전송되는 문자열과 음성 간의 변환과정에서 송신인의 감정을 효율적으로 표현할 수 있도록 함으로써, 수신인이 보다 편리하게 메시지를 확인하고, 송신인의 감정을 용이하게 공유할 수 있도록 하기 위함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to solve the problems described above and to provide a method and apparatus for converting between a character string and voice transmitted between communication terminals, So that the recipient can more easily confirm the message and easily share the emotion of the sender.

본 발명에 따른 통신단말은, 데이터 통신이 가능한 통신부와, 상기 통신부를 통하여 수신된 음성 데이터로부터 특징 데이터를 추출하는 음성인식부와, 상기 음성인식부로부터 추출된 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하고, 상기 추출한 감정 데이터에 상응하는 설정값을 저장부로부터 검색하는 감정 처리부와, 특징 데이터 및 감정 데이터에 상응하는 설정값을 데이터베이스 형식으로 저장하는 저장부와, 상기 특징 데이터와 감정 데이터에 상응하는 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성부와, 상기 문자 생성부에서 생성된 문자 메시지를 화면에 표시하는 표시부 및 각 구성부를 제어하는 제어부를 구비한다.
A communication terminal according to the present invention comprises a communication unit capable of data communication, a voice recognition unit for extracting the feature data from the voice data received through the communication unit, and a voice recognition unit for extracting, from the voice data, An emotion processor for extracting emotion data of a user and retrieving a set value corresponding to the extracted emotion data from a storage unit; a storage unit for storing the set values corresponding to the feature data and the emotion data in a database format; A character generator for generating a character message from the feature data according to a set value corresponding to the emotion data; a display unit for displaying the character message generated by the character generator on a screen; and a controller for controlling each component.

일측에 따르면, 상기 음성 인식부는, 상기 음성 데이터로부터 특징 데이터 추출 시, 음성 데이터의의 음량을 포함하여 추출하고, 상기 설정값은, 상기 특징 데이터에 포함된 음량에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하도록 할 수 있다.
According to one aspect of the present invention, the voice recognition section includes a volume of voice data when extracting the feature data from the voice data, and the setting value includes a character string to be included in the text message generated according to the volume included in the feature data, It is possible to change the size of the image.

또 다른 측면에 따르면, 상기 음성 인식부는, 상기 음성 데이터로부터 특징 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이 포함하여 특징 데이터를 추출하고, 상기 설정값은, 상기 특징 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절 위에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 할 수 있다.
According to another aspect of the present invention, the speech recognition section extracts feature data including a length of a section in which characters judged as one syllable are consecutively consecutively extracted when extracting feature data from the speech data, The same character may be repeatedly output depending on the length of the included syllable, or a special character may be added on the syllable to generate a text message.

또 다른 측면에 따르면, 상기 설정값은,특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변환(예 : ‘하하’라는 음성을 ‘^^’로 변환)하여 문자메시지를 생성하도록 하는 연관 정보를 포함할 수 있다.
According to another aspect of the present invention, the setting value is generated by converting a characteristic data to be converted into a specific character string into a separate emoticon or icon (for example, converting a voice of 'haha' into '^^' And may include association information.

본 발명에 따른 통신 단말에서의 정보처리 방법은, 통신부를 통하여 음성 데이터를 수신하는 음성 데이터 수신 단계와, 상기 수신한 음성 데이터로부터 음성인식부에 의해 특징 데이터를 추출하는 음성인식 단계와, 상기 특징 데이터로부터 감정 처리부에 의해 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 감정 데이터 추출 단계와, 저장부에 저장된 특징 데이터 및 감정 데이터에 상응하는 설정값을 검색하고, 상기 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성 단계 및 상기 문자 생성 단계에서 생성된 문자 메시지를 화면에 표시 하는 출력 단계를 포함한다.
An information processing method in a communication terminal according to the present invention includes a voice data receiving step of receiving voice data through a communication section; a voice recognition step of extracting the feature data from the voice data by the voice recognition section; An emotional data extraction step of extracting emotional data of a user corresponding to the voice data from the data by an emotion processing unit; searching for a set value corresponding to the feature data and the emotion data stored in the storage unit, And an output step of displaying the text message generated in the character generating step on the screen.

본 발명에 따르면, 음성으로 송신한 메시지를 문자열로 변환하여 수신인이 용이하게 확인할 수 있는 동시에 발신인의 감정을 보다 효과적으로 전달하여 의사소통을 함에 있어서 보다 개선된 효율을 가질 수 있도록 한다.
According to the present invention, a message transmitted by voice can be converted into a character string so that the recipient can easily confirm it, and at the same time, the emotion of the sender can be transmitted more effectively to have improved efficiency in communication.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 전술한 발명의 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되지 않아야 한다.
도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 제 2통신단말의 세부 구성을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따른 음성 메시지 수신 시 감정 표현을 포함한 문자 변환 출력 프로세스를 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따른 일실시예도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate exemplary embodiments of the invention and, together with the description of the invention, It should not be construed as limited.
1 is a diagram showing the overall system configuration according to an embodiment of the present invention.
2 is a diagram illustrating a detailed configuration of a second communication terminal according to an embodiment of the present invention.
3 is a diagram illustrating a character conversion output process including an emotional expression upon receiving a voice message according to an embodiment of the present invention.
4 is an embodiment according to an embodiment of the present invention.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다. 또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
The operation principle of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. It should be understood, however, that the drawings and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention, and are not to be construed as limiting the present invention. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The terms used below are defined in consideration of the functions of the present invention, which may vary depending on the user, intention or custom of the operator. Therefore, the definition should be based on the contents throughout the present invention.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
As a result, the technical idea of the present invention is determined by the claims, and the following embodiments are merely means for effectively explaining the technical idea of the present invention to a person having ordinary skill in the art to which the present invention belongs Only.

도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성을 도시한 도면이다.
1 is a diagram showing the overall system configuration according to an embodiment of the present invention.

보다 상세하게 본 도 1은 제 1통신단말(100)이 통신망을 통해 제 1통신단말에서 생성된 음성 데이터를 서버(120)에 연결되어 제 2통신단말(110)로 전송하기 위한 구성을 도시한 것이다.
1 illustrates a configuration in which the first communication terminal 100 is connected to the server 120 and transmits the voice data generated in the first communication terminal through the communication network to the second communication terminal 110 will be.

본 발명에 따른 서버(120)는 제 1통신단말(100)에서 전송되는 음성 데이터를 상기 제 2통신단말(110)로 전송하는 역할을 수행한다.
The server 120 according to the present invention transmits voice data transmitted from the first communication terminal 100 to the second communication terminal 110.

본 발명에 따르면, 상기 서버(120)는, 제 1통신단말에서 전송되는 정보가MMS(Multimedia Message Service) 형식인 경우, 통신망 상의 서비스 센터 서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 EMS(Electronic Mail System) 형식인 경우, 통신망 상의 이메일 중계서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 인스턴트 메신저의 의해 생성되고 전송되는 데이터인 경우, 각각의 인스턴트 메신저를 운영하는 중계서버일 수 있다.
According to the present invention, when the information transmitted from the first communication terminal is a multimedia message service (MMS) format, the server 120 may be a service center server on the communication network, and information transmitted from the first communication terminal In the case of the EMS (Electronic Mail System) format, it may be an e-mail relay server on a communication network. If the information transmitted from the first communication terminal is data generated and transmitted by the instant messenger, Lt; / RTI >

본 발명에 따른 제 1통신단말(100) 및 제 2통신단말(110)은 MMS, EMS를 하나 이상 포함하는 메시지 내지 이메일을 전송하거나, 또는 메신저를 실행하는 단말을 의미하며, 휴대폰, 스마트폰, 태블릿PC, PC, 텔레매틱스 단말 등 문자 송수신이 가능한 모든 단말을 포함한다.
The first communication terminal 100 and the second communication terminal 110 according to the present invention refer to a terminal that transmits a message or an email including at least one of an MMS and an EMS or a messenger, A tablet PC, a PC, a telematics terminal, and the like.

본 발명에 따른 제 2통신단말은, 제 1통신단말에서부터 전송된 음성 데이터를 수신하고, 상기 음성데이터로부터 특징 데이터를 추출하고, 상기 특징 데이터로부터 감정 표현 데이터를 추출하고, 상기 감정 데이터와 맵핑되고 저장부(270) 상에 미리 저장, 등록된 설정값에 따라 문자메시지를 생성하여 화면에 출력하는 역할을 수행한다.
The second communication terminal according to the present invention receives the voice data transmitted from the first communication terminal, extracts the characteristic data from the voice data, extracts the emotional expression data from the characteristic data, And generates a text message according to the preset values stored in advance in the storage unit 270 and outputs the generated text message to the screen.

도 2는 본 발명의 실시 방법에 따른 제 2통신단말의 세부 구성을 도시한 도면이다.
2 is a diagram illustrating a detailed configuration of a second communication terminal according to an embodiment of the present invention.

본 도 2는 이동통신 내지 통신 시스템 상에서 운용되는 통신단말이 본 발명에 따른 정보처리에 적용되는 것으로서, 본 도면상에 구체적인 도시는 생략하였으나, 상기 제 2통신단말(110)은 하드웨어적인 측면에서 외형상 몸체와 스피커와 마이크, 키패드, LCD(Liquid Crystal Display) 화면, 안테나 및 배터리 등을 포함할 수 있으며, 이외 현재 또는 향후 통신이 가능한 통신단말의 기능과 구성을 모두 포함할 수 있다.
2, a communication terminal operating on a mobile communication or communication system is applied to information processing according to the present invention. Although not specifically shown in the figure, the second communication terminal 110 may be a A speaker, a microphone, a keypad, an LCD (Liquid Crystal Display) screen, an antenna and a battery, and may include all functions and configurations of communication terminals capable of current or future communication.

바람직하게, 전술한 하드웨어적인 특성을 참조하는 본 발명에 따른 제 2통신단말(110)의 주요 기능구성은, 도시된 바와 같이 통신부(210)와, 입력부(220)와, 표시부(230)와, 음성인식부(240)와, 감정 처리부(250)와, 문자 생성부(260)와, 저장부(270)와, 상기 각각의 구성부와 프로그램을 제어하는 제어부(200)를 포함하여 구성될 수 있으며, 통신단말의 종류와 특성, 그리고 당업자의 실시방식에 따라 각 구성부는 추가 또는 제외될 수 있다.
The second communication terminal 110 includes a communication unit 210, an input unit 220, a display unit 230, a display unit 230, A voice recognition unit 240, an emotion processing unit 250, a character generation unit 260, a storage unit 270, and a control unit 200 for controlling the respective components and programs Each component may be added or excluded depending on the type and characteristics of the communication terminal, and the manner of practicing the person skilled in the art.

도 2를 참조하면, 상기 통신부(210)는, 상기 제 2통신단말(110)로 수신되는 각종 문자메시지 또는 문자열을 포함한 데이터를 수신하는 역할을 수행한다.
Referring to FIG. 2, the communication unit 210 receives data including various text messages or text strings received by the second communication terminal 110.

본 발명에 따른 입력부(220)는 사용자의 음성정보 또는 문자 입력을 처리하는 역할을 수행하는 것으로 키 입력 장치, 가상 키보드나 마이크가 이에 해당한다.
The input unit 220 according to the present invention plays a role of processing voice information or character input of a user, and corresponds to a key input device, a virtual keyboard, or a microphone.

물론, 상기 입력부(220)는 제 2통신단말(110)에 자체적으로 구비된 입력장치를 통해 직접 입력을 처리할 수도 있으나, 별도의 장치로 구성되어 사용자의 입력을 처리할 수 있다.
Of course, the input unit 220 may directly process the input through the input device provided to the second communication terminal 110, but it may be configured as a separate device and process the input of the user.

본 발명의 실시방법에 따른 표시부(230)는 상기 통신부(210)를 통하여 수신한 음성데이터를 영상으로 표시 가능한 문자 형태로 변환한 문자메시지를 표시하는 역할을 수행한다.
The display unit 230 according to the embodiment of the present invention plays a role of displaying a text message in which the voice data received through the communication unit 210 is converted into a character form capable of being displayed as an image.

물론, 상기 문자메시지에는 문자 뿐만 아니라 그림, 동영상 등 다양한 화상을 포함할 수 있다.
Of course, the text message may include not only characters but also various pictures such as pictures, moving pictures and the like.

본 발명의 실시방법에 따른 음성인식부(240)는, 음성인식 기술을 활용하여 상기 통신부(210)를 통해 수신한 음성 데이터로부터 특징 데이터를 추출한다. 여기서, 음성인식 기술은 종래에 다양하게 공개된 바 있으며, 본 발명의 요지에 해당하지 않으므로 상세한 설명은 생략한다.
The speech recognition unit 240 according to the embodiment of the present invention extracts the feature data from the speech data received through the communication unit 210 using the speech recognition technology. Here, the speech recognition technology has been variously disclosed in the related art and does not correspond to the gist of the present invention, and thus a detailed description thereof will be omitted.

여기서, 상기 특징 데이터는 양자화 되어 있는 상기 음성 데이터를 문자로 변환하기 위한 정보를 기본적으로 포함하며, 그 외 음성으로 표현 가능한 음량, 음색, 또는 음의 길이 등에 대한 정보를 더 포함할 수 있다.
Here, the feature data basically includes information for converting the quantized audio data into characters, and may further include information on a volume, a tone color, or a tone length that can be expressed by the other voice.

본 발명의 실시방법에 따른 감정 처리부(250)는, 상기 음성 데이터로부터 추출된 특징 데이터에서 사용자의 감정에 대한 감정 데이터를 추출한다.
The emotion processing unit 250 according to the embodiment of the present invention extracts emotion data on the emotion of the user from the feature data extracted from the voice data.

본 발명의 일 실시예에 따른 상기 감정 데이터는, 상기 특징 데이터로부터 감정 데이터 추출 시, 감정 데이터 내에 음성 데이터의의 음량에 대한 정보를 포함하여 추출하거나, 또는 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 추출할 수 있다.
The emotion data according to an embodiment of the present invention may include information about the volume of voice data in the emotion data when extracting emotion data from the feature data, Information including the length of the section can be extracted.

본 발명의 실시방법에 따른 문자 생성부(260)는, 상기 특징 데이터와, 상기 감정 데이터에 상응하는 저장부(270)에 저장된 설정값에 따라 문자 메시지를 생성한다. 물론, 상기 문자 메시지에는 문자열뿐만 아니라 아이콘이나 기타 화상으로 표현 가능한 정보가 포함될 수 있으며, 또한 문자의 크기, 색상 등을 변형하여 문자메시지를 생성할 수 있다.
The character generator 260 according to the embodiment of the present invention generates a text message according to the feature data and the setting value stored in the storage unit 270 corresponding to the emotion data. Of course, the text message may include not only a character string but also information that can be represented by an icon or other image, and a text message may be generated by modifying the size, color, etc. of the character.

본 발명의 실시방법에 따른 저장부(270)는, 상기 감정 데이터에 상응하는 설정값을 저장하고, 상기 감정처리부(250)의 요청에 따라 감정 데이터에 상응하는 설정값을 반환하는 역할을 수행한다.
The storage unit 270 according to the embodiment of the present invention stores a set value corresponding to the emotion data and returns a set value corresponding to the emotion data at the request of the emotion processing unit 250 .

본 발명의 일 실시예에 따른 상기 설정값은, 상기 감정 데이터에 포함된 음량에 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하도록 할 수 있다. 예를 들어, 큰 음량을 가지는 음절의 경우 큰 글씨체로 출력하도록 하고, 작은 음량을 가지는 음절의 경우 작은 글씨체로 출력하도록 할 수 있다.
The set value according to an embodiment of the present invention may change the size of a character string to be included in a text message generated according to information on a volume included in the emotion data. For example, a syllable having a large volume may be output in a large font, and a syllable having a small volume may be output in a small font.

본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 할 수 있다. 예를 들어, 일반적인 속도의 음성에 비해 길게 발음된 ‘아’라는 음절을 ‘아아아아아아’라는 문자열로 생성하거나, 또는 ‘아~’라는 문자열로 생성하도록 할 수 있다.
According to the present invention, the set value may generate a text message by repeatedly outputting the same character according to the length of the syllable included in the emotion data, or by adding a special character at the end of the syllable . For example, the syllable 'ah', which is pronounced longer than the speech of a normal speed, can be generated as a string 'Aaaaa', or can be generated as a string 'ah ~'.

본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음색에 따라 문자의 글씨체를 변경하여 문자메시지를 생성하도록 할 수 있다.
According to the present invention, the setting value may be configured to generate a text message by changing a font of a character according to a tone color included in the emotion data.

본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음색에 따라 문자의 색상을 변경하여 문자메시지를 생성하도록 할 수 있다.
According to the present invention, the set value may be generated by changing a color of a character according to a tone color included in the emotion data.

본 발명에 따르면 상기 설정값은, 특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 변환정보를 포함할 수 있다. 예를 들어, 웃음 소리에 해당하는 ‘하하’의 경우 ‘^^’로 변환하여 출력하거나, 별도의 화상으로 출력하도록 할 수 있다.
According to the present invention, the setting value may include association conversion information for generating a text message by changing the feature data to be converted into a specific character string into a separate emoticon or icon. For example, in the case of 'haha' corresponding to a laugh sound, it may be converted into '^^' and output, or a separate image may be output.

상기 각 구성부는 별도의 장치 또는 프로그램으로 구현될 수 있으며, 제어부(200)에 의하여 각 동작을 제어할 수 있다.
Each of the components may be implemented as a separate device or a program, and each operation may be controlled by the control unit 200. [

도 3은 본 발명의 실시 방법에 따른 음성 메시지 수신 시 감정 표현을 포함한 문자 변환 출력 프로세스를 도시한 도면이다.
3 is a diagram illustrating a character conversion output process including an emotional expression upon receiving a voice message according to an embodiment of the present invention.

우선, 상기 통신부(210)를 통하여 음성 데이터를 수신한다(S310).
First, voice data is received through the communication unit 210 (S310).

이후, 상기 음성인식부(240)는 음성인식 기술을 활용하여 상기 수신한 음성 데이터 중 상기 음성 데이터를 문자로 변환하기 위한 정보를 기본적으로 포함하는 특징 데이터를 추출한다. 여기서, 상기 특징 데이터는 음성으로 표현 가능한 음량, 음색, 또는 음의 길이 등에 대한 정보를 더 포함할 수 있다(S320).
Then, the speech recognition unit 240 extracts feature data that basically includes information for converting the speech data into characters, using the speech recognition technology. Here, the feature data may further include information on a volume, a tone color, or a sound length that can be expressed by voice (S320).

이후, (S320) 단계에서 추출한 특징 데이터로부터 음성 데이터에 대한 음량, 음정, 음색 등에 대한 감정 데이터를 추출한다(S330).
Then, in step S330, emotion data on the volume, pitch, and tone of voice data is extracted from the feature data extracted in step S320.

이후, (S330) 단계에서 추출한 감정 데이터에 상응하는 음량, 음정, 음색, 연관 변환정보 등의 설정값을 저장부(270)에서 검색한다(S340).
Then, in step S340, the storage unit 270 searches for a set value such as a volume, a pitch, a tone color, and association conversion information corresponding to the emotion data extracted in step S330.

이후, 상기 (S340)단계에서의 검색 결과 설정값이 존재 하는 경우(S350), 문자 생성부(250)에서 특징데이터로부터 문자열 생성 시, 해당 설정값에 따라 문자의 크기, 색상 등을 변경하거나 다른 문자열 또는 별도의 화상으로 문자 메시지를 생성하고(S360), 그렇지 않은 경우, 문자생성부(250)에서 기본값에 따라 특징데이터로부터 문자열을 생성한다(S365).
If there is a search result set value in step S340 (S350), the character generator 250 may change the size, color, and the like of the character according to the set value when generating the character string from the character data, (S 360). Otherwise, the character generator 250 generates a character string from the feature data according to the default (S 365).

이후, 상기 생성된 문자 메시지를 표시부(230)를 통하여 화면으로 출력한다(S370).
Thereafter, the generated text message is output to the screen through the display unit 230 (S370).

도 4는 본 발명의 실시 방법에 따른 일실시예도이다.
4 is an embodiment according to an embodiment of the present invention.

도 4에서 보는 바와 같이, 제 1통신단말(100)에 해당하는 차량에 설치된 텔레매틱스 단말은, 사용자가 ‘하하하’라는 웃음소리 또는 ‘너무 보고 싶다’ 라는 음성을 발성하여 제 1무선단말(100)의 입력부(220)에 음성을 입력하여 입력된 음성 메시지를 전송하면, 상기 음성 메시지를 수신한 제 2통신단말(110)에 해당하는 휴대폰에서는 이에 대한 감정 표현 문자열인 ‘^*^’를 출력하거나 또는 글자크기와 음절길이에 따라 변환된 문자열인 ‘너~무~ 보고 싶다’라는 문자메시지를 생성하여 출력한다.
4, the telematics terminal installed in the vehicle corresponding to the first communication terminal 100 generates a laugh sound of 'Ha ha ha' or a voice ' The mobile phone corresponding to the second communication terminal 110 that has received the voice message outputs '^ * ^', which is an emotional expression string for the voice message, to the input unit 220 of the mobile communication terminal 110 Or generates a text message " You ~ No ~ I want to see ", which is a character string converted according to the character size and the syllable length, and outputs it.

100 : 제 1통신단말(발신측) 110 : 제 2통신단말(수신측)
120 : 서버 210 : 통신부
220 : 입력부 230 : 표시부
240 : 음성인식부 250 : 감정 처리부
260 : 문자 생성부 270 : 저장부
100: first communication terminal (calling party) 110: second communication terminal (receiving party)
120: server 210:
220: input unit 230: display unit
240: voice recognition unit 250: emotion processing unit
260: character generator 270:

Claims (8)

통신 단말에 있어서,
데이터 통신이 가능한 통신부;
상기 통신부를 통하여 수신된 음성 데이터로부터 특징 데이터를 추출하는 음성인식부;
상기 음성인식부로부터 추출된 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하고, 상기 추출한 감정 데이터에 상응하는 설정값을 저장부로부터 검색하는 감정 처리부;
특징 데이터 및 감정 데이터에 상응하는 설정값을 데이터베이스 형식으로 저장하는 저장부;
상기 특징 데이터와 감정 데이터에 상응하는 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성부 및
상기 문자 생성부에서 생성된 문자 메시지를 화면에 표시하는 표시부를 포함하되,
상기 감정 처리부는,
상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 감정 데이터를 추출하고,
상기 설정값은,
상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 하는 것
을 특징으로 하는 통신 단말.
In a communication terminal,
A communication unit capable of data communication;
A voice recognition unit for extracting the feature data from the voice data received through the communication unit;
An emotion processing unit for extracting emotion data of the user corresponding to the voice data from the feature data extracted from the voice recognition unit and searching for a setting value corresponding to the extracted emotion data from the storage unit;
A storage unit for storing set values corresponding to characteristic data and emotion data in a database format;
A character generator for generating a text message from the feature data according to the feature data and the set value corresponding to the emotion data;
And a display unit for displaying the text message generated by the character generator on a screen,
Wherein the emotion processing unit comprises:
Extracting emotional data including information on a length of a section in which characters judged as one syllable are consecutively consecutively extracted from the feature data,
The set value is a value
The same character is repeatedly output according to the length of the syllable included in the emotion data or a special character is added at the end of the syllable to generate a text message
And the communication terminal.
제 1항에 있어서,
상기 감정 처리부는,
상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의의 음량을 포함하여 추출하고,
상기 설정값은,
상기 감정 데이터에 포함된 음량 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하는 것
을 특징으로 하는 통신 단말.
The method according to claim 1,
Wherein the emotion processing unit comprises:
Extracting emotional data from the feature data by including a volume of the audio data,
The set value is a value
Changing a size of a character string to be included in a text message generated according to information on a volume included in the emotion data
And the communication terminal.
삭제delete 제 1항에 있어서,
상기 설정값은,
특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보를 포함하는 것
을 특징으로 하는 통신 단말.
The method according to claim 1,
The set value is a value
Including association information for generating a text message by changing the feature data to be converted into a specific character string to a separate emoticon or icon
And the communication terminal.
통신 단말에서의 정보처리 방법에 있어서,
통신부를 통하여 음성 데이터를 수신하는 음성 데이터 수신 단계;
상기 수신한 음성 데이터로부터 음성인식부에 의해 특징 데이터를 추출하는 음성인식 단계;
상기 특징 데이터로부터 감정 처리부에 의해 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 감정 데이터 추출 단계;
저장부에 저장된 특징 데이터 및 감정 데이터에 상응하는 설정값을 검색하고, 상기 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성 단계 및
상기 문자 생성 단계에서 생성된 문자 메시지를 화면에 표시 하는 출력 단계를 포함하되;
상기 감정 데이터 추출 단계는,
상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이 포함하여 감정 데이터를 추출하고,
상기 설정값은,
상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 하는 것
을 특징으로 하는 통신 단말에서의 정보처리 방법.
A method for processing information in a communication terminal,
An audio data receiving step of receiving audio data through a communication unit;
A speech recognition step of extracting the feature data from the received speech data by the speech recognition unit;
An emotion data extraction step of extracting emotion data of a user corresponding to the voice data from the feature data by an emotion processing unit;
A character generation step of searching for a set value corresponding to the feature data and the emotion data stored in the storage unit and generating a text message from the feature data according to the set value,
And an output step of displaying the text message generated in the character generation step on the screen;
The emotion data extracting step may include:
Extracting emotional data including a length of a section in which characters judged as one syllable are consecutively consecutively extracted from the feature data,
The set value is a value
The same character is repeatedly output according to the length of the syllable included in the emotion data or a special character is added at the end of the syllable to generate a text message
And an information processing method in the communication terminal.
제 5항에 있어서,
상기 감정 데이터 추출 단계는,
상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의 음량에 대한 데이터를 포함하여 추출하고,
상기 설정값은,
상기 감정 데이터에 포함된 음량에 대한 데이터에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하는 것
을 특징으로 하는 통신 단말에서의 정보처리 방법.
6. The method of claim 5,
The emotion data extracting step may include:
Extracting emotional data from the feature data by including data on the volume of the voice data,
The set value is a value
Changing the size of a character string to be included in a text message generated according to data on a volume included in the emotion data
And an information processing method in the communication terminal.
삭제delete 제 5항에 있어서,
상기 설정값은,
특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보인 것
을 특징으로 하는 통신 단말에서의 정보처리 방법.
6. The method of claim 5,
The set value is a value
And is related information for generating a text message by changing the feature data to be converted into a specific character string to a separate emoticon or icon
And an information processing method in the communication terminal.
KR1020110136900A 2011-12-18 2011-12-18 Communication Terminal and Information Processing Method Thereof KR101916107B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110136900A KR101916107B1 (en) 2011-12-18 2011-12-18 Communication Terminal and Information Processing Method Thereof
PCT/KR2012/011101 WO2013094979A1 (en) 2011-12-18 2012-12-18 Communication terminal and information processing method of same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110136900A KR101916107B1 (en) 2011-12-18 2011-12-18 Communication Terminal and Information Processing Method Thereof

Publications (2)

Publication Number Publication Date
KR20130069262A KR20130069262A (en) 2013-06-26
KR101916107B1 true KR101916107B1 (en) 2018-11-09

Family

ID=48864693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110136900A KR101916107B1 (en) 2011-12-18 2011-12-18 Communication Terminal and Information Processing Method Thereof

Country Status (1)

Country Link
KR (1) KR101916107B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102050897B1 (en) * 2013-02-07 2019-12-02 삼성전자주식회사 Mobile terminal comprising voice communication function and voice communication method thereof
CN113409790A (en) * 2020-03-17 2021-09-17 Oppo广东移动通信有限公司 Voice conversion method, device, terminal and storage medium
KR102583986B1 (en) * 2021-03-18 2023-10-06 한국과학기술원 Speech balloon expression method and system for voice messages reflecting emotion classification based on voice

Also Published As

Publication number Publication date
KR20130069262A (en) 2013-06-26

Similar Documents

Publication Publication Date Title
US7756536B2 (en) Device and method for providing and displaying animated SMS messages
US7706510B2 (en) System and method for personalized text-to-voice synthesis
FI115868B (en) speech synthesis
US6895257B2 (en) Personalized agent for portable devices and cellular phone
US8705705B2 (en) Voice rendering of E-mail with tags for improved user experience
US20090198497A1 (en) Method and apparatus for speech synthesis of text message
JPWO2009125710A1 (en) Media processing server apparatus and media processing method
US20060224385A1 (en) Text-to-speech conversion in electronic device field
KR20070009880A (en) System, apparatus and method for providing a flashcon in a instant messenger of a mobile device
US8423366B1 (en) Automatically training speech synthesizers
KR101916107B1 (en) Communication Terminal and Information Processing Method Thereof
KR20090054609A (en) Voip telephone communication system and method for providing users with telephone communication service comprising emotional contents effect
KR20130069261A (en) Information processing method, system and recoding medium
WO2013094982A1 (en) Information processing method, system, and recoding medium
KR100920174B1 (en) Apparatus and system for providing text to speech service based on a self-voice and method thereof
JP2004023225A (en) Information communication apparatus, signal generating method therefor, information communication system and data communication method therefor
KR20090069133A (en) Mobile communication terminal and control method thereof
KR20130069263A (en) Information processing method, system and recording medium
JP6805663B2 (en) Communication devices, communication systems, communication methods and programs
KR20130069260A (en) Communication terminal and information processing method thereof
KR100487446B1 (en) Method for expression of emotion using audio apparatus of mobile communication terminal and mobile communication terminal therefor
WO2013094979A1 (en) Communication terminal and information processing method of same
JP4530016B2 (en) Information communication system and data communication method thereof
JP6389348B1 (en) Voice data optimization system
JP4403284B2 (en) E-mail processing apparatus and e-mail processing program

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right