KR20130069263A - Information processing method, system and recording medium - Google Patents

Information processing method, system and recording medium Download PDF

Info

Publication number
KR20130069263A
KR20130069263A KR1020110136901A KR20110136901A KR20130069263A KR 20130069263 A KR20130069263 A KR 20130069263A KR 1020110136901 A KR1020110136901 A KR 1020110136901A KR 20110136901 A KR20110136901 A KR 20110136901A KR 20130069263 A KR20130069263 A KR 20130069263A
Authority
KR
South Korea
Prior art keywords
data
emotion
unit
feature data
voice
Prior art date
Application number
KR1020110136901A
Other languages
Korean (ko)
Inventor
장준호
안지현
변건호
Original Assignee
인포뱅크 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인포뱅크 주식회사 filed Critical 인포뱅크 주식회사
Priority to KR1020110136901A priority Critical patent/KR20130069263A/en
Priority to PCT/KR2012/011105 priority patent/WO2013094982A1/en
Publication of KR20130069263A publication Critical patent/KR20130069263A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices
    • G06Q50/50
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • H04W4/14Short messaging services, e.g. short message services [SMS] or unstructured supplementary service data [USSD]

Abstract

PURPOSE: An information processing method for helping a receiver to easily check a message converted into a character string, a system thereof and a recording medium thereof are provided to effectively deliver emotion of a sender, thereby providing improved efficiency in communication. CONSTITUTION: A voice recognizing unit(220) extracts feature data from received voice data through a receiving unit. An emotion processing unit(230) extracts emotion data of a user corresponding to voice data from the feature data extracted from the voice recognizing unit. A storing unit(250) stores a set value corresponding to the feature data and the emotion data. A text message generating unit(240) generates a text message from the feature data according to the set value corresponding to the feature data and the emotion data. A transmitting unit(260) transmits the text message generated in the text message generating unit to a second communications terminal. [Reference numerals] (100) First communication terminal; (110) Second communication terminal; (200) Control unit; (210) Reception unit; (220) Voice recognizing unit; (230) Emotion processing unit; (240) Text message generating unit; (250) Storing unit; (260) Transmitting unit; (AA,BB) Communication network

Description

정보처리 방법 및 시스템과 기록매체 {Information Processing Method, System and Recording Medium}Information Processing Method, System and Recording Medium

본 발명은 통신 단말간 음성 메시지 전송 시, 음성인식기술을 이용하여 감정 표현이 가능한 문자 형태의 데이터로 변환하여 전송함으로써 보다 편리하고 효율적으로 메시지 확인이 가능하도록 하는 통신 단말 및 그 통신 단말의 정보처리 방법에 관한 것이다.
In the present invention, when the voice message is transmitted between the communication terminals, the communication terminal and information processing of the communication terminal to enable a more convenient and efficient message confirmation by converting and transmitting the data in the form of a character that can express emotions using voice recognition technology It is about a method.

종래에 음성과 문자 간의 변환을 위하여 다양한 음성인식 기술(STT;Speech-to-Text)과 음성 합성 기술(TTS; Text-to-Speech)들이 개발되어 왔다. 특허공개번호 제10-2001-0086402호(음성인식 장치)에 따르면, 사용자의 음성을 인식하는 장치와 방법에 대하여 기술하고 있으며, 특허공개번호 제10-2002-0094988호(음성합성방법 및 그것을 실시하는 음성합성장치)에 따르면, 특정 문장을 임의의 음성으로 합성할 수 있는 장치 및 방법에 대하여 기술하고 있다.
Conventionally, various speech recognition technologies (STT; Speech-to-Text) and speech synthesis techniques (TTS) have been developed for conversion between speech and text. Patent Publication No. 10-2001-0086402 (voice recognition device) describes a device and method for recognizing a user's voice, and Patent Publication No. 10-2002-0094988 (voice synthesis method and implementation thereof) Voice synthesizer) describes a device and a method for synthesizing a specific sentence into an arbitrary voice.

또한, 종래의 통신단말에서는 음성 데이터를 수신한 경우 해당 음성 데이터를 재생하거나 문자로 변환하여 확인하여야 했다.
In addition, in the conventional communication terminal, when the voice data is received, the voice data must be reproduced or converted into text to confirm.

그러나, 이러한 경우, 상기 수신한 문자열 또는 음성을 발신한 발신인의 감정을 정확히 전달할 수 없는 문제점이 있었다.
However, in this case, there is a problem in that the emotion of the sender who transmitted the received string or voice cannot be accurately transmitted.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 통신 단말간에 전송되는 문자열과 음성 간에 변환이 가능하도록 하고, 통신 단말간에 전송되는 문자열과 음성 간의 변환과정에서 송신인의 감정을 효율적으로 표현할 수 있도록 함으로써, 수신인이 보다 편리하게 메시지를 확인하고, 송신인의 감정을 용이하게 공유할 수 있도록 하기 위함에 있다.
An object of the present invention for solving the above problems, it is possible to convert between the string and the voice transmitted between the communication terminal, it is possible to efficiently express the emotion of the sender in the conversion process between the string and the voice transmitted between the communication terminal. By doing so, the recipient can more conveniently check the message and easily share the sentiment of the sender.

본 발명에 따른 정보처리 시스템은, 제 1통신단말로부터음성 데이터를 수신하는 수신부와, 상기 수신부를 통하여 수신된 음성 데이터로부터 특징 데이터를 추출하는 음성인식부와, 상기 음성인식부로부터 추출된 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 감정 처리부와, 특징 데이터 및 감정 데이터에 상응하는 설정값을 데이터베이스 형식으로 저장하는 저장부와, 상기 특징 데이터와 감정 데이터에 상응하는 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성부와, 상기 문자 생성부에서 생성된 문자 메시지를 제 2통신단말로 전송하는 송신부 및 상기 각 구성부를 제어하는 제어부를 구비한다.
An information processing system according to the present invention includes a receiver for receiving voice data from a first communication terminal, a voice recognition unit for extracting feature data from voice data received through the receiver, and feature data extracted from the voice recognition unit. An emotion processing unit for extracting emotion data of the user corresponding to the voice data from the storage unit; a storage unit for storing feature data and setting values corresponding to the emotion data in a database format; and a setting value corresponding to the feature data and emotion data. And a text generator for generating a text message from the feature data, a transmitter for transmitting the text message generated by the text generator to a second communication terminal, and a controller for controlling each component.

일측에 따르면, 상기 음성 인식부는, 상기 음성 데이터로부터 특징 데이터 추출 시, 음성 데이터의의 음량을 포함하여 추출하고, 상기 설정값은, 상기 특징 데이터에 포함된 음량에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하도록 할 수 있다.
According to one side, the voice recognition unit, when extracting the feature data from the voice data, including the volume of the voice data is extracted, the set value, the character string to be included in the text message generated according to the volume included in the feature data You can change the size of.

또 다른 측면에 따르면, 상기 음성 인식부는, 상기 음성 데이터로부터 특징 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이 포함하여 특징 데이터를 추출하고, 상기 설정값은, 상기 특징 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절 위에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 할 수 있다.
According to another aspect, the speech recognition unit, when extracting the feature data from the speech data, extracts the feature data including the length of the section in which the character is determined to be one syllable consecutively, and the set value to the feature data Depending on the length of the syllables included, the same character may be output repeatedly or a special message may be added to the syllable to generate a text message.

또 다른 측면에 따르면, 상기 설정값은,특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변환(예 : ‘하하’라는 음성을 ‘^^’로 변환)하여 문자메시지를 생성하도록 하는 연관 정보를 포함할 수 있다.
According to another aspect, the setting value, the character data to be converted into a separate emoticon or icon for the feature data to be converted into a specific string (for example, to convert the voice of 'haha' to '^^' to generate a text message The association information may be included.

본 발명에 따른 통신 단말에서의 정보처리 방법은, 수신부를 통하여 제 1통신단말로부터 음성 데이터를 수신하는 음성 데이터 수신 단계와, 상기 수신한 음성 데이터로부터 특징 데이터를 추출하는 음성인식 단계와, 상기 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 단계와, 저장부에 저장된 특징 데이터 및 감정 데이터에 상응하는 설정값을 검색하고, 상기 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성 단계 및 상기 문자 생성 단계에서 생성된 문자 메시지를 제 2 통신단말로 전송하는 송신 단계를 포함한다.
An information processing method in a communication terminal according to the present invention includes a voice data receiving step of receiving voice data from a first communication terminal through a receiving unit, a voice recognition step of extracting feature data from the received voice data, and the feature. Extracting emotion data of the user corresponding to the voice data from the data, retrieving setting values corresponding to the feature data and emotion data stored in the storage unit, and generating a text message from the feature data according to the setting values; And a transmitting step of transmitting the text message generated in the generating step and the text generating step to the second communication terminal.

본 발명에 따르면, 음성으로 송신한 메시지를 문자열로 변환하여 수신인이 용이하게 확인할 수 있는 동시에 발신인의 감정을 보다 효과적으로 전달하여 의사소통을 함에 있어서 보다 개선된 효율을 가질 수 있도록 한다.
According to the present invention, a message transmitted by voice is converted into a character string so that a recipient can easily check and at the same time more effectively transmit the emotions of the sender so that the communication can be improved.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 전술한 발명의 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되지 않아야 한다.
도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성도를 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 서버의 세부 구성을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따른 음성 메시지 중계 전송 시 감정을 포함한 문자 변환 출력 프로세스를 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따른 일실시예도이다.
The following drawings, which are attached to this specification, illustrate preferred embodiments of the present invention, and together with the contents of the present invention serve to further understand the technical spirit of the present invention, the present invention is limited to the matters described in such drawings. It should not be construed as limited.
1 is a diagram showing an overall system configuration according to an embodiment of the present invention.
2 is a diagram illustrating a detailed configuration of a server according to an embodiment of the present invention.
3 is a diagram illustrating a text conversion output process including emotions when transmitting a voice message relay according to an exemplary embodiment of the present invention.
4 is an embodiment diagram according to an embodiment of the present invention.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다. 또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
Hereinafter, with reference to the accompanying drawings and description will be described in detail the operating principle of the preferred embodiment of the present invention. It should be understood, however, that the drawings and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention, and are not to be construed as limiting the present invention. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The terms used below are defined in consideration of the functions of the present invention, which may vary depending on the user, intention or custom of the operator. Therefore, the definition should be based on the contents throughout the present invention.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
As a result, the technical spirit of the present invention is determined by the claims, and the following examples are one means for efficiently explaining the technical spirit of the present invention to those skilled in the art to which the present invention pertains. It is only.

도 1은 본 발명의 실시 방법에 따른 전체 시스템 구성을 도시한 도면이다.
1 is a diagram showing the overall system configuration according to an embodiment of the present invention.

보다 상세하게 본 도 1은 제 1통신단말(100)이 통신망을 통해 제 1통신단말에서 생성된 음성 데이터를 서버(120)에 연결되어 제 2통신단말(110)로 전송하기 위한 구성을 도시한 것이다.
In more detail, FIG. 1 illustrates a configuration in which the first communication terminal 100 is connected to the server 120 to transmit voice data generated by the first communication terminal to the second communication terminal 110 through a communication network. will be.

본 발명에 따른 서버(120)는 제 1통신단말(100)에서 전송되는 음성 데이터를 수신하고, 상기 음성데이터로부터 특징 데이터를 추출하고, 상기 특징 데이터로부터 상기 감정 데이터를 추출하고, 상기 감정 데이터와 맵핑되고 저장부(250) 상에 미리 저장, 등록된 설정값에 따라 문자메시지를 생성하여 제 2통신단말(110)로 전송하는 역할을 수행한다.
The server 120 according to the present invention receives voice data transmitted from the first communication terminal 100, extracts feature data from the voice data, extracts the emotion data from the feature data, and extracts the emotion data from the voice data. It is mapped and stores the text message according to a preset value stored and registered in advance in the storage unit 250 and transmits it to the second communication terminal 110.

본 발명에 따르면, 상기 서버(120)는, 제 1통신단말에서 전송되는 정보가MMS(Multimedia Message Service) 형식인 경우, 통신망 상의 서비스 센터 서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 EMS(Electronic Mail System) 형식인 경우, 통신망 상의 이메일 중계서버일 수 있으며, 상기 제 1통신단말에서 전송되는 정보가 인스턴트 메신저의 의해 생성되고 전송되는 데이터인 경우, 각각의 인스턴트 메신저를 운영하는 중계서버일 수 있다.
According to the present invention, the server 120 may be a service center server on a communication network when the information transmitted from the first communication terminal is in a multimedia message service (MMS) format, and the information transmitted from the first communication terminal may be In the case of EMS (Electronic Mail System) format, it may be an e-mail relay server on a communication network. When the information transmitted from the first communication terminal is data generated and transmitted by an instant messenger, a relay server operating each instant messenger. Can be.

본 발명에 따른 제 1통신단말(100) 및 제 2통신단말(110)은 MMS, EMS를 하나 이상 포함하는 메시지 내지 이메일을 전송하거나, 또는 메신저를 실행하는 단말을 의미하며, 휴대폰, 스마트폰, 태블릿PC, PC, 텔레매틱스 단말 등 문자 송수신이 가능한 모든 단말을 포함한다.
The first communication terminal 100 and the second communication terminal 110 according to the present invention means a terminal for transmitting a message or an email including one or more MMS, EMS, or executes a messenger, a mobile phone, a smart phone, This includes all terminals capable of sending and receiving text, such as tablet PCs, PCs, and telematics terminals.

도 2는 본 발명의 실시 방법에 따른 서버의 세부 구성을 도시한 도면이다.
2 is a diagram illustrating a detailed configuration of a server according to an embodiment of the present invention.

본 발명에 따른 서버(120)의 주요 기능구성은, 도시된 바와 같이 수신부(210)와, 음성인식부(220)와, 감정 처리부(230)와, 문자 생성부(240)와, 저장부(250)와, 송신부(260) 및 상기 각 구성부와 프로그램을 제어하는 제어부(200)를 포함하여 구성될 수 있으며, 정보처리 시스템의 특성, 그리고 당업자의 실시방식에 따라 각 구성부는 추가 또는 제외될 수 있다.
The main functional configuration of the server 120 according to the present invention, as shown in the receiver 210, the voice recognition unit 220, the emotion processing unit 230, the character generator 240, the storage unit ( 250, and a transmitter 260 and a controller 200 for controlling the components and programs, each component may be added or excluded depending on the characteristics of the information processing system, and the practice of those skilled in the art. Can be.

도 2를 참조하면, 상기 수신부(210)는, 상기 제 1통신단말(100)로부터 전송되는 음성 데이터를 수신하는 역할을 수행한다.
Referring to FIG. 2, the receiver 210 serves to receive voice data transmitted from the first communication terminal 100.

본 발명에 따른 음성인식부(220)는, 음성인식 기술을 활용하여 상기 통신부(210)를 통해 수신한 음성 데이터로부터 특징 데이터를 추출한다. 여기서, 음성인식 기술은 종래에 다양하게 공개된 바 있으며, 본 발명의 요지에 해당하지 않으므로 상세한 설명은 생략한다.
The voice recognition unit 220 according to the present invention extracts feature data from voice data received through the communication unit 210 by using voice recognition technology. Here, the voice recognition technology has been variously disclosed in the prior art, and thus detailed description thereof will be omitted since it does not correspond to the gist of the present invention.

여기서, 상기 특징 데이터는 양자화 되어 있는 상기 음성 데이터를 문자로 변환하기 위한 정보를 기본적으로 포함하며, 그 외 음성으로 표현 가능한 음량, 음색, 또는 음의 길이 등에 대한 정보를 더 포함할 수 있다.
Here, the feature data basically includes information for converting the quantized voice data into text, and may further include information about a volume, a tone, or a length of sound that can be expressed by voice.

본 발명의 실시방법에 따른 감정 처리부(230)는, 상기 음성 데이터로부터 추출된 특징 데이터에서 사용자의 감정에 대한 감정 데이터를 추출한다.
The emotion processor 230 according to an embodiment of the present invention extracts emotion data about the user's emotion from the feature data extracted from the voice data.

본 발명의 일 실시예에 따른 상기 감정 데이터는, 상기 특징 데이터로부터 감정 데이터 추출 시, 감정 데이터 내에 음성 데이터의의 음량에 대한 정보를 포함하여 추출하거나, 또는 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 추출할 수 있다.
When the emotion data is extracted from the feature data, the emotion data according to an embodiment of the present invention is extracted by including information on the volume of the voice data in the emotion data, or a character that is determined to be one syllable is continuously connected. It can be extracted including information about the length of the interval.

본 발명의 실시방법에 따른 문자 생성부(240)는, 상기 특징 데이터와, 상기 감정 데이터에 상응하는 저장부(250)에 저장된 설정값에 따라 문자 메시지를 생성한다. 물론, 상기 문자 메시지에는 문자열뿐만 아니라 아이콘이나 기타 화상으로 표현 가능한 정보가 포함될 수 있으며, 또한 문자의 크기, 색상 등을 변형하여 문자 메시지를 생성할 수 있다.
The text generation unit 240 according to an embodiment of the present invention generates a text message according to the feature data and a setting value stored in the storage unit 250 corresponding to the emotion data. Of course, the text message may include not only a character string but also information that can be represented by an icon or other image, and the text message may be generated by modifying the size and color of the character.

본 발명의 실시방법에 따른 저장부(250)는, 상기 감정데이터에 상응하는 설정값을 저장하고, 상기 감정 처리부(230)의 요청에 따라 감정 데이터에 상응하는 설정값을 반환하는 역할을 수행한다.
The storage unit 250 according to an embodiment of the present invention stores a setting value corresponding to the emotion data and returns a setting value corresponding to the emotion data at the request of the emotion processing unit 230. .

본 발명의 일 실시예에 따른 상기 설정값은, 상기 감정 데이터에 포함된 음량에 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하도록 할 수 있다. 예를 들어, 큰 음량을 가지는 음절의 경우 큰 글씨체로 출력하도록 하고, 작은 음량을 가지는 음절의 경우 작은 글씨체로 출력하도록 할 수 있다.
The set value according to an embodiment of the present invention may change the size of a string to be included in a text message generated according to the information about the volume included in the emotion data. For example, a syllable having a large volume may be output in a large font, and a syllable having a small volume may be output in a small font.

본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 할 수 있다. 예를 들어, 일반적인 속도의 음성에 비해 길게 발음된 ‘아’라는 음절을 ‘아아아아아아’라는 문자열로 생성하거나, 또는 ‘아~’라는 문자열로 생성하도록 할 수 있다.
According to the present invention, the set value may be outputted by repeatedly outputting the same character according to the length of the syllables included in the emotion data, or by adding a special character to the end of the syllable to generate a text message. . For example, the syllable 'A', which is pronounced longer than the general speed voice, may be generated as a string such as 'AaaAaa' or as 'Aa ~'.

본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음색에 따라 문자의 글씨체를 변경하여 문자메시지를 생성하도록 할 수 있다.
According to the present invention, the set value may change the font of the character according to the tone included in the emotion data to generate a text message.

본 발명에 따르면, 상기 설정값은, 상기 감정 데이터에 포함된 음색에 따라 문자의 색상을 변경하여 문자메시지를 생성하도록 할 수 있다.
According to the present invention, the set value may change the color of the text according to the tone included in the emotion data to generate a text message.

본 발명에 따르면 상기 설정값은, 특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 변환정보를 포함할 수 있다. 예를 들어, 웃음 소리에 해당하는 ‘하하’의 경우 ‘^^’로 변환하여 출력하거나, 별도의 화상으로 출력하도록 할 수 있다.
According to the present invention, the set value may include association conversion information for generating a text message by changing to a separate emoticon or icon for feature data to be converted into a specific character string. For example, 'haha' corresponding to a laugh sound may be converted to '^^' and output, or may be output as a separate image.

본 발명의 실시방법에 따른 송신부(260)는, 상기 문자 생성부(240)에서 생성한 문자 메시지를 통신망을 통하여 제 2통신단말(110)으로 전송하는 역할을 수행한다.
The transmitter 260 according to the exemplary embodiment of the present invention transmits the text message generated by the text generator 240 to the second communication terminal 110 through a communication network.

상기 각 구성부는 별도의 장치 또는 프로그램으로 구현될 수 있으며, 제어부(200)에 의하여 각 동작을 제어할 수 있다.
Each component may be implemented as a separate device or program, and each operation may be controlled by the controller 200.

도 3은 본 발명의 실시 방법에 따른 음성 메시지 중계 전송 시 감정을 포함한 문자 변환 출력 프로세스를 도시한 도면이다.
3 is a diagram illustrating a text conversion output process including emotions when transmitting a voice message relay according to an exemplary embodiment of the present invention.

우선, 상기 수신부(210)를 통하여 음성 데이터를 수신한다(S310).
First, voice data is received through the receiver 210 (S310).

이후, 상기음성인식부(240)는 음성인식 기술을 활용하여 상기 수신한 음성 데이터 중 상기 음성 데이터를 문자로 변환하기 위한 정보를 기본적으로 포함하는 특징 데이터를 추출한다. 여기서, 상기 특징 데이터는 음성으로 표현 가능한 음량, 음색, 또는 음의 길이 등에 대한정보를 더 포함할 수 있다(S320).
Thereafter, the voice recognition unit 240 extracts feature data including information for converting the voice data into a text from among the received voice data using a voice recognition technology. In this case, the feature data may further include information on a volume, a tone, a length of sound, etc. which can be expressed by voice (S320).

이후, (S320) 단계에서 추출한 특징데이터로부터 음성 데이터에 대한 음량, 음정, 음색 등에 대한 감정데이터를 추출한다(S330).
Thereafter, the emotion data regarding the volume, pitch, tone, and the like of the voice data are extracted from the feature data extracted in step S320 (S330).

이후, (S330) 단계에서 추출한 감정 데이터에 상응하는 음량, 음정, 음색, 연관 변환정보 등의 설정값을 저장부(250)에서 검색한다(S340).
Thereafter, the storage unit 250 retrieves a setting value such as a volume, pitch, tone, and associated conversion information corresponding to the emotion data extracted in step S330 (S340).

이후, 상기 (S340) 단계에서의 검색 결과 설정값이 존재 하는 경우(S350), 문자 생성부(240)에서 특징데이터로부터 문자메시지 생성 시, 해당 설정값에 따라 문자의 크기, 색상 등을 변경하거나 다른 문자열 또는 별도의 화상으로 문자 메시지를 생성하고(S360), 그렇지 않은 경우, 문자생성부(240)에서 기본값에 따라 특징데이터로부터 문자열을 생성한다(S365).
Then, when the search result set value in the step (S340) exists (S350), when generating a text message from the feature data in the character generator 240, or change the size, color, etc. of the character according to the set value or A text message is generated from another character string or a separate image (S360), and if not, the character generator 240 generates a character string from the feature data according to the default value (S365).

이후, 상기생성된 문자 메시지를 송신부(260)를 통하여 제 2통신단말로 전송한다(S370).
Thereafter, the generated text message is transmitted to the second communication terminal through the transmitter 260 (S370).

도 4는 본 발명의 실시 방법에 따른 일실시예도이다.
4 is an embodiment diagram according to an embodiment of the present invention.

도 4에서 보는 바와 같이, 제 1통신단말(100)에 해당하는 차량에 설ㅊ된 텔레매틱스 단말은, 사용자가 ‘하하하’라는 웃음소리 또는 ‘너무 보고 싶다’라는 음성을 발성하여 제 1무선단말(100)에 입력해 음성 메시지를 서버(120)로 전송하면, 상기 음성 메시지를 수신한 서버(120)에서는 이에 대한 감정표현 문자열인 ‘^*^’ 또는 글자크기 및 음절의 길이에 따라 변환된 문자열인 ‘너~무~ 보고 싶다’ 라는 문자메시지를 생성하여 제 2통신단말(110)에 해당하는 휴대폰으로 전송하여 출력될 수 있도록 한다.
As shown in FIG. 4, the telematics terminal installed in the vehicle corresponding to the first communication terminal 100 may emit a voice of 'ha ha ha' or 'I want to see too much' to the first wireless terminal ( 100) and transmits the voice message to the server 120, the server 120 receiving the voice message is converted to the character expression string '^ * ^' or the character size and the length of the syllable It generates a text message of 'you want to see ~' to be transmitted to the mobile phone corresponding to the second communication terminal 110 to be output.

100 : 제 1통신단말(발신측) 110 : 제 2통신단말(수신측)
120 : 서버 210 : 통신부
220 : 음성인식부 230 : 감정 처리부
240 : 문자 생성부 250 : 저장부
260 : 송신부
100: first communication terminal (receiving side) 110: second communication terminal (receiving side)
120: server 210: communication unit
220: speech recognition unit 230: emotion processing unit
240: character generation unit 250: storage unit
260: transmitting unit

Claims (8)

제 1통신단말로부터 음성 데이터를 수신하는 수신부
상기 수신부를 통하여 수신된 음성 데이터로부터 특징 데이터를 추출하는 음성인식부
상기 음성인식부로부터 추출된 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 감정 처리부
특징 데이터 및 감정 데이터에 상응하는 설정값을 데이터베이스 형식으로 저장하는 저장부
상기 특징 데이터와 감정 데이터에 상응하는 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성부 및
상기 문자 생성부에서 생성된 문자 메시지를 제 2통신단말로 전송하는 송신부를 포함하는 것을 특징으로 하는 정보처리 시스템.
Receiving unit for receiving voice data from the first communication terminal
Voice recognition unit for extracting feature data from the voice data received through the receiving unit
Emotion processing unit for extracting the user's emotion data corresponding to the voice data from the feature data extracted from the voice recognition unit
Storage unit for storing the setting values corresponding to the feature data and emotion data in the database format
A text generation unit for generating a text message from the feature data according to setting values corresponding to the feature data and the emotion data;
And a transmitter for transmitting the text message generated by the text generator to a second communication terminal.
제 1항에 있어서,
상기 감정 처리부는,
상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의의 음량을 포함하여 추출하고,
상기 설정값은,
상기 감정 데이터에 포함된 음량 대한 정보에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하는 것
을 특징으로 하는 정보처리 시스템.
The method of claim 1,
The emotion processing unit,
When extracting the emotion data from the feature data, including the volume of the voice data is extracted,
The set value is a value
Changing a size of a string to be included in a text message generated according to information about a volume included in the emotion data
Information processing system, characterized in that.
제 1항에 있어서,
상기 감정 처리부는,
상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이에 대한 정보를 포함하여 감정 데이터를 추출하고,
상기 설정값은,
상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 하는 것
을 특징으로 하는 정보처리 시스템.
The method of claim 1,
The emotion processing unit,
When extracting emotion data from the feature data, emotion data is extracted, including information on the length of a section in which a character determined as one syllable is continuously connected,
The set value is a value
Repeatedly outputting the same character according to the length of the syllable included in the emotion data, or adding a special character at the end of the syllable to generate a text message
Information processing system, characterized in that.
제 1항에 있어서,
상기 설정값은,
특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보를 포함하는 것
을 특징으로 하는 정보처리 시스템.
The method of claim 1,
The set value is a value
Include related information for generating text messages by changing to a separate emoticon or icon for feature data to be converted into a specific character string
Information processing system, characterized in that.
수신부를 통하여 제 1통신단말로부터음성 데이터를 수신하는 음성 데이터 수신 단계;
상기 수신한 음성 데이터로부터 특징 데이터를 추출하는 음성인식 단계;
상기 특징 데이터로부터 상기 음성 데이터에 상응하는 사용자의 감정 데이터를 추출하는 단계;
저장부에 저장된 특징 데이터 및 감정 데이터에 상응하는 설정값을 검색하고, 상기 설정값에 따라 특징 데이터로부터 문자 메시지를 생성하는 문자 생성 단계; 및
상기 문자 생성 단계에서 생성된 문자 메시지를 제 2 통신단말로 전송하는 송신 단계를 포함하는 것을 특징으로 하는 정보처리 방법.
Receiving voice data from the first communication terminal through a receiving unit;
A voice recognition step of extracting feature data from the received voice data;
Extracting emotion data of a user corresponding to the voice data from the feature data;
A text generation step of retrieving setting values corresponding to the feature data and the emotion data stored in the storage unit and generating a text message from the feature data according to the setting values; And
And a transmitting step of transmitting the text message generated in the text generating step to a second communication terminal.
제 5항에 있어서,
상기 감정 데이터 추출 단계는,
상기 특징 데이터로부터 감정 데이터 추출 시, 음성 데이터의 음량에 대한 데이터를 포함하여 추출하고,
상기 설정값은,
상기 감정 데이터에 포함된 음량에 대한 데이터에 따라 생성되는 문자 메시지에 포함될 문자열의 크기를 변경하는 것
을 특징으로 하는 통신 단말에서의 정보처리 방법.
6. The method of claim 5,
The emotion data extraction step,
When extracting the emotion data from the feature data, including the data about the volume of the voice data is extracted,
The set value is a value
Changing a size of a character string to be included in a text message generated according to data about a volume included in the emotion data;
Information processing method in a communication terminal, characterized in that.
제 5항에 있어서,
상기 감정 데이터 추출 단계는,
상기 특징 데이터로부터 감정 데이터 추출 시, 한 음절으로 판단되는 문자가 연속적으로 이어지는 구간의 길이 포함하여 감정 데이터를 추출하고,
상기 설정값은,
상기 감정 데이터에 포함된 음절의 길이에 따라 동일한 문자를 반복하여 출력하거나, 또는 해당 음절의 말미에 별도의 특수문자를 추가하여 문자메시지를 생성하도록 하는 것
을 특징으로 하는 통신 단말에서의 정보처리 방법.
6. The method of claim 5,
The emotion data extraction step,
When the emotion data is extracted from the feature data, the emotion data including the length of a section in which a character determined as one syllable is continuously connected is extracted,
The set value is a value
Repeatedly outputting the same character according to the length of the syllable included in the emotion data, or adding a special character at the end of the syllable to generate a text message
Information processing method in a communication terminal, characterized in that.
제 5항에 있어서,
상기 설정값은,
특정 문자열로 변환 될 특징 데이터에 대하여 별도의 이모티콘 또는 아이콘으로 변경하여 문자메시지를 생성하도록 하는 연관 정보인 것
을 특징으로 하는 통신 단말에서의 정보처리 방법.

6. The method of claim 5,
The set value is a value
Related information for generating text messages by changing to emoticons or icons for feature data to be converted into specific character strings
Information processing method in a communication terminal, characterized in that.

KR1020110136901A 2011-12-18 2011-12-18 Information processing method, system and recording medium KR20130069263A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110136901A KR20130069263A (en) 2011-12-18 2011-12-18 Information processing method, system and recording medium
PCT/KR2012/011105 WO2013094982A1 (en) 2011-12-18 2012-12-18 Information processing method, system, and recoding medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110136901A KR20130069263A (en) 2011-12-18 2011-12-18 Information processing method, system and recording medium

Publications (1)

Publication Number Publication Date
KR20130069263A true KR20130069263A (en) 2013-06-26

Family

ID=48864694

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110136901A KR20130069263A (en) 2011-12-18 2011-12-18 Information processing method, system and recording medium

Country Status (1)

Country Link
KR (1) KR20130069263A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180025121A (en) * 2016-08-30 2018-03-08 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for inputting information
CN113366483A (en) * 2019-02-14 2021-09-07 索尼集团公司 Information processing apparatus, information processing method, and information processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180025121A (en) * 2016-08-30 2018-03-08 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for inputting information
CN113366483A (en) * 2019-02-14 2021-09-07 索尼集团公司 Information processing apparatus, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
JP5815214B2 (en) Animation script generation device, animation output device, reception terminal device, transmission terminal device, portable terminal device and method
FI115868B (en) speech synthesis
CN107657471B (en) Virtual resource display method, client and plug-in
US20100332224A1 (en) Method and apparatus for converting text to audio and tactile output
US20100211389A1 (en) System of communication employing both voice and text
KR20090085376A (en) Service method and apparatus for using speech synthesis of text message
JP2005135169A (en) Portable terminal and data processing method
TW201240430A (en) Voice messaging system and processing method thereof
KR20100129122A (en) Animation system for reproducing text base data by animation
EP3155612A1 (en) Advanced recurrent neural network based letter-to-sound
KR20150017662A (en) Method, apparatus and storing medium for text to speech conversion
US9047687B2 (en) Apparatus and method for transmitting handwriting animation message
KR101916107B1 (en) Communication Terminal and Information Processing Method Thereof
KR20130069263A (en) Information processing method, system and recording medium
KR20130069261A (en) Information processing method, system and recoding medium
KR20090075397A (en) Method for transmitting and receiving message comprising emoticon
WO2013094982A1 (en) Information processing method, system, and recoding medium
US20130227701A1 (en) Masking Mobile Message Content
MX2007007975A (en) Method and mobile terminal for sending audio messages.
US20100310058A1 (en) Mobile communication terminal and control method thereof
KR20130069260A (en) Communication terminal and information processing method thereof
JPH0561637A (en) Voice synthesizing mail system
KR20090028151A (en) Apparatus and system for providing text to speech service based on a self-voice and method thereof
KR20040105999A (en) Method and system for providing a voice avata based on network
WO2013094979A1 (en) Communication terminal and information processing method of same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application