KR20050080671A - Emoticon processing method for text to speech system - Google Patents
Emoticon processing method for text to speech system Download PDFInfo
- Publication number
- KR20050080671A KR20050080671A KR1020040008771A KR20040008771A KR20050080671A KR 20050080671 A KR20050080671 A KR 20050080671A KR 1020040008771 A KR1020040008771 A KR 1020040008771A KR 20040008771 A KR20040008771 A KR 20040008771A KR 20050080671 A KR20050080671 A KR 20050080671A
- Authority
- KR
- South Korea
- Prior art keywords
- emoticon
- pronunciation
- voice signal
- string
- rhyme
- Prior art date
Links
Classifications
-
- A—HUMAN NECESSITIES
- A23—FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
- A23L—FOODS, FOODSTUFFS, OR NON-ALCOHOLIC BEVERAGES, NOT COVERED BY SUBCLASSES A21D OR A23B-A23J; THEIR PREPARATION OR TREATMENT, e.g. COOKING, MODIFICATION OF NUTRITIVE QUALITIES, PHYSICAL TREATMENT; PRESERVATION OF FOODS OR FOODSTUFFS, IN GENERAL
- A23L7/00—Cereal-derived products; Malt products; Preparation or treatment thereof
- A23L7/10—Cereal-derived products
-
- A—HUMAN NECESSITIES
- A23—FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
- A23P—SHAPING OR WORKING OF FOODSTUFFS, NOT FULLY COVERED BY A SINGLE OTHER SUBCLASS
- A23P30/00—Shaping or working of foodstuffs characterised by the process or apparatus
- A23P30/20—Extruding
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Food Science & Technology (AREA)
- Polymers & Plastics (AREA)
- Manufacturing & Machinery (AREA)
- Health & Medical Sciences (AREA)
- Nutrition Science (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
본 발명은 TTS 시스템에서 문자열을 음성신호로 변환할 때 이모티콘이 발견되면 이의 해당 발음을 출력하는 기술에 관한 것이다. 이러한 본 발명은, TTS 엔진에 입력되는 문자열을 음성신호로 변환하기 위하여, 언어학적 처리를 수행함과 아울러, 그 문자열 중에 포함되어 있는 이모티콘을 해당 발음으로 출력하는 제1과정과; 상기 음성신호로 변환된 문장의 운율을 결정하기 위하여 억양, 음의 지속시간 등을 결정하고, 상기 이모티콘이 나타내는 감정에 따라 운율을 적절히 조절하는 제2과정과; 상기 운율이 조정된 음성신호를 외부로 출력하는 제3과정에 의해 달성된다.The present invention relates to a technique for outputting a corresponding pronunciation when an emoticon is found when converting a string into a voice signal in a TTS system. The present invention includes a first step of performing a linguistic process and outputting an emoticon included in the string as a corresponding pronunciation in order to convert the string input to the TTS engine into a voice signal; A second process of determining an accent, duration of sound, etc. to determine the rhyme of the sentence converted into the voice signal, and appropriately adjusting the rhyme according to the emotion indicated by the emoticon; The rhyme is achieved by a third process of outputting the adjusted voice signal to the outside.
Description
본 발명은 티티에스(TTS: Text To Speech) 시스템에서 이모티콘(emoticon)을 처리하는 기술에 관한 것으로, 특히 TTS 엔진에서 문자열을 음성신호로 변환할 때 이모티콘이 발견되면 이의 해당 발음을 출력할 수 있도록 한 티티에스 시스템의 이모티콘 처리 방법에 관한 것이다.The present invention relates to a technology for processing an emoticon in a text to speech (TTS) system, and in particular, when an emoticon is found when converting a string into a voice signal in a TTS engine, the corresponding pronunciation thereof can be output. A method of processing emoticons in a TTS system.
TTS 시스템은 기본적으로 문자열을 사람의 음성으로 변환하는 시스템으로서 기본적인 목적은 문자열로 구성된 텍스트를 사람이 보지 않고 귀로 들을 수 있도록 하는데 있다. 이러한 TTS 기술은 음성인식 기술보다 상용화에 더 접근된 기술이며 각종 텍스트 정보를 음성으로 변환하는 서비스에 활용할 수 있다. 요즈음과 같이 전자메일이 일반화된 상황에서 외부로부터 전화를 이용하여 새로 온 편지를 읽을 수 있는 것도 TTS기술 덕분이다. 이외에도 TTS기술은 워드 프로세서로 입력한 문장, 웹 브라우저가 화면에 보여주는 HTML문서를 음성으로 들어볼 수 있게 해주며, 시각장애자인 경우 인터넷상의 정보를 음성으로 변환하여 들려줌으로써 일반인에 못지않게 각종 유용한 정보를 얻을 수 있다. 최근에는 과거 기계음수준의 합성음을 넘어 인간의 음성과 유사한 합성음을 생성할 수 있는 기술이 개발되어 TTS 기술을 이용한 서비스가 일반인을 대상으로 점차 확대되어 가고 있는 추세이다. The TTS system is basically a system that converts a string into a human voice, and its basic purpose is to allow a user to hear text composed of a string without hearing a human being. Such TTS technology is more accessible to commercialization than voice recognition technology and can be used for a service for converting various text information into voice. It is thanks to TTS technology that new mail can be read from outside by using e-mail in general. In addition, TTS technology enables you to listen to the sentences entered by word processors and HTML documents displayed by the web browser on the screen, and in the case of the visually impaired, it converts the information on the Internet into voice and listens to various useful information. Can be obtained. Recently, a technology for generating synthesized sounds similar to human voices has been developed beyond past mechanical tones, and services using TTS technology are gradually expanding for the general public.
그런데, 사람이 사용하고 있는 언어는 생명력을 지니고 있어 시시각각으로 변화되고 있으며, 현재와 같이 각종 네트워크를 통해 서로 문자를 통해 의사소통을 하고 있는 상황에서는 그 변화의 속도가 점차 빨라지고 있느 실정이다. However, since the language used by human beings has vitality and is changing at every moment, the speed of change is gradually increasing in the situation where each person communicates through letters through various networks.
근래 들어, 컴퓨터 통신 등에서 이모티콘의 사용 빈도가 점차 증가되고 있는 추세에 있다. 상기 이모티콘은 자신의 감정이나 의사를 표현하는 것으로 감정(emotion)과 아이콘(icon)을 합성한 말이며, 키보드에 있는 각종 기호와 문자를 조합하여 만든다. 예를 들어 웃는 얼굴은 :) 또는 :-)로 나타낼 수 있는데, 왼쪽으로 돌려 보면 웃는 얼굴이 나타나게 된다. 1980년대 카네기 멜론 대학 학생인 S. 펠만이 최초로 사용한 것으로 알려져 있다. 자칫 딱딱해지기 쉬운 컴퓨터 통신을 부드럽고 재미있는 분위기로 이끌어 기계와 기계 사이에 오가는 커뮤니케이션을 좀 더 부드럽고 인간적으로 만들 수 있다. In recent years, the frequency of use of emoticons has gradually increased in computer communication. The emoticon expresses one's emotion or intention and is a word synthesized with an emotion and an icon, and is made by combining various symbols and characters on a keyboard. For example, a smiley face can be represented by :) or :-), and turning to the left will bring up a smiley face. S. Fellman, a student at Carnegie Mellon University in the 1980s, is known for the first time. By bringing computer communication, which tends to be hard, to a smooth and fun atmosphere, communication between machines can be made smoother and more human.
그런데, 종래 기술에 의한 TTS 시스템에 있어서는 통상의 문자만을 음성으로 변환할 뿐 이모티콘을 단순한 문장기호나 의미없는 기호로 처리하게 되어 있어 사용자에게 문서의 내용을 충분하게 전달하는데 어려움이 있었다.However, in the TTS system according to the prior art, only normal characters are converted into speech, and the emoticons are processed as simple punctuation symbols or meaningless symbols, which makes it difficult to sufficiently transmit the contents of the document to the user.
따라서, 본 발명의 목적은 TTS 엔진에서 문자열을 음성신호로 변환할 때 이모티콘이 발견되면 이모티콘 발음사전을 이용하여 이의 해당 발음을 출력하도록 하는데 있다.Accordingly, an object of the present invention is to output a corresponding pronunciation using an emoticon pronunciation dictionary when an emoticon is found when converting a string into a voice signal in the TTS engine.
본 발명에 의한 티티에스 시스템의 이모티콘 처리 방법은, TTS 엔진에 입력되는 문자열을 음성신호로 변환하기 위하여, 텍스트의 문장처리, 구문 분석, 비한글 문자 처리, 형태소 분석 및 구문 분석, 발음 표기 변환 등의 작업을 수행함과 아울러, 그 문자열 중에 포함되어 있는 이모티콘을 해당 발음으로 출력하는 제1과정과; 상기 음성신호로 변환된 문장의 운율을 결정하기 위하여 억양, 음의 지속시간 등을 결정하고, 상기 이모티콘이 나타내는 감정에 따라 운율을 적절히 조절하는 제2과정과; 음성 데이터베이스(DB)를 참고하여 실제 음성신호를 생성한 후 그 음성신호에 대해 D/A변환을 실시하고 증폭처리하는 제3과정으로 이루어지는 것으로, 이와 같이 이루어지는 본 발명의 이모티콘 처리과정을 첨부한 도 1 및 도 2를 참조하여 상세히 설명하면 다음과 같다.The emoticon processing method of the TTS system according to the present invention includes a sentence processing, parsing, non-Hangul character processing, morphological analysis and parsing, pronunciation notation conversion, etc., in order to convert a string input to the TTS engine into a voice signal. A first step of performing an operation and outputting an emoticon included in the string in a corresponding pronunciation; A second process of determining an accent, duration of sound, etc. to determine the rhyme of the sentence converted into the voice signal, and appropriately adjusting the rhyme according to the emotion indicated by the emoticon; The third step of generating a real voice signal with reference to the voice database (DB), and then performing a D / A conversion and amplification process for the voice signal, attached to the emoticon processing process of the present invention Referring to 1 and 2 in detail as follows.
외부 장치 또는 내부 메모리로부터 문자열이 TTS 엔진의 텍스트 입력부(1)에 입력되면, 언어학적 처리부(2)에서 이를 음성신호로 변환하기 위하여, 사전부(6)의 숫자/약어 기호 사전, 품사 사전, 발음 사전에 있는 각종 데이터를 참고하여 텍스트의 문장처리, 구문 분석, 비한글 문자 처리, 형태소 분석 및 구문 분석, 발음 표기 변환 등의 작업을 수행한다. When a character string is input to the text input unit 1 of the TTS engine from an external device or an internal memory, the linguistic processing unit 2 converts it into a voice signal, so that the number / abbreviation dictionary of the dictionary unit 6, a part-of-speech dictionary, By referring to the various data in the pronunciation dictionary, text processing, parsing, non-Hangul character processing, morphological analysis and syntax analysis, and phonetic notation conversion are performed.
이때, 상기 언어학적 처리부(2)는 이모티콘 발음사전(7)을 이용하여 상기 문자열 중에 포함되어 있는 이모티콘을 인식한 후 이를 단순한 기호로 처리하지 않고 그 이모티콘 발음사전(7)에 들어 있는 발음으로 출력을 구성한다. At this time, the linguistic processing unit 2 recognizes the emoticon included in the character string using the emoticon pronunciation dictionary 7 and outputs the pronunciation in the emoticon pronunciation dictionary 7 without processing it as a simple symbol. Configure
참고로, 도 2는 상기 이모티콘 발음사전(7)에 기록되어 있는 각 이모티콘들의 발음 예를 나타낸 것이다. 예를 들어, ^^, ^_^, :), ^o^, ^_^ 등의 이모티콘은 "웃습니다"로 발음한다. 다른 예로써, -.-, - -, -.-의 이모티콘에 대해서는 "무표정합니다"로 발음한다.For reference, Figure 2 shows an example of pronunciation of each emoticon recorded in the emoticon pronunciation dictionary (7). For example, emoticons like ^^, ^ _ ^, :), ^ o ^, ^ _ ^ are pronounced "laugh". As another example, an emoticon of -.-,--, -.- is pronounced "no expression".
이후, 운율 처리부(3)에서는 문장을 소리로 출력할 때 운율을 결정하기 위하여 억양, 음의 지속시간 등을 결정하게 되는데, 이때 상기 이모티콘이 나타내는 감정에 따라 운율을 적절히 조절한다.Subsequently, the rhyme processing unit 3 determines the intonation, the duration of the sound, and the like in order to determine the rhyme when the sentence is output as a sound. In this case, the rhyme is appropriately adjusted according to the emotion indicated by the emoticon.
이어서, 음성신호 처리부(4)에서는 실제의 음성 데이터가 저장되어 있는 음성 데이터베이스(8)를 참고하여 실제 음성신호를 생성하고, 음성신호 출력부(5)에서는 상기 음성신호를 사람이 들을 수 있도록 D/A변환을 실시함과 아울러 적당한 레벨로 증폭하여 출력하게 된다.Subsequently, the voice signal processing unit 4 generates an actual voice signal by referring to the voice database 8 in which the actual voice data is stored, and the voice signal output unit 5 allows the human voice to hear the voice signal. A / A conversion is performed, and the output is amplified to an appropriate level.
이상에서 상세히 설명한 바와 같이 본 발명은 TTS 엔진에서 문자열을 음성신호로 변환할 때 이모티콘이 발견되면 이모티콘 발음사전을 이용하여 이의 해당 발음을 출력하도록 함으로써, 이모티콘이 포함되어 있는 문자의 내용을 음성으로 변환하여 출력할 때 그 내용을 그대로 전달할 수 있는 효과가 있다.As described in detail above, when the emoticon is found when converting a string into a voice signal in the TTS engine, the present invention outputs the corresponding pronunciation by using an emoticon pronunciation dictionary, thereby converting the contents of a character including the emoticon into a voice. When outputting, the contents can be delivered as it is.
도 1은 본 발명에 의한 이모티콘 처리 방법의 시스템 구성도.1 is a system configuration of an emoticon processing method according to the present invention.
도 2는 도 1에서 이모티콘 발음사전의 발음 예시표. Figure 2 is a pronunciation example table of the emoticon pronunciation dictionary in FIG.
***도면의 주요 부분에 대한 부호의 설명*** *** Description of the symbols for the main parts of the drawings ***
1 : 텍스트 입력부 2 : 언어학적 처리부1: text input unit 2: linguistic processing unit
3 : 운율 처리부 4 : 음성신호 처리부3: rhyme processing unit 4: voice signal processing unit
5 : 음성신호 출력부 6 : 사전부5: audio signal output unit 6: dictionary unit
7 : 이모티콘 발음사전 8 : 음성 데이터베이스7: Emoticon Pronunciation dictionary 8: Voice database
Claims (4)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040008771A KR20050080671A (en) | 2004-02-10 | 2004-02-10 | Emoticon processing method for text to speech system |
CNB2004100781977A CN1292400C (en) | 2004-02-10 | 2004-09-17 | Expression figure explanation treatment method for text and voice transfer system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040008771A KR20050080671A (en) | 2004-02-10 | 2004-02-10 | Emoticon processing method for text to speech system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20050080671A true KR20050080671A (en) | 2005-08-17 |
Family
ID=34909935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040008771A KR20050080671A (en) | 2004-02-10 | 2004-02-10 | Emoticon processing method for text to speech system |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20050080671A (en) |
CN (1) | CN1292400C (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023136605A1 (en) * | 2022-01-11 | 2023-07-20 | Samsung Electronics Co., Ltd. | Method and electronic device for intelligently reading displayed contents |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101217685A (en) * | 2007-01-04 | 2008-07-09 | 中兴通讯股份有限公司 | A method and device allowing MMS sending by textual SMS |
CN101072258B (en) * | 2007-03-29 | 2012-06-06 | 腾讯科技(深圳)有限公司 | Voice on demand method and device |
CN104053131A (en) * | 2013-03-12 | 2014-09-17 | 华为技术有限公司 | Text communication information processing method and related equipment |
CN103761963A (en) * | 2014-02-18 | 2014-04-30 | 大陆汽车投资(上海)有限公司 | Method for processing text containing emotion information |
CN104699675B (en) * | 2015-03-18 | 2018-01-30 | 北京交通大学 | The method and apparatus of translation information |
CN105139848B (en) * | 2015-07-23 | 2019-01-04 | 小米科技有限责任公司 | Data transfer device and device |
CN106951105A (en) * | 2017-03-03 | 2017-07-14 | 深圳市联谛信息无障碍有限责任公司 | A kind of method that use Barrier-free Service reads emoticon |
CN110189742B (en) * | 2019-05-30 | 2021-10-08 | 芋头科技(杭州)有限公司 | Method and related device for determining emotion audio frequency, emotion display and text-to-speech |
-
2004
- 2004-02-10 KR KR1020040008771A patent/KR20050080671A/en not_active Application Discontinuation
- 2004-09-17 CN CNB2004100781977A patent/CN1292400C/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023136605A1 (en) * | 2022-01-11 | 2023-07-20 | Samsung Electronics Co., Ltd. | Method and electronic device for intelligently reading displayed contents |
Also Published As
Publication number | Publication date |
---|---|
CN1292400C (en) | 2006-12-27 |
CN1655231A (en) | 2005-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Taylor | Text-to-speech synthesis | |
US6823309B1 (en) | Speech synthesizing system and method for modifying prosody based on match to database | |
CN106486121B (en) | Voice optimization method and device applied to intelligent robot | |
JP4745036B2 (en) | Speech translation apparatus and speech translation method | |
US20060129393A1 (en) | System and method for synthesizing dialog-style speech using speech-act information | |
JPH0335296A (en) | Text voice synthesizing device | |
JP2009139677A (en) | Voice processor and program therefor | |
KR20050080671A (en) | Emoticon processing method for text to speech system | |
CN115249480A (en) | Beidou short message-based voice and text conversion method and related device | |
Levinson et al. | Speech synthesis in telecommunications | |
Dagba et al. | A Text To Speech system for Fon language using Multisyn algorithm | |
Ifeanyi et al. | Text–To–Speech Synthesis (TTS) | |
CN112185341A (en) | Dubbing method, apparatus, device and storage medium based on speech synthesis | |
KR20080060909A (en) | Method for synthesing voice according to text and voice synthesis using the same | |
Ghimire et al. | Enhancing the quality of nepali text-to-speech systems | |
JP6289950B2 (en) | Reading apparatus, reading method and program | |
JP3404055B2 (en) | Speech synthesizer | |
Pavešić et al. | Homer II—man–machine interface to internet for blind and visually impaired people | |
JP2001092482A (en) | Speech synthesis system and speech synthesis method | |
JP2001117752A (en) | Information processor, information processing method and recording medium | |
JPH09244679A (en) | Method and device for synthesizing speech | |
Bharthi et al. | Unit selection based speech synthesis for converting short text message into voice message in mobile phones | |
JP4056647B2 (en) | Waveform connection type speech synthesis apparatus and method | |
Pérez et al. | ECESS inter-module interface specification for speech synthesis. | |
Thomas | Audibly: Speech to American Sign Language converter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |