KR20080060909A - 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를이용한 음성합성기 - Google Patents

문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를이용한 음성합성기 Download PDF

Info

Publication number
KR20080060909A
KR20080060909A KR1020060135536A KR20060135536A KR20080060909A KR 20080060909 A KR20080060909 A KR 20080060909A KR 1020060135536 A KR1020060135536 A KR 1020060135536A KR 20060135536 A KR20060135536 A KR 20060135536A KR 20080060909 A KR20080060909 A KR 20080060909A
Authority
KR
South Korea
Prior art keywords
voice
sentence
dialogue
state
analyzed
Prior art date
Application number
KR1020060135536A
Other languages
English (en)
Inventor
박종세
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020060135536A priority Critical patent/KR20080060909A/ko
Publication of KR20080060909A publication Critical patent/KR20080060909A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를 이용한 음성합성기에 관한 것이다.
본 발명에 따른 문장 상태에 따른 음성을 합성하여 출력하는 방법은, 입력된 문장을 통계적 의사결정 모델(Classification And Regression Tress)을 이용하여 분석하는 단계; 상기 분석결과, 분석된 문장이 대화체이면 문장 내용에 부합되는 감정상태를 다시 통계적 의사결정 모델을 이용하여 분석하는 단계; 상기 분석된 감정상태에 해당하는 음성을 음성 데이터베이스에서 추출하는 단계; 및 상기 분석결과, 분석된 문장이 대화체가 아닌 낭독체이면 해당 문장의 음성을 음성 데이터베이스에서 추출하는 단계; 상기 추출된 음성을 합성하여 문장을 음성으로 출력하는 단계를 포함하는 것을 특징으로 한다.
음성합성

Description

문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를 이용한 음성합성기{Method for synthesing voice according to text and voice synthesis using the same}
도 1은 본 발명의 실시 예에 따른 문장 상태에 따른 음성을 합성하여 출력하는 음성합성기의 구성도를 나타내는 도면.
도 2는 본 발명의 실시 예에 따른 CART를 이용하여 문장을 분석하는 방법을나타내는 플로우 차트.
도 3은 본 발명의 실시 예에 따른 문장 상태에 따른 음성을 합성하여 출력하는 방법을 나타내는 플로우 차트.
도 4는 본 발명의 실시 예에 따른 문장 상태에 따른 음성을 합성하는 것을 보여주는 도면.
본 발명은 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를 이용한 음성합성기에 관한 것이다.
현재 음성합성이라는 기술을 사용하여 많은 응용분에서 텍스트를 음성으로 변환하여 재생하는 기능이 제공되고 있다.
최근에는 휴대 단말기(이동통신 단말기, PDA 등) 시장이 확장됨에 따라 휴대 단말기 상에서 구동되는 소프트웨어가 다양하게 개발되고 있으며, 휴대 단말기에 문자음성변환(Text To Speech:TTS)소프트웨어를 탑재하여 문자메시지, 알람, 스케줄 등의 문자는 물론이고 도서 등의 텍스트도 음성으로 청취할 수 있는 음성합성기의 역할을 수행하도록 한다.
하지만, 종래의 음성합성기는 한가지 목소리의 음성 데이터베이스를 이용하여 음성을 출력하기 때문에 각 문장의 감정상태나 대화체 등에 상관없이 한가지 목소리로 음성을 출력하여 사용자에게 어색함을 느끼게 하는 문제점이 발생한다.
본 발명은 상기 문제점을 해결하기 위해 안출된 것으로서, 문장이 대화체이니지 낭독체인지 문장의 형태를 판단하고 또한 문장의 감정상태를 파악하여, 상기 파악된 문장에 가장 적합한 어느 하나 이상의 목소리를 선택하여 음성을 출력하도록 하는 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를 이용한 음성합성기에 관한 것이다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 문장 상태에 따른 음성을 합성하여 출력하는 방법은, 입력된 문장을 통계적 의사결정 모델(Classification And Regression Tress)을 이용하여 분석하는 단계; 상기 분석결과, 분석된 문장이 대화체이면 문장 내용에 부합되는 감정상태를 다시 통계적 의사결정 모델을 이용하 여 분석하는 단계; 상기 분석된 감정상태에 해당하는 음성을 음성 데이터베이스에서 추출하는 단계; 및 상기 분석결과, 분석된 문장이 대화체가 아닌 낭독체이면 해당 문장의 음성을 음성 데이터베이스에서 추출하는 단계; 상기 추출된 음성을 합성하여 문장을 음성으로 출력하는 단계를 포함하는 것을 특징으로 한다.
본 발명에서, 상기 음성 데이터베이스는 낭독체와 감정상태에 따른 대화체의 음성정보를 적어도 두 개 이상의 목소리 종류로 저장하고 있는 것을 특징으로 한다.
또한, 상기와 같은 목적을 달성하기 위한 본 발명에 따른 문장 상태에 따른 음성을 합성하여 출력하는 음성합성기는, 문장을 분석하여 대화체인지 낭독체인지 구분하고, 상기 분석결과 대화체이면 문장의 카테고리에 해당하는 음성을 선택하는 문장분석모듈과; 상기 카테고리에 해당하는 음성을 음성 데이터베이스에서 추출하여 출력하는 음성합성모듈을 포함하는 것을 특징으로 한다.
본 발명에서, 상기 문장의 분석은 통계적 의사결정 모델(Classification And Regression Tress)을 이용하는 것을 특징으로 한다.
본 발명에서, 상기 문장의 카테고리는 긍정, 보통, 부정 중 적어도 어느 하나 이상을 포함하는 문장 내용에 부합되는 감정상태인 것을 특징으로 한다.
이하 첨부된 도면을 참조하여 본 발명의 실시 예를 설명하면 다음과 같다.
도 1은 본 발명의 실시 예에 따른 문장 상태에 따른 음성을 합성하여 출력하는 음성합성기의 구성도를 나타내는 도면이다.
도 1a를 참조하면, 입력되는 문장의 상태를 분석하여 가장 적합한 목소리 종 류를 선택하는 문장분석모듈(11)과; 상기 선택된 목소리를 음성 데이터베이스(DB:DataBase)(13)에서 추출하여 합성하는 음성합성모듈(12)을 포함하여 구성된다.
상기 음성 데이터베이스는(13)는 적어도 두 개 이상의 목소리를 포함하며 낭독체와 감정상태에 따른 음성정보를 저장하고 있다.
자세히 설명하면, 상기 문장분석모듈(11)은 문장을 입력받아 통계적 의사결정 모델(Classification And Regression Tress: 이하 CART)를 이용하여 문장의 상태가 낭독체인지 대화체인지를 분석하고, 분석결과 대화체이면 문장의 감정상태를 분석한다. 즉, 문장의 감정상태를 긍정(기쁨,즐거움), 보통, 부정(슬픔,두려움)으로 분석하여 카테고리별로 구분할 수 있다.
여기서, 상기 입력되는 문장은 문자 메시지, 도서 등을 포함하는 텍스트 정보를 의미한다.
상기 CART를 이용하여 문장을 분석하는 방법을 도 2을 참조하여 자세히 설명하면, 입력되는 문장에 대하여 형태소를 분석하여 통사정보(lexical information)인 동사구, 명사구, 부사구 등의 분포형태와 어휘정보를 통해 감정상태의 카테고리별 단어와 빈도수 및 영어, 숫자, 감탄사, 관용어, 부호 등의 빈도수로 구성되는 특징벡터를 추출하고(S21), 상기 CART을 통해 추출된 특징벡터를 분석하여 문장의 상태가 낭독체인지 대화체인지를 구분한다(S22).
상기 구분에 따라 대화체인 문장은 다시 CART를 이용하여 문장을 긍정, 보통, 부정의 감정상태로 분석하여 해당 문장의 감정상태에 따른 적합한 목소리 종류를 선택하며(S23), 여기서 긍정은 기쁨, 즐거움 등의 표현을 부정은 슬픔, 두려움 등의 표현을 포함한다.
즉, 상기 문장분석모듈(11)은 입력되는 문장이 낭독체인지 대화체인지 구분하고 대화체이면 다시 문장의 감정상태를 긍정, 보통, 부정의 카테고리로 구분하여 적합한 목소리 종류를 선택한다. 예를 들면, 긍정적인 문장이면 기쁜 목소리가 선택되도록 명령하고, 부정적인 문장이면 슬픈 목소리기 선택되도록 명령하는 것이다.
상기 음성합성모듈(12)은 상기 문장분석모듈(11)을 통해 선택된 목소리에 해당하는 음성을 음성 데이터 베이스(12)에서 선택하고 합성하여 출력한다.
상기 음성 데이터 베이스(12)는 적어도 두개 이상의 목소리 종류를 저장하고 있으며, 도 1b와 같이 화자1의 낭독체 음성DB, 화자2의 대화체 긍정 음성DB, 화자2의 대화체 보통 음성DB, 화자2의 대화체 부정 음성DB를 포함하는 음성정보를 저장하고 있다.
따라서, 동화책 텍스트가 입력되었다고 하면, 문장분석모듈(11)은 낭독체인지 대화체인지를 구분하고 낭독체이면 음성합성모듈(12)은 음성 데이터베이스(13)에서 낭독체 음성DB에서 추출된 음성으로 텍스트를 출력한다. 즉, 이야기의 전개에 해당하는 문장은 낭독체 음성으로 출력하는 것이다.
또한, 일반적으로 텍스트에서 " "로 표시되는 대화체 문장에서는 문장의 감정상태에 따라 대화체 긍정, 대화체 보통, 대화체 부정 음성 DB 중 어느 하나에서 음성을 선택하여 출력하며, 상기 낭독체 음성과 대화체 음성의 목소리 종류를 달리하여 한가지 목소리의 음성이 출력되는 것이 아니라 서로 다른 목소리로 출력한다.
또한 상기 대화체에서는 예를 들면, 문장에 따라 남자 목소리, 여자 목소리로 구분되어 마치 대화를 나누는 것처럼 출력할 수 있다.
도 3은 본 발명의 실시 예에 따른 문장 상태에 따른 음성을 합성하여 출력하는 방법을 나타내는 플로우 차트이다.
도 3을 참조하면, 문자 메시지, 도서 등을 포함하는 텍스트 정보로 구성되는
문장을 입력받는다(S31).
이후, 상기 입력된 문장을 CART를 이용하여 문장을 분석한다(S32). 예를 들면, 입력되는 문장에 대하여 형태소를 분석하여 통사정보(lexical information)인 동사구, 명사구, 부사구 등의 분포형태와 어휘정보를 통해 감정상태의 카테고리별 단어와 빈도수 및 영어, 숫자, 감탄사, 관용어, 부호 등의 빈도수로 구성되는 특징벡터를 추출하고, CART을 이용하여 추출된 특징벡터를 분석하여 문장의 상태가 낭독체인지 대화체인지를 판단하는 것이다.
상기 분석결과, 분석된 문장이 대화체이면(S33), CART를 이용하여 다시 문장의 감정상태를 분석한다(S34). 즉, 문장의 감정상태를 긍정, 보통, 부정의 카테고리로 구분하며 긍정은 기쁨, 즐거움 등의 표현을 포함하고 부정은 슬픔, 두려움 등의 표현을 포함한다.
이후, 분석된 감정상태에 음성을 음성 데이터베이스에서 추출한다(S35). 상기 음성 데이터베이스는 적어도 두개 이상의 목소리와 감정상태에 카테고리별 음성정보를 저장한다.
또한 상기 분석결과, 분석된 문장이 대화체가 아니면, 즉 낭독체이면 음성 데이터베이스의 낭독체 음성DB에서 음성을 추출한다(S36).
이후, 상기 추출된 음성을 합성하여 분석된 문장에 해당하는 음성을 출력한다(S37).
도 4는 본 발명의 실시 예에 따른 문장 상태에 따른 음성을 합성하는 것을 보여주는 도면이다.
도 4를 참조하면, 문장(41)이 입력되면, 상기 문장은 문장분석모듈의 분석과정을 거쳐 문장1(42), 문장2(43), 문장3(44), 문장4(45)의 낭독체와 대화체로 구분된다.
이후, 음성합성모듈에서는 음성 데이터베이스에서 상기 문장들(41~45)에 적합된 목소리를 추출하고 합성하여 음성을 추출한다. 여기서 상기 음성 데이터베이스는 적어도 두개 이상의 목소리를 음성정보로 저장하고 있다.
상기 음성합성모듈에서 출력되는 음성은 문장1(42)은 화자A의 낭독체 목소리로 출력되고, 문장2(43)은 화자B의 대화체 긍정적 목소리로 출력되고, 문장3(44)은 화자A의 낭독체 목소리로 출력되며, 문장4는 화자B의 대화체 보통 목소리로 출력된다.
따라서, 본 발명은 적어도 두개 이상의 목소리를 이용하여 문장을 음성으로 표현하고 문장이 대화체인 경우는 문장의 감정상태에 따라 음성 출력을 달리할 수 있어 사용자에게 보다 즐겁고 편리한 기능을 제공할 수 있다.
또한 본 발명은 휴대 단말기 등을 포함하는 다양한 음성합성기에 적용할 수 있으며, 특히 시작장애인들에게 도서 등의 텍스트를 음성으로 제공할 때 보다 효과 적으로 책을 읽는 듯한 감정 표현을 제공할 수 있다.
이제까지 본 발명에 대하여 그 실시 예를 중심으로 살펴보았으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 기술 범위 내에서 상기 본 발명의 상세한 설명과 다른 형태의 실시 예들을 구현할 수 있을 것이다. 여기서 본 발명의 본질적 기술범위는 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
본 발명에 따른 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를 이용한 음성합성기에 따르면, 여러가지 목소리 종류를 이용하여 문장을 음성으로 표현하고 문장이 대화체인 경우는 문장의 감정상태에 따라 음성 출력을 달리하여 사용자에게 보다 즐겁고 편리한 기능을 제공할 수 있는 효과가 있다.
또한, 본 발명은 시작장애인들에게 도서 등의 텍스트를 음성으로 제공할 때 보다 효과적으로 책을 읽는 듯한 감정 표현을 제공할 수 있는 효과가 있다.

Claims (5)

  1. 문장을 분석하여 대화체인지 낭독체인지 구분하고, 상기 분석결과 대화체이면 문장의 카테고리에 해당하는 음성을 선택하는 문장분석모듈과;
    상기 카테고리에 해당하는 음성을 음성 데이터베이스에서 추출하여 출력하는 음성합성모듈을 포함하는 것을 특징으로 하는 문장 상태에 따른 음성을 합성하여 출력하는 음성합성기.
  2. 제 1항에 있어서,
    상기 문장의 분석은 통계적 의사결정 모델(Classification And Regression Tress)을 이용하는 것을 특징으로 하는 문장 상태에 따른 음성을 합성하여 출력하는 음성합성기.
  3. 제 1항에 있어서,
    상기 문장의 카테고리는 긍정, 보통, 부정 중 적어도 어느 하나 이상을 포함하는 문장 내용에 부합되는 감정상태인 것을 특징으로 하는 문장 상태에 따른 음성을 합성하여 출력하는 음성합성기.
  4. 입력된 문장을 통계적 의사결정 모델(Classification And Regression Tress)을 이용하여 분석하는 단계;
    상기 분석결과, 분석된 문장이 대화체이면 문장 내용에 부합되는 감정상태를 통계적 의사결정 모델을 이용하여 분석하는 단계;
    상기 분석된 감정상태에 해당하는 음성을 음성 데이터베이스에서 추출하는 단계; 및
    상기 분석결과, 분석된 문장이 대화체가 아닌 낭독체이면 해당 문장의 음성을 음성 데이터베이스에서 추출하는 단계;
    상기 추출된 음성을 합성하여 문장을 음성으로 출력하는 단계를 포함하는 것을 특징으로 하는 문장 상태에 따른 음성을 합성하여 출력하는 방법.
  5. 제 4항에 있어서,
    상기 음성 데이터베이스는 낭독체와 감정상태에 따른 대화체의 음성정보를 적어도 두 개 이상의 목소리 종류로 저장하고 있는 것을 특징으로 하는 문장 상태에 따른 음성을 합성하여 출력하는 방법.
KR1020060135536A 2006-12-27 2006-12-27 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를이용한 음성합성기 KR20080060909A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060135536A KR20080060909A (ko) 2006-12-27 2006-12-27 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를이용한 음성합성기

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060135536A KR20080060909A (ko) 2006-12-27 2006-12-27 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를이용한 음성합성기

Publications (1)

Publication Number Publication Date
KR20080060909A true KR20080060909A (ko) 2008-07-02

Family

ID=39813384

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060135536A KR20080060909A (ko) 2006-12-27 2006-12-27 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를이용한 음성합성기

Country Status (1)

Country Link
KR (1) KR20080060909A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8626489B2 (en) 2009-08-19 2014-01-07 Samsung Electronics Co., Ltd. Method and apparatus for processing data
WO2019218481A1 (zh) * 2018-05-14 2019-11-21 平安科技(深圳)有限公司 一种语音合成方法、系统及终端设备
KR20210032235A (ko) 2019-09-16 2021-03-24 주식회사 케이티 감정 음성을 합성하는 장치, 방법 및 컴퓨터 프로그램
CN115662423A (zh) * 2022-10-19 2023-01-31 博泰车联网(南京)有限公司 语音控制方法、装置、设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8626489B2 (en) 2009-08-19 2014-01-07 Samsung Electronics Co., Ltd. Method and apparatus for processing data
WO2019218481A1 (zh) * 2018-05-14 2019-11-21 平安科技(深圳)有限公司 一种语音合成方法、系统及终端设备
KR20210032235A (ko) 2019-09-16 2021-03-24 주식회사 케이티 감정 음성을 합성하는 장치, 방법 및 컴퓨터 프로그램
CN115662423A (zh) * 2022-10-19 2023-01-31 博泰车联网(南京)有限公司 语音控制方法、装置、设备及存储介质
CN115662423B (zh) * 2022-10-19 2023-11-03 博泰车联网(南京)有限公司 语音控制方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
Taylor Text-to-speech synthesis
CN101000764B (zh) 基于韵律结构的语音合成文本处理方法
JP4745036B2 (ja) 音声翻訳装置および音声翻訳方法
KR20090085376A (ko) 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
US20130080160A1 (en) Document reading-out support apparatus and method
US20070203703A1 (en) Speech Synthesizing Apparatus
JP2007272773A (ja) 対話型インターフェイス制御システム
US20060129393A1 (en) System and method for synthesizing dialog-style speech using speech-act information
JP2007183421A (ja) 音声合成装置
US20060229874A1 (en) Speech synthesizer, speech synthesizing method, and computer program
KR20080060909A (ko) 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를이용한 음성합성기
JP2007264284A (ja) 感情付加装置、感情付加方法及び感情付加プログラム
López-Ludeña et al. LSESpeak: A spoken language generator for Deaf people
JP3595041B2 (ja) 音声合成システムおよび音声合成方法
KR101097186B1 (ko) 대화체 앞뒤 문장정보를 이용한 다국어 음성합성 시스템 및 방법
JP4200874B2 (ja) 感性情報推定方法および文字アニメーション作成方法、これらの方法を用いたプログラム、記憶媒体、感性情報推定装置、文字アニメーション作成装置
JP3706758B2 (ja) 自然言語処理方法,自然言語処理用記録媒体および音声合成装置
KR20050080671A (ko) 티티에스 시스템의 이모티콘 처리 방법
KR20190083438A (ko) 한국어 대화 장치
JP6289950B2 (ja) 読み上げ装置、読み上げ方法及びプログラム
KR100806287B1 (ko) 문말 억양 예측 방법 및 이를 기반으로 하는 음성합성 방법및 시스템
JP2003099089A (ja) 音声認識・合成装置および方法
Trouvain et al. Speech synthesis: text-to-speech conversion and artificial voices
JP2002366175A (ja) 音声コミュニケーション支援装置およびその方法
Bharthi et al. Unit selection based speech synthesis for converting short text message into voice message in mobile phones

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination