KR20060056403A - 텍스트 문자열에서 자연 스피치 포즈 식별 - Google Patents

텍스트 문자열에서 자연 스피치 포즈 식별 Download PDF

Info

Publication number
KR20060056403A
KR20060056403A KR1020067006094A KR20067006094A KR20060056403A KR 20060056403 A KR20060056403 A KR 20060056403A KR 1020067006094 A KR1020067006094 A KR 1020067006094A KR 20067006094 A KR20067006094 A KR 20067006094A KR 20060056403 A KR20060056403 A KR 20060056403A
Authority
KR
South Korea
Prior art keywords
word
speech
text string
natural
words
Prior art date
Application number
KR1020067006094A
Other languages
English (en)
Inventor
구이-린 첸
이-킹 주
Original Assignee
모토로라 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모토로라 인코포레이티드 filed Critical 모토로라 인코포레이티드
Publication of KR20060056403A publication Critical patent/KR20060056403A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules

Abstract

텍스트 문자열에서 자연 스피치 포즈들을 자동으로 식별하기 위한 방법(400)이 개시되고, 상기 포즈들은 전자 장치(100)상에서 수행되는 텍스트 대 스피치 변환에 사용하기 위한 것이다. 상기 방법(400)은 2개의 단부들을 포함하는 텍스트 문자열을 얻는 단계(420)를 포함하고, 이들 단부들은 시작 단부 및 최종 단부이다. 그 다음, 상기 텍스트 문자열의 적어도 하나의 워드에 인접한 자연 스피치 포즈가 있는지를 결정하기 위하여 상기 워드를 분석하는 단계(440)가 이루어지고, 상기 분석은 상기 워드에 대한 적어도 하나의 미리 정의된 임계값에 기초하고, 상기 임계값은 텍스트 문자열의 2개의 단부들중 하나와 상기 워드 사이의 음절들의 수와 연관된다. 그 다음, 텍스트 문자열을 나타내는 합성된 스피치 신호 출력에 자연 스피치 포즈를 삽입하는 단계(460)가 제공된다.
텍스트 문자열, 자연 스피치 포즈, 임계값

Description

텍스트 문자열에서 자연 스피치 포즈 식별{Identifying natural speech pauses in a text string}
본 발명은 일반적으로 텍스트 대 스피치(Text-To-Speech: TTS) 합성에 관한 것이다. 본 발명은 특히 텍스트 세그먼트의 합성 발음에서 자연 포즈들(natural pauses)을 결정하는데 유용한다.
종종 연결 텍스트 대 스피치 합성(concatenated text to speech synthesis)이라 불리는 텍스트 대 스피치(TTS) 변환은, 전자 장치들이 입력 텍스트 문자열을 수신하도록 허용하고, 합성 스피치 형태 문자열의 변환된 표현을 제공하도록 허용한다. 그러나, 수신된 텍스트 문자열들의 비결정 수로부터 발생하는 스피치를 합성하기 위하여 요구될 수 있는 장치는, 고품질 실제 합성 스피치를 제공하기 어려울 것이다. 이는 합성될 각각의 워드 또는 음절(syllable)(예를 들어, 중국 문자들 등)의 발음이 문맥 및 위치에 의존하기 때문이다. 예를 들어, 문장(입력 텍스트 문자열)의 단부에서 워드의 발음은 늘려지거나 길어질 수 있다. 동일한 워드의 발음은, 자연 스피치 포즈에서 요구되는 문장의 중간에서 강세가 발생하면 보다 길어질 수 있다.
대부분의 언어들에서, 워드의 발음은 톤(피치), 볼륨(파워 또는 크기) 및 기 간을 포함하는 음향 운율 파라미터들(acoustic prosodic parameters)에 따른다. 워드에 대한 운율 파라미터 값들은 어구의 워드 위치 및 자연 스피치 포즈들의 위치들에 따른다. 그러나, 가변하는 랜덤 입력 텍스트 패턴들을 위한 자연 스피치 포즈들의 식별은 텍스트 대 스피치(TTS) 합성 기술의 상태에서 쉽게 이루어지지 않는다.
청구항들을 포함하는 이 명세서에서, 용어들 '포함한다(comprises)', '포함하는(comprising)', 또는 유사한 용어들은, 요소들의 리스트를 포함하는 방법 또는 장치가 이들 요소들만을 포함하는 것이 아니라, 리스트되지 않은 다른 요소들도 포함할 수 있도록 비배타적인 포함을 의미하는 것으로 의도된다.
본 발명의 일 양상에 따라 텍스트 문자열에서 자연 스피치 포즈들을 자동으로 식별하기 위한 방법이 제공되고, 상기 포즈들은 전자 장치상에서 수행되는 텍스트 대 스피치 변환에 사용하기 위한 것이고, 상기 방법은,
시작 단부와 최종 단부인 2개의 단부들을 포함하는 상기 텍스트 문자열을 얻는 단계;
상기 텍스트 문자열의 적어도 하나의 워드에 인접한 자연 스피치 포즈가 있는지를 결정하기 위하여 상기 워드를 분석하는 단계로서, 상기 분석 단계는 상기 워드에 대한 적어도 하나의 미리 정의된 임계값에 기초하고, 상기 임계값은 상기 텍스트 문자열의 2개의 단부들중 하나와 상기 워드 사이의 음절들(syllables)의 수와 연관되는, 상기 분석 단계; 및
상기 텍스트 문자열을 나타내는 합성된 스피치 신호 출력에 상기 자연 스피치 포즈를 삽입하는 단계를 포함한다.
바람직하게, 적어도 하나의 미리 정의된 임계값은 시작 단부와 상기 워드 사이의 음절들의 수에 기초하는 P_워드 임계값을 포함한다.
바람직하게, 적어도 하나의 미리 정의된 임계값은 최종 단부와 워드 사이의 음절들의 수에 기초하는 F_워드 임계값을 포함한다.
바람직하게, 적어도 하나의 미리 정의된 임계값은,
삽입된 식별기에 의해 식별된 적어도 하나의 자연 스피치 포즈에 사본들(transcriptions)의 트레이닝 세트(training set)를 제공하는 단계;
상기 사본들 각각의 워드들을 P_워드들 및 F_워드들로서 식별하는 단계;
상기 트레이닝 세트에서 상기 P_워드들 및 F_워드들을 통계적으로 분석하는 단계; 및
상기 통계적 분석의 결과로부터 상기 F_워드 임계값 및 P_워드 임계값을 결정하는 단계에 의해 결정된다.
바람직하게, 상기 자연 스피치 포즈를 삽입하는 단계는, 파트 오브 스피치(Part Of Speech: POS) 패턴 자연 간격들(natural breaks)로서 식별된 포즈들을 또한 포함할 수 있다.
바람직하게, 상기 자연 스피치 포즈를 삽입하는 단계는, 복합 워드 자연 포즈들(Compound word natural pauses)로서 식별된 포즈들을 또한 포함할 수 있다.
본 발명이 쉽게 이해되고 실제적으로 효율적이도록, 첨부 도면들을 참조하여 도시된 바람직한 실시예에 대한 참조가 이루어질 것이다.
도 1은 본 발명에 따른 전자 장치의 통계적 블록도.
도 2는 텍스트 문자열들에서 자연 스피치 포즈들과 연관된 임계값들을 결정하기 위한 방법(200)을 도시하는 도면.
도 3A 내지 3D는 도 2의 방법에 사용된 사본들의 예들을 도시하는 도면.
도 4는 텍스트 문자열에서 자연 스피치 포즈들을 자동으로 식별하기 위한 방법을 도시하는 도면.
도 5는 도 4의 분석 단계를 상세하게 도시하는 도면.
도 1을 참조하여, 버스(103)에 의해, 통상적으로 터치 스크린 또는 선택적으로 디스플레이 스크린 및 키패드인 사용자 인터페이스(104)에 동작 가능하게 결합된 장치 처리기(102)를 포함하는, 라디오 전화 형태의 전자 장치(100)가 도시된다. 전자 장치(100)는 버스(103)에 의해 처리기(102)에 모두 동작 가능하게 결합된, 발화기(106), 스피치 합성기(110), 비휘발성 메모리(120), 판독 전용 메모리(118) 및 라디오 통신 모듈(116)을 또한 가진다. 스피치 합성기(110)는 스피커(112)를 구동하기 위하여 결합된 출력을 가진다. 발화기(106)는 워드들 또는 음소들(phonemes), 및 연관된 샘플링되고 디지탈화되고 처리된 발화 파형들(PUW)의 표현들을 포함한다. 다른 말로, 하기된 바와 같이, 비휘발성 메모리(120)(메모리 모듈)는 텍스트 대 스피치(TTS) 합성(텍스트는 모듈 116에 의해 수신되거나 그렇지 않을 수 있음)을 위하여 사용하는 텍스트 문자열들을 제공한다. 또한, 파형 발화기는 하기된 바와 같이, 어구들, 및 대응하여 샘플링되고 디지탈화된 발화 파형들, 자연 어구 경계들에 관련한 위치들에서 텍스트 문자열들을 나타내는 사본들을 포함한다.
당업자에게 명백할 바와 같이, 라디오 주파수 통신 유니트(116)는 공통 안테나를 가진 결합된 수신기 및 전송기이다. 라디오 주파수 통신 유니트(116)는 라디오 주파수 증폭기를 통하여 안테나에 결합된 트랜스시버를 가진다. 트랜스시버는 통신 유니트(116)를 처리기(102)에 결합하는 결합된 변조기/복조기에 또한 결합된다. 또한, 이 실시예에서, 비휘발성 메모리(120)(메모리 모듈)는 사용자 프로그램 가능 전화번호부 데이타베이스(Db)를 저장하고, 판독 전용 메모리(118)는 장치 처리기(102)에 대한 동작 코드(OC)를 저장한다.
도 2를 참조하여, 텍스트 문자열들에서 자연 스피치 포즈들과 연관된 임계값들을 결정하기 위한 방법(200)이 도시된다. 임계값들은 트레이닝 세트(TS)의 사본들에서 선행 및 후행 음절들의 수에 기초한다. 시작 단계(210) 후, 방법(200)은 수동으로 삽입된 구두점 또는 식별부 "|"에 의해 식별된 적어도 하나의 자연 스피치 포즈를 통상적으로 문장들인 사본들의 트레이닝 세트(TS)에 제공하기 위한 제공 단계(220)를 실행한다. 상기 사본 또는 문장들의 예들은 도 3A 내지 3D에 도시된다. 이들 사본들(300)중 하나는 "Based on our history|in China"이고, 워드들 "history"와 "China" 사이에 자연 스피치 포즈(310)를 가진다. 당업자에게 명백할 바와 같이, 도 3A 내지 3D의 모든 사본들(300)은 적어도 하나의 자연 스피치 포즈 (310) 및 시작 단부(305) 및 최종 단부(315)를 가진다. 사본의 추가 분석은 다음을 도시한다.
Based = 2 음절
on = 1 음절
our = 1 음절
history = 3 음절
in = 1 음절
China = 2 음절
또한, 사본의 각각의 워드는 : (ⅰ) 바로 앞에 구두점 "|"에 의해 식별된 자연 포즈를 가진 사본의 워드로서 식별된 P_워드; (ⅱ) 바로 다음에 구두점 "|"에 의해 식별된 자연 포즈를 가진 사본의 워드로서 식별된 F_워드; (ⅲ) 사본에서 인접한 자연 스피치 포즈를 가지지 않는 중성 워드로서 지정될 수 있다. 단계(220) 후, 식별 단계(230)는 (ⅰ) P_워드; (ⅱ) F_워드; 또는 (ⅲ) 중성 워드로서 사본들의 각각에서 워드들을 식별하기 위하여 제공한다. 따라서, 사본 "Based on our history|in China"에서, 하기 테이블 1은 사본에서 각각의 워드의 속성들을 식별한다.
워드 P_워드 F_워드 #_음절들 간격
Based N N 0 N
on N N 2 N
our N N 3 N
history N Y 4
in Y N 7
China N N 1 N
테이블 1 "Based on our history|in China"의 분석
그 다음, 방법(200)은 통계적 분석 단계(240)를 수행한다. 이 단계(249)에서, 제공된 트레이닝 세트(TS)가 90,000 사본들(예를 들어 문장들)을 가지며 워드 "in"을 추정하는 것이 트레이닝 세트(TS)에서 10,000 번 발생하면, 이들 "in"의 10,000 예들에서, 다음 통계적 분석은 다음과 같이 관찰될 수 있다.
(ⅰ) P_워드로서 "in"의 발생수(OPW) = 8,000 예들;
(ⅱ) F_워드로서 "in"의 발생수(OFW) = 1,000 예들;
(ⅲ) 중성 워드(P_워드 또는 F_워드가 아닌 워드)로서 "in"의 발생수(ONW) = 1,000 예들;
게다가, 트레이닝 세트(TS)에서 식별된 "in"의 8,000 P_워드 발생수(OPW)로부터, 다음 통계적 분석은 관찰될 수 있다.
(ⅰ) 8 이상의 선행 음절들의 발생수(OPS) = 0;
(ⅱ) 7의 선행 음절들의 발생수(OPS) = 400;
(ⅲ) 6의 선행 음절들의 발생수(OPS) = 600;
(ⅳ) 5의 선행 음절들의 발생수(OPS) = 2,000;
(ⅴ) 4의 선행 음절들의 발생수(OPS) = 3,000;
(ⅵ) 3의 선행 음절들의 발생수(OPS) = 1,000;
(ⅶ) 2의 선행 음절들의 발생수(OPS) = 1,000;
(ⅷ) 1의 선행 음절들의 발생수(OPS) = 0.
직관 및 경험에 의해 선택된 0.75의 학습도(heuristic ratio) HR은 워드 "in"에 대한 P_워드 간격 임계값 PT를 결정하기 위하여 사용된다. 이 임계값 PT는 다음과 같이 결정 임계 값들 단계(250)에서 결정된다.
관찰된 음절들의 최대 수로부터 관찰된 음절들의 최소수까지 가장 큰 OPS로부터 Do를 시작하여,
합 OPS/OPW >= 0.75 까지 실행한다.
PT가 합 OPS의 최종 OPS에 의해 식별된 관찰된 음절들의 수이도록 선택;
Do 종료:
따라서, "in"에 대한 PT는 다음과 같이 단계(250)에서 결정된다:
7개의 선행하는 음절들에 대하여 400/8,000 = 0.05
6개의 선행하는 음절들에 대하여 (400+600)/8,000 = 0.125
5개의 선행하는 음절들에 대하여 (400+600+2,000)/8,000 = 0.375
4개의 선행하는 음절들에 대하여 (400+600+2,000+3,000)/8,000 = 0.75이고 따라서 PT는 4이도록 선택된다.
유사한 통계적 분석은 단계(250)에서 "in"에 대하여 F_워드 간격 임계값 FT를 결정하기 위하여 사용되고, 다시 0.75의 학습 비율 HR이 사용된다. 또한, PT 및 FT 값들은 트레이닝 세트 TS(0.75의 학습 비율 HR 사용)의 모든 다른 워드들에 대하여 모든 다른 P_워드 및 F_워드를 위하여 결정된다. 상기 방법(200)은 단계(260)에서 종료하고 트레이닝 세트 TS에서 모든 워드들에 대한 모든 P_워드 및 F_워드는 비휘발성 메모리(120)에 저장된다.
도 4를 참조하여, 텍스트 문자열 STR의 자연 스피치 포즈들을 자동으로 식별 하기 위한 방법(400)이 도시되고, 상기 포즈들은 전자 장치(100)상에서 수행되는 텍스트 대 스피치 변환에 사용하기 위한 것이다. 시작 단계(410)에서, 상기 방법(400)은 2개의 단부들을 포함하는 텍스트 문자열 STR을 얻는 단계(420)에서 발생하고, 이들 단부들은 시작 단부 SE 및 최종 단부 FE이다. 워드를 선택하는 단계(430)는 워드들(또는 복합 워드 CW)중 하나를 선택하고, 분석 단계(440)는 워드(또는 복합 워드들 CW)에 인접한 자연 스피치 포즈들이 있는지를 결정하기 위하여 텍스트 문자열 STR의 적어도 하나의 워드(또는 복합 워드들 CW)를 분석하기 위하여 제공하고, 상기 분석은 워드에 대한 적어도 하나의 미리 정의된 임계값(PT 또는 FT)에 기초하고, 상기 임계값은 텍스트 문자열의 2개의 단부들중 하나와 상기 워드 사이의 음절들의 수와 연관된다. 상기 임계값은 시작 단부와 워드 사이의 음절들의 수에 기초하는 P_워드 임계값 PT를 포함한다. 또한, 임계값은 최종 단부와 워드 사이의 음절들의 수에 기초하는 F_워드 임계값 FT를 포함한다.
시험 단계(450)가 단계(440)에 의해 포즈가 식별되었다고 결정하면, 단계(460)에서 자연 스피치 포즈가 스피치 합성을 위하여 삽입된다. 그렇지 않으면 포즈가 단계(430)에서 선택된 워드에 삽입되지 않는다. 단계(470)는 텍스트 문자열 STR의 모든 워드들이 분석되었는지 결정하기 위해 검사하고, 분석되지 않은 워드들이 있다면 상기 방법은 단계(230)로 리턴한다. 그렇지 않으면, 스피치 합성 단계(480)는 발화기(106)를 사용하여 합성기(110)에서 스피치를 합성하기 위하여 제공되고, 텍스트 문자열 STR을 나타내는 합성된 스피치 신호 출력으로의 자연 스피치 포즈 또는 포즈들(단계 460에서 텍스트 문자열 STR에 삽입됨)의 삽입이 발생한다.
도 5를 참조하여, 분석 단계(440)의 보다 상세한 다이어그램이 있다. 첫째로, 텍스트 문자열 STR은 시험 단계(441)에서 파트 오브 스피치(POS) 패턴 자연 포즈 간격을 가지는지를 결정하기 위하여 검사된다.
POS 패턴 자연 간격 포즈들의 예들은 다음과 같다:
1. 숫자 + 명사
예를 들어 : 이천개의 책들(two thousand books)
2. 동사 + 부사
예를 들어 : 주의깊게 보다(look carefully)
3. 전치사 + 명사
예를 들어 : 망원경들을 사용하여(with telescopes)
4. 형용사 + 명사
예를 들어 : 아름다운 도시(beautiful city)
간격이 단계(441)에서 결정되면, 단계(446)가 이루어지고, 간격은 F_워드 간격으로서 식별된다. 간격이 단계(441)에서 결정되지 않으면, 텍스트 문자열 STR은 복합 워드 자연 포즈 삽입 간격을 가지는지를 결정하기 위하여 단계(442)에서 검사된다. 복합 워드 자연 간격 포즈들의 예들은 다음과 같다:
a bit of
a body of
a few
a fleet of
a flooding of
a fraction of
a function of
a good deal
a good deal of
a great deal
a great deal of
a growing number of
a hint of
a large body of
a large number of
a lot of land
a majority of
간격이 단계(442)에서 결정되면, 단계(446)가 이루어지고, 간격은 F_워드 간격으로서 식별된다. 간격이 단계(442)에서 식별되지 않으면, 시험은 선택된 워드에 대한 P_워드 임계값(PT)이 도달되었는지를 단계(443)에서 결정한다. 이것은 시작 단부와 선택된 워드 사이의 텍스트 문자열 STR의 음절들의 수를 비교함으로써 결정된다. P_워드 임계값(PT)이 도달되면, 자연 간격이 결정되고, 단계(444)에서 P_워드 간격으로서 식별된다. 선택적으로, 간격이 단계(443)에서 식별되지 않으면, 시험은 선택된 워드에 대한 N_워드 임계값(PT)이 도달되었는지를 단계(445)에 서 결정한다. 이것은 최종 단부와 선택된 워드 사이의 텍스트 문자열 STR의 음절들의 수를 비교함으로써 결정된다. F_워드 임계값 FT가 도달되면, 자연 간격이 결정되고, 단계(446)에서 F_워드 간격으로서 식별된다. 그렇지 않으면, 간격은 단계(447)에서 식별되지 않는다.
바람직하게, 본 발명은 합성된 스피치의 품질을 개선시키도록, 텍스트 대 스피치(TTS) 합성에 사용하기 위한 텍스트 문자열의 자연 스피치 포즈들을 식별하게 한다.
상세한 설명은 바람직한 예시적인 실시예이고, 본 발명의 범위, 응용도, 또는 구성을 제한하는 것으로 의도되지 않는다. 오히려, 바람직한 실시예의 상세한 설명은 본 발명의 바람직한 실시예를 실행하기 위한 설명을 위하여 당업자에게 제공한다. 다양한 변화들이 첨부된 청구항들에 나타난 바와 같이 본 발명의 사상 및 범위에서 벗어나지 않고 요소의 기능 및 배열에서 이루어질 수 있다는 것이 이해되어야 한다.

Claims (6)

  1. 텍스트 문자열(text string)에서 자연 스피치 포즈들(natural speech pauses)을 자동으로 식별하는 방법으로서, 상기 포즈들은 전자 장치상에서 수행되는 텍스트 대 스피치 변환에 사용하기 위한 것인, 상기 방법에 있어서,
    시작 단부와 최종 단부인 2개의 단부들을 포함하는 상기 텍스트 문자열을 얻는 단계;
    상기 텍스트 문자열의 적어도 하나의 워드에 인접한 자연 스피치 포즈가 있는지를 결정하기 위하여 상기 워드를 분석하는 단계로서, 상기 분석 단계는 상기 워드에 대한 적어도 하나의 미리 정의된 임계값에 기초하고, 상기 임계값은 상기 텍스트 문자열의 2개의 단부들중 하나와 상기 워드 사이의 음절들(syllables)의 수와 연관되는, 상기 분석 단계; 및
    상기 텍스트 문자열을 나타내는 합성된 스피치 신호 출력에 상기 자연 스피치 포즈를 삽입하는 단계를 포함하는 자연 스피치 포즈 자동 식별 방법.
  2. 제 1 항에 있어서, 상기 적어도 하나의 미리 정의된 임계값은 상기 시작 단부와 상기 워드 사이의 음절들의 수에 기초하는 P_워드 임계값을 포함하는, 자연 스피치 포즈 자동 식별 방법.
  3. 제 1 항에 있어서, 상기 적어도 하나의 미리 정의된 임계값은 상기 최종 단 부와 상기 워드 사이의 음절들의 수에 기초하는 F_워드 임계값을 포함하는, 자연 스피치 포즈 자동 식별 방법.
  4. 제 1 항에 있어서, 상기 적어도 하나의 미리 정의된 임계값은,
    삽입된 식별기에 의해 식별된 적어도 하나의 자연 스피치 포즈에 사본들(transcriptions)의 트레이닝 세트(training set)를 제공하는 단계;
    상기 사본들 각각의 워드들을 P_워드들 및 F_워드들로서 식별하는 단계;
    상기 트레이닝 세트에서 상기 P_워드들 및 F_워드들을 통계적으로 분석하는 단계; 및
    상기 통계적 분석의 결과로부터 상기 F_워드 임계값 및 P_워드 임계값을 결정하는 단계에 의해 결정되는, 자연 스피치 포즈 자동 식별 방법.
  5. 제 1 항에 있어서, 상기 자연 스피치 포즈를 삽입하는 단계는, 파트 오브 스피치(Part Of Speech: POS) 패턴 자연 간격들(natural breaks)로서 식별된 포즈들을 또한 포함할 수 있는, 자연 스피치 포즈 자동 식별 방법.
  6. 제 1 항에 있어서, 상기 자연 스피치 포즈를 삽입하는 단계는, 복합 워드 자연 포즈들(Compound word natural pauses)로서 식별된 포즈들을 또한 포함할 수 있는, 자연 스피치 포즈 자동 식별 방법.
KR1020067006094A 2003-09-29 2004-09-17 텍스트 문자열에서 자연 스피치 포즈 식별 KR20060056403A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN03132708.7 2003-09-29
CNB031327087A CN1320482C (zh) 2003-09-29 2003-09-29 标识文本串中的自然语音停顿的方法

Publications (1)

Publication Number Publication Date
KR20060056403A true KR20060056403A (ko) 2006-05-24

Family

ID=34398361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067006094A KR20060056403A (ko) 2003-09-29 2004-09-17 텍스트 문자열에서 자연 스피치 포즈 식별

Country Status (5)

Country Link
EP (1) EP1668631A4 (ko)
KR (1) KR20060056403A (ko)
CN (1) CN1320482C (ko)
RU (1) RU2319221C1 (ko)
WO (1) WO2005034085A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100769033B1 (ko) * 2003-09-29 2007-10-22 모토로라 인코포레이티드 스피치 합성 방법

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
WO2008075076A2 (en) * 2006-12-21 2008-06-26 Symbian Software Limited Communicating information
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8396714B2 (en) 2008-09-29 2013-03-12 Apple Inc. Systems and methods for concatenation of words in text to speech synthesis
US8712776B2 (en) 2008-09-29 2014-04-29 Apple Inc. Systems and methods for selective text to speech synthesis
US8352268B2 (en) 2008-09-29 2013-01-08 Apple Inc. Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US8352272B2 (en) 2008-09-29 2013-01-08 Apple Inc. Systems and methods for text to speech synthesis
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US8380507B2 (en) 2009-03-09 2013-02-19 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8977584B2 (en) 2010-01-25 2015-03-10 Newvaluexchange Global Ai Llp Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
CN113470640B (zh) 2013-02-07 2022-04-26 苹果公司 数字助理的语音触发器
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
DE112014002747T5 (de) 2013-06-09 2016-03-03 Apple Inc. Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
AU2014306221B2 (en) 2013-08-06 2017-04-06 Apple Inc. Auto-activating smart responses based on activities from remote devices
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9542929B2 (en) 2014-09-26 2017-01-10 Intel Corporation Systems and methods for providing non-lexical cues in synthesized speech
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN110970013A (zh) * 2019-12-23 2020-04-07 出门问问信息科技有限公司 一种语音合成方法、装置以及计算机可读存储介质
CN111667816B (zh) * 2020-06-15 2024-01-23 北京百度网讯科技有限公司 模型训练方法、语音合成方法、装置、设备和存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05160773A (ja) * 1991-12-03 1993-06-25 Toshiba Corp 音声通信装置
WO1994020952A1 (en) * 1993-03-12 1994-09-15 Sri International Method and apparatus for voice-interactive language instruction
JP3060422B2 (ja) * 1992-08-11 2000-07-10 株式会社エイ・ティ・アール自動翻訳電話研究所 音声規則合成装置
US5692104A (en) * 1992-12-31 1997-11-25 Apple Computer, Inc. Method and apparatus for detecting end points of speech activity
DE69427525T2 (de) * 1993-10-15 2002-04-18 At & T Corp Trainingsmethode für ein tts-system, sich daraus ergebendes gerät und methode zur bedienung des gerätes
CN1032391C (zh) * 1994-04-01 1996-07-24 清华大学 基于波形编辑的汉语文字-语音转换方法及系统
CN1139038C (zh) * 2000-06-22 2004-02-18 上海贝尔有限公司 一种实现互联网拨号上网业务旁路的方法
JP3690502B2 (ja) * 2001-04-19 2005-08-31 日本電信電話株式会社 韻律情報設定方法及び装置並びにプログラム及び記録媒体
JP4635384B2 (ja) * 2001-07-03 2011-02-23 日本電気株式会社 音声合成システム、音声合成方法および音声合成用プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100769033B1 (ko) * 2003-09-29 2007-10-22 모토로라 인코포레이티드 스피치 합성 방법

Also Published As

Publication number Publication date
CN1320482C (zh) 2007-06-06
CN1604183A (zh) 2005-04-06
EP1668631A4 (en) 2008-05-14
WO2005034085A1 (en) 2005-04-14
EP1668631A1 (en) 2006-06-14
RU2319221C1 (ru) 2008-03-10

Similar Documents

Publication Publication Date Title
KR20060056403A (ko) 텍스트 문자열에서 자연 스피치 포즈 식별
US6778962B1 (en) Speech synthesis with prosodic model data and accent type
US8566099B2 (en) Tabulating triphone sequences by 5-phoneme contexts for speech synthesis
US6490563B2 (en) Proofreading with text to speech feedback
US7962341B2 (en) Method and apparatus for labelling speech
JP4473193B2 (ja) 混合言語テキスト音声合成方法および音声合成装置
US6343270B1 (en) Method for increasing dialect precision and usability in speech recognition and text-to-speech systems
US20060229877A1 (en) Memory usage in a text-to-speech system
EP0821344B1 (en) Method and apparatus for synthesizing speech
JP2007538278A (ja) 音声認識システム
EP1668629B1 (en) Letter-to-sound conversion for synthesized pronunciation of a text segment
KR100373329B1 (ko) 음운환경과 묵음구간 길이를 이용한 텍스트/음성변환 장치 및그 방법
KR100720175B1 (ko) 음성합성을 위한 끊어읽기 장치 및 방법
KR100848148B1 (ko) 음절 단위의 음성 인식 장치, 음절 단위의 음성 인식을이용한 문자 입력 장치, 그 방법 및 기록 매체
KR100759729B1 (ko) 발화 파형 코퍼스에 대한 개선들
JP3366253B2 (ja) 音声合成装置
Šef et al. Automatic lexical stress assignment of unknown words for highly inflected Slovenian language
JPH05134691A (ja) 音声合成方法および装置
JP3284976B2 (ja) 音声合成装置及びコンピュータ可読記録媒体
US20060206301A1 (en) Determining the reading of a kanji word
Matoušek Building a new Czech text-to-speech system using triphone-based speech units
Gopal et al. A simple phoneme based speech recognition system
JPH04127199A (ja) 外国語単語の日本語発音決定方法
JPH07219574A (ja) 音声規則合成装置
JP2002297172A (ja) 音声合成方法、および音声合成装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
E801 Decision on dismissal of amendment
B601 Maintenance of original decision after re-examination before a trial
S901 Examination by remand of revocation
E902 Notification of reason for refusal
S601 Decision to reject again after remand of revocation