KR20060056403A - 텍스트 문자열에서 자연 스피치 포즈 식별 - Google Patents
텍스트 문자열에서 자연 스피치 포즈 식별 Download PDFInfo
- Publication number
- KR20060056403A KR20060056403A KR1020067006094A KR20067006094A KR20060056403A KR 20060056403 A KR20060056403 A KR 20060056403A KR 1020067006094 A KR1020067006094 A KR 1020067006094A KR 20067006094 A KR20067006094 A KR 20067006094A KR 20060056403 A KR20060056403 A KR 20060056403A
- Authority
- KR
- South Korea
- Prior art keywords
- word
- speech
- text string
- natural
- words
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
Abstract
텍스트 문자열에서 자연 스피치 포즈들을 자동으로 식별하기 위한 방법(400)이 개시되고, 상기 포즈들은 전자 장치(100)상에서 수행되는 텍스트 대 스피치 변환에 사용하기 위한 것이다. 상기 방법(400)은 2개의 단부들을 포함하는 텍스트 문자열을 얻는 단계(420)를 포함하고, 이들 단부들은 시작 단부 및 최종 단부이다. 그 다음, 상기 텍스트 문자열의 적어도 하나의 워드에 인접한 자연 스피치 포즈가 있는지를 결정하기 위하여 상기 워드를 분석하는 단계(440)가 이루어지고, 상기 분석은 상기 워드에 대한 적어도 하나의 미리 정의된 임계값에 기초하고, 상기 임계값은 텍스트 문자열의 2개의 단부들중 하나와 상기 워드 사이의 음절들의 수와 연관된다. 그 다음, 텍스트 문자열을 나타내는 합성된 스피치 신호 출력에 자연 스피치 포즈를 삽입하는 단계(460)가 제공된다.
텍스트 문자열, 자연 스피치 포즈, 임계값
Description
본 발명은 일반적으로 텍스트 대 스피치(Text-To-Speech: TTS) 합성에 관한 것이다. 본 발명은 특히 텍스트 세그먼트의 합성 발음에서 자연 포즈들(natural pauses)을 결정하는데 유용한다.
종종 연결 텍스트 대 스피치 합성(concatenated text to speech synthesis)이라 불리는 텍스트 대 스피치(TTS) 변환은, 전자 장치들이 입력 텍스트 문자열을 수신하도록 허용하고, 합성 스피치 형태 문자열의 변환된 표현을 제공하도록 허용한다. 그러나, 수신된 텍스트 문자열들의 비결정 수로부터 발생하는 스피치를 합성하기 위하여 요구될 수 있는 장치는, 고품질 실제 합성 스피치를 제공하기 어려울 것이다. 이는 합성될 각각의 워드 또는 음절(syllable)(예를 들어, 중국 문자들 등)의 발음이 문맥 및 위치에 의존하기 때문이다. 예를 들어, 문장(입력 텍스트 문자열)의 단부에서 워드의 발음은 늘려지거나 길어질 수 있다. 동일한 워드의 발음은, 자연 스피치 포즈에서 요구되는 문장의 중간에서 강세가 발생하면 보다 길어질 수 있다.
대부분의 언어들에서, 워드의 발음은 톤(피치), 볼륨(파워 또는 크기) 및 기 간을 포함하는 음향 운율 파라미터들(acoustic prosodic parameters)에 따른다. 워드에 대한 운율 파라미터 값들은 어구의 워드 위치 및 자연 스피치 포즈들의 위치들에 따른다. 그러나, 가변하는 랜덤 입력 텍스트 패턴들을 위한 자연 스피치 포즈들의 식별은 텍스트 대 스피치(TTS) 합성 기술의 상태에서 쉽게 이루어지지 않는다.
청구항들을 포함하는 이 명세서에서, 용어들 '포함한다(comprises)', '포함하는(comprising)', 또는 유사한 용어들은, 요소들의 리스트를 포함하는 방법 또는 장치가 이들 요소들만을 포함하는 것이 아니라, 리스트되지 않은 다른 요소들도 포함할 수 있도록 비배타적인 포함을 의미하는 것으로 의도된다.
본 발명의 일 양상에 따라 텍스트 문자열에서 자연 스피치 포즈들을 자동으로 식별하기 위한 방법이 제공되고, 상기 포즈들은 전자 장치상에서 수행되는 텍스트 대 스피치 변환에 사용하기 위한 것이고, 상기 방법은,
시작 단부와 최종 단부인 2개의 단부들을 포함하는 상기 텍스트 문자열을 얻는 단계;
상기 텍스트 문자열의 적어도 하나의 워드에 인접한 자연 스피치 포즈가 있는지를 결정하기 위하여 상기 워드를 분석하는 단계로서, 상기 분석 단계는 상기 워드에 대한 적어도 하나의 미리 정의된 임계값에 기초하고, 상기 임계값은 상기 텍스트 문자열의 2개의 단부들중 하나와 상기 워드 사이의 음절들(syllables)의 수와 연관되는, 상기 분석 단계; 및
상기 텍스트 문자열을 나타내는 합성된 스피치 신호 출력에 상기 자연 스피치 포즈를 삽입하는 단계를 포함한다.
바람직하게, 적어도 하나의 미리 정의된 임계값은 시작 단부와 상기 워드 사이의 음절들의 수에 기초하는 P_워드 임계값을 포함한다.
바람직하게, 적어도 하나의 미리 정의된 임계값은 최종 단부와 워드 사이의 음절들의 수에 기초하는 F_워드 임계값을 포함한다.
바람직하게, 적어도 하나의 미리 정의된 임계값은,
삽입된 식별기에 의해 식별된 적어도 하나의 자연 스피치 포즈에 사본들(transcriptions)의 트레이닝 세트(training set)를 제공하는 단계;
상기 사본들 각각의 워드들을 P_워드들 및 F_워드들로서 식별하는 단계;
상기 트레이닝 세트에서 상기 P_워드들 및 F_워드들을 통계적으로 분석하는 단계; 및
상기 통계적 분석의 결과로부터 상기 F_워드 임계값 및 P_워드 임계값을 결정하는 단계에 의해 결정된다.
바람직하게, 상기 자연 스피치 포즈를 삽입하는 단계는, 파트 오브 스피치(Part Of Speech: POS) 패턴 자연 간격들(natural breaks)로서 식별된 포즈들을 또한 포함할 수 있다.
바람직하게, 상기 자연 스피치 포즈를 삽입하는 단계는, 복합 워드 자연 포즈들(Compound word natural pauses)로서 식별된 포즈들을 또한 포함할 수 있다.
본 발명이 쉽게 이해되고 실제적으로 효율적이도록, 첨부 도면들을 참조하여 도시된 바람직한 실시예에 대한 참조가 이루어질 것이다.
도 1은 본 발명에 따른 전자 장치의 통계적 블록도.
도 2는 텍스트 문자열들에서 자연 스피치 포즈들과 연관된 임계값들을 결정하기 위한 방법(200)을 도시하는 도면.
도 3A 내지 3D는 도 2의 방법에 사용된 사본들의 예들을 도시하는 도면.
도 4는 텍스트 문자열에서 자연 스피치 포즈들을 자동으로 식별하기 위한 방법을 도시하는 도면.
도 5는 도 4의 분석 단계를 상세하게 도시하는 도면.
도 1을 참조하여, 버스(103)에 의해, 통상적으로 터치 스크린 또는 선택적으로 디스플레이 스크린 및 키패드인 사용자 인터페이스(104)에 동작 가능하게 결합된 장치 처리기(102)를 포함하는, 라디오 전화 형태의 전자 장치(100)가 도시된다. 전자 장치(100)는 버스(103)에 의해 처리기(102)에 모두 동작 가능하게 결합된, 발화기(106), 스피치 합성기(110), 비휘발성 메모리(120), 판독 전용 메모리(118) 및 라디오 통신 모듈(116)을 또한 가진다. 스피치 합성기(110)는 스피커(112)를 구동하기 위하여 결합된 출력을 가진다. 발화기(106)는 워드들 또는 음소들(phonemes), 및 연관된 샘플링되고 디지탈화되고 처리된 발화 파형들(PUW)의 표현들을 포함한다. 다른 말로, 하기된 바와 같이, 비휘발성 메모리(120)(메모리 모듈)는 텍스트 대 스피치(TTS) 합성(텍스트는 모듈 116에 의해 수신되거나 그렇지 않을 수 있음)을 위하여 사용하는 텍스트 문자열들을 제공한다. 또한, 파형 발화기는 하기된 바와 같이, 어구들, 및 대응하여 샘플링되고 디지탈화된 발화 파형들, 자연 어구 경계들에 관련한 위치들에서 텍스트 문자열들을 나타내는 사본들을 포함한다.
당업자에게 명백할 바와 같이, 라디오 주파수 통신 유니트(116)는 공통 안테나를 가진 결합된 수신기 및 전송기이다. 라디오 주파수 통신 유니트(116)는 라디오 주파수 증폭기를 통하여 안테나에 결합된 트랜스시버를 가진다. 트랜스시버는 통신 유니트(116)를 처리기(102)에 결합하는 결합된 변조기/복조기에 또한 결합된다. 또한, 이 실시예에서, 비휘발성 메모리(120)(메모리 모듈)는 사용자 프로그램 가능 전화번호부 데이타베이스(Db)를 저장하고, 판독 전용 메모리(118)는 장치 처리기(102)에 대한 동작 코드(OC)를 저장한다.
도 2를 참조하여, 텍스트 문자열들에서 자연 스피치 포즈들과 연관된 임계값들을 결정하기 위한 방법(200)이 도시된다. 임계값들은 트레이닝 세트(TS)의 사본들에서 선행 및 후행 음절들의 수에 기초한다. 시작 단계(210) 후, 방법(200)은 수동으로 삽입된 구두점 또는 식별부 "|"에 의해 식별된 적어도 하나의 자연 스피치 포즈를 통상적으로 문장들인 사본들의 트레이닝 세트(TS)에 제공하기 위한 제공 단계(220)를 실행한다. 상기 사본 또는 문장들의 예들은 도 3A 내지 3D에 도시된다. 이들 사본들(300)중 하나는 "Based on our history|in China"이고, 워드들 "history"와 "China" 사이에 자연 스피치 포즈(310)를 가진다. 당업자에게 명백할 바와 같이, 도 3A 내지 3D의 모든 사본들(300)은 적어도 하나의 자연 스피치 포즈 (310) 및 시작 단부(305) 및 최종 단부(315)를 가진다. 사본의 추가 분석은 다음을 도시한다.
Based = 2 음절
on = 1 음절
our = 1 음절
history = 3 음절
in = 1 음절
China = 2 음절
또한, 사본의 각각의 워드는 : (ⅰ) 바로 앞에 구두점 "|"에 의해 식별된 자연 포즈를 가진 사본의 워드로서 식별된 P_워드; (ⅱ) 바로 다음에 구두점 "|"에 의해 식별된 자연 포즈를 가진 사본의 워드로서 식별된 F_워드; (ⅲ) 사본에서 인접한 자연 스피치 포즈를 가지지 않는 중성 워드로서 지정될 수 있다. 단계(220) 후, 식별 단계(230)는 (ⅰ) P_워드; (ⅱ) F_워드; 또는 (ⅲ) 중성 워드로서 사본들의 각각에서 워드들을 식별하기 위하여 제공한다. 따라서, 사본 "Based on our history|in China"에서, 하기 테이블 1은 사본에서 각각의 워드의 속성들을 식별한다.
워드 | P_워드 | F_워드 | #_음절들 | 간격 |
Based | N | N | 0 | N |
on | N | N | 2 | N |
our | N | N | 3 | N |
history | N | Y | 4 | 후 |
in | Y | N | 7 | 전 |
China | N | N | 1 | N |
테이블 1 "Based on our history|in China"의 분석
그 다음, 방법(200)은 통계적 분석 단계(240)를 수행한다. 이 단계(249)에서, 제공된 트레이닝 세트(TS)가 90,000 사본들(예를 들어 문장들)을 가지며 워드 "in"을 추정하는 것이 트레이닝 세트(TS)에서 10,000 번 발생하면, 이들 "in"의 10,000 예들에서, 다음 통계적 분석은 다음과 같이 관찰될 수 있다.
(ⅰ) P_워드로서 "in"의 발생수(OPW) = 8,000 예들;
(ⅱ) F_워드로서 "in"의 발생수(OFW) = 1,000 예들;
(ⅲ) 중성 워드(P_워드 또는 F_워드가 아닌 워드)로서 "in"의 발생수(ONW) = 1,000 예들;
게다가, 트레이닝 세트(TS)에서 식별된 "in"의 8,000 P_워드 발생수(OPW)로부터, 다음 통계적 분석은 관찰될 수 있다.
(ⅰ) 8 이상의 선행 음절들의 발생수(OPS) = 0;
(ⅱ) 7의 선행 음절들의 발생수(OPS) = 400;
(ⅲ) 6의 선행 음절들의 발생수(OPS) = 600;
(ⅳ) 5의 선행 음절들의 발생수(OPS) = 2,000;
(ⅴ) 4의 선행 음절들의 발생수(OPS) = 3,000;
(ⅵ) 3의 선행 음절들의 발생수(OPS) = 1,000;
(ⅶ) 2의 선행 음절들의 발생수(OPS) = 1,000;
(ⅷ) 1의 선행 음절들의 발생수(OPS) = 0.
직관 및 경험에 의해 선택된 0.75의 학습도(heuristic ratio) HR은 워드 "in"에 대한 P_워드 간격 임계값 PT를 결정하기 위하여 사용된다. 이 임계값 PT는 다음과 같이 결정 임계 값들 단계(250)에서 결정된다.
관찰된 음절들의 최대 수로부터 관찰된 음절들의 최소수까지 가장 큰 OPS로부터 Do를 시작하여,
합 OPS/OPW >= 0.75 까지 실행한다.
PT가 합 OPS의 최종 OPS에 의해 식별된 관찰된 음절들의 수이도록 선택;
Do 종료:
따라서, "in"에 대한 PT는 다음과 같이 단계(250)에서 결정된다:
7개의 선행하는 음절들에 대하여 400/8,000 = 0.05
6개의 선행하는 음절들에 대하여 (400+600)/8,000 = 0.125
5개의 선행하는 음절들에 대하여 (400+600+2,000)/8,000 = 0.375
4개의 선행하는 음절들에 대하여 (400+600+2,000+3,000)/8,000 = 0.75이고 따라서 PT는 4이도록 선택된다.
유사한 통계적 분석은 단계(250)에서 "in"에 대하여 F_워드 간격 임계값 FT를 결정하기 위하여 사용되고, 다시 0.75의 학습 비율 HR이 사용된다. 또한, PT 및 FT 값들은 트레이닝 세트 TS(0.75의 학습 비율 HR 사용)의 모든 다른 워드들에 대하여 모든 다른 P_워드 및 F_워드를 위하여 결정된다. 상기 방법(200)은 단계(260)에서 종료하고 트레이닝 세트 TS에서 모든 워드들에 대한 모든 P_워드 및 F_워드는 비휘발성 메모리(120)에 저장된다.
도 4를 참조하여, 텍스트 문자열 STR의 자연 스피치 포즈들을 자동으로 식별 하기 위한 방법(400)이 도시되고, 상기 포즈들은 전자 장치(100)상에서 수행되는 텍스트 대 스피치 변환에 사용하기 위한 것이다. 시작 단계(410)에서, 상기 방법(400)은 2개의 단부들을 포함하는 텍스트 문자열 STR을 얻는 단계(420)에서 발생하고, 이들 단부들은 시작 단부 SE 및 최종 단부 FE이다. 워드를 선택하는 단계(430)는 워드들(또는 복합 워드 CW)중 하나를 선택하고, 분석 단계(440)는 워드(또는 복합 워드들 CW)에 인접한 자연 스피치 포즈들이 있는지를 결정하기 위하여 텍스트 문자열 STR의 적어도 하나의 워드(또는 복합 워드들 CW)를 분석하기 위하여 제공하고, 상기 분석은 워드에 대한 적어도 하나의 미리 정의된 임계값(PT 또는 FT)에 기초하고, 상기 임계값은 텍스트 문자열의 2개의 단부들중 하나와 상기 워드 사이의 음절들의 수와 연관된다. 상기 임계값은 시작 단부와 워드 사이의 음절들의 수에 기초하는 P_워드 임계값 PT를 포함한다. 또한, 임계값은 최종 단부와 워드 사이의 음절들의 수에 기초하는 F_워드 임계값 FT를 포함한다.
시험 단계(450)가 단계(440)에 의해 포즈가 식별되었다고 결정하면, 단계(460)에서 자연 스피치 포즈가 스피치 합성을 위하여 삽입된다. 그렇지 않으면 포즈가 단계(430)에서 선택된 워드에 삽입되지 않는다. 단계(470)는 텍스트 문자열 STR의 모든 워드들이 분석되었는지 결정하기 위해 검사하고, 분석되지 않은 워드들이 있다면 상기 방법은 단계(230)로 리턴한다. 그렇지 않으면, 스피치 합성 단계(480)는 발화기(106)를 사용하여 합성기(110)에서 스피치를 합성하기 위하여 제공되고, 텍스트 문자열 STR을 나타내는 합성된 스피치 신호 출력으로의 자연 스피치 포즈 또는 포즈들(단계 460에서 텍스트 문자열 STR에 삽입됨)의 삽입이 발생한다.
도 5를 참조하여, 분석 단계(440)의 보다 상세한 다이어그램이 있다. 첫째로, 텍스트 문자열 STR은 시험 단계(441)에서 파트 오브 스피치(POS) 패턴 자연 포즈 간격을 가지는지를 결정하기 위하여 검사된다.
POS 패턴 자연 간격 포즈들의 예들은 다음과 같다:
1. 숫자 + 명사
예를 들어 : 이천개의 책들(two thousand books)
2. 동사 + 부사
예를 들어 : 주의깊게 보다(look carefully)
3. 전치사 + 명사
예를 들어 : 망원경들을 사용하여(with telescopes)
4. 형용사 + 명사
예를 들어 : 아름다운 도시(beautiful city)
간격이 단계(441)에서 결정되면, 단계(446)가 이루어지고, 간격은 F_워드 간격으로서 식별된다. 간격이 단계(441)에서 결정되지 않으면, 텍스트 문자열 STR은 복합 워드 자연 포즈 삽입 간격을 가지는지를 결정하기 위하여 단계(442)에서 검사된다. 복합 워드 자연 간격 포즈들의 예들은 다음과 같다:
a bit of
a body of
a few
a fleet of
a flooding of
a fraction of
a function of
a good deal
a good deal of
a great deal
a great deal of
a growing number of
a hint of
a large body of
a large number of
a lot of land
a majority of
간격이 단계(442)에서 결정되면, 단계(446)가 이루어지고, 간격은 F_워드 간격으로서 식별된다. 간격이 단계(442)에서 식별되지 않으면, 시험은 선택된 워드에 대한 P_워드 임계값(PT)이 도달되었는지를 단계(443)에서 결정한다. 이것은 시작 단부와 선택된 워드 사이의 텍스트 문자열 STR의 음절들의 수를 비교함으로써 결정된다. P_워드 임계값(PT)이 도달되면, 자연 간격이 결정되고, 단계(444)에서 P_워드 간격으로서 식별된다. 선택적으로, 간격이 단계(443)에서 식별되지 않으면, 시험은 선택된 워드에 대한 N_워드 임계값(PT)이 도달되었는지를 단계(445)에 서 결정한다. 이것은 최종 단부와 선택된 워드 사이의 텍스트 문자열 STR의 음절들의 수를 비교함으로써 결정된다. F_워드 임계값 FT가 도달되면, 자연 간격이 결정되고, 단계(446)에서 F_워드 간격으로서 식별된다. 그렇지 않으면, 간격은 단계(447)에서 식별되지 않는다.
바람직하게, 본 발명은 합성된 스피치의 품질을 개선시키도록, 텍스트 대 스피치(TTS) 합성에 사용하기 위한 텍스트 문자열의 자연 스피치 포즈들을 식별하게 한다.
상세한 설명은 바람직한 예시적인 실시예이고, 본 발명의 범위, 응용도, 또는 구성을 제한하는 것으로 의도되지 않는다. 오히려, 바람직한 실시예의 상세한 설명은 본 발명의 바람직한 실시예를 실행하기 위한 설명을 위하여 당업자에게 제공한다. 다양한 변화들이 첨부된 청구항들에 나타난 바와 같이 본 발명의 사상 및 범위에서 벗어나지 않고 요소의 기능 및 배열에서 이루어질 수 있다는 것이 이해되어야 한다.
Claims (6)
- 텍스트 문자열(text string)에서 자연 스피치 포즈들(natural speech pauses)을 자동으로 식별하는 방법으로서, 상기 포즈들은 전자 장치상에서 수행되는 텍스트 대 스피치 변환에 사용하기 위한 것인, 상기 방법에 있어서,시작 단부와 최종 단부인 2개의 단부들을 포함하는 상기 텍스트 문자열을 얻는 단계;상기 텍스트 문자열의 적어도 하나의 워드에 인접한 자연 스피치 포즈가 있는지를 결정하기 위하여 상기 워드를 분석하는 단계로서, 상기 분석 단계는 상기 워드에 대한 적어도 하나의 미리 정의된 임계값에 기초하고, 상기 임계값은 상기 텍스트 문자열의 2개의 단부들중 하나와 상기 워드 사이의 음절들(syllables)의 수와 연관되는, 상기 분석 단계; 및상기 텍스트 문자열을 나타내는 합성된 스피치 신호 출력에 상기 자연 스피치 포즈를 삽입하는 단계를 포함하는 자연 스피치 포즈 자동 식별 방법.
- 제 1 항에 있어서, 상기 적어도 하나의 미리 정의된 임계값은 상기 시작 단부와 상기 워드 사이의 음절들의 수에 기초하는 P_워드 임계값을 포함하는, 자연 스피치 포즈 자동 식별 방법.
- 제 1 항에 있어서, 상기 적어도 하나의 미리 정의된 임계값은 상기 최종 단 부와 상기 워드 사이의 음절들의 수에 기초하는 F_워드 임계값을 포함하는, 자연 스피치 포즈 자동 식별 방법.
- 제 1 항에 있어서, 상기 적어도 하나의 미리 정의된 임계값은,삽입된 식별기에 의해 식별된 적어도 하나의 자연 스피치 포즈에 사본들(transcriptions)의 트레이닝 세트(training set)를 제공하는 단계;상기 사본들 각각의 워드들을 P_워드들 및 F_워드들로서 식별하는 단계;상기 트레이닝 세트에서 상기 P_워드들 및 F_워드들을 통계적으로 분석하는 단계; 및상기 통계적 분석의 결과로부터 상기 F_워드 임계값 및 P_워드 임계값을 결정하는 단계에 의해 결정되는, 자연 스피치 포즈 자동 식별 방법.
- 제 1 항에 있어서, 상기 자연 스피치 포즈를 삽입하는 단계는, 파트 오브 스피치(Part Of Speech: POS) 패턴 자연 간격들(natural breaks)로서 식별된 포즈들을 또한 포함할 수 있는, 자연 스피치 포즈 자동 식별 방법.
- 제 1 항에 있어서, 상기 자연 스피치 포즈를 삽입하는 단계는, 복합 워드 자연 포즈들(Compound word natural pauses)로서 식별된 포즈들을 또한 포함할 수 있는, 자연 스피치 포즈 자동 식별 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN03132708.7 | 2003-09-29 | ||
CNB031327087A CN1320482C (zh) | 2003-09-29 | 2003-09-29 | 标识文本串中的自然语音停顿的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20060056403A true KR20060056403A (ko) | 2006-05-24 |
Family
ID=34398361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020067006094A KR20060056403A (ko) | 2003-09-29 | 2004-09-17 | 텍스트 문자열에서 자연 스피치 포즈 식별 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP1668631A4 (ko) |
KR (1) | KR20060056403A (ko) |
CN (1) | CN1320482C (ko) |
RU (1) | RU2319221C1 (ko) |
WO (1) | WO2005034085A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100769033B1 (ko) * | 2003-09-29 | 2007-10-22 | 모토로라 인코포레이티드 | 스피치 합성 방법 |
Families Citing this family (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
WO2008075076A2 (en) * | 2006-12-21 | 2008-06-26 | Symbian Software Limited | Communicating information |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8396714B2 (en) | 2008-09-29 | 2013-03-12 | Apple Inc. | Systems and methods for concatenation of words in text to speech synthesis |
US8712776B2 (en) | 2008-09-29 | 2014-04-29 | Apple Inc. | Systems and methods for selective text to speech synthesis |
US8352268B2 (en) | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for selective rate of speech and speech preferences for text to speech synthesis |
US8352272B2 (en) | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for text to speech synthesis |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8977584B2 (en) | 2010-01-25 | 2015-03-10 | Newvaluexchange Global Ai Llp | Apparatuses, methods and systems for a digital conversation management platform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
CN113470640B (zh) | 2013-02-07 | 2022-04-26 | 苹果公司 | 数字助理的语音触发器 |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
CN105027197B (zh) | 2013-03-15 | 2018-12-14 | 苹果公司 | 训练至少部分语音命令系统 |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
DE112014002747T5 (de) | 2013-06-09 | 2016-03-03 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten |
CN105265005B (zh) | 2013-06-13 | 2019-09-17 | 苹果公司 | 用于由语音命令发起的紧急呼叫的系统和方法 |
AU2014306221B2 (en) | 2013-08-06 | 2017-04-06 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
AU2015266863B2 (en) | 2014-05-30 | 2018-03-15 | Apple Inc. | Multi-command single utterance input method |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9542929B2 (en) | 2014-09-26 | 2017-01-10 | Intel Corporation | Systems and methods for providing non-lexical cues in synthesized speech |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
CN110970013A (zh) * | 2019-12-23 | 2020-04-07 | 出门问问信息科技有限公司 | 一种语音合成方法、装置以及计算机可读存储介质 |
CN111667816B (zh) * | 2020-06-15 | 2024-01-23 | 北京百度网讯科技有限公司 | 模型训练方法、语音合成方法、装置、设备和存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05160773A (ja) * | 1991-12-03 | 1993-06-25 | Toshiba Corp | 音声通信装置 |
WO1994020952A1 (en) * | 1993-03-12 | 1994-09-15 | Sri International | Method and apparatus for voice-interactive language instruction |
JP3060422B2 (ja) * | 1992-08-11 | 2000-07-10 | 株式会社エイ・ティ・アール自動翻訳電話研究所 | 音声規則合成装置 |
US5692104A (en) * | 1992-12-31 | 1997-11-25 | Apple Computer, Inc. | Method and apparatus for detecting end points of speech activity |
DE69427525T2 (de) * | 1993-10-15 | 2002-04-18 | At & T Corp | Trainingsmethode für ein tts-system, sich daraus ergebendes gerät und methode zur bedienung des gerätes |
CN1032391C (zh) * | 1994-04-01 | 1996-07-24 | 清华大学 | 基于波形编辑的汉语文字-语音转换方法及系统 |
CN1139038C (zh) * | 2000-06-22 | 2004-02-18 | 上海贝尔有限公司 | 一种实现互联网拨号上网业务旁路的方法 |
JP3690502B2 (ja) * | 2001-04-19 | 2005-08-31 | 日本電信電話株式会社 | 韻律情報設定方法及び装置並びにプログラム及び記録媒体 |
JP4635384B2 (ja) * | 2001-07-03 | 2011-02-23 | 日本電気株式会社 | 音声合成システム、音声合成方法および音声合成用プログラム |
-
2003
- 2003-09-29 CN CNB031327087A patent/CN1320482C/zh not_active Expired - Lifetime
-
2004
- 2004-09-17 WO PCT/US2004/030570 patent/WO2005034085A1/en active Application Filing
- 2004-09-17 KR KR1020067006094A patent/KR20060056403A/ko not_active IP Right Cessation
- 2004-09-17 RU RU2006114740/09A patent/RU2319221C1/ru not_active IP Right Cessation
- 2004-09-17 EP EP04784433A patent/EP1668631A4/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100769033B1 (ko) * | 2003-09-29 | 2007-10-22 | 모토로라 인코포레이티드 | 스피치 합성 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN1320482C (zh) | 2007-06-06 |
CN1604183A (zh) | 2005-04-06 |
EP1668631A4 (en) | 2008-05-14 |
WO2005034085A1 (en) | 2005-04-14 |
EP1668631A1 (en) | 2006-06-14 |
RU2319221C1 (ru) | 2008-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20060056403A (ko) | 텍스트 문자열에서 자연 스피치 포즈 식별 | |
US6778962B1 (en) | Speech synthesis with prosodic model data and accent type | |
US8566099B2 (en) | Tabulating triphone sequences by 5-phoneme contexts for speech synthesis | |
US6490563B2 (en) | Proofreading with text to speech feedback | |
US7962341B2 (en) | Method and apparatus for labelling speech | |
JP4473193B2 (ja) | 混合言語テキスト音声合成方法および音声合成装置 | |
US6343270B1 (en) | Method for increasing dialect precision and usability in speech recognition and text-to-speech systems | |
US20060229877A1 (en) | Memory usage in a text-to-speech system | |
EP0821344B1 (en) | Method and apparatus for synthesizing speech | |
JP2007538278A (ja) | 音声認識システム | |
EP1668629B1 (en) | Letter-to-sound conversion for synthesized pronunciation of a text segment | |
KR100373329B1 (ko) | 음운환경과 묵음구간 길이를 이용한 텍스트/음성변환 장치 및그 방법 | |
KR100720175B1 (ko) | 음성합성을 위한 끊어읽기 장치 및 방법 | |
KR100848148B1 (ko) | 음절 단위의 음성 인식 장치, 음절 단위의 음성 인식을이용한 문자 입력 장치, 그 방법 및 기록 매체 | |
KR100759729B1 (ko) | 발화 파형 코퍼스에 대한 개선들 | |
JP3366253B2 (ja) | 音声合成装置 | |
Šef et al. | Automatic lexical stress assignment of unknown words for highly inflected Slovenian language | |
JPH05134691A (ja) | 音声合成方法および装置 | |
JP3284976B2 (ja) | 音声合成装置及びコンピュータ可読記録媒体 | |
US20060206301A1 (en) | Determining the reading of a kanji word | |
Matoušek | Building a new Czech text-to-speech system using triphone-based speech units | |
Gopal et al. | A simple phoneme based speech recognition system | |
JPH04127199A (ja) | 外国語単語の日本語発音決定方法 | |
JPH07219574A (ja) | 音声規則合成装置 | |
JP2002297172A (ja) | 音声合成方法、および音声合成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
J201 | Request for trial against refusal decision | ||
AMND | Amendment | ||
E801 | Decision on dismissal of amendment | ||
B601 | Maintenance of original decision after re-examination before a trial | ||
S901 | Examination by remand of revocation | ||
E902 | Notification of reason for refusal | ||
S601 | Decision to reject again after remand of revocation |