KR20040086432A - 음성 합성을 위한 텍스트 구조, 음성 합성 방법, 음성 합성 장치 및 컴퓨터 판독 가능 기록 매체 - Google Patents
음성 합성을 위한 텍스트 구조, 음성 합성 방법, 음성 합성 장치 및 컴퓨터 판독 가능 기록 매체 Download PDFInfo
- Publication number
- KR20040086432A KR20040086432A KR10-2004-7013129A KR20047013129A KR20040086432A KR 20040086432 A KR20040086432 A KR 20040086432A KR 20047013129 A KR20047013129 A KR 20047013129A KR 20040086432 A KR20040086432 A KR 20040086432A
- Authority
- KR
- South Korea
- Prior art keywords
- speech
- text
- synthesized speech
- change
- synthesized
- Prior art date
Links
- 230000015572 biosynthetic process Effects 0.000 title claims description 39
- 238000003786 synthesis reaction Methods 0.000 title claims description 39
- 238000001308 synthesis method Methods 0.000 title claims description 12
- 238000004590 computer program Methods 0.000 title claims description 6
- 230000008451 emotion Effects 0.000 claims abstract description 20
- 230000008859 change Effects 0.000 claims description 59
- 238000000034 method Methods 0.000 claims description 30
- 230000002194 synthesizing effect Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 description 24
- 230000003252 repetitive effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Document Processing Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
음성 합성 장치에서, 출력될 입력 텍스트의 소망의 범위를, 예를 들어 시작 태그 "<morphing type="emotion" start="happy" end="happy">" 및 종료 태그 "</morphing>"에 의하여 둘러쌈으로써, 합성 음성을 출력함에 있어서, 음성을 기쁜 음성으로부터 화난 음성으로 서서히 변화시키면서, 합성 음성의 특징을 연속적으로 변화시킨다.
Description
종래부터 입력된 문장(텍스트)을 합성 음성(합성 사운드, 합성 스피치)으로서 스피커로부터 출력하는 음성 합성 장치가 제안되었다.
이러한 장치를 사용하여 텍스트로부터 양호하게 표현된 합성 음성을 생성하기 위하여, 청자(listener)인 사용자가 자연스러운 음성으로서 알아들을 수 있도록, 강도, 속도, 피치 등의 제어 정보가 주어져야 한다.
이 때문에, 합성 음성이 텍스트의 문자 스트링(character string)에 포함된 소정의 규칙에 기초하여 출력되는 경우라도 소망하는 언어 정보를 그 텍스트에 부가하는 것이 시도되고 있다.
이 경우, 텍스트에 부여되는 부가 정보는 소위 HTML(Hyper Text Markup Language)에서 사용되는 것과 같은 "< >"로 표현되는 태그에 의하여 부가 정보를 둘러싸는(bound) 포맷을 사용하고, 이러한 태그를 사용하여 입력 텍스트에 대응하는 합성 음성 톤을 제어하는 방법이 제안되었다.
그러나, 이러한 종래의 태그 붙임(tagging) 방식에 있어서는, 태그 붙임이 소정의 고정된 값을 설정하는 문자, 단어 등의 개별적인(discrete) 단위로 행해지기 때문에, 그 방법이 적절한 운율(prosody)을 연속적으로 변화시키면서 입력 텍스트의 다양한 문자 및 단어에 대응하는 합성 음성을 출력하고자 하더라도, 실제로 출력되는 합성 음성에는 개별적인 변화만 가해지므로, 청자에게 부자연스러운 합성 음성으로 들리게 된다.
음성의 어떤 운율을 연속적으로 변화시키기 위한 기술로서, 음성 모핑(morphing) 방법이 일본 특허공개공보 평9-244693호에 의하여 제안되었다. 그러나, 이 방법에 있어서는 피치 패턴만이 보간(interpolation)된다.
또한, 이러한 방법들에 있어서 입력 텍스트 중 태그에 의하여 한정되는 부분의 합성 음성이 연속적으로 변화되어야 할 경우, 태그가 합성 음성의 변화 지점에 적절히 할당되어야 한다. 따라서, 태그 붙임 동작이 힘들고 결과적으로 개별적인 변화만이 획득될 수 있다.
본 발명은 입력된 문장(텍스트)을 합성 음성으로서 스피커(loudspeaker)로부터 출력하는 음성 합성 장치의 분야에 관한 것이다.
본 명세서에 통합되고 명세서의 일부를 이루는 첨부 도면은 상세한 설명과 함께 본 발명의 실시예를 나타내며 본 발명의 원리에 대한 설명을 제공한다.
도 1은 제1 실시예에 따른 음성 합성 장치를 도시하는 블록도.
도 2는 텍스트에 할당된 태그의 예를 도시하는 도면.
도 3a 및 3b는 제1 실시예의 음성 합성 장치의 제어 과정을 도시하는 흐름도.
도 4는 합성 음성을 출력함에 있어서 발화 속도의 보간 예를 설명하는 그래프.
도 5는 합성 음성을 출력함에 있어서 발량의 보간 예를 설명하는 그래프.
도 6은 합성 음성을 출력함에 있어서 화자의 수의 보간 예를 설명하는 그래프.
도 7은 제2 실시예에 있어서 텍스트에 할당된 태그의 예를 도시하는 도면.
도 8은 제3 실시예에 있어서 텍스트에 할당된 태그의 예를 도시하는 도면.
도 9는 제3 실시예에 따른 음성 합성 장치의 제어 과정을 도시하는 흐름도.
도 10은 제4 실시예에 있어서 텍스트에 할당된 태그의 예를 도시하는 도면.
도 11은 제5 실시예에 있어서 텍스트에 할당된 태그의 예를 도시하는 도면.
도 12는 제5 실시예에서 합성 음성을 출력함에 있어서 합성 음성의 특징의 변화를 설명하는 그래프.
도 13은 제6 실시예에 있어서 텍스트에 할당된 태그의 예를 도시한 도면.
종래의 문제점을 해결하기 위하여 제안된 본 발명은 소망의 범위의 합성 음성의 특징을 연속적으로 그리고 용이하게 변화시키는 것을 목적으로 한다.
상기 목적을 달성하기 위하여, 본 발명에 따른 음성 합성 방법은 다음과 같이 구성되는 것을 특징으로 한다.
즉, 입력 텍스트에 대응하는 합성 음성의 출력시에 그 텍스트에 포함된 소정의 식별자가 부여된 범위의 합성 음성의 특징을 연속적으로 변화시키도록 음성 파형을 합성하는 음성 파형 합성 방법이 제공되는데, 이 방법은, 합성 음성의 특징의 변화 모드를 나타내는 속성 정보(attribute information)를 포함하는 소정의 식별자를 사용하여 출력되어야 하는 텍스트 중 합성 음성의 특징이 연속적으로 변화되어야 하는 소망의 범위를 설정하는 설정 단계; 설정 단계에서 설정된 식별자를 갖는 텍스트로부터 소정의 식별자 및 소정의 식별자에 포함된 속성 정보의 유형을 인식하는 인식 단계; 인식 단계의 인식 결과에 따라 식별자를 갖는 텍스트의 소망의 범위 내의 텍스트에 대응하는 합성 음성을 보간함으로써 소정의 식별자에 포함된 속성 정보에 따라 그 합성 음성의 특징이 연속적으로 변화되는 음성 파형을 합성하는 음성 합성 단계를 포함하는 것을 특징으로 한다.
바람직한 실시예에 있어서, 소정의 식별자에 포함되는 속성 정보는 식별자에 의하여 설정되는 범위의 시작 지점에서의 합성 음성의 특징의 변화 모드 및 종료 지점에서의 합성 음성의 특징의 변화 모드를 나타낸다.
예를 들어, 속성 정보에 의하여 표현되는 합성 음성의 특징의 변화 모드는, 음량(volume)의 변화, 화자(speaker)의 변화, 출력 장치의 변화, 화자 수의 변화, 감정의 변화, 발화(uttering) 속도의 변화 및 기본 주파수의 변화 중 적어도 어느 하나이다.
예를 들어, 음성 합성 단계는, 소정의 식별자에 포함되는 식별자에 의하여 설정되는 범위의 시작 및 종료 지점과 관련된 속성 정보 및 시작 지점 전의 합성 음성의 특징의 모드에 기초하여 소망의 범위 내의 텍스트에 대응하는 합성 음성을생성하는 단계를 포함한다.
보다 구체적으로는, 음성 합성 단계는 바람직하게는, 시작 및 종료 지점과 관련된 속성 정보로서 설정된 발화 속도를 나타내는 값들과 시작 지점 전의 발화 속도를 나타내는 값 사이의 비율에 기초하여 소망의 범위 내의 텍스트에 대응하는 합성 음성을 생성하는 단계, 또는
시작 및 종료 지점과 관련된 속성 정보로서 설정된 음량을 나타내는 값들과 시작 지점 전의 음량을 나타내는 값 사이의 비율에 기초하여 소망의 범위 내의 텍스트에 대응하는 합성 음성을 생성하는 단계를 포함한다.
대안적으로, 상기 목적을 달성하기 위하여, 소정의 식별자가 음성 합성에 의하여 출력되어야 하는 텍스트의 소망의 범위의 합성 음성의 특징을 변화하도록 할당되며, 소정의 식별자는 합성 음성의 특징을 연속적으로 변화시킬 때의 변화 모드를 나타내는 속성 정보를 포함하는 것을 특징으로 하는 음성 합성을 위한 텍스트 구조가 제공된다.
상기 목적은 또한 상기 구성을 갖는 음성 합성 방법에 대응하는 음성 합성 장치에 의하여 달성될 수도 있다.
또한, 상기 목적은 컴퓨터에서 상기 구성을 갖는 음성 합성 방법 또는 장치를 구현하는 프로그램 코드 및 그 프로그램 코드를 저장한 컴퓨터 판독 가능 저장 매체에 의하여 달성될 수 있다.
본 발명의 또 다른 특징 및 장점은 첨부된 도면을 참고하면 이하의 설명으로부터 명백할 것이다. 첨부된 도면 전체에 걸쳐서 동일한 또는 유사한 부분에 대해서는 같은 도면 부호를 사용하였다.
본 발명의 바람직한 실시예에 대하여 첨부된 도면을 참고하여 상세히 설명한다.
[제1 실시예]
우선, 본 실시예에 따른 음성 합성 장치의 구성에 대하여 도 1을 참고하여 간략하게 설명한다.
도 1은 제1 실시예의 음성 합성 장치를 도시한 블록도이다. 채용 가능한 하드웨어로서는, 퍼스널 컴퓨터 등의 일반적인 정보 처리 장치를 채용할 수 있다.
도 1을 참고하면, 본 장치는 음성으로서 출력되는 태그 붙여진 텍스트를 생성하는 것과 관련하여, 텍스트 본문(text body)을 생성하기 위한 텍스트 생성 모듈(101), 텍스트의 소망하는 위치에 소정의 태그 및 그 태그 내에 속성을 삽입함으로써 태그 붙여진 텍스트(103)를 생성하기 위한 태그 생성 모듈(102)을 포함한다. 텍스트 생성 모듈(101)은 메일 메시지, 뉴스 기사, 잡지, 서적 등의 다양한 정보원에 기초하여 텍스트를 생성한다. 이 경우, 태그 및 텍스트를 기입하기 위하여 사용되는 편집 소프트웨어는 특별히 제한되지 않는다.
모듈은 본 실시예에 따른 음성 합성 장치의 하드웨어에 의하여 실행되는 소프트웨어 프로그램의 기능 단위를 나타낸다.
텍스트 생성 모듈(101) 및 태그 생성 모듈(102)은 외부 모듈이거나 음성 합성 장치 자치의 내부 모듈일 수 있다.
태그 붙여진 텍스트(103)가 통신 회선 또는 휴대용 저장 매체(CD-R 등)를 통하여 텍스트 입력 모듈(104)로 입력된다. 텍스트 입력 모듈(104)로 입력되는 태그 붙여진 텍스트(103)의 텍스트 부분은 텍스트 해석 모듈(105)에 의하여 해석되고, 태그 부분은 태그 해석 모듈(106)에 의하여 해석된다. 또한, 본 실시예에 있어서, 태그 내에 포함된 속성 정보는 태그 속성 해석 모듈(107)(이에 대해서는 후술한다)에 의하여 해석된다.
언어 처리 모듈(108)은 언어 정보를 미리 저장하고 있는 언어 사전(language dictionary, 110)을 참고하여 음성을 출력할 때에 요구되는 언어 정보(예를 들어, 액센트 등)를 처리한다. 음성 합성 모듈(109)은 운율적인(prosodic) 음소(phonemes) 등을 미리 저장하고 있는 음율 모델/파형 사전(111)을 참고하여 실제로 출력되는 음성을 표현하는 합성 파형을 생성하고, 그 합성 파형에 기초하여 (도시하지 않은) 스피커로부터 합성 음성을 출력한다.
이하에서는 본 실시예의 특징적인 구성에 대하여 설명한다.
태그 생성 모듈(102)은 소정의 태그 및 속성을 텍스트 생성 모듈(101)에 의하여 생성된 텍스트 내에 삽입한다. 이 경우, 태그는 사용자가 선택한 위치에 삽입될 수도 있고, 이미지 처리에 있어서의 이른바 모핑에서와 같이 합성 음성의 특징이 매끄럽게(smoothly) 변화되어야 하는 부분에 할당될 수도 있다. 각 태그에 있어서, 속성(속성 정보)이라고 불리우는 부가 정보가 기입된다. 보다 구체적으로는, 문자 및 단어가 배열된 텍스트 중에서, 운율을 매끄럽게 변화시키고 싶은 부분의 시작 위치와 종료 위치에 "<morphing...>" 및 "</morphing>" 등의 소정의 태그가 할당되고, 각 태그 내에는 운율을 연속적으로 변화시키고자 하는 특징, 즉 운율을 연속적으로 변화할 때의 변화의 패턴을 나타내는 속성 정보가 기입된다.
본 실시예에 있어서, 합성 음성의 특징의 변화는 음성의 소위 운율뿐만 아니라, 예를 들어 화자, 화자의 수, 감정 등도 포함한다.
사용자는 텍스트를 생성할 때에 속성 정보를 기입한다. 또한, 사용자는 태그를 설정하고, 그 태그 내에 다양한 속성을 설정한다. 태그 및 속성 값은 다기능 편집기 등에 의하여 자동으로 또는 반자동으로(semi-automatically) 설정될 수 있다.
각 태그에 내장된 속성 정보는 예를 들어, 음량, 화자, 출력 장치, 화자의 수, 감정, 발화 속도, 기본 주파수 등과 관련된 합성 음성의 특징을 나타내는 정보이다. 또한, 합성 음성을 출력할 때에 연속적으로 변화될 수 있는 다른 이벤트(본 실시예에서 "모핑"이라 함)가 사용될 수도 있다.
텍스트에 설정된 시작 및 종료 지점은 동일한 또는 서로 다른 종류의 속성 정보를 가질 수 있다. 시작 및 종료 지점이 동일한 속성 정보를 갖는 경우, 시작 지점 태그에 의하여 설정된 속성 정보에 따른 음성은 합성 음성을 실제로 출력할 때에 속성 정보와 관련된 임의의 합성 음성 특징을 변화시키지 않고 출력된다.
각 태그에 내장된 속성 정보에 따른 값은 그 속성이 음량인 경우에는 수치이다. 속성이 화자인 경우, 남성 또는 여성, 또는 화자의 식별 번호(ID)가 속성으로서 지정될 수 있다.
도 2는 텍스트에 할당된 태그의 예를 도시한다. 이 예에 있어서, 합성 음성의 특징은 시작 태그 "<morphing...>" 및 종료 태그 "</morphing>"에 의하여 둘러싸인 범위에 대응하여 연속적으로 변화될 수 있다. 시작 태그 "<morphing...>" 에서의 속성은 합성 음성의 특징이 연속적으로 변화되어야 할 객체의 감정(emotion), 시작 지점(start)에서의 감정(행복감) 및 종료 지점(end)에서의 감정(분노)을 기술한다. 그러므로, 이 텍스트의 합성 음성이 실제로 출력될 때, 태그에 의하여 둘러싸인 문장이 발화되면서 그 음성은 행복한 음성에서 분노한 음성으로 점차적으로 변화된다.
상술한 바와 같이, 본 실시예에 따른 음성 합성 장치의 텍스트 입력 모듈(104)은 태그가 할당된 태그 붙여진 텍스트(103)를 수신하고, 텍스트 해석 모듈(105)은 텍스트의 헤더 필드의 정보 및 입력된 태그 붙여진 텍스트(103)의 포맷에 기초하여 텍스트의 유형(type), 내용 등과 관련된 정보를 획득한다.
태그 해석 모듈(106)은 입력된 태그 붙여진 텍스트(103)에 내장된 태그의 유형을 결정한다. 태그 속성 해석 모듈(107)은 태그에 기술된 속성 및 속성 값을 해석한다.
언어 처리 모듈(108) 및 음성 합성 모듈(109)에서는 텍스트 해석 모듈(105)에서 해석된 텍스트에 대응하는 음소로서 운율 모델/파형 사전(111)으로부터 판독된 음성 파형에 대하여, 태그 속성 해석 모듈(107)에서 획득한 속성값에 기초하여 출력할 음성 파형이 생성되고, 그 음성 파형에 따른 합성 음성이 출력된다(속성값에 기초한 처리에 대해서는 후술한다).
태그 해석 모듈(106)에 의하여 "<morphing>"..."/morphing>" 태그 내의 속성값을 추출하는 방법에 대하여 도 3a 및 3b를 참고하여 설명한다.
도 3a 및 3b는 제1 실시예의 음성 합성 장치의 제어 과정, 즉 장치의 (도시하지 않은) CPU에서 실행되는 처리 순서를 도시한 흐름도이다.
도 3a 및 3b를 참조하면, 텍스트 입력 모듈(104)에 의하여 입력된 태그 붙여진 텍스트(tagged text; 103)는 텍스트 해석 모듈(105), 태그 해석 모듈(106), 및 태그 속성 해석 모듈(105)에 의하여 텍스트 해석, 태그 해석, 및 태그 속성 해석을 겪는다(단계 "S301" 내지 "S303").
시작 태그 "<morphing...>"가 객체 및 시작과 종료 지점을 포함하는지가 체크된다(단계 "S304"). 모핑될 속성 값이 포함되어 있는지가 먼저 체크된다. 모핑될 속성 값이 발견되지 않으면, 시작 및 종료 태그에 의하여 둘러싸인 문자 및 단어는, 그 태그 전의 문장에서 소리내어 읽힌 음성에 따라서 소리내어 읽힌다(단계 "S305"). 한편, 모핑될 속성 값이 발견되면, 시작 및 종료 지점의 속성들 중 하나가 발견되는지가 체크된다(단계 "S306").
시작 및 종료 태그 중 어느 것도 속성을 갖지 않으면, 시작 및 종료 태그에 의하여 둘러싸인 문자 및 단어는 미리 설정된, 모핑될 기본 속성 값에 따라 합성음(synthetic tone)을 사용하여 소리내어 읽힌다(단계 "S307"). 한편, 시작 또는 종료 지점이 속성 값을 가지면, 그것이 시작 지점의 속성 값인지가 체크된다(단계 "S308"). 그것이 시작 지점의 속성 값이 아니면, 종료 지점의 속성 값 및 모핑될 속성 값이 유효한지(이들이 일치하는지)가, 이들 값이 일치하는지를 체크함으로써 결정된다(단계 "S309"). 두 값이 일치하면, 종료 지점의 속성 값이사용된다(단계 "S311"). 단계 "S309"에서, 예를 들어, 모핑될 객체가 음량이면, 종료 지점의 속성 값이 음량 값인지가 체크되고, 이들이 일치하면, 시작 및 종료 태그에 의하여 둘러싸인 문자 및 단어가 종료 지점의 정보에 기초하여 소리내어 읽힌다. 이들이 일치하지 않으면, 시작 및 종료 태그에 의하여 둘러싸인 문자 및 단어는, 객체의 속성 값에 대응하여 미리 준비된 기본 합성음을 사용하여 소리내어 읽힌다(단계 "S310").
시작 지점이 속성 값을 갖는다고 단계 "S308"에서 결정되고, 종료 지점이 속성 값을 갖지 않으면, 텍스트는 시작 지점의 속성 값에 따라서 소리내어 읽힌다(단계 "S312", 단계 "S315"). 이러한 경우에, 객체에 있어서의 유효성은 유사하게 체크되고, 두 값이 일치하면, 텍스트는 시작 지점의 속성 값에 따라서 소리내어 읽힌다(단계 "S313", 단계 "S314").
시작 및 종료 지점 양자 모두 속성 값을 가지고, 객체에 대한 이들 값들이 유효(일치)하면, 합성음은 속성 값에 기초한 보간(interpolation) 후에 출력된다(단계 "S316", "S320"). 즉, 객체가 음량이면, 시작 및 종료 지점의 속성 값은 시작 및 종료 지점이 음량 값을 취하는 때에만 유효한 것으로 결정된다. 예를 들면, 시작 및 종료의 속성 값이 상이하면(예를 들면, 시작 지점은 음량 값이고 종료 지점은 감정이다), 객체와 일치하는 속성 값이 사용된다(단계 "S317", 단계 "S319"). 시작 및 종료 지점의 속성 값이 상이하고, 또한 모핑될 객체와 상이하면, 시작 및 종료 태그에 의하여 둘러싸인 문자 및 단어는 객체의 속성 값에 대응하는 기본 합성음을 사용하여 소리내어 읽힌다(단계 "S318"). 체크되는 태그들이 상이한 속성값을 가지면, 음성 출력의 우선 순위(priority)는 "객체" > "시작 지점" > "종료 지점"이다.
음성 생성의 시퀀스로서 속성 값에 기초하여 행해지는 보간은 도 4를 참조하여 후술된다.
도 4는 합성 음성을 출력함에 있어서 발화 속력의 보간의 예를 설명하기 위한 그래프이다.
보간 방법의 예로서, 발화 속력이 보간되려는 때, 완전 텍스트(full text){도 4에서 あ(a), い(i), う(u), え(e)}의 파형(waveform)을 출력하기 위하여 요구되는 시간은 그 출력될 텍스트 및 그 텍스트를 형성하는 개별 음소에 대한 지속 시간(durations) t에 따라서 산출된다. 본 실시예에서, 표준 운율 모델(standard prosodic models) 및 음성 파형은 운율 모델/파형 사전(111)에 미리 등록되기 때문에, 출력될 완전 텍스트의 파형을 출력하는데 요구되는 시간은 운율 모델/파형 사전(111)으로부터 판독된 합성 음성을 출력하기 위하여 요구되는 개별 음소{도 4에서 あ(a), い(i), う(u), え(e)}에 대한 지속 시간 t를 합산함으로써 산출될 수 있다.
그 후, 시작 및 종료 지점의 속성 값으로서 설정된 값과 현재의 발화 속력 간의 비율 r이 산출된다. 이 경우, 시작 및 종료 지점의 속성 값으로서 설정된 값이 r=1이기 때문에 현재의 속력과 동일하면, 이 보간 처리는 요구되지 않는다.
산출된 비율에 기초하여, 각각의 음소의 보간 기능은 (보간 값) = t × r에 의하여 산출된다. 산출된 보간 값에 따라 파형의 주기를 감소시키거나 연장시킴으로써, 발화 속력이 변화될 수 있다. 대안적으로, 각각의 음소의 어떤 특징에 대응하여 시간 지속 기간을 변화시키기 위한 처리가 가해질 수 있다.
음량의 보간에 있어서, 출력될 텍스트{도 5에서 あ(a), い(i), う(u), え(e)}를 형성하는 개별 음소의 시간 지속 기간 t는 발화 속력의 보간에서와 같이 그 텍스트에 따라서 사용된다. 그 후, 시작 및 종료 지점의 속성 값으로서 설정된 값과, 현재 음량 간의 비율 r'가 산출된다.
도 5는 합성 음성을 출력함에 있어서 음량의 보간을 설명하기 위한 그래프이다. 도 5에서, 보간 기능은 (보간 값) = f × r'에 의하여 산출된다. f는 음소/파형 사전(111)으로부터 획득된 합성 음성 파형의 진폭이라는 것을 유의하여야 한다.
진폭 f는 산출된 보간 값에 따라서 감소되거나 연장된다. 진폭을 변화시키는 대신에, 출력 하드웨어의 음량을 직접 변화시키는 방법이 채용될 수 있다. 동일한 방법이 기본 주파수에 적용된다.
더욱이, 감정 또는 발화 스타일을 보간함에 있어서, 출력될 텍스트의 시작 및 종료 지점의 속성 값으로서 설정된 값에 대응하는 음성 합성 데이터는 보간되고, 이에 의하여 합성 음성을 생성한다.
예를 들면, PSOLA 등과 같은 파형 편집 방법에 기초한 음성 합성 방법에서, 출력될 텍스트에 시작 위치에서 설정된 감정에 대응하는 음성 파형 사전의 음성 분절(voice segment)과, 종료 위치에서 설정된 감정에 대응하는 음성 파형 사전의 음성 분절은 소망하는 연속 시간 지속 기간 및 기본 주파수에 대하여 PSOLA 처리를겪고, 음성 파형 분절 또는 합성 음성 파형은 음량에서와 동일한 방식으로 획득된 보간 기능에 따라 보간된다.
또한, 셉스트럼(cepstrum) 등과 같은 파라미터 해석 합성 방법에 기초한 음성 합성 방법에서, 출력될 텍스트의 시작 위치에서 설정된 감정에 대응하는 음성 파라미터 사전으로부터 획득된 파라미터 시퀀스, 및 종료 위치에서 설정된 감정에 대응하는 음성 파라미터 사전으로부터 획득된 파라미터 시퀀스는 파라미터를 생성하기 위하여 보간되고, 소망하는 연속 시간 지속 기간 및 기본 주파수에 대응하는 합성 음성은 이 파라미터를 사용하여 생성된다.
더욱이, 남성 음성으로부터 여성 음성으로의 변화에서와 같이, 화자들 간의 보간은 유사한 방법에 의하여 행해질 수 있다. 게다가, 출력 장치가 스테레오 확성기(stereophonic loudspeakers)를 포함할 때, 출력 장치는 좌측 확성기로부터 우측 확성기로 연속적으로 변할 수 있다. 또는 출력 장치가 헤드폰 및 외부 확성기를 포함하면, 출력은 헤드 폰으로부터 외부 확성기로 연속적으로 변할 수 있다.
화자들의 수(말하는 사람의 수)의 보간에, 도 6에 도시된 보간 기능이 산출된다.
도 6은 합성 음성을 출력함에 있어서 화자의 수의 보간의 예를 설명하기 위한 그래프이다. 도 6에 도시된 예에서, 한 화자로부터 다섯 화자로의 모핑이 구현된다. 이러한 경우에, 출력될 텍스트로부터 획득된 파형의 시간 지속 기간은 다섯개의 구간(periods)으로 나누어진다. 나누어진 구간이 경과할 때마다, 화자의 수는 하나씩 증가하고, 합성음의 음량은 도 6에 도시된 보간 기능(0과 1 사이에서 변하는 기능)에 기초하여 변한다. 또한, 파형 레벨은 진폭이 소정의 값을 초과하는 것을 방지하도록 정규화된다.
화자가 소정의 순서 또는 무작위로 추가될 수 있다는 것을 유의하여야 한다.
이 실시예에서, 합성 음성은 상기 다양한 보간 처리를 실행함으로써 생성된 음성 파형에 따라서 출력된다. 합성 음성의 특징이 불연속적으로 변하는 종래의 음성 합성 장치에 비하여, 이러한 방식에 의하여, 합성 음성의 특징이 연속적으로 변하는 자연스러운 합성 음성이 구현될 수 있다.
[제2 실시예]
상기 제1 실시예에 따른 음성 합성 장치에 기초한 제2 실시예가 아래에서 설명된다. 다음의 설명에서, 제1 실시예의 구성 요소와 같은 동일한 구성 요소의 반복적인 설명은 생략되고, 이 실시예의 특유한 특징이 주요하게 설명된다.
이 실시예에서, 태그 붙여진 텍스트(103)에 포함된 소정의 태그는, 제1 실시예에서와 같이 두 개의 태그 "<morphing...>" 및 "</morphing>"에 더하여, 도 7에 도시된 바와 같이 중첩된 구조(nested structure)를 채용하여, 변화될 복수의 객체를 설정한다. 이 중첩된 구조에서, 복수의 객체를 변화시킬 수 있는 음성 합성 모핑이 구현될 수 있다. 즉, 도 7에 도시된 예에서, 합성 음성으로서 출력될 텍스트를 발화함에 있어서 합성 음성의 특징은 큰 음량을 가진 행복한 음조를 초기에 표현하고, 그 후 화난 음조를 나타내도록 변하는 반면에, 음량은 초기 음량보다 작게 변한다.
다른 배치는 제1 실시예의 배치와 동일하기 때문에, 반복적인 설명은 생략된다.
상기 배치를 갖는 이 실시예에 따르면, 출력될 텍스트의 소망의 범위의 합성 음성의 특징은 연속적으로 그리고 용이하게 변화될 수 있다.
[제3 실시예]
상기 제1 실시예에 따른 음성 합성 장치에 기초한 제3 실시예가 아래에서 설명된다. 아래의 설명에서, 제1 실시예의 구성요소와 동일한 구성 요소의 반복적인 설명은 생략되고, 이 실시예의 특유의 특징이 주요하게 설명된다.
상술한 제1 및 제2 실시예에서, 시작 태그 "<morphing...>"에 포함된 속성 정보는 합성 음성의 특징이 연속적으로 변하는 객체, 및 객체의 시작 및 종료 지점의 속성 값을 기술한다. 대조적으로, 제3 실시예에서, 시작 태그 "<morphing...>"는 시작 및 종료 지점에서 변화될 객체의 라벨을 기술한다.
도 8은 제3 실시예의 텍스트에 할당된 태그의 예를 도시하고, 태그에 의하여 둘러싸인 텍스트 자체는 도 7에 도시된 제2 실시예에서의 텍스트와 동일하다. 이 실시예에서, 변화될 객체는 감정(emotion)이다. 그러므로, 시작 및 종료 지점은 변화될 객체의 라벨 "emotionstart" 및 "emotionend"를 기술한다. 제3 실시예의 음성 합성 장치의 배치는 제1 실시예에서의 배치와 동일하기 때문에, 이것의 반복적인 설명은 생략된다. 제1 실시예와 제3 실시예 간의 차이점이 아래에서 설명된다.
제1 실시예에서와 같이, 텍스트 해석 모듈(105)은 텍스트의 포맷 및 헤더 정보에 기초하여 입력된 태그 붙여진 텍스트(103)의 유형, 내용 등을 해석하여, 그들과 연관된 정보를 얻는다. 태그 해석 모듈(105)은 텍스트에 포함된 태그의 유형을 결정한다. 태그 속성 해석 모듈(107)은 태그에 기술된 속성 및 속성 값을 해석한다. 이 실시예에서, 시작 및 종료 지점만이 분석되고, 태그 속성 분석 모듈(107)은 시작 및 종료 지점의 객체를 조사한다. 음성 합성 모듈(109)은 태그 속성 해석 모듈(107)에 의하여 획득된 속성 값에 기초하여 보간을 만들고, 보간의 결과로서 획득된 음성 파형에 따라 텍스트의 내용에 대응하는 합성 음성을 생성한다.
각각의 태그에 포함된 속성 정보는 제1 실시예서와 동일한 구성을 갖기 때문에, 이것의 반복적인 설명은 생략된다. 제1 실시예와 제3 실시예 간의 차이점은 다음과 같다. 즉, 합성 음성의 특징이 연속적으로 변하는 것인 객체, 시작 지점(시작)에서의 감정, 및 종료 지점(종료)에서의 감정으로서 감정(emotion)을 기술함에 있어서, 시작 지점에는 변화될 객체의 라벨 "emotionstart가 할당되고, 종료 지점에는 변화될 객체의 라벨 "emotionend"가 할당된다. 이 실시예에서, 예외 처리는 태그 포맷의 이러한 변화에 대응하여 부분적으로 다르고, 이러한 차이는 도 9를 참조하여 설명된다.
도 9는 제3 실시예의 음성 합성 장치 제어 처리를 도시하는 흐름도, 즉 장치의 CPU(도시하지 않음)에 의하여 실행될 처리의 시퀀스이다.
도 9를 참조하면, 텍스트 입력 모듈(104)에 의하여 입력된 태그 붙여진 텍스트(103)는 텍스트 해석 모듈(105), 태그 해석 모듈(106), 및 태그 속성 해석(107)에 의하여 텍스트 해석, 태그 해석, 및 태그 속성 해석을 겪는다(단계 "S901" 내지 "S903").
시작 태그 "<morphing...>"가 시작 및 종료 지점을 포함하는지가 체크된다. 시작 및 종료 지점 중 하나가 속성을 포함하는지가 체크된다(단계 "S904"). 시작 및 종료 지점 양자 모두가 속성 값을 갖지 않으면, 텍스트는 그 태그 전의 문장에서 소리내어 읽혔던 음성에 따라 소리내어 읽힌다(단계 "S905"). 그 후, 시작 지점이 속성 값을 갖는지가 체크된다. 시작 지점이 속성 값을 갖지 않으면, 종료 지점의 속성 값이 사용된다(단계 "S906", 단계 "S907"). 반대로, 시작 지점이 속성 값을 갖지만 종료 지점이 속성 값을 갖지 않으면, 텍스트는 시작 지점의 속성 값에 따라 소리내어 읽힌다(단계 "S908", "S909"). 시작 및 종료 지점 양자 모두가 속성 값을 갖고 그들이 상이하지 않으면, 보간이 이들 속성 값에 기초하여 행해지고, 합성 음성이 출력된다(단계 "S910", "S912").
시작 및 종료 지점의 속성 값으로서, 합성 음성의 특징이 연속적으로 변하는 것인 객체가 음량이면, 시작 및 종료 지점 양자 모두는 음량 값을 취한다. 시작 및 종료 지점의 속성 값의 유형이 상이하면(예를 들면, 시작 지점은 음량 값을 갖고 종료 지점은 감정을 가짐), 시작 지점의 속성 값이 사용된다(단계 "S911"). 태그가 잘못된 속성 값을 가지면, 음성 출력의 우선 순위는 (시작 지점의 순서) > (종료 지점의 순서)이다.
다른 배치는 제1 실시예에서의 배치와 동일하기 때문에, 이것의 반복적인 설명은 생략된다.
상기 배치를 갖는 이 실시예에 따르면, 출력될 텍스트의 소망의 범위의 합성 음성의 특징이 연속적으로 그리고 용이하게 변화될 수 있다.
[제4 실시예]
상술된 제1 실시예에 따른 음성 합성 장치에 기초한 제4 실시예가 아래에서 설명된다. 아래의 설명에서, 제1 실시예의 구성요소와 동일한 구성 요소의 반복적인 설명은 생략되고, 이 실시예의 특유의 특징이 주요하게 설명된다.
제1 내지 3 실시예에서, 모핑의 변화는 일정하다. 즉, 모핑 알고리즘 자체의 변화율에 의존한다. 그러나, 제4 실시예는 모핑 변화를 위한 속성도 추가될 수 있는 것을 특징으로 한다. 도 10은 그 예를 도시한다.
도 10은 제4 실시예에서 텍스트에 할당된 태그의 예를 도시한다. 본 실시예에서는, 모핑 변화율을 위한 속성 정보도 시작 태그 "<morphing...>" 내의 속성에 설정된다. 모핑 변화율을 표현하는 속성 값으로서, 선형, 비선형, 로그 등과 같은 변화에서 사용되는 함수 유형이 "function"에서 설정된다.
본 실시예에서는, 태그를 해석함에 있어서, 태그 속성 해석 모듈(107)은 객체와 시작 및 종료 지점 뿐만 아니라 모핑의 변화율을 나타내는 속성 값에 따른 모핑 변화의 속성도 해석한다. 해석 결과, 선형, 비선형, 로그 등과 같은 속성 값이 "function" 필드에서 기술되어 있으면, 그 속성 값에 의하여 주어지는 변화율에 따라 보간이 행해지고, 보간에 의하여 획득되는 합성 파형에 따라 합성 음성이 출력된다. 반면, 이러한 속성 값이 기술되어 있지 않으면, 모핑 알고리즘에 의하여 미리 결정된 변화 방법에 따라 보간이 행해진다.
다른 배치는 제1 실시예에서의 배치와 동일하기 때문에, 이것의 반복적인 설명은 생략된다.
상기 배치를 갖는 이 실시예에 따르면, 출력될 텍스트의 소망의 범위의 합성 음성의 특징이 연속적으로 그리고 용이하게 변화될 수 있다.
[제5 실시예]
상술된 제1 실시예에 따른 음성 합성 장치에 기초한 제5 실시예가 아래에서 설명된다. 아래의 설명에서, 제1 실시예의 구성요소와 동일한 구성 요소의 반복적인 설명은 생략되고, 이 실시예의 특유의 특징이 주요하게 설명된다.
제1 내지 3 실시예에서, 모핑의 변화는 일정하다. 즉, 모핑 알고리즘 자체의 변화율에 의존한다. 그러나, 제5 실시예는 모핑 변화를 위한 속성이 태그에 개별적으로 추가될 수 있는 것을 특징으로 한다. 도 11은 그 예를 도시한다.
도 11은 제5 실시예에서 텍스트에 할당된 태그의 예를 도시한다. 본 실시예에서, 모핑 변화를 위한 중간 태그는 "<morphing...>" 및 "</morphing>" 태그에 의하여 둘러싸인 텍스트에 추가적으로 삽입된다.
본 실시예에서는, 태그를 해석함에 있어서, 태그 해석 모듈(106)은 "<morphing>" 태그 뿐만 아니라 모핑 변화를 생성하는 중간 태그도 해석한다. 중간 태그는 "<rate value="*.*"/>"와 같은 태그를 사용하고, 0 부터 1 사이 범위인 변화율은 "value" 속성 필드에 기술된다. 이어서, 이러한 중간 태그는, 합성 음성이 연속적으로 변화되는 텍스트의 소망하는 위치에 개별적으로 임베딩된다. 이러한 방식에서, 도 12에서 도시되는 바와 같이, 보간 후에 합성 음성을 실제로 출력함에 있어서, 합성 음성의 특징에서 더욱 복잡한 변화가 발생할 수 있다.
"<rate value="*.*"/>"와 같은 태그가 삽입되는 각 부분은, 원 일본 출원으로부터 현재의 영어로 된 PCT 출원으로 번역되면서, 일본어와 영어의 어순 차이로 인하여 도 11에서 도시된 바와 같이 배치되었음을 주의해야 한다. 따라서, 도 12에서 도시된 선 그래프도 도 11의 배열에 따라 본 발명을 명확하고 적절하게 설명하기 위하여 배치되었다.
제4 실시예에서 사용된 모핑 변화를 위한 "function" 함수가 또한 지정될 때, 전에 지정된 함수는 주어진 "<rate/>" 태그로부터 다음 "<rate/>" 태그로의 보간 함수로서 사용된다.
다른 배치는 제1 실시예에서의 배치와 동일하기 때문에, 이것의 반복적인 설명은 생략된다.
상기 배치를 갖는 이 실시예에 따르면, 출력될 텍스트의 소망의 범위의 합성 음성의 특징이 연속적으로 그리고 용이하게 변화될 수 있다.
[제6 실시예]
상술된 제1 실시예에 따른 음성 합성 장치에 기초한 제6 실시예가 아래에서 설명된다. 아래의 설명에서, 제1 실시예의 구성요소와 동일한 구성 요소의 반복적인 설명은 생략되고, 이 실시예의 특유의 특징이 주요하게 설명된다.
상술된 실시예에서, 시작 및 종료 지점의 속성 값은 시작 태그 "<morphing...>"에서 설정된다. 그러나, 본 실시예에서, 종료 지점의 속성 값은, 도 13에서 도시되는 바와 같이, 태그의 종료 지점에서 설정된다.
도 13은 제6 실시예에서 텍스트에 할당된 태그의 예를 도시한다.
제1 실시예의 태그 구성에서, "<morphing type="emotion" start="happy">"가시작 지점 및 객체의 속성으로서 시작 태그 "<morphing...>"에서 기술되고, 종료 지점의 속성이 "</morphing end="angry">"와 같이 종료 태그에서 기술된다. 대조적으로, 본 실시예에서는, "<morphing emotionstart="happy">"가 시작 태그에서 기술되고, "</morphing emotionend="angry">"가 종료 태그에서 기술된다. 제4 실시예의 보간 함수가 본 실시예에서 지정될 때, 이는 시작 태그에서 기술된다.
다른 배치는 제1 실시예에서의 배치와 동일하기 때문에, 이것의 반복적인 설명은 생략된다.
상기 배치를 갖는 이 실시예에 따르면, 출력될 텍스트의 소망의 범위의 합성 음성의 특징이 연속적으로 그리고 용이하게 변화될 수 있다.
[제7 실시예]
상술된 제1 실시예에 따른 음성 합성 장치에 기초한 제7 실시예가 아래에서 설명된다. 아래의 설명에서, 제1 실시예의 구성요소와 동일한 구성 요소의 반복적인 설명은 생략되고, 이 실시예의 특유의 특징이 주요하게 설명된다.
본 실시예에서는, 태그에서의 시작 및 종료 지점의 속성이 상이하면, 상술된 실시예에서와 달리 후속 처리를 금지하도록 에러가 판정된다.
제1 실시예의 태그 구성을 예로 든다. 즉, "<morphing type="emotion" start="happy" end="10">"과 같이 "시작" 및 "종료"의 속성이 상이하면, 에러가 판정되고 아무 처리도 행해지지 않는다. 시작 및 종료 지점의 어느 쪽도 속성을 갖지 않거나 이들 중 어느 쪽이라도 속성을 갖지 않으면, 제1 실시예에서와 동일한 처리가 실행된다. 제3 실시예에서, 시작 및 종료 지점의 어느 쪽도 속성을 갖지않거나 이들 중 어느 쪽이라도 속성을 갖지 않으면, 제3 실시예에서와 동일한 처리가 실행된다. 다른 배치는 제1 내지 5 실시예에서의 배치와 동일하기 때문에, 이것의 반복적인 설명은 생략된다.
상기 배치를 갖는 이 실시예에 따르면, 출력될 텍스트의 소망의 범위의 합성 음성의 특징이 연속적으로 그리고 용이하게 변화될 수 있다.
[제8 실시예]
상술된 제1 실시예에 따른 음성 합성 장치에 기초한 제8 실시예가 아래에서 설명된다. 아래의 설명에서, 제1 실시예의 구성요소와 동일한 구성 요소의 반복적인 설명은 생략되고, 이 실시예의 특유의 특징이 주요하게 설명된다.
상술된 실시예에서, 태그에서 설정될 복수의 속성 정보의 적어도 하나가 발견되지 않을 때에도, 합성 음성은 출력된다. 그러나, 본 실시예에서는, 시작 및 종료 지점의 속성이 상이할 때 및 시작 및 종료 지점의 속성이 객체의 속성과 상이할 때, 에러가 판정되고 아무 처리도 행해지지 않는다.
다른 배치는 제1 내지 7 실시예에서의 배치와 동일하기 때문에, 이것의 반복적인 설명은 생략된다.
상기 배치를 갖는 이 실시예에 따르면, 출력될 텍스트의 소망의 범위의 합성 음성의 특징이 연속적으로 그리고 용이하게 변화될 수 있다.
따라서, 상술된 실시예에 따르면, 출력될 입력 텍스트의 소망의 범위를 태그에 의하여 둘러쌈으로써, 합성 음성의 특징이 합성 음성을 출력함에 있어서의 모핑에서와 같이 연속적으로 변화할 수 있고, 개별적인 음성을 생성하는 종래 기술과달리, 청자에 대하여 자연스러운 텍스트로부터 음성을 생성하는 기능이 구현될 수 있다.
[또 다른 실시예]
지금까지 본 발명의 바람직한 실시예가 설명되었으며, 본 발명은 복수의 장치에 의하여 구성된 시스템이나 단일 장비로 이루어진 장치에 적용될 수도 있다.
본 발명은, 상술된 실시예의 기능을 시스템이나 장치에 구현하는 소프트웨어 프로그램을 직접 또는 원격으로 제공하고 그 제공된 프로그램 코드를 그 시스템이나 장치의 컴퓨터에 의하여 판독 및 실행함으로써 본 발명이 성취되는 경우도 포함함을 주의해야 한다. 이러한 경우, 프로그램의 기능을 갖는 한, 형태는 프로그램으로 제한되지 않는다.
따라서, 컴퓨터를 이용하여 본 발명의 기능적 처리를 구현하기 위하여 컴퓨터에 설치되는 프로그램 코드 자체는 본 발명을 구현하는 것이다. 즉, 본 발명의 청구범위는 본 발명의 기능적 처리를 구현하기 위한 컴퓨터 프로그램 자체를 포함한다.
이 경우, 프로그램의 형태는 특별히 제한되지 않으며, 프로그램 기능을 갖는 한, 객체 코드, 인터프리터(interpreter)에 의하여 실행되는 프로그램, OS에 제공되는 스크립트 데이터 등이 사용될 수도 있다.
프로그램을 제공하는 기록 매체로서, 예를 들어 플로피 디스크, 하드 디스크, 광 디스크, 광자기 디스크, MO, CD-ROM, CD-R, CD-RW, 자기 테이프, 불휘발성 메모리 카드, ROM, DVD(DVD-ROM, DVD-R) 등이 사용될 수 있다.
또 다른 프로그램 제공 방법으로서, 클라이언트 컴퓨터 상의 브라우저를 이용하여 인터넷 상의 홈 페이지로의 접속을 설정하고, 그 홈 페이지로부터 본 발명의 컴퓨터 프로그램 자체 또는 자동 설치 기능을 포함하는 압축 파일을 하드 디스크 등과 같은 기록 매체 상으로 다운로딩함으로써 프로그램이 제공될 수 있다. 또한, 본 발명의 프로그램을 형성하는 프로그램 코드는 복수의 파일로 분할되어 상이한 홈 페이지로부터 다운로딩될 수도 있다. 즉, 본 발명의 청구범위는, 컴퓨터에 의하여 본 발명의 기능적 처리를 구현하기 위하여 요구되는 프로그램 파일을 복수의 사용자가 다운로딩하도록 하는 WWW(World Wide Web) 서버를 포함한다.
또한, 암호화된 본 발명의 프로그램을 저장하는 CD-ROM 등과 같은 저장 매체가 사용자에게 배달되고, 소정의 조건을 마친 사용자가 인터넷을 통하여 홈 페이지로부터 프로그램을 복호화하는 데에 사용되는 키 정보를 다운로딩하도록 허락받고, 그 키 정보를 사용하여 암호화된 프로그램이 컴퓨터에 설치되어 실행됨으로써 본 발명이 구현될 수도 있다.
상술된 실시예의 기능은 컴퓨터에 의하여 판독된 프로그램 코드를 실행함으로써 뿐만 아니라 그 프로그램의 명령에 기초하여 컴퓨터 상에서 실행되는 OS 등에 의하여 실행되는 실제의 처리 동작의 일부 또는 전부에 의해서도 구현될 수도 있다.
또한, 상술된 실시예의 기능은 기록 매체로부터 판독된 프로그램이 확장 보드 또는 유닛의 메모리에 기록된 후, 컴퓨터에 삽입되거나 접속된 기능 확장 보드 또는 기능 확장 유닛에 배치된 CPU 등에 의하여 실행되는 실제 처리의 일부 또는전부에 의하여 구현될 수도 있다.
상술된 바와 같이, 상기 실시예에 따르면, 출력될 텍스트의 소망의 범위의 합성 음성의 특징이 연속적으로 그리고 용이하게 변화될 수 있다.
본 발명의 명백하고 폭넓으며 상이한 실시예가 본 발명의 사상 및 범위를 벗어나지 않고 행해질 수 있으므로, 본 발명은 특정 실시예에 의하여 제한되지 않으며, 청구범위에 의하여 정의된 바에 의해서만 제한된다.
Claims (10)
- 입력 텍스트에 대응하는 합성 음성의 출력시에 상기 텍스트에 포함된 소정의 식별자가 부여된 범위의 합성 음성의 특징을 연속적으로 변화시키도록 음성 파형을 합성하는 음성 합성 방법에 있어서,합성 음성의 특징의 변화 모드를 나타내는 속성 정보(attribute information)를 포함하는 소정의 식별자를 사용하여, 출력되어야 하는 텍스트 중 합성 음성의 특징이 연속적으로 변화되어야 하는 소망의 범위를 설정하는 설정 단계와,상기 설정 단계에서 설정된 상기 식별자를 갖는 상기 텍스트로부터 상기 소정의 식별자 및 상기 소정의 식별자에 포함된 속성 정보의 유형을 인식하는 인식 단계와,상기 인식 단계의 인식 결과에 따라 상기 식별자를 갖는 상기 텍스트의 상기 소망의 범위 내의 텍스트에 대응하는 합성 음성을 보간(interpolation)함으로써 상기 소정의 식별자에 포함된 상기 속성 정보에 따라 그 합성 음성의 특징이 연속적으로 변하는 음성 파형을 합성하는 음성 합성 단계를 포함하는 것을 특징으로 하는 음성 합성 방법.
- 제1항에 있어서,상기 소정의 식별자에 포함되는 상기 속성 정보는, 상기 식별자에 의하여 설정되는 상기 범위의 시작 지점에서의 합성 음성의 특징의 변화 모드 및 종료 지점에서의 합성 음성의 특징의 변화 모드를 나타내는 것을 특징으로 하는 음성 합성 방법.
- 제1항에 있어서,상기 속성 정보가 나타내는 상기 합성 음성의 특징의 변화 모드는, 음량의 변화, 화자(speaker)의 변화, 출력 장치의 변화, 화자 수의 변화, 감정의 변화, 발화 속도(uttering speed)의 변화 및 기본 주파수의 변화 중 적어도 하나인 것을 특징으로 하는 음성 합성 방법.
- 제1항에 있어서,상기 음성 합성 단계는, 상기 소정의 식별자에 포함되는 식별자에 의하여 설정되는 상기 범위의 시작 및 종료 지점과 관련된 속성 정보 및 상기 시작 지점 전의 합성 음성의 특징의 모드에 기초하여, 상기 소망의 범위 내의 상기 텍스트에 대응하는 합성 음성을 생성하는 단계를 포함하는 것을 특징으로 하는 음성 합성 방법.
- 제4항에 있어서,상기 음성 합성 단계는, 상기 시작 및 종료 지점과 관련된 상기 속성 정보로서 설정된 발화 속도를 나타내는 값들과 상기 시작 지점 전의 발화 속도를 나타내는 값 사이의 비율에 기초하여, 상기 소망의 범위 내의 상기 텍스트에 대응하는 합성 음성을 생성하는 단계를 포함하는 것을 특징으로 하는 음성 합성 방법.
- 제4항에 있어서,상기 음성 합성 단계는, 상기 시작 및 종료 지점과 관련된 상기 속성 정보로서 설정된 음량을 나타내는 값들과 상기 시작 지점 전의 음량을 나타내는 값 사이의 비율에 기초하여, 상기 소망의 범위 내의 상기 텍스트에 대응하는 합성 음성을 생성하는 단계를 포함하는 것을 특징으로 하는 음성 합성 방법.
- 입력 텍스트에 대응하는 합성 음성의 출력시에 상기 텍스트에 포함된 소정의 식별자가 부여된 범위의 합성 음성의 특징을 연속적으로 변화시키도록 음성 파형을 합성하는 음성 합성 장치에 있어서,식별자를 갖는 텍스트 - 소정의 식별자는, 상기 텍스트 중 합성 음성의 특징이 연속적으로 변화되어야 하는 소망의 범위를 나타내고 합성 음성의 특징의 변화 모드를 나타내는 속성 정보를 포함함 - 로부터 상기 소정의 식별자 및 상기 소정의 식별자에 포함된 속성 정보의 유형을 인식하는 인식 수단과,상기 인식 수단의 인식 결과에 따라 상기 식별자를 갖는 상기 텍스트의 상기 소망의 범위 내의 텍스트에 대응하는 합성 음성을 보간함으로써, 상기 소정의 식별자에 포함된 상기 속성 정보에 따라 그 합성 음성의 특징이 연속적으로 변하는 음성 파형을 합성하는 음성 합성 수단을 포함하는 것을 특징으로 하는 음성 합성 장치.
- 음성 합성을 위한 텍스트 구조에 있어서,음성 합성에 의하여 출력되어야 하는 텍스트 중 소망의 범위의 합성 음성의 특징을 변화시키기 위하여 소정의 식별자가 부여되고,상기 소정의 식별자는 합성 음성의 상기 특징을 연속적으로 변화시킬 때의 변화 모드를 나타내는 속성 정보를 포함하는 것을 특징으로 하는 음성 합성을 위한 텍스트 구조.
- 제1항 내지 제6항 중 어느 한 항에 기재된 음성 합성 방법을 구현하기 위한 동작 명령들을 구성하는 컴퓨터 프로그램.
- 입력 텍스트에 대응하는 합성 음성의 출력시에 상기 텍스트에 포함된 소정의 식별자가 부여된 범위의 합성 음성의 특징을 연속적으로 변화시키도록 음성 파형을 합성하는 음성 합성 장치로서 컴퓨터가 동작하도록 하는 컴퓨터 프로그램에 있어서,식별자를 갖는 텍스트 - 소정의 식별자는, 상기 텍스트 중 합성 음성의 특징이 연속적으로 변화되어야 하는 소망의 범위를 나타내고 합성 음성의 특징의 변화 모드를 나타내는 속성 정보를 포함함 - 로부터 상기 소정의 식별자 및 상기 소정의 식별자에 포함된 속성 정보의 유형을 인식하는 인식 기능을 위한 프로그램 코드와,상기 인식 기능의 인식 결과에 따라 상기 식별자를 갖는 상기 텍스트의 상기 소망의 범위 내의 텍스트에 대응하는 합성 음성을 보간함으로써, 상기 소정의 식별자에 포함된 상기 속성 정보에 따라 그 합성 음성의 특징이 연속적으로 변하는 음성 파형을 합성하는 음성 합성 기능을 위한 프로그램 코드를 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2002-00100467 | 2002-04-02 | ||
JP2002100467A JP2003295882A (ja) | 2002-04-02 | 2002-04-02 | 音声合成用テキスト構造、音声合成方法、音声合成装置及びそのコンピュータ・プログラム |
PCT/JP2003/004231 WO2003088208A1 (en) | 2002-04-02 | 2003-04-02 | Text structure for voice synthesis, voice synthesis method, voice synthesis apparatus, and computer program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20040086432A true KR20040086432A (ko) | 2004-10-08 |
KR100591655B1 KR100591655B1 (ko) | 2006-06-20 |
Family
ID=29241389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020047013129A KR100591655B1 (ko) | 2002-04-02 | 2003-04-02 | 음성 합성을 위한 음성 합성 방법, 음성 합성 장치 및 컴퓨터 판독 가능 기록 매체 |
Country Status (9)
Country | Link |
---|---|
US (1) | US7487093B2 (ko) |
EP (1) | EP1490861B1 (ko) |
JP (1) | JP2003295882A (ko) |
KR (1) | KR100591655B1 (ko) |
CN (1) | CN1269104C (ko) |
AU (1) | AU2003226446A1 (ko) |
DE (1) | DE60325191D1 (ko) |
ES (1) | ES2316786T3 (ko) |
WO (1) | WO2003088208A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100759172B1 (ko) * | 2004-02-20 | 2007-09-14 | 야마하 가부시키가이샤 | 음성 합성 장치, 음성 합성 방법, 및 음성 합성 프로그램을기억한 기억 매체 |
Families Citing this family (203)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
CN1260704C (zh) * | 2003-09-29 | 2006-06-21 | 摩托罗拉公司 | 语音合成方法 |
CN1914666B (zh) * | 2004-01-27 | 2012-04-04 | 松下电器产业株式会社 | 声音合成装置 |
JP4587160B2 (ja) * | 2004-03-26 | 2010-11-24 | キヤノン株式会社 | 信号処理装置および方法 |
JP4720974B2 (ja) * | 2004-12-21 | 2011-07-13 | 株式会社国際電気通信基礎技術研究所 | 音声発生装置およびそのためのコンピュータプログラム |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US7983910B2 (en) * | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
WO2007138944A1 (ja) * | 2006-05-26 | 2007-12-06 | Nec Corporation | 情報付与システム、情報付与方法、情報付与プログラム及び情報付与プログラム記録媒体 |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
CN101295504B (zh) * | 2007-04-28 | 2013-03-27 | 诺基亚公司 | 用于仅文本的应用的娱乐音频 |
US20090157407A1 (en) * | 2007-12-12 | 2009-06-18 | Nokia Corporation | Methods, Apparatuses, and Computer Program Products for Semantic Media Conversion From Source Files to Audio/Video Files |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8374873B2 (en) * | 2008-08-12 | 2013-02-12 | Morphism, Llc | Training and applying prosody models |
US8990087B1 (en) * | 2008-09-30 | 2015-03-24 | Amazon Technologies, Inc. | Providing text to speech from digital content on an electronic device |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
CN101727904B (zh) * | 2008-10-31 | 2013-04-24 | 国际商业机器公司 | 语音翻译方法和装置 |
US8374881B2 (en) * | 2008-11-26 | 2013-02-12 | At&T Intellectual Property I, L.P. | System and method for enriching spoken language translation with dialog acts |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
JP5275102B2 (ja) * | 2009-03-25 | 2013-08-28 | 株式会社東芝 | 音声合成装置及び音声合成方法 |
GB0906470D0 (en) | 2009-04-15 | 2009-05-20 | Astex Therapeutics Ltd | New compounds |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8996384B2 (en) * | 2009-10-30 | 2015-03-31 | Vocollect, Inc. | Transforming components of a web page to voice prompts |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
WO2011089450A2 (en) | 2010-01-25 | 2011-07-28 | Andrew Peter Nelson Jerram | Apparatuses, methods and systems for a digital conversation management platform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8965768B2 (en) | 2010-08-06 | 2015-02-24 | At&T Intellectual Property I, L.P. | System and method for automatic detection of abnormal stress patterns in unit selection synthesis |
US8731932B2 (en) | 2010-08-06 | 2014-05-20 | At&T Intellectual Property I, L.P. | System and method for synthetic voice generation and modification |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US20130030789A1 (en) * | 2011-07-29 | 2013-01-31 | Reginald Dalce | Universal Language Translator |
CN102426838A (zh) * | 2011-08-24 | 2012-04-25 | 华为终端有限公司 | 语音信号处理方法和用户设备 |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
JP5596649B2 (ja) | 2011-09-26 | 2014-09-24 | 株式会社東芝 | 文書マークアップ支援装置、方法、及びプログラム |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US10199051B2 (en) | 2013-02-07 | 2019-02-05 | Apple Inc. | Voice trigger for a digital assistant |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
KR101759009B1 (ko) | 2013-03-15 | 2017-07-17 | 애플 인크. | 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것 |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
WO2014200731A1 (en) | 2013-06-13 | 2014-12-18 | Apple Inc. | System and method for emergency calls initiated by voice command |
KR101749009B1 (ko) | 2013-08-06 | 2017-06-19 | 애플 인크. | 원격 디바이스로부터의 활동에 기초한 스마트 응답의 자동 활성화 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
EP2922054A1 (en) * | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation |
EP2922055A1 (en) * | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information |
EP2922056A1 (en) | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
CN110797019B (zh) | 2014-05-30 | 2023-08-29 | 苹果公司 | 多命令单一话语输入方法 |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
JP6415929B2 (ja) | 2014-10-30 | 2018-10-31 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US10579742B1 (en) * | 2016-08-30 | 2020-03-03 | United Services Automobile Association (Usaa) | Biometric signal analysis for communication enhancement and transformation |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
KR20180055189A (ko) | 2016-11-16 | 2018-05-25 | 삼성전자주식회사 | 자연어 처리 방법 및 장치와 자연어 처리 모델을 학습하는 방법 및 장치 |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US11393451B1 (en) * | 2017-03-29 | 2022-07-19 | Amazon Technologies, Inc. | Linked content in voice user interface |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
CN108305611B (zh) * | 2017-06-27 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 文本转语音的方法、装置、存储介质和计算机设备 |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10600404B2 (en) * | 2017-11-29 | 2020-03-24 | Intel Corporation | Automatic speech imitation |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10944859B2 (en) | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
US10706347B2 (en) | 2018-09-17 | 2020-07-07 | Intel Corporation | Apparatus and methods for generating context-aware artificial intelligence characters |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
CN110138654B (zh) * | 2019-06-06 | 2022-02-11 | 北京百度网讯科技有限公司 | 用于处理语音的方法和装置 |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
CN112349271A (zh) * | 2020-11-06 | 2021-02-09 | 北京乐学帮网络技术有限公司 | 语音信息处理方法、装置、电子设备及存储介质 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2628994B2 (ja) | 1987-04-10 | 1997-07-09 | 富士通株式会社 | 文−音声変換装置 |
JP3425996B2 (ja) | 1992-07-30 | 2003-07-14 | 株式会社リコー | ピッチパターン生成装置 |
JP3373933B2 (ja) | 1993-11-17 | 2003-02-04 | 三洋電機株式会社 | 話速変換装置 |
JP3450411B2 (ja) * | 1994-03-22 | 2003-09-22 | キヤノン株式会社 | 音声情報処理方法及び装置 |
JP3559588B2 (ja) * | 1994-05-30 | 2004-09-02 | キヤノン株式会社 | 音声合成方法及び装置 |
JP3548230B2 (ja) * | 1994-05-30 | 2004-07-28 | キヤノン株式会社 | 音声合成方法及び装置 |
JP3465734B2 (ja) * | 1995-09-26 | 2003-11-10 | 日本電信電話株式会社 | 音声信号変形接続方法 |
JPH09160582A (ja) | 1995-12-06 | 1997-06-20 | Fujitsu Ltd | 音声合成装置 |
JPH09244693A (ja) * | 1996-03-07 | 1997-09-19 | N T T Data Tsushin Kk | 音声合成方法及び装置 |
JPH1078952A (ja) * | 1996-07-29 | 1998-03-24 | Internatl Business Mach Corp <Ibm> | 音声合成方法、音声合成装置、ハイパーテキストの制御方法及び制御装置 |
JP3616250B2 (ja) * | 1997-05-21 | 2005-02-02 | 日本電信電話株式会社 | 合成音声メッセージ作成方法、その装置及びその方法を記録した記録媒体 |
US6226614B1 (en) * | 1997-05-21 | 2001-05-01 | Nippon Telegraph And Telephone Corporation | Method and apparatus for editing/creating synthetic speech message and recording medium with the method recorded thereon |
JP2001282279A (ja) * | 2000-03-31 | 2001-10-12 | Canon Inc | 音声情報処理方法及び装置及び記憶媒体 |
JP4054507B2 (ja) | 2000-03-31 | 2008-02-27 | キヤノン株式会社 | 音声情報処理方法および装置および記憶媒体 |
JP4632384B2 (ja) | 2000-03-31 | 2011-02-16 | キヤノン株式会社 | 音声情報処理装置及びその方法と記憶媒体 |
EP1160764A1 (en) * | 2000-06-02 | 2001-12-05 | Sony France S.A. | Morphological categories for voice synthesis |
JP2002132287A (ja) | 2000-10-20 | 2002-05-09 | Canon Inc | 音声収録方法および音声収録装置および記憶媒体 |
DE60314929T2 (de) | 2002-02-15 | 2008-04-03 | Canon K.K. | Informationsverarbeitungsgerät und Verfahren mit Sprachsynthesefunktion |
US7546241B2 (en) | 2002-06-05 | 2009-06-09 | Canon Kabushiki Kaisha | Speech synthesis method and apparatus, and dictionary generation method and apparatus |
-
2002
- 2002-04-02 JP JP2002100467A patent/JP2003295882A/ja active Pending
-
2003
- 2003-04-02 WO PCT/JP2003/004231 patent/WO2003088208A1/en active IP Right Grant
- 2003-04-02 CN CNB038061244A patent/CN1269104C/zh not_active Expired - Fee Related
- 2003-04-02 KR KR1020047013129A patent/KR100591655B1/ko not_active IP Right Cessation
- 2003-04-02 AU AU2003226446A patent/AU2003226446A1/en not_active Abandoned
- 2003-04-02 EP EP03746418A patent/EP1490861B1/en not_active Expired - Lifetime
- 2003-04-02 DE DE60325191T patent/DE60325191D1/de not_active Expired - Lifetime
- 2003-04-02 ES ES03746418T patent/ES2316786T3/es not_active Expired - Lifetime
-
2004
- 2004-08-10 US US10/914,169 patent/US7487093B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100759172B1 (ko) * | 2004-02-20 | 2007-09-14 | 야마하 가부시키가이샤 | 음성 합성 장치, 음성 합성 방법, 및 음성 합성 프로그램을기억한 기억 매체 |
Also Published As
Publication number | Publication date |
---|---|
KR100591655B1 (ko) | 2006-06-20 |
EP1490861B1 (en) | 2008-12-10 |
ES2316786T3 (es) | 2009-04-16 |
EP1490861A1 (en) | 2004-12-29 |
EP1490861A4 (en) | 2007-04-18 |
WO2003088208A1 (en) | 2003-10-23 |
US20050065795A1 (en) | 2005-03-24 |
US7487093B2 (en) | 2009-02-03 |
AU2003226446A1 (en) | 2003-10-27 |
JP2003295882A (ja) | 2003-10-15 |
DE60325191D1 (de) | 2009-01-22 |
CN1643572A (zh) | 2005-07-20 |
CN1269104C (zh) | 2006-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100591655B1 (ko) | 음성 합성을 위한 음성 합성 방법, 음성 합성 장치 및 컴퓨터 판독 가능 기록 매체 | |
US6778962B1 (en) | Speech synthesis with prosodic model data and accent type | |
KR100811568B1 (ko) | 대화형 음성 응답 시스템들에 의해 스피치 이해를 방지하기 위한 방법 및 장치 | |
Tatham et al. | Developments in speech synthesis | |
US20030028380A1 (en) | Speech system | |
US20100324905A1 (en) | Voice models for document narration | |
US7010489B1 (en) | Method for guiding text-to-speech output timing using speech recognition markers | |
US6212501B1 (en) | Speech synthesis apparatus and method | |
WO2005093713A1 (ja) | 音声合成装置 | |
CN112185341A (zh) | 基于语音合成的配音方法、装置、设备和存储介质 | |
JP3518898B2 (ja) | 音声合成装置 | |
JP4409279B2 (ja) | 音声合成装置及び音声合成プログラム | |
JPH08335096A (ja) | テキスト音声合成装置 | |
JP3094622B2 (ja) | テキスト音声合成装置 | |
KR20220070979A (ko) | 발화 스타일 인코딩 네트워크 이용한 스타일 음성 합성 장치 및 음성 합성 방법 | |
JP3578961B2 (ja) | 音声合成方法及び装置 | |
JPH0549998B2 (ko) | ||
JP3282151B2 (ja) | 音声制御方式 | |
KR20100003574A (ko) | 음성음원정보 생성 장치 및 시스템, 그리고 이를 이용한음성음원정보 생성 방법 | |
JP2001350490A (ja) | テキスト音声変換装置及び方法 | |
JP2000231396A (ja) | セリフデータ作成装置、セリフ再生装置、音声分析合成装置及び音声情報転送装置 | |
JP4305022B2 (ja) | データ作成装置、プログラム及び楽音合成装置 | |
JP2003280680A (ja) | 音声合成装置およびその方法およびそのプログラムならびに記憶媒体 | |
JP3292218B2 (ja) | 音声メッセージ作成装置 | |
JPS63208098A (ja) | 音声合成装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130528 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20140527 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20150527 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20160525 Year of fee payment: 11 |
|
LAPS | Lapse due to unpaid annual fee |