RU2606312C2 - Устройство синтеза речи - Google Patents

Устройство синтеза речи Download PDF

Info

Publication number
RU2606312C2
RU2606312C2 RU2014148001A RU2014148001A RU2606312C2 RU 2606312 C2 RU2606312 C2 RU 2606312C2 RU 2014148001 A RU2014148001 A RU 2014148001A RU 2014148001 A RU2014148001 A RU 2014148001A RU 2606312 C2 RU2606312 C2 RU 2606312C2
Authority
RU
Russia
Prior art keywords
parameters
unit
speech
generating
speaker
Prior art date
Application number
RU2014148001A
Other languages
English (en)
Other versions
RU2014148001A (ru
Inventor
Роман Валерьевич Мещеряков
Original Assignee
Роман Валерьевич Мещеряков
Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Томский государственный университет систем управления и радиоэлектроники" (ТУСУР)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Роман Валерьевич Мещеряков, Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Томский государственный университет систем управления и радиоэлектроники" (ТУСУР) filed Critical Роман Валерьевич Мещеряков
Priority to RU2014148001A priority Critical patent/RU2606312C2/ru
Publication of RU2014148001A publication Critical patent/RU2014148001A/ru
Application granted granted Critical
Publication of RU2606312C2 publication Critical patent/RU2606312C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Circuits Of Receivers In General (AREA)

Abstract

Изобретение направлено на формирование речевого сигнала с заданными характеристиками. Технический результат заключается в повышении естественности, разборчивости речи и ее эмоциональной окраски при генерации речевого сигнала при уменьшении вычислительной сложности за счет усовершенствования структуры элементов системы синтеза речи и разделения используемых баз данных. Устройство синтеза речи на основе текста, содержит блок, принимающий текстовую строку и формирующий из нее последовательность идентификаторов звуковых единиц, подаваемую в блок формирования звукового сигнала, а затем в блок воспроизведения. В блок формирования звукового сигнала параллельно подаются дополнительные команды управления, вырабатываемые из сформированной последовательности идентификаторов звуковых единиц блоком формирования управляющих команд, зависящих от языка, блоком формирования управляющих команд, зависящих от моделируемых параметров диктора, а именно параметров голоса и/или его физических и физиологических параметров, и блоком формирования управляющих параметров окраса голоса, настроенных на определенное психофизиологическое состояние, предназначенных для формирования управляющих параметров для коррекции интенсивности речевого сигнала. 1 з.п. ф-лы, 1 ил.

Description

Изобретение относится к речевой информатике и приборостроению для синтеза речи по печатному тексту для вывода из ЭВМ.
Известным способом синтезирования речи по печатному тексту является компиляционный синтез речи. Синтез речи по этому способу обеспечивается путем компиляции фрагментов заранее записанных речевых сигналов, их обработки и последовательного воспроизведения [1, 2, 3].
Недостатками этого способа является необходимость хранения участков речевых сегментов в виде базы данных, сложность «стыкования» различных речевых участков при коартикуляции звуков речи, а также значительная трудоемкость при изменении параметров голоса. Как правило, для этого требуется новая база данных речевых сегментов.
Известен способ синтеза речи [4], ориентированный на повышение естественности, разборчивости речи при генерации речевого сигнала при уменьшении вычислительной сложности за счет усовершенствования структуры элементов системы синтеза речи и разделения используемых баз данных, являющийся аналогом данного патента. Недостатком данного способа является необходимость хранения в базе данных диктора нескольких вариантов его психофизиологического состояния, которые существенно влияют на окрас речевого сигнала.
Известен способ синтеза речи [5] с улучшением качества синтезируемой речи за счет точной передачи интонации. Технический результат в данном способе достигается тем, что выделяют в тексте, по меньшей мере, одну часть, определяют интонацию каждой части, ставят в соответствие каждой части целевые речевые звуки, определяют физические параметры целевых речевых звуков, находят в речевой базе речевые звуки, наиболее близкие по физическим параметрам к целевым речевым звукам, синтезируют речь в виде последовательности из найденных речевых звуков, причем физические параметры указанных целевых речевых звуков определяют в соответствии с определенной интонацией. Недостатком данного способа является необходимость хранения значительных объемов информации по каждому аллофону и необходимость поиска по данной базе данных, а также сложность психофизиологической окраски голоса.
Известен способ автоматизированной обработки текста и компьютерное устройство для реализации этого способа [6]. Техническим результатом данного способа является повышение качества, увеличение скорости обработки и уменьшение количества информационных ресурсов. Указанный результат достигается тем, что способ включает в себя объединение слов в синтагмы с простановкой символов пауз в конце синтагм с последующим транскрибированием синтагм для получения идеальных транскрипций синтагм в терминах фонем и аллофонов. Затем дополнительно формируют базу данных эталонных аллофонов, сравнивают совпадение аллофонов идеальных транскрипций синтагм с эталонными аллофонами и исключают аллофоны идеальных транскрипций синтагм, не совпадающие с эталонными аллофонами. По аллофонам идеальных транскрипций синтагм, совпадающим с эталонными аллофонами, формируют сбалансированные синтагмы текста - имеющие наибольшее число совпадений аллофонов идеальных транскрипций синтагм с эталонными аллофонами. Недостатком данного способа является сложность модификации идеальных аллофонов для формирования психофизиологической окраски голоса, а также необходимость хранения излишней информации об аллофонах.
Известно устройство [7], которое осуществляет ввод теста в текстовый процессор, соединенный с устройствами выбора «мультиволн», которые вместе формируют речевой сигнал. Достоинством данного способа является относительно небольшое количество речевых сегментов («мультиволн», звуковых волн), т.е. база данных значительно меньше по сравнению с базой данной, используемой при компилятивном синтезе. Недостатком мультиволнового синтеза является значительная вычислительная сложность при получении итогового речевого сигнала, возникающая при обработке получающегося речевого сигнала.
Русская речь имеет широкий диапазон изменений по просодической и артикуляционной составляющей, что не позволяет использовать в полной мере способы и устройства синтеза иноязычной речи. Получающая речь при использовании этих способов и устройств, как правило, является неестественной, либо существенно ограничена в вариативности произносимого голоса. Кроме того, как правило, разработчики систем не учитывают вариативность психофизиологической окраски голоса. Необходимо разработать такое устройство, которое при функционировании учитывало бы орфоэпические особенности русского языка, с одной стороны, и, с другой стороны, позволяло моделировать произношение конкретного диктора, и имело бы возможность психофизиологической окраски речи, генерируемой ЭВМ.
Известно [7, 8, 9], что качество синтезирования речи по печатному тексту может быть улучшено за счет изменения структуры системы синтеза речи.
Цель изобретения - повышение естественности и разборчивости речи, обусловленной увеличением вариативности темпа, тембра, психофизиологической окраски и других особенностей синтезируемого речевого сигнала, при уменьшении вычислительной сложности за счет усовершенствования структуры элементов устройства синтеза речи по печатному тексту и разделения используемых баз данных и параметров процесса генерации речи.
Это достигается тем, что в предлагаемом устройстве производят раздельное формирование управляющих сигналов для блока формирования звукового сигнала. При этом один из блоков учитывает особенности языка и, по сути, является формирователем основы речевого сигнала, а два остальных используются для формирования коррекционных команд над результатом работы первого блока и основываются на принятой модели диктора.
Сущность предлагаемого устройства представлена на Фиг. Устройство состоит из следующих блоков: 1 - текстовый процессор; 2 - блок формирования последовательности акустических единиц, зависящих от языка; 3 - блок формирования управляющих команд, зависящих от моделируемого диктора; 4 - блок формирования управляемых параметров окраса голоса, зависящих от необходимого психофизиологического окраса речевого сигнала; 5 - блок формирования звукового сигнала; 6 - блок воспроизведения.
Текстовый процессор (1) осуществляет функции нормализации текста, фонетического транскрибирования, разметки длительностей и фразовых ударений. Блок (2) формирования последовательности акустических единиц, зависящих от языка, выбирает базовые акустические сегменты, которые являются базовыми для речевого сигнала. Блок (3) формирования управляющих команд, зависящих от моделируемого диктора, формирует команды управления, которые будут корректировать звуковые единицы в соответствии с моделью диктора. Блок (4) формирования управляемых параметров окраса голоса, настроенных на определенное психофизиологическое состояние (гнев, радость, счастье, удивление, спокойствие и др.), формирует управляемые параметры для коррекции генерируемого речевого сигнала. Блок формирования звукового сигнала (5) выполняет операции формирования элементов управления параметрами воспроизведения в зависимости от способа синтеза (компилятивный, артикуляционный, фонемный), действия проводятся на последовательности акустических сегментов по командам, зависящим от диктора и последовательности идентификаторов звуковых единиц в соответствии с параметрами окраса голоса. Блок воспроизведения (6) воспроизводит синтезированную речь.
Предлагаемое устройство работает следующим образом. Информация после текстового процессора (1), освобожденная от цифр и знаков пунктуации, представляет собой последовательность идентификаторов звуковых единиц. Эта последовательность поступает на вход блока (2) формирования управляющих команд, зависящих от языка. Этот блок выбирает звуковые единицы акустических сегментов (или их аналогов - мультиволн, аллофонов, фонем, дифонов и пр.) из базы данных (2.А), соответствующие заданном языку и его особенностям: коэффициенты длительностей, мощностей звуков, а также интонационным параметрам. Одновременно с этим последовательность идентификаторов звуковых единиц поступает на вход блока (3) формирования управляющих команд, зависящих от моделируемого диктора. Этот блок выбирает параметры управления из базы данных (3.Р), соответствующие заданным параметрам голоса: полу диктора, высоте, темпу, ритму, мощности, индивидуальной ритмомелодической картине (в том числе при артикуляционном синтезе - физические и физиологические параметры диктора). В это же время в блоке (4) по поступающей последовательности идентификаторов звуковых единиц формируются параметры генерации (коррекции) речевого сигнала для его психофизиологического окраса путем выбора корректирующих параметров из базы данных (4.А). Последовательность идентификаторов звуковых единиц с блока (1) вместе со звуковыми единицами акустических сегментов с блока (2), управляющей информацией, полученной с блока (3), и параметрами окраса речевого сигнала (4) подаются на блок формирования звукового сигнала (5), где формируется итоговая сборка звукового сигнала по результатам работы блока (2) и коррекцией по результатам работы блоков (3) и (4), который поступает на блок воспроизведения (6).
Таким образом, при разделении баз данных и блоков управления по языку и диктору позволяет расширить диапазон изменения параметров синтезируемого речевого сигнала при одновременном сокращении количества вычислительных операций.
Использованные источники информации
1. Способ компиляционного фонемного синтеза русской речи и устройство для его реализации. Алперин Е.Д., Кнох В.Я. Патент RU 2298234, G10L 13/08, заявл. 21.07.2005, опубл. 27.04.2007.
2. Преобразование буквы в звук для синтезированного произношения сегмента текста. Чэнь Гуй-Линь, Хуан Цзянь-Чэн. Заявка на изобретение RU 2006114705, G10L 13/08, заявл. 17.09.2004, опубл. 10.11.2007.
3. Способ компиляционного фонемного синтеза русской речи и устройство для его реализации. Алперин Е.Д., Кнох В.Я. Заявка на изобретение RU 2005123222, G10L 15/00, заявл. 21.07.2005, опубл. 27.01.2007.
4. Способ синтеза речи и устройство для его реализации. Мещеряков Р.В. Заявка на изобретение RU 2009111740, G10L 13/08, заявл. 30.03.2009, опубл. 30.03.2009.
5. Способ синтеза речи. Хитров М.В. Патент на изобретение RU 2421827, G10L 13/08, заявл. 07.08.2009, опубл. 20.06.2011.
6. Способ автоматизированной обработки текста и компьютерное устройство для реализации этого способа. Бредихин А.Ю., Сергейчев Н.Е. Патент на изобретение RU 2460154, G10L 13/08, G06F 17/21, заявл. 15.06.2011, опубл. 27.08.2012.
7. Лобанов Б.М. Компьютерный синтез и клонирование речи / Б.М. Лобанов, Л.И. Цирюльник. - Минск: Белорус. наука, 2008. - 343 с.
8. Златоустова Л.В. Общая и прикладная фонетика / Л.В. Златоустова, Р.К. Потапова, В.Н. Трунин-Донской. - М.: Издательство МГУ, 1986. - 304 с.
9. Потапова Р.К. Речь: коммуникация, информация, кибернетика. - М.: Радио и связь. - 1997. - 528 с.

Claims (2)

1. Устройство синтеза речи на основе текста, содержащее блок, принимающий текстовую строку и формирующий из нее последовательность идентификаторов звуковых единиц, подаваемую в блок формирования звукового сигнала, а затем в блок воспроизведения, отличающееся тем, что в блок формирования звукового сигнала параллельно подаются дополнительные команды управления, вырабатываемые из сформированной последовательности идентификаторов звуковых единиц блоком формирования управляющих команд, зависящих от языка, блоком формирования управляющих команд, зависящих от моделируемых параметров диктора, а именно параметров голоса и/или его физических и физиологических параметров, и блоком формирования управляющих параметров окраса голоса, настроенных на определенное психофизиологическое состояние, предназначенных для формирования управляющих параметров для коррекции интенсивности речевого сигнала.
2. Устройство синтеза речи на основе текста по п. 1, отличающееся тем, что в качестве моделируемых параметров диктора используются пол диктора, высота, темп, ритм, мощность, индивидуальная ритмомелодическая картина.
RU2014148001A 2014-11-27 2014-11-27 Устройство синтеза речи RU2606312C2 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2014148001A RU2606312C2 (ru) 2014-11-27 2014-11-27 Устройство синтеза речи

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2014148001A RU2606312C2 (ru) 2014-11-27 2014-11-27 Устройство синтеза речи

Publications (2)

Publication Number Publication Date
RU2014148001A RU2014148001A (ru) 2016-06-20
RU2606312C2 true RU2606312C2 (ru) 2017-01-10

Family

ID=56131832

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014148001A RU2606312C2 (ru) 2014-11-27 2014-11-27 Устройство синтеза речи

Country Status (1)

Country Link
RU (1) RU2606312C2 (ru)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4685135A (en) * 1981-03-05 1987-08-04 Texas Instruments Incorporated Text-to-speech synthesis system
US5278943A (en) * 1990-03-23 1994-01-11 Bright Star Technology, Inc. Speech animation and inflection system
JP2002202789A (ja) * 2000-12-28 2002-07-19 Sharp Corp テキスト音声合成装置およびプログラム記録媒体
RU2298234C2 (ru) * 2005-07-21 2007-04-27 Государственное образовательное учреждение высшего профессионального образования "Воронежский государственный технический университет" Способ компиляционного фонемного синтеза русской речи и устройство для его реализации
RU2006114705A (ru) * 2003-09-29 2007-11-10 Моторола, Инк. (US) Преобразование буквы в звук для синтезированного произношения сегмента текста
RU2009111740A (ru) * 2009-03-30 2010-10-10 Роман Валерьевич Мещеряков (RU) Способ синтеза речи и устройство для его реализации

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4685135A (en) * 1981-03-05 1987-08-04 Texas Instruments Incorporated Text-to-speech synthesis system
US5278943A (en) * 1990-03-23 1994-01-11 Bright Star Technology, Inc. Speech animation and inflection system
JP2002202789A (ja) * 2000-12-28 2002-07-19 Sharp Corp テキスト音声合成装置およびプログラム記録媒体
RU2006114705A (ru) * 2003-09-29 2007-11-10 Моторола, Инк. (US) Преобразование буквы в звук для синтезированного произношения сегмента текста
RU2298234C2 (ru) * 2005-07-21 2007-04-27 Государственное образовательное учреждение высшего профессионального образования "Воронежский государственный технический университет" Способ компиляционного фонемного синтеза русской речи и устройство для его реализации
RU2009111740A (ru) * 2009-03-30 2010-10-10 Роман Валерьевич Мещеряков (RU) Способ синтеза речи и устройство для его реализации

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Л.И. ЦИРУЛЬНИК, "Автоматизированная система клонирования фонетико-акустических характеристик речи", Информатика, апрель-июнь 2006, N2, с. 46-55. *

Also Published As

Publication number Publication date
RU2014148001A (ru) 2016-06-20

Similar Documents

Publication Publication Date Title
JP7500020B2 (ja) 多言語テキスト音声合成方法
CN109949783B (zh) 歌曲合成方法及系统
US9195656B2 (en) Multilingual prosody generation
EP3504709B1 (en) Determining phonetic relationships
US8219398B2 (en) Computerized speech synthesizer for synthesizing speech from text
JP4189051B2 (ja) 発音測定装置および方法
CN109036377A (zh) 一种语音合成方法及装置
US9978359B1 (en) Iterative text-to-speech with user feedback
US20190130894A1 (en) Text-based insertion and replacement in audio narration
Qian et al. A cross-language state sharing and mapping approach to bilingual (Mandarin–English) TTS
Felps et al. Foreign accent conversion through concatenative synthesis in the articulatory domain
US20180247640A1 (en) Method and apparatus for an exemplary automatic speech recognition system
US9508338B1 (en) Inserting breath sounds into text-to-speech output
KR20160058470A (ko) 음성 합성 장치 및 그 제어 방법
JP2018146803A (ja) 音声合成装置及びプログラム
Aryal et al. Accent conversion through cross-speaker articulatory synthesis
Zhang et al. Extracting and predicting word-level style variations for speech synthesis
CN112382274A (zh) 音频合成方法、装置、设备以及存储介质
JP2017167526A (ja) 統計的パラメトリック音声合成のためのマルチストリームスペクトル表現
Bunnell et al. The ModelTalker system
RU2606312C2 (ru) Устройство синтеза речи
Ronanki et al. The CSTR entry to the Blizzard Challenge 2017
Evrard et al. Comparison of chironomic stylization versus statistical modeling of prosody for expressive speech synthesis.
Pitrelli et al. Expressive speech synthesis using American English ToBI: questions and contrastive emphasis
Li et al. Improving prosody for unseen texts in speech synthesis by utilizing linguistic information and noisy data

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20171128