RU2320026C2 - Преобразование буквы в звук для синтезированного произношения сегмента текста - Google Patents

Преобразование буквы в звук для синтезированного произношения сегмента текста Download PDF

Info

Publication number
RU2320026C2
RU2320026C2 RU2006114705/09A RU2006114705A RU2320026C2 RU 2320026 C2 RU2320026 C2 RU 2320026C2 RU 2006114705/09 A RU2006114705/09 A RU 2006114705/09A RU 2006114705 A RU2006114705 A RU 2006114705A RU 2320026 C2 RU2320026 C2 RU 2320026C2
Authority
RU
Russia
Prior art keywords
subwords
phonemes
word
sequence
phoneme
Prior art date
Application number
RU2006114705/09A
Other languages
English (en)
Other versions
RU2006114705A (ru
Inventor
Гуй-Линь ЧЭНЬ (CN)
Гуй-Линь ЧЭНЬ
Цз нь-Чэн ХУАН (CN)
Цзянь-Чэн ХУАН
Original Assignee
Моторола, Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Моторола, Инк. filed Critical Моторола, Инк.
Publication of RU2006114705A publication Critical patent/RU2006114705A/ru
Application granted granted Critical
Publication of RU2320026C2 publication Critical patent/RU2320026C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

Изобретение относится к области синтезирования речи из текста. Техническим результатом заявленного изобретения является акцентирование гласных в зависимости от других соседних букв и положения в синтезируемом сегменте текста. Технический результат достигается тем, что разделяют слово, выбранное из принятой текстовой строки, на подслова, образующие последовательность подслов, в которой, по меньшей мере, одно из подслов содержит, по меньшей мере, две буквы, а каждое из возможных подслов имеет заранее определенный вес, причем для создания последовательности подслов выбирают подслова с максимальными объединенными весами; определяют фонемы для подслов при помощи таблицы идентификаторов фонем; соединяют фонемы в последовательность фонем и выполняют синтезирование речи на основе последовательности фонем. 3 з.п. ф-лы, 6 ил.

Description

Изобретение в общем относится к синтезированию речи на основе текста (TTS-синтез). В частности, настоящее изобретение можно использовать для преобразования буквы в звук при синтезированном произношении сегмента текста.
Уровень техники
Преобразование текста в речь, часто называемое синтезированием речи на основе связного текста, позволяет электронным устройствам принимать вводимую текстовую строку и создавать преобразованное представление этой строки в виде синтезированной речи. Однако при работе устройства, которое может потребоваться для синтеза речи из недетерминированного числа принятых текстовых строк, могут возникнуть трудности при создании высококачественной и реалистичной синтезированной речи. Одна из трудностей основана на преобразовании буквы в звук, при котором одинаковые буквы или группы букв могут иметь различное звучание и характеризоваться различающимся ударением/акцентированием на гласных, в зависимости от других соседних букв и положения в синтезируемом сегменте текста.
В данном описании, включая пункты Формулы изобретения, предполагается, что термины "содержит", "содержащий" или аналогичные означают не исключающие включения, поэтому способ или устройство, которое содержит перечень элементов, не включает только эти элементы, а может также включать и другие элементы, которые не перечислены.
Раскрытие изобретения
Согласно одному из аспектов настоящего изобретения предлагается способ синтезирования речи на основе текста, и этот способ содержит следующие этапы:
- принимают текстовую строку и выбирают из нее, по меньшей мере, одно слово;
- разделяют упомянутое слово на подслова, образующие последовательность подслов, в которой, по меньшей мере, одно из подслов содержит, по меньшей мере, две буквы;
- определяют фонемы для упомянутых подслов;
- соединяют упомянутые фонемы в последовательность фонем; и
- выполняют синтезирование речи на основе упомянутой последовательности фонем.
Соответственно упомянутую последовательность подслов определяют путем анализа возможных подслов, которые могут составлять слово.
В предпочтительном случае каждое из возможных подслов имеет соответствующий заранее определенный вес.
Соответственно, для создания последовательности подслов выбирают подслова, образующие выбранное слово, с максимальными объединенными весами. Последовательность подслов надлежащим образом определяют из анализа ориентированного ациклического графа.
Соответственно, при определении фонем используют таблицу идентификаторов фонем, содержащую фонемы, соответствующие, по меньшей мере, одному упомянутому подслову.
В предпочтительном случае таблица идентификаторов также содержит указатель относительного положения, который указывает относительное положение подслова в упомянутом слове.
Кроме того, может существовать вес фонемы, связанный с указателем относительного положения.
Краткое описание чертежей
Чтобы облегчить понимание настоящего изобретения и его реализацию на практике, рассмотрим его предпочтительный вариант, описанный со ссылкой на сопровождающие чертежи, из которых:
- Фиг.1 представляет собой структурную схему электронного устройства, соответствующего настоящему изобретению;
- Фиг.2 представляет собой блок-схему способа синтезирования речи на основе текста;
- на Фиг.3 изображен ориентированный ациклический граф (DAG);
- Фиг.4 представляет собой часть таблицы отображения, которая ставит в соответствие фонемам символы;
- Фиг.5 представляет собой часть таблицы идентификаторов фонем; и
- Фиг.6 представляет собой часть таблицы пар гласных.
Осуществление изобретения
На Фиг.1 изображено электронное устройство 100, представляющее собой радиотелефон и содержащее процессор 102, соединенный посредством шины 103 с интерфейсом 104 пользователя, который в типичном случае представляет собой сенсорный экран, либо в качестве альтернативы - экран монитора и клавиатуру. Кроме того, электронное устройство 100 содержит фонд 106 произношения, синтезатор 110 речи, энергонезависимую память 120, постоянное запоминающее устройство (ПЗУ) 118 и блок 116 радиосвязи, которые соединены с процессором 102 посредством шины 103. Сигнал, создаваемый синтезатором 110 речи, поступает из него для озвучивания в громкоговоритель 112. Фонд 106 произношения включает представления слов, или фонемы, и соответствующие дискретизированные, оцифрованные и обработанные сигналы произношения. Другими словами, и как будет описано ниже, для синтезирования речи на основе текста используется энергонезависимая память 120 (блок памяти), при этом текст может приниматься блоком 116 радиосвязи, либо иным образом. Кроме того, упомянутый фонд произношения содержит дискретизированные и оцифрованные сигналы произношения в виде фонем и акцента/подчеркивания просодических особенностей.
Как очевидно специалисту данной области техники, блок 116 радиосвязи в типичном случае представляет собой объединенные приемник и передатчик, которые имеют общую антенну. Блок 116 радиосвязи содержит трансивер (приемопередатчик), соединенный с антенной через усилитель высокой частоты. Кроме того, трансивер соединен с объединенным модулятором/демодулятором, который соединяет блок 116 радиосвязи с процессором 102. Кроме того, в этом варианте реализации настоящего изобретения в энергонезависимой памяти 120 (блоке памяти) хранится телефонная книга, реализованная в виде создаваемой пользователем базы данных, а в ПЗУ 118 хранится рабочая программа для процессора 102 электронного устройства.
На Фиг.2 изображена блок-схема способа 200 синтезирования речи на основе текста. Выполнение способа начинается на начальном этапе 210, после которого выполняется этап 220 приема текстовой строки TS из энергонезависимой памяти 120. Текстовая строка TS может быть получена из текстового сообщения, принятого блоком 116 радиосвязи или любым другим средством. Этап 230 обеспечивает выбор, по меньшей мере, одного слова из упомянутой текстовой строки TS, а этап 240 обеспечивает разделение этого слова на подслова, образующие последовательность подслов, в которой, по меньшей мере, одно из подслов содержит, по меньшей мере, две буквы. Затем на этапе 250 выполняется определение фонем для упомянутых подслов. После чего на этапе 260 выполняется соединение фонем в последовательность фонем. Упомянутая последовательность подслов определяется путем анализа всех возможных подслов, которые могут составлять выбранное слово. Например, как схематично показано на ориентированном ациклическом графе, приведенном на Фиг.3, если выбранном словом было "mention", то этот граф построен с использованием всех возможных подслов, которые могут составлять выбранное слово "mention". Вместе с каждым подсловом приводится заранее определенный вес WT, например, как показано на данном чертеже, подслова "ment", "men" и "tion" соответственно имеют веса 88, 86 и 204. Таким образом, на этапе 260 соединения выполняется просмотр ориентированного ациклического графа и выбор подслов, имеющих максимальные объединенные (суммированные) веса WT, которые образуют выбранное слово. В случае слово "mention" будут выбраны подслова "men" и "tion".
На этапе 250 определение фонем используются две таблицы, хранящиеся в энергонезависимой памяти 120, одна из таблиц, часть которой изображена на Фиг.4, представляет собой таблицу отображения MT, которая ставит в соответствие фонемам определенные символы. Как показано на данном чертеже, фонема ае обозначается символом @, в то время как фонема th обозначается символом D. Другая таблица представляет собой таблицу PIT идентификаторов фонем, часть которой изображена на Фиг.5. Таблица PIT идентификаторов фонем содержит следующие поля: поле подслова, поле веса фонем, поле (поля) относительного положения или указатели относительного положения, и поле (поля) идентификаторов фонем. Например, первой строкой на Фиг.5 является аа 120 А_С, где аа представляет собой подслово, 120 является весом фонем, буква А представляет собой относительное положение и "С" представляет собой идентификатор фонем, соответствующий подслову аа. Относительное положение может обозначаться следующим образом: А - относится ко всем положениям, I - относится к подсловам в начале слова, М - относится к подсловам в середине слова и F - относится к подсловам в конце слова. Таким образом, этап 250 определения фонем можно выполнить, используя таблицу PIT идентификаторов фонем, и с учетом положения подслов в слове.
Веса фонем и веса на ориентированном ациклическом графе (заранее определенные веса WT) представляют собой одинаковые веса, полученные на основе Фиг.5. Эти веса были определены таким образом, что, если мы выбираем в качестве веса время возникновения, то одна подстрока имеет более высокий вес, чем сама строка. Как следствие, если мы выбираем в результате форму разделения с максимальным весом, то короткая морфемоподобная строка всегда является предпочтительной. Например, слово seeing будет разделено как s|ee|in|g вместо s|ee|ing. Но в итоге взаимосвязь между длинной строкой и последовательностью фонем является более надежной. Чтобы обеспечить высокий приоритет длинной морфемоподобной строки, мы учитываем следующие аспекты:
- Аффикс . Если одна короткая строка является префиксом или суффиксом длинной строки, мы добавляем ее время возникновения к этой длинной строке, но при этом другие подстроки не учитываются.
- Неоднозначность . В некоторых случаях одна морфемоподобная строка может соответствовать нескольким последовательностям фонем, например, en может произноситься как ehn и axn. Чтобы снизить неопределенность, мы используем такие положения строки, как начало слова, середина слова и окончание слова. Даже при этом условии морфемоподобная строка может соответствовать более чем одной последовательности фонем. Чтобы устранить эту проблему, мы выбираем последовательность фонем с максимальным временем возникновения и вычисляем отношение r следующим образом:
Figure 00000002
где u - индекс строки, а k - индекс положения.
Если r <α (α - пороговое значение, α=0,7), мы исключаем эту морфемоподобную строку. Например, окончание слова en может произноситься как ehn и axn, если общее время равно 1000 и если время, соответствующее axn, равно 800 (разумеется, это максимальное время), r =0,8. Следовательно, мы добавим окончание слова en в список.
- Минимальное время возникновения . Мы также задаем минимальное время возникновения min (min =9) в качестве порогового значения. Каждая строка, чье время возникновения меньше этого значения, отбрасывается.
При соблюдении этих ограничений мы присваиваем каждой строке вес W s следующим образом: W s= 10 ln N s, где N s - установленное время возникновения.
Затем в способе 200 выполняется этап 265 назначения ударения или подчеркивания фонемам, которые представляют гласные. На этом этапе происходит определение гласных из фонем, надлежащим образом определенных на предыдущем этапе 250. По существу, на этапе 265 происходит просмотр таблицы пар гласных с относительной силой/слабостью, которая хранится в энергонезависимой памяти 120. Часть этой таблицы пар гласных изображена на Фиг.6. Для примера рассмотрим три гласных, которые в слове могут быть идентифицированы как фонемы, эти гласные обозначены символами 'ax, aa и ае (полученными из таблицы отображения MT). Из анализа таблицы пар гласных видно, что если 'ax возникает ранее aa, то вес ударения равен 368, и наоборот - вес ударения равен 354, когда aa возникает ранее 'ax. Поэтому анализ таблицы пар гласных для 'ax, aa и ае дает следующие результаты: гласная, обозначенная символом ае, имеет первичное (наибольшее) ударение; гласная, обозначенная символом 'ax, имеет вторичное ударение; и гласная, обозначенная символом аа, не имеет ударения. По существу веса ударений определяются с использованием обучающего словаря. Каждая запись в этом словаре имеет формат слова и соответствующее ему произношение, включая ударение, границы слогов и соответствие букв фонемам. На основе этого словаря ударение определялось путем статистического анализа. В этом случае ударение отражает соотношение "сильная/слабая" между гласными. Таким образом, для генерации необходимых данных был проведен статистический анализ для всех записей в словаре. Если говорить более подробно, в пределах одного слова, если гласная v i является ударной, а гласная v j является безударной, мы присваиваем одно очко паре (v i,v j) и ноль очков паре (v j,v i). Если обе гласные являются безударными, то количество очков также составляет ноль.
После чего выполняется этап 270 проверки, чтобы определить, имеются ли еще слова в текстовой строке TS, которые необходимо обработать. Если да, то при выполнении способа 200 происходит возврат на этап 230, в противном случае на этапе 280 выполняется синтезирование речи на основе последовательности фонем. Синтезирование речи осуществляется синтезатором 110 речи на основе последовательности фонем для каждого из слов. После чего способ 200 завершается на окончательном этапе 290.
При выполнении синтезирования речи на этапе 280 также используется ударение на гласные (первичное, вторичное или без ударения, в зависимости от ситуации), чтобы обеспечить улучшенное качество синтезированной речи за счет подходящего акцентирования/подчеркивания.
Преимуществом настоящего изобретения является то, что оно улучшает или, по меньшей мере, смягчает звучание и акцентирование/подчеркивание гласных в зависимости от других соседних букв и положения в синтезируемом сегменте текста.
В приведенном выше подробном описании в качестве примера рассмотрен только предпочтительный вариант реализации настоящего изобретения и в этом описании не предполагается ограничения объема, сферы применения или структуры настоящего изобретения. Скорее данное подробное описание приведенного в качестве примера предпочтительного варианта реализации настоящего изобретения позволяет специалистам в этой области техники реализовать предложенный вариант на практике. Необходимо понимать, что различные изменения, сделанные применительно к функциям и структуре составляющих элементов, не будут выходить за пределы сущности и объема настоящего изобретения, определенного приложенной формулой изобретения.

Claims (4)

1. Способ синтезирования речи на основе текста, который содержит следующие этапы:
принимают текстовую строку и выбирают из нее, по меньшей мере, одно слово;
разделяют упомянутое слово на подслова, образующие последовательность подслов, в которой по меньшей мере одно из подслов содержит по меньшей мере две буквы, при этом последовательность подслов определяют путем анализа возможных подслов, которые могут составлять слово, а каждое из возможных подслов имеет соответствующий заранее определенный вес, причем для создания последовательности подслов выбирают подслова, образующие выбранное слово, с максимальными объединенными весами;
определяют фонемы для подслов при помощи таблицы идентификаторов фонем, содержащей фонемы, соответствующие по меньшей мере одному подслову;
соединяют фонемы в последовательность фонем; и
выполняют синтезирование речи на основе последовательности фонем.
2. Способ по п.1, в котором последовательность подслов определяют из анализа ориентированного ациклического графа.
3. Способ по п.1, в котором таблица идентификаторов фонем также содержит указатель относительного положения, который указывает относительное положение подслова в слове.
4. Способ по п.3, в котором таблица идентификаторов фонем также содержит вес фонемы подслова, указанный указателем относительного положения.
RU2006114705/09A 2003-09-29 2004-09-17 Преобразование буквы в звук для синтезированного произношения сегмента текста RU2320026C2 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN03132709.5 2003-09-29
CNB031327095A CN1308908C (zh) 2003-09-29 2003-09-29 用于文字到语音合成的方法

Publications (2)

Publication Number Publication Date
RU2006114705A RU2006114705A (ru) 2007-11-10
RU2320026C2 true RU2320026C2 (ru) 2008-03-20

Family

ID=34398362

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2006114705/09A RU2320026C2 (ru) 2003-09-29 2004-09-17 Преобразование буквы в звук для синтезированного произношения сегмента текста

Country Status (6)

Country Link
EP (1) EP1668629B1 (ru)
KR (1) KR100769032B1 (ru)
CN (1) CN1308908C (ru)
DE (1) DE602004019949D1 (ru)
RU (1) RU2320026C2 (ru)
WO (1) WO2005034083A1 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2692051C1 (ru) * 2017-12-29 2019-06-19 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для синтеза речи из текста

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8234116B2 (en) 2006-08-22 2012-07-31 Microsoft Corporation Calculating cost measures between HMM acoustic models
KR100935014B1 (ko) * 2008-01-29 2010-01-06 고려대학교 산학협력단 미술치료의 문양 색칠 분석에 따른 증상 예측 방법 및 이를수행하는 프로그램이 기록된 기록매체
US9472182B2 (en) * 2014-02-26 2016-10-18 Microsoft Technology Licensing, Llc Voice font speaker and prosody interpolation
RU2606312C2 (ru) * 2014-11-27 2017-01-10 Роман Валерьевич Мещеряков Устройство синтеза речи
CN105895076B (zh) * 2015-01-26 2019-11-15 科大讯飞股份有限公司 一种语音合成方法及系统
CN105895075B (zh) * 2015-01-26 2019-11-15 科大讯飞股份有限公司 提高合成语音韵律自然度的方法及系统
CN109002454B (zh) * 2018-04-28 2022-05-27 陈逸天 一种确定目标单词的拼读分区的方法和电子设备
CN109376358B (zh) * 2018-10-25 2021-07-16 陈逸天 一种借用历史拼读经验的单词学习方法、装置和电子设备
CN112352275A (zh) * 2018-12-13 2021-02-09 微软技术许可有限责任公司 具有多级别文本信息的神经文本到语音合成
CN112786002B (zh) * 2020-12-28 2022-12-06 科大讯飞股份有限公司 一种语音合成方法、装置、设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5748840A (en) * 1990-12-03 1998-05-05 Audio Navigation Systems, Inc. Methods and apparatus for improving the reliability of recognizing words in a large database when the words are spelled or spoken
GB2290684A (en) * 1994-06-22 1996-01-03 Ibm Speech synthesis using hidden Markov model to determine speech unit durations
KR100236961B1 (ko) * 1997-07-23 2000-01-15 정선종 단어의 음소 구조에 따른 단어 그룹 형성 방법
US6064960A (en) * 1997-12-18 2000-05-16 Apple Computer, Inc. Method and apparatus for improved duration modeling of phonemes
US6347295B1 (en) * 1998-10-26 2002-02-12 Compaq Computer Corporation Computer method and apparatus for grapheme-to-phoneme rule-set-generation
JP2002535728A (ja) * 1999-01-05 2002-10-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ サブワードメモリを含む音声認識装置
KR100373329B1 (ko) * 1999-08-17 2003-02-25 한국전자통신연구원 음운환경과 묵음구간 길이를 이용한 텍스트/음성변환 장치 및그 방법
US6634300B2 (en) * 2000-05-20 2003-10-21 Baker Hughes, Incorporated Shaped charges having enhanced tungsten liners
US8744835B2 (en) * 2001-03-16 2014-06-03 Meaningful Machines Llc Content conversion method and apparatus
US7143353B2 (en) * 2001-03-30 2006-11-28 Koninklijke Philips Electronics, N.V. Streaming video bookmarks
GB0113587D0 (en) * 2001-06-04 2001-07-25 Hewlett Packard Co Speech synthesis apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2692051C1 (ru) * 2017-12-29 2019-06-19 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для синтеза речи из текста
US10685644B2 (en) 2017-12-29 2020-06-16 Yandex Europe Ag Method and system for text-to-speech synthesis

Also Published As

Publication number Publication date
EP1668629A1 (en) 2006-06-14
KR20060056404A (ko) 2006-05-24
WO2005034083A1 (en) 2005-04-14
DE602004019949D1 (de) 2009-04-23
CN1604184A (zh) 2005-04-06
EP1668629A4 (en) 2007-01-10
CN1308908C (zh) 2007-04-04
KR100769032B1 (ko) 2007-10-22
RU2006114705A (ru) 2007-11-10
EP1668629B1 (en) 2009-03-11

Similar Documents

Publication Publication Date Title
JP4473193B2 (ja) 混合言語テキスト音声合成方法および音声合成装置
RU2319221C1 (ru) Идентификация естественных речевых пауз в текстовой строке
US8126714B2 (en) Voice search device
US6778962B1 (en) Speech synthesis with prosodic model data and accent type
KR100769029B1 (ko) 다언어의 이름들의 음성 인식을 위한 방법 및 시스템
EP1168299A2 (en) Method and system for preselection of suitable units for concatenative speech
CN112309366A (zh) 语音合成方法、装置、存储介质及电子设备
RU2320026C2 (ru) Преобразование буквы в звук для синтезированного произношения сегмента текста
KR100593757B1 (ko) 외국어 학습효율을 향상시키는 외국어 학습장치 및 이를이용한 온라인 외국어 학습시스템
KR20150105075A (ko) 자동 통역 장치 및 방법
JP2000056789A (ja) 音声合成装置及び電話機
EP1668630B1 (en) Improvements to an utterance waveform corpus
JP3366253B2 (ja) 音声合成装置
KR101777141B1 (ko) 한글 입력 키보드를 이용한 훈민정음 기반 중국어 및 외국어 입력 장치 및 방법
JPH09237096A (ja) 漢字説明方法及び装置
KR100554950B1 (ko) 한국어 대화체 음성합성시스템의 특정 형태에 대한 선택적운율 구현 방법
KR200412740Y1 (ko) 외국어 학습효율을 향상시키는 외국어 학습장치 및 이를이용한 온라인 외국어 학습시스템
JP3058439B2 (ja) 規則音声合成装置
JP3414326B2 (ja) 音声合成用辞書登録装置及び方法
JP5125404B2 (ja) 省略語判定装置、コンピュータプログラム、テキスト解析装置及び音声合成装置
JP2001331191A (ja) 音声合成装置および音声合成方法、携帯端末器、並びに、プログラム記録媒体
KR20010085219A (ko) 서브단어 메모리를 포함하는 음성인식 장치
JP4445371B2 (ja) 認識語彙の登録装置と音声認識装置および方法
CN114327090A (zh) 日文输入方法以及相关装置、设备
JP2006284700A (ja) 音声合成装置および音声合成処理プログラム

Legal Events

Date Code Title Description
PC41 Official registration of the transfer of exclusive right

Effective date: 20110310

MM4A The patent is invalid due to non-payment of fees

Effective date: 20180918