JP2003122387A - 読み上げシステム - Google Patents

読み上げシステム

Info

Publication number
JP2003122387A
JP2003122387A JP2001313456A JP2001313456A JP2003122387A JP 2003122387 A JP2003122387 A JP 2003122387A JP 2001313456 A JP2001313456 A JP 2001313456A JP 2001313456 A JP2001313456 A JP 2001313456A JP 2003122387 A JP2003122387 A JP 2003122387A
Authority
JP
Japan
Prior art keywords
voice
data
phoneme
reading system
synthesized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001313456A
Other languages
English (en)
Inventor
Kazunori Hayashi
和典 林
Masaru Mase
優 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001313456A priority Critical patent/JP2003122387A/ja
Publication of JP2003122387A publication Critical patent/JP2003122387A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 複数の登場人物がある小説の場合、どの人物
のセリフでも同じ音声キャラクタで朗読すると、ユーザ
にとってはリアリティーに欠けるという問題があった。 【解決手段】 本発明は、サーバー手段においては音素
データベースと、音声合成目的のデータ(例えば小説等
のテキストデータ)と、音声合成目的のデータを解析し
て音素データベースを選択する音素データベース選択処
理部と、音声合成処理部とを備え、音声合成済みの合成
音声データを入力する合成音データ入力手段と合成音声
を出力する音声出力手段から構成される端末装置を前記
サーバー手段に接続する構成としたものであり、音声合
成目的の各部分にそれぞれ異なった音声キャラクタを割
り当てることができるので、登場人物のセリフ毎等に異
なった音声キャラクタを割り当てる事により、よりリア
ルな朗読を聞く事ができる。

Description

【発明の詳細な説明】
【発明の属する技術分野】本発明は音声合成目的のデー
タ、例えば小説等のテキストデータを音声出力する読み
上げシステムに関する。
【従来の技術】従来、電子メールやワープロ等のテキス
トデータを音声に変換し、外部に出力する装置として
は、記憶容量の豊富さや処理能力の高さ、及びネットワ
ーク機能の充実さ等からパーソナルコンピュータにて実
現していた。しかしながらテキストデータを音声変換す
るのみの機能であれば、コストパフォーマンスに欠ける
等の問題がある。また出力される音声も男性や女性とい
った一般的なものであり、必ずしもユーザが所望する声
色での音声出力ではないので、ユーザが聴いていて楽し
さを感じにくい面があった。特開平7−140999号
公報には、人間の発声に近い合成音声を生成することが
できる音声合成装置及び音声合成方法が開示されてい
る。すなわち、辞書の中に読み仮名、アクセント型等の
情報をととも、アクセント指令値及び又は音韻継続時間
長情報を予め用意しておき、音韻の継続時間長を用いて
音素片データのパラメータ列を生成し、それらを基に音
声波形を合成することにより、人間の発声に一段と近い
合成音声を出力するものである。また特開平11−14
3483号公報には、パソコン、ワープロ、ゲーム機な
どを利用する際の合成音声の発生について、特にユーザ
が任意でかつ多様な合成音声を選ぶことが可能な手段を
実現するシステムが開示されている。パーソナルコンピ
ュータを歩きながら使用するには、大きさ、重量の問題
から大変不便であるし、その操作も容易とは言い難い。
この点を解決するものとして、例えば特開平6−337
774号公報には、情報処理装置への取り付け取り外し
が簡単で、小型の情報処理装置(小型パーソナルコンピ
ユータ等)にも内蔵でき、且つ小型軽量で持ち運びがで
きると共に単体でも文章読み上げ機能を持つICカード
形態の文章読み上げシステムが記載されている。
【発明が解決しようとする課題】以上のように従来か
ら、音韻の継続時間長、韻律情報及びアクセント指令値
に基づいて人間の発声に近い合成音声を出力するものは
考えられているが、例えば文学作品を朗読させた場合、
真に感動を与え、ユーザを楽しませるものとは限らな
い。すなわち1種類の音声データベースでは、例えば複
数の登場人物がある小説の場合、どの人物のセリフでも
同じ音声キャラクタで朗読されることになってしまうた
め、ユーザにとってはリアリティーに欠けるという問題
があった。本発明はこれらの問題を解決する為に、 音
声合成目的データの各部分、例えば登場人物のセリフや
ナレーション部分等の音声合成処理においてユーザが所
望するキャラクタ音声での音声出力を行なうことが可能
な読み上げシステムを提供するものである。
【課題を解決するための手段】以上の課題を解決するた
めに本発明は、サーバー手段においては人の音声の最小
構成要素(音素)をデータ化した音素データベースと、
音声合成目的のデータ、例えば小説等のテキストデータ
と、音声合成目的のデータを解析し、音素データベース
を選択する音素データベース選択処理部と、音声合成目
的のデータを解析し、そのデータ毎に最適な音素を抽出
して繋ぎあわせる音声合成処理部と、音声合成処理部が
作成した合成音声データをユーザに配信する通信処理部
を備え、音声合成済みの合成音声データを入力する合成
音データ入力手段と合成音声を出力する音声出力手段か
ら構成される端末装置を前記サーバー手段に接続する構
成とした。したがって例えば、小説等のテキストデータ
を音声合成する場合は登場人物のセリフ毎に異なった音
素データベースを割り当てて音声合成を行う事でその合
成音声は登場人物毎に音声キャラクタが変わるので、ユ
ーザはよりリアルな感覚を持ちながら合成音声を聴くこ
とができる。
【発明の実施の形態】請求項1記載の発明は音声の最小
構成要素を音素と定め、その個性を持つ音素をデータ化
した音素データベースと音声合成目的のデータ、例えば
小説等のテキストデータと、音声合成目的のデータを解
析し、音声合成に用いる音素データベースを選択する音
素データベース選択処理部と、音声合成目的のデータを
解析し、そのデータ毎に最適な音素を抽出して繋ぎあわ
せる音声合成処理部と、音声合成処理部が作成した合成
音声データをユーザに配信する通信処理部から構成され
るサーバー手段と、音声合成済みの合成音声データを入
力する合成音データ入力手段と合成音声を出力する音声
出力手段から構成される端末装置から成る読み上げシス
テムであり、ユーザは小説等のテキストデータの朗読を
よりリアルな感覚で聴くことができる。 (実施の形態)請求項1記載の読み上げシステムについ
て図1から図3を用いて説明する。図2は請求項1記載
の読み上げシステムの概略説明図である。図1および図
2において、(201)は合成音データ入力手段とアンプ、
スピーカ等を含んだ音声出力手段を備えた端末装置本体
である。ここでの合成音データ入力手段とは、モデム等
のネットワークインターフェースや光ディスク、磁気デ
ィスク、メモリーカード等である記録媒体のデータ入力
が可能な記憶装置のインターフェースである。(202)は
合成音データ等を格納し、端末装置本体(201)とは脱着
可能なメモリーカードや光ディスク及び磁気ディスク等
の記憶装置である。図3すにおいて、(203)はサーバー
手段から配信される合成音声データである。(204)はユ
ーザから指定された音声合成目的データと音声キャラク
タの音素データベースを用いて音声合成を行い、合成音
声データをユーザに配信するインターネット上のサーバ
ー手段である。例えばユーザは端末装置本体(201)を通
じて、インターネット上のサーバー手段(204)と通信
し、サーバー手段(204)に登録されている音声合成目的
データを選択して、さらに選択した音声合成目的データ
の各データ範囲、例えば音声合成目的データが小説等で
あれば各登場人物のセリフ部分の音声合成に用いる音声
キャラクタを選択する。サーバー手段(204)は選択され
た音声キャラクタの音素データベースを用いて、音声合
成目的データの音声合成を行い、その合成音声データを
通信手段を用いて、ユーザに配信する。ユーザはサーバ
ー手段(204)から配信された合成音声データを合成音デ
ータ入力手段を用いて端末装置本体(201)に取り込み、
再生することで所望の音声キャラクタでの合成音声を聴
くことができる。なお、サーバー手段(204)は必ずしも
インターネット上に無くてもよく、オフラインにてユー
ザからの要求を電話やFAX、郵便や人手で受け付け、合
成音声データを光ディスクや磁気ディスク、メモリーカ
ード等の記憶媒体に記録してユーザに配信してもよい。
図1は請求項1記載の読み上げシステムのブロック図で
ある。(201)は端末装置本体、(202)は記憶装置である。
(204)はサーバー手段(204)である。まずサーバー手段(2
04)の各ブロックの説明を行う。サーバー手段(204)にお
いて、(100)はサーバー制御部であり、サーバー手段全
体の制御を行う。(101)は音声合成処理部であり、音
声合成目的のデータの解析を行って、各データに最適な
音素データを抽出し連結する。(102)は音素データベー
ス選択処理部であり、音声合成目的のデータを解析し、
音声キャラクタを適用するデータ範囲を抽出して、各デ
ータ範囲の音声合成に用いる音素データベースを選択す
る。(103)はサーバー通信処理部であり、音声合成され
た合成音データをユーザに配信したり、ユーザとのイン
ターフェースを行う。(104)はサーバー記憶部であり、
サーバー手段全体の制御を行うプログラムの保管やデー
タ処理の際の作業領域として用いられる。(105)は音声
合成目的のデータを記録する合成目的データ記録部であ
り、(106)は音声キャラクタの音素データベースを記録
する音素データベース記録部である。音素データベース
は、実在の人物の肉声をサンプリングし、そのサンプリ
ングデータをデータベース化したものであり、出力され
る音声合成音の音色を決定する重要な要素となる。次に
端末装置本体(201)の各ブロックの説明を行う。端末装
置本体(201)において、(107)は端末制御部であり装置内
の各部とデータのやり取りを行い、装置全体の制御を行
う。(108)は音声出力部であり、合成音データのフォー
マット変換を行い、スピーカまたはヘッドフォンに出力
する。 (109)は合成音データ入力手段の一つである記憶
装置I/F部であり、記憶装置へのデータを読み書きす
る。(110)は端末記憶部であり、装置全体のプログラム
の格納や様々な処理の作業領域として用いられる。(11
1)は操作部であり、これを通じユーザは装置に自分の指
示を与える。(112)は表示部であり、装置の動作状態等
をユーザに表示する。(113)は合成音データ入力手段の
一つである端末通信処理部であり、サーバー装置から送
られてくる合成音データを受信したり、サーバー手段(2
04)と端末装置本体(201)のインターフェースを行う。(1
14)は装置に電源を供給する為の電源部である。次に合
成音データ入力手段の一つである記憶装置の各ブロック
の説明を行う。(120)は端末装置I/F部であり、記憶
装置I/F(109)と共に端末装置本体(201)とデータのや
り取りを行う。(121)は記憶装置内部に記憶された合成
音データである。次に本システムの詳細な動作説明を行
う。図3は本発明の読み上げシステムにおける動作フロ
ーチャートである。ユーザが端末装置本体(201)の操作
部(111)を用いてサーバー手段(204)との接続操作を行う
と、端末通信処理部(113)はサーバー手段(204)と接続を
行う。そしてユーザは小説等の音声合成目的データの選
択要求を行う(s301)。端末装置本体(201)からの選択要
求はサーバー通信処理部を通じ、サーバー手段(204)に
取り込まれ、サーバー制御部(100)は端末装置本体(201)
からの音声合成目的データの要求を認識する(s302)。次
にサーバー制御部(100)は合成目的データ記録部内にあ
る音声合成可能な合成目的データのリスト情報作成し、
その情報を選択要求してきた端末装置本体(201)に送る
(s303)。端末装置本体(201)の端末制御部(107)はサーバ
ー手段(204)から送られてきたリスト情報を認識して、
その表示部(112)に表示する(s304)。そしてユーザは端
末装置本体(201)の操作部(111)を用いて所望する音声合
成目的データを選択決定する(s305)。次にサーバー制御
部(100)はユーザから選択決定された音声合成目的デー
タを認識し(s306)、該当のデータを合成目的データ記録
部から読み出して、サーバー記憶部(104)に記録する。
次に音素データベース選択手段は音声合成目的のデータ
をサーバー記憶部(104)から読み出しながら解析を行
い、各々の音素データベースを適用するデータの範囲を
抽出する(s307)。例えば音声合成目的のデータが小説の
テキストデータの場合は、登場人物のセリフ部分やナレ
ーション部分等にデータ範囲を分け、その結果をサーバ
ー制御部(100)に伝える。次にサーバー制御部(100)は音
素データベース記録部内にある音声キャラクタのリスト
情報を作成し、そのデータと共に音素データベース選択
処理部から受け取った結果を端末装置本体(201)に送信
する(s308)。端末制御部(107)はサーバー手段(204)から
受け取ったデータ範囲情報を認識(s309)し、例えば「次
の部分に適用する音声キャラクタを選択してください。
1.登場人物Aセリフ 2.登場人物Bセリフ 3.登場人物Cセ
リフ 4.ナレーション」等のように表示部(112)に表示
する。また同時に音声キャラクタのリスト情報も表示す
る。そしてユーザは操作部(111)を用いて、各データ範
囲に適用する音声キャラクタを選択決定する(s310)。ユ
ーザは場合によっては複数の人物を指定することが可能
であり、例えば小説の中の複数の登場人物毎に音声キャ
ラクタを変えて指定することもある。次にサーバー制御
部(100)はユーザから選択決定された各データ範囲に適
用する音声キャラクタを認識(s311)し、音素データベー
ス選択処理部に結果を伝える。音素データベース選択処
理部はこの結果を基に音声合成目的データの各音素デー
タベースを適用する部分に対して、識別記号を混在させ
(s312)、音声合成処理部(101)がどの音声キャラクタの
音素データベースを使用すればよいのかを判別できるよ
うにして結果をサーバー記憶部(104)に記録する。すな
わち、音声合成目的データの中で部分毎に適切な音声キ
ャラクタを示す識別記号が加えられる。これにより、音
声合成処理時には、音声合成処理部(101)は音声合成目
的データの中の部分ごとに適切な音声キャラクタの音素
データベースを使用して音声合成を行い、例えば小説で
あれば登場人物のセリフ毎にキャラクタを変えて音声合
成することができ、よりリアルな読み上げを実現するこ
とができる。もちろん音素データベース選択処理部にお
いての各音素データベースを適用させるデータ範囲の分
け方は前記のような登場人物のセリフ毎であったり、あ
るいは章毎や行毎であったりしても良く、その分け方は
音声合成目的のデータ内容にも依存するので限定はしな
い。次にサーバー制御部(100)は音声合成処理部(101)に
処理を開始させる。音声合成処理部(101)はサーバー記
憶部(104)から音素データベース選択処理部が処理した
データを順次読み出し、識別記号に基づき使用する音声
キャラクタの音素データベースを選択し、同時に音声合
成目的のデータを分析して、各データに最も適する音素
データをサーバー記憶部(104)または音素データベース
記録部から読み出して、繋ぎ合わせ合成音データを作成
する(s313)。サーバー制御部(100)は音声合成処理部(10
1)が作成した合成音データをサーバー通信通信処理部を
通じて、ユーザに配信する(s314)。サーバー手段(204)
から配信された合成音データは端末通信処理部(113)を
通じて、端末装置本体(201)内の端末記憶部(110)または
記憶装置に記録される。そしてユーザが操作部(111)を
通じて再生の操作を行うと、合成音データが端末記憶部
(110)または記憶装置から読み出されて音声出力部(108)
に渡される。音声出力部(108)はデータのフォーマット
変換を行い、合成音声をスピーカーまたはヘッドフォン
に出力する(s315)。なお、端末通信処理部(113)が端末
装置本体(201)に搭載されたものであるが、通信処理
部を記憶装置(202)に搭載し、ネットワーク上にあるサ
ーバー装置からデータをダウンロードして記憶装置に記
憶するようにしても良い
【発明の効果】以上のように本発明は、ユーザは端末装
置をサーバー手段に繋げ、端末装置より操作部を操作し
て音声合成目的のデータを決定し、さらに音声キャラク
タを決定することによりサーバー手段に音声合成処理を
行わせ、サーバー手段より音声合成データを端末装置に
取り込むことで、端末装置より音声合成音を聞くことが
できる。さらに音声合成目的の各部分にそれぞれ異なっ
た音声キャラクタを割り当てることができ、所望するキ
ャラクタ音声でテキストデータの朗読を楽しみながら聴
くことができ、例えば音声合成目的のデータが小説等の
テキストデータであった場合は、登場人物のセリフ毎等
に異なった音声キャラクタを割り当てる事で、各登場人
物のセリフが別々のキャラクタ音声にて読み上げられ、
よりリアルな朗読を聞く事ができる。
【図面の簡単な説明】
【図1】本発明の読み上げシステムを構成するサーバー
手段および端末装置本体,記憶装置のブロック図
【図2】本発明の読み上げシステムの概略説明図
【図3】本発明の読み上げシステムにおける動作フロー
チャート
【符号の説明】
(100) サーバー制御部 (101) 音声合成処理部 (102) 音素データベース選択処理部 (103) サーバー通信処理部 (104) サーバー記憶部 (105) 合成目的データ記録部 (106) 音素データベース記録部 (107) 端末制御部 (108) 音声出力部 (109) 記憶装置I/F部 (110) 端末記憶部 (111) 操作部 (112) 表示部 (113) 端末通信処理部 (114) 電源部 (120) 端末装置I/F部 (121) 合成音データ (201) 端末装置本体 (202) 記憶装置 (203) 合成音声データ (204) サーバー手段

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】人の音声の最小構成要素である音素をデー
    タ化した音素データベースと、音声合成に用いる音素デ
    ータベースを選択する音素データベース選択処理部と、
    音声合成目的のデータを解析し、そのデータ毎に最適な
    音素を抽出して繋ぎあわせ、合成音声データを作成する
    音声合成処理部と、、音声合成処理部が作成した合成音
    声データをユーザに配信する通信処理部から構成される
    サーバー手段と、合成済みの合成音声データを入力する
    合成音データ入力手段と、合成音声を出力する音声出力
    手段から構成される端末装置から成る読み上げシステ
    ム。
  2. 【請求項2】音素は「あ」や「い」、「か」や「き」と
    いった母音や子音の組み合わせから成る音であることを
    特徴とする請求項1記載の読み上げシステム。
  3. 【請求項3】音素は連続する音声の最小単位である単音
    (例えば「秋(あき)」は「a」「k」「i」の単音から成
    る)であることを特徴とする請求項1記載の読み上げシ
    ステム。
  4. 【請求項4】音素は単語であることを特徴とする請求項
    1記載の読み上げシステム。
  5. 【請求項5】音素は文節や文章又は楽曲や謡曲であるこ
    とを特徴とする請求項1記載の読み上げシステム。
  6. 【請求項6】音素は擬音語や擬声語及び擬態語であるこ
    とを特徴とする請求項1記載の読み上げシステム。
  7. 【請求項7】音素はデジタル合成音声であることを特徴
    とする請求項1記載の読み上げシステム。
  8. 【請求項8】端末装置の合成音データ入力手段はメモリ
    ーカードや光ディスク及び磁気ディスク等の記憶装置や
    モデム等のネットワークインターフェースであることを
    特徴とする請求項1記載の読み上げシステム
JP2001313456A 2001-10-11 2001-10-11 読み上げシステム Withdrawn JP2003122387A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001313456A JP2003122387A (ja) 2001-10-11 2001-10-11 読み上げシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001313456A JP2003122387A (ja) 2001-10-11 2001-10-11 読み上げシステム

Publications (1)

Publication Number Publication Date
JP2003122387A true JP2003122387A (ja) 2003-04-25

Family

ID=19131923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001313456A Withdrawn JP2003122387A (ja) 2001-10-11 2001-10-11 読み上げシステム

Country Status (1)

Country Link
JP (1) JP2003122387A (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63157226A (ja) * 1986-12-20 1988-06-30 Fujitsu Ltd 会話型文章読み上げ装置
JPH04180451A (ja) * 1990-11-15 1992-06-26 Yoshiya Marumoto 情報配給方式
JPH05233565A (ja) * 1991-11-12 1993-09-10 Fujitsu Ltd 音声合成システム
JPH09171396A (ja) * 1995-10-18 1997-06-30 Baisera:Kk 音声発生システム
JPH11345261A (ja) * 1998-06-01 1999-12-14 Pfu Ltd コンテンツ管理システムおよび記録媒体
JP2001255884A (ja) * 2000-03-13 2001-09-21 Antena:Kk 音声合成システム、そのシステムを使用してボイスメッセージの受注配送を行うことのできるボイスデリバリシステム、及びボイスデリバリ方法
JP2001282281A (ja) * 2000-03-28 2001-10-12 Toshiba Corp 記憶媒体、配信方法及び音声出力装置
JP2002023777A (ja) * 2000-06-26 2002-01-25 Internatl Business Mach Corp <Ibm> 音声合成システム、音声合成方法、サーバ、記憶媒体、プログラム伝送装置、音声合成データ記憶媒体、音声出力機器
JP2002358092A (ja) * 2001-06-01 2002-12-13 Sony Corp 音声合成システム
JP2003114692A (ja) * 2001-10-05 2003-04-18 Toyota Motor Corp 音源データの提供システム、端末、玩具、提供方法、プログラム、および媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63157226A (ja) * 1986-12-20 1988-06-30 Fujitsu Ltd 会話型文章読み上げ装置
JPH04180451A (ja) * 1990-11-15 1992-06-26 Yoshiya Marumoto 情報配給方式
JPH05233565A (ja) * 1991-11-12 1993-09-10 Fujitsu Ltd 音声合成システム
JPH09171396A (ja) * 1995-10-18 1997-06-30 Baisera:Kk 音声発生システム
JPH11345261A (ja) * 1998-06-01 1999-12-14 Pfu Ltd コンテンツ管理システムおよび記録媒体
JP2001255884A (ja) * 2000-03-13 2001-09-21 Antena:Kk 音声合成システム、そのシステムを使用してボイスメッセージの受注配送を行うことのできるボイスデリバリシステム、及びボイスデリバリ方法
JP2001282281A (ja) * 2000-03-28 2001-10-12 Toshiba Corp 記憶媒体、配信方法及び音声出力装置
JP2002023777A (ja) * 2000-06-26 2002-01-25 Internatl Business Mach Corp <Ibm> 音声合成システム、音声合成方法、サーバ、記憶媒体、プログラム伝送装置、音声合成データ記憶媒体、音声出力機器
JP2002358092A (ja) * 2001-06-01 2002-12-13 Sony Corp 音声合成システム
JP2003114692A (ja) * 2001-10-05 2003-04-18 Toyota Motor Corp 音源データの提供システム、端末、玩具、提供方法、プログラム、および媒体

Similar Documents

Publication Publication Date Title
US10088976B2 (en) Systems and methods for multiple voice document narration
US8364488B2 (en) Voice models for document narration
US9478219B2 (en) Audio synchronization for document narration with user-selected playback
US8346557B2 (en) Systems and methods document narration
US6385581B1 (en) System and method of providing emotive background sound to text
EP2704092A2 (en) System for creating musical content using a client terminal
KR20020055398A (ko) 전자 서적 송출장치, 전자 서적 장치 및 기록매체
JPWO2005093713A1 (ja) 音声合成装置
JP4729171B2 (ja) 電子書籍装置および音声再生システム
JPH11109991A (ja) マンマシンインターフェースシステム
JP4075349B2 (ja) 電子書籍装置および電子書籍データ表示制御方法
JPH09171396A (ja) 音声発生システム
KR100888267B1 (ko) 언어의 문자이미지와 음성을 매칭 시키는 언어 학습방법 및학습장치
JPH11143483A (ja) 音声発生システム
JP3936351B2 (ja) 音声応答サービス装置
JP7069386B1 (ja) 音声変換装置、音声変換方法、プログラム、および記録媒体
KR20180078197A (ko) 이 보이스북 편집장치 및 재생장치
WO2001073752A1 (fr) Moyen de stockage, procede de distribution et dispositif de sortie vocale
JP2003122387A (ja) 読み上げシステム
JP5193654B2 (ja) デュエットパート歌唱生成システム
JPH0950286A (ja) 音声合成装置及びこれに使用する記録媒体
JP2003122384A (ja) 携帯端末装置
JP2003140677A (ja) 読み上げシステム
JPH05224689A (ja) 音声合成装置
JP3760420B2 (ja) 音声応答サービス装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040602

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060713