JP3513988B2 - Navigation system - Google Patents

Navigation system

Info

Publication number
JP3513988B2
JP3513988B2 JP18419795A JP18419795A JP3513988B2 JP 3513988 B2 JP3513988 B2 JP 3513988B2 JP 18419795 A JP18419795 A JP 18419795A JP 18419795 A JP18419795 A JP 18419795A JP 3513988 B2 JP3513988 B2 JP 3513988B2
Authority
JP
Japan
Prior art keywords
word
information
accent
consequent
replacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18419795A
Other languages
Japanese (ja)
Other versions
JPH0934491A (en
Inventor
誠 赤羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP18419795A priority Critical patent/JP3513988B2/en
Publication of JPH0934491A publication Critical patent/JPH0934491A/en
Application granted granted Critical
Publication of JP3513988B2 publication Critical patent/JP3513988B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、ナビゲーションシ
ステムに関する。特に、合成音にアクセントを付すため
に必要となる、その合成音を構成する単語のアクセント
に関するアクセント情報の情報量を低減することができ
るようにしたナビゲーションシステムに関する。 【0002】 【従来の技術】従来の音声合成装置には、定型文の単語
を置き換えて合成音(合成音声)を出力するものがあ
る。即ち、例えばカーナビゲーションシステムなどに適
用される音声合成装置では、例えば「ここは、○○付近
です。」などというような頻繁に使用される文を定型文
として記憶しておき、○○の部分を、地名に置き換えた
置き換え文に対応する合成音を出力することで、運転者
に、現在地を報知するようになされている。 【0003】以上のようにして出力される合成音を自然
なものとするには、合成音にアクセントを付す必要があ
る。そこで、例えば、いわゆる波形編集型の音声合成装
置では、その内蔵する辞書に、置換単語(上述の地名の
ように、定型文を構成する単語と置き換えられる単語)
が、定型文の中で発話された場合における、その置換単
語の音声波形が記憶されており、また、例えば規則音声
合成を行う音声合成装置が内蔵する辞書には、置換単語
のアクセント型が記憶されている。 【0004】なお、日本語のアクセントは、音の高低の
配置によって決まるが、ここで言うアクセント型とは、
この高低の配置を表したものである。特に、日本語の共
通語のアクセントは、どこまで高くするか、即ち、どこ
に高レベルから低レベルに変化するところがあるかで決
まる。ここでは、この高レベルから低レベルへと変化す
る部分のうちの高レベルの最後の拍をアクセント核と呼
び、アクセント核が、単語の先頭からNモーラ(拍)目
にあるとき、その単語のアクセント型を、N型とする。
ここで、モーラ(拍)とは、カナ文字単位に相当するも
のである(但し、音節とはやや異なる)。高レベルから
低レベルへ変化するところが無い場合は0型のアクセン
ト型になる。 【0005】ここで、本明細書中においては、0型のア
クセント型を、平板型といい、また、1以下のアクセン
ト核を有する韻律の単位を、韻律語という。なお、文の
アクセントについては、韻律語単位で、アクセント核の
位置が指定される。 【0006】 【発明が解決しようとする課題】従来の定型文の単語を
置き換えて合成音を出力する音声合成装置においては、
上述したように、何らかの形(上述の場合は、音声波形
やアクセント型)で、置換単語のアクセントに関する情
報(以下、適宜、アクセント情報という)を記憶してお
く必要があり、従来は、そのようなアクセント情報は、
単語辞書などに登録されていた。 【0007】しかしながら、カーナビゲーションなどに
適用される音声合成装置では、固有名詞、特に地名や施
設名が置換単語とされる場合が多く、その数は膨大であ
る(日本全国の地名や施設名などは十数万語以上に達し
ている)。このため、そのような膨大な数の置換単語の
アクセント情報を単語辞書に登録した場合には、単語辞
書が大容量なものとなる課題があった。さらに、その結
果、システムが大型化、高コスト化する課題があった。 【0008】そこで、置換単語のアクセント型を、すべ
て平板型とする方法があるが、これでは、合成音が不自
然なものとなる課題があった。 【0009】本発明はこのような状況に鑑みてなされた
ものであり、辞書に登録するアクセント情報の情報量を
低減し、かつ自然な合成音を生成することができるよう
にするものである。 【0010】 【課題を解決するための手段】本発明のナビゲーション
システムは、少なくとも地図に関する情報である地図情
報を記憶している地図情報記憶手段と、現在地を測定す
る測定手段と、地図情報記憶手段の記憶内容および測定
手段の測定結果に対応して、所定の情報を出力する出力
手段とを備えるナビゲーションシステムであって、出力
手段が、所定の情報を合成音で出力する音声合成手段を
含んで構成され、所定の情報が、所定の単語を含むと
き、音声合成手段が、所定の単語が、1以下のアクセン
ト核を有する韻律の単位である韻律語を複数含む場合
に、その単語の最後に位置する韻律語を後件とするとと
もに、残りを前件とするとき、前件のアクセントに関す
るアクセント情報を記憶している前件アクセント情報記
憶手段と、後件を記憶している後件記憶手段と、所定の
単語のアクセントを、前件アクセント情報記憶手段およ
び後件記憶手段を参照して決定する決定手段と、決定手
段により決定されたアクセントを有する所定の単語に対
応する合成音を生成する生成手段とを有し、決定手段
が、所定の単語が後件を有するか否かを、後件記憶手段
を参照することにより判定し、所定の単語が後件を有し
ない場合、所定の単語のアクセント型を平板型に決定
し、所定の単語が後件を有する場合、その前件のアクセ
ント情報を、前件アクセント情報記憶手段から検索し、
その検索結果に基づいて、所定の単語のアクセントを決
定することを特徴とする。 【0011】本発明のナビゲーションシステムにおいて
は、前件アクセント情報記憶手段は、前件のアクセント
に関するアクセント情報を記憶しており、後件記憶手段
は、後件を記憶している。決定手段は、所定の単語のア
クセントを、前件アクセント情報記憶手段および後件記
憶手段を参照して決定し、生成手段は、決定手段により
決定されたアクセントを有する所定の単語に対応する合
成音を生成するようになされている。この場合におい
て、決定手段は、所定の単語が後件を有するか否かを、
後件記憶手段を参照することにより判定し、所定の単語
が後件を有しない場合、所定の単語のアクセント型を平
板型に決定し、所定の単語が後件を有する場合、その前
件のアクセント情報を、前件アクセント情報記憶手段か
ら検索し、その検索結果に基づいて、所定の単語のアク
セントを決定するようになされている。 【0012】 【0013】 【0014】 【0015】 【0016】 【0017】 【0018】 【0019】 【0020】 【0021】 【0022】 【0023】 【発明の実施の形態】以下に、本発明の実施例を説明す
るが、その前に、特許請求の範囲に記載の発明の各手段
と以下の実施例との対応関係を明らかにするために、各
手段の後の括弧内に、対応する実施例(但し、一例)を
付加して、本発明の特徴を記述すると、次のようにな
る。 【0024】本発明のナビゲーションシステムは、少な
くとも地図に関する情報である地図情報を記憶している
地図情報記憶手段(例えば、図1に示すCD−ROM3
など)と、現在地を測定する測定手段(例えば、図1に
示す測定部4など)と、地図情報記憶手段の記憶内容お
よび測定手段の測定結果に対応して、所定の情報を出力
する出力手段(例えば、図1に示す出力部5など)とを
備えるナビゲーションシステムであって、出力手段が、
所定の情報を合成音で出力する音声合成手段(例えば、
図1に示す音声合成装置7など)を含んで構成され、所
定の情報が、所定の単語を含むとき、音声合成手段は、
所定の単語が、1以下のアクセント核を有する韻律の単
位である韻律語を複数含む場合に、その単語の最後に位
置する韻律語を後件とするとともに、残りを前件とする
とき、前件のアクセントに関するアクセント情報を記憶
している前件アクセント情報記憶手段(例えば、図5に
示す前件要素辞書34Bなど)と、後件を記憶している
後件記憶手段(例えば、図5に示す後件要素辞書34A
など)と、所定の単語のアクセントを、前件アクセント
情報記憶手段および後件記憶手段を参照して決定する決
定手段(例えば、図5に示す単語アクセント検索部33
および定型文読み韻律情報生成部35など)と、決定手
段により決定されたアクセントを有する所定の単語に対
応する合成音を生成する生成手段(例えば、図5に示す
規則音声合成部16など)とを有し、決定手段が、所定
の単語が後件を有するか否かを、後件記憶手段を参照す
ることにより判定し、所定の単語が後件を有しない場
合、所定の単語のアクセント型を平板型に決定し、所定
の単語が後件を有する場合、その前件のアクセント情報
を、前件アクセント情報記憶手段から検索し、その検索
結果に基づいて、所定の単語のアクセントを決定するこ
とを特徴とする。 【0025】 【0026】 【0027】 【0028】 【0029】 【0030】なお、勿論この記載は、各手段を上記した
ものに限定することを意味するものではない。 【0031】図1は、本発明を適用したナビゲーション
システムの一実施例の構成を示すブロック図である。こ
のナビゲーションシステムは、例えば自動車などに装備
され、ボタンなどの操作による他、入力音声にも対応し
て、動作するようになされている。なお、このナビゲー
ションシステムは、自動車などに装備する他、例えば携
帯して用いることもできるようになされている。 【0032】入力部1には、例えばボタンやジョイステ
ィックなどの操作手段と、音声を入力するためのマイク
などの音声入力手段が装備されている。そして、入力部
1からは、操作手段の操作に対応した信号が制御部2に
送信されるようになされている。さらに、入力部1は、
音声認識装置を内蔵しており、入力された音声(音声入
力手段に入力された音声)は、そこで音声認識され、そ
の音声認識結果も、制御部2に送信されるようになされ
ている。制御部2は、システムを構成する各ブロックと
の間で情報の送受を行い、システム全体の動作を制御す
るようになされている。CD−ROM3には、例えば複
数のスケールの、電子化された地図情報(地図の画像デ
ータだけでなく、その地図上の地名や施設名などのテキ
ストデータなどを含む)、その他のナビゲーションに必
要な情報が記録(記憶)されており、そこからは、制御
部2からの指令に基づいて必要な情報が読み出されるよ
うになされている。 【0033】測定部4は、GPS衛星からの電波を受信
したり、ジャイロスコープなどの測定装置を用いること
などによって、現在地を測定するようになされている。
出力部5は、制御部2より供給される所定の情報を出力
するようになされている。即ち、出力部5は、所定の情
報が、画像その他の表示可能なもの(例えば、地図な
ど)である場合にそれを表示するための、例えば液晶モ
ニタやCRTなどでなる表示部6、所定の情報が、合成
音を生成するのに必要なものである場合にその情報に基
づいて音声合成を行う音声合成装置7、および音声合成
装置7で生成された合成音その他音声出力可能な情報を
出力するためのスピーカ8を有している。 【0034】以上のように構成されるナビゲーションシ
ステムにおいては、例えば入力部1が、現在地を表示す
るように操作されると、その操作に対応した操作信号
が、入力部1から制御部2に出力される。すると、制御
部2では、測定部4によって測定されている現在地が受
信され、その現在地を含む、所定のスケールの地図が、
CD−ROM3から読み出される。さらに、制御部2
は、CD−ROM3から読み出した地図を、出力部5の
表示部6に供給する。これにより、表示部6では、例え
ば現在地を中心とする地図が、自身を表すマーク(例え
ば、自動車の進行方向を向いた矢印など)とともに表示
される。 【0035】その後、ユーザ(運転者)が運転する自動
車が、例えば、所定の地域や交差点、施設などに差し掛
かると、制御部2において、その地名(交差点名や、施
設名などを含む)が、CD−ROM3から読み出され、
音声合成に必要な情報とともに、出力部5の音声合成装
置7に出力される。音声合成装置7では、制御部2から
情報を受信すると、その情報に基づいて、例えば規則音
声合成が行われ、合成音が生成される。即ち、地名が、
例えば「北品川」などであった場合、音声合成装置7で
は、例えば、現在地をユーザに報知するための合成音
「北品川付近です。」が生成される。この合成音は、ス
ピーカ8に供給されて出力され、これにより、ユーザ
は、表示部6に視線を移動することなく、現在地を認識
することができる。 【0036】なお、以上のように、現在地を合成音で出
力する地点(地域、施設、交差点など)は、CD−RO
M3に記憶させておくようにすることもできるし、ユー
ザがあらかじめ設定することもできる。さらに、ユーザ
が、入力部1を所定操作したときに、現在地を合成音で
出力させるようにすることも可能である。 【0037】また、CD−ROM3は、システムに対
し、着脱可能になされており、これにより将来、地図な
どに変更があっても、その変更後の地図情報が記憶され
たCD−ROMを、CD−ROM3に代えて装着するこ
とによって、CD−ROM3に記憶されている情報の陳
腐化により、システムが実質的に使用不可になることを
防止することができるようになされている。 【0038】図2は、図1の音声合成装置7の構成例を
示している。この音声合成装置7は、定型文の単語を、
置換単語(入力単語)(所定の単語)に置き換えて、上
述したような合成音を生成するようになされている。即
ち、制御部2から音声合成装置7に対しては、音声合成
に必要な情報としての、例えば用いる定型文を特定する
ための特定情報(定型文パターン入力)と、CD−RO
M3に記録されている地名などとしての、置換単語(単
語入力)とが供給されるようになされている。具体的に
は、例えば、上述したような合成音「北品川付近で
す。」を生成する場合には、「○○付近です。」という
定型文と、○○と置き換えられる置換単語「北品川」と
が供給される。なお、特定情報は、定型文読み韻律情報
選択部11に、置換単語は、単語アクセント検索部13
に、それぞれ入力されるようになされている。 【0039】定型文読み韻律情報選択部11は、制御部
2から特定情報を受信し、その特定情報により特定され
る定型文に関する情報を、定型文パターン記憶部12か
ら読み出し、定型文読み韻律情報生成部15に供給する
ようになされている。定型文パターン記憶部12は、ナ
ビゲーションシステムにおいて頻繁に使用される文であ
る定型文(例えば、上述したような「○○付近です。」
の他、「○○交差点を右(左)に曲がって下さい。」
や、「あと、○kmで○○(目的地など)付近で
す。」、「次は、○○交差点です。」など)に関する情
報としての、例えば音韻情報(読み)および韻律情報
(例えば、定型文のフレーズの開始位置や、定型文を構
成する単語(形態素)のアクセント核位置、定型文に挿
入するポーズの位置など)(以下、適宜、定型文の音韻
情報および韻律情報の両方を含めて、定型文パターンと
いう)を記憶している。 【0040】単語アクセント検索部13は、制御部2か
ら置換単語を受信し、その置換単語のアクセントに関す
るアクセント情報としての、例えばアクセント型を、単
語アクセント辞書14から検索し、置換単語(置換単語
の音韻情報)とともに、定型文読み韻律情報生成部15
に供給するようになされている。単語アクセント辞書1
4は、定型文パターン記憶部12に記憶されている定型
文を構成する単語との置き換えを行ったときに、そのア
クセント型が平板型以外になる置換単語のアクセント型
を、その置換単語の見出しおよび音韻情報(読み)と対
応付けて記憶している。従って、制御部2から単語アク
セント検索部13には、実際には、置換単語の見出し、
または見出しおよび音韻情報が供給されるようになされ
ており、単語アクセント検索部13は、制御部2からの
置換単語の見出し、または見出しおよび音韻情報と対応
付けられているアクセント型を、単語アクセント辞書1
4から検索するようになされている。 【0041】なお、単語アクセント辞書14は、上述し
たように、定型文を構成する単語との置き換えを行った
ときに、そのアクセント型が平板型以外になる置換単語
のアクセント型だけが記憶されており、平板型になる置
換単語のアクセント型は記憶されていない。従って、単
語アクセント検索部13に、そのような置換単語が入力
された場合には、その置換単語のアクセント型は検索す
ることができない(検索結果としてアクセント型を得る
ことができない)が、このような場合、単語アクセント
検索部13は、定型文読み韻律情報生成部15に対し、
置換単語のアクセント型を検索することができなかった
旨と、その置換単語の音韻情報とを出力するようになさ
れている。 【0042】定型文読み韻律情報生成部15は、定型文
読み韻律情報選択部11から、定型文パターンを受信す
るとともに、単語アクセント検索部13から、置換単語
の音韻情報およびアクセント型を受信すると、それらの
情報に基づいて、定型文を構成する単語のうちのある単
語(上述した○○の部分)を、置換単語で置き換えた置
き換え文を生成し、その置き換え文の音韻情報および韻
律情報を生成するようになされている。 【0043】即ち、定型文読み韻律情報生成部15は、
定型文の○○の部分の音韻情報を、置換単語の音韻情報
に置き換えることで、置き換え文の音韻情報を生成す
る。また、定型文読み韻律情報生成部15は、置き換え
文のフレーズの開始位置や、置き換え文を構成する単語
のアクセント核位置、置き換え文に挿入するポーズの位
置などの韻律情報を生成(決定)する。 【0044】ここで、単語どうしが接続されて文となる
と、その文中で単語が発話される場合と、その単語が独
立して発話される場合とで、単語のアクセント核位置が
変化することがある(このようなアクセント核位置の変
化は、アクセント融合と呼ばれる)。そこで、定型文読
み韻律情報生成部15では、このようなアクセント融合
に対処するため、定型文読み韻律情報選択部11からの
定型文パターンに含まれる韻律情報と、単語アクセント
検索部13からの置換単語のアクセント型とを、そのま
ま組み合わせて、置き換え文の韻律情報とするのではな
く、それらの情報に基づいて、いわば新たに、置き換え
文の韻律情報を生成(決定)するようになされている
(但し、このように生成した韻律情報が、定型文パター
ンに含まれる韻律情報と、置換単語のアクセント型と
を、そのまま組み合わせたものと同一になる場合もあ
る)。 【0045】なお、定型文読み韻律情報生成部15は、
単語アクセント検索部13から、置換単語のアクセント
型を検索することができなかった旨を受信した場合、そ
の置換単語のアクセント型を平板型に決定(認識)する
ようになされている。 【0046】定型文読み韻律情報生成部15は、置き換
え文の音韻情報または韻律情報を生成した後、それぞれ
を所定の記号で表した発音記号または韻律記号に変換
し、規則音声合成部16に供給するようになされてい
る。 【0047】規則音声合成部16は、韻律処理部17、
韻律制御規則/モデル記憶部18、音素片選択部19、
音素片記憶部20、および音声合成部21で構成され、
定型文読み韻律情報生成部15で生成された音韻情報、
およびアクセント核などの韻律情報を有する置き換え文
に対応する合成音を、規則音声合成処理によって生成す
るようになされている。 【0048】即ち、韻律処理部17は、韻律制御規則/
モデル記憶部18を参照して、定型文読み韻律情報生成
部15より出力された発音記号および韻律記号から、置
き換え文の、例えばピッチパターン、置き換え文を構成
する各音韻の継続時間、およびそのパワーなどの制御情
報を生成するモデルを駆動するためのパラメータを算出
するようになされている。さらに、韻律処理部17は、
それらのパラメータを用いて、韻律制御規則/モデル記
憶部18に記憶されているモデルを駆動し、これによ
り、上述したピッチパターン、各音韻の継続時間、およ
びパワーなどの制御情報(具体的数値)を生成して、音
素片選択部19に供給するようになされている。なお、
韻律処理部17は、上述した制御情報(具体的数値)の
他、定型文読み韻律情報生成部15からの音韻記号も、
音素片選択部19に供給するようになされている。 【0049】韻律制御規則/モデル記憶部18は、合成
音の韻律を制御するための韻律制御規則と、合成音の制
御情報を生成するための各種のモデルを記憶している。 【0050】音素片選択部19は、韻律処理部17から
の発音記号列に対応した音素片データを、音素片記憶部
20より読み出し、同じく韻律処理部17からの制御情
報に基づいて接続するようになされている。即ち、音素
片選択部19は、音素片データをピッチパターン、各音
韻の継続時間、およびパワーなどに基づいて接続し、置
き換え文に対応する音声波形を生成するようになされて
いる。音素片記憶部20は、例えば、CVや、CVC/
VCV等の単位で規則音声合成に必要な音素片データを
記憶している。音声合成部21は、D/A変換器を内蔵
し、音素片選択部19から出力された音声波形をD/A
変換し、スピーカ8に供給して出力させるようになされ
ている。 【0051】次に、その動作について説明する。制御部
2から特定情報および置換単語が供給されると、その特
定情報または置換単語は、それぞれ定型文読み韻律情報
選択部11または単語アクセント検索部13に入力され
る。定型文読み韻律情報選択部11では、制御部2から
特定情報を受信すると、その特定情報に対応する定型文
パターンが、定型文パターン記憶部12から読み出さ
れ、定型文読み韻律情報生成部15に供給される。ま
た、単語アクセント検索部13では、制御部2から置換
単語を受信すると、図3のフローチャートにしたがった
処理が行われる。 【0052】即ち、まず最初に、ステップS1におい
て、制御部2からの置換単語(置換単語の見出し、また
は見出しと音韻情報)が受信される。そして、ステップ
S2において、その置換単語のアクセント型が、単語ア
クセント辞書14から検索され、ステップS3に進み、
その置換単語のアクセント型が見つかったかどうかが判
定される。ステップS3において、制御部2からの置換
単語のアクセント型が見つかったと判定された場合、ス
テップS4に進み、そのアクセント型が読み出される。
そして、ステップS5に進み、そのアクセント型が、置
換単語(置換単語の音韻情報)とともに、定型文読み韻
律情報生成部15に出力され、処理を終了する。 【0053】一方、ステップS3において、制御部2か
らの置換単語のアクセント型が見つからなかったと判定
された場合、ステップS6に進み、その旨を表すメッセ
ージ(以下、適宜、アクセント型なしメッセージとい
う)が、制御部2からの置換単語とともに、定型文読み
韻律情報生成部15に出力され、処理を終了する。 【0054】図2に戻り、定型文読み韻律情報生成部1
5は、定型文読み韻律情報選択部11から、定型文パタ
ーンを受信するとともに、単語アクセント検索部13か
ら、置換単語の音韻情報およびアクセント型を受信する
と、それらの情報に基づいて、定型文(定型文読み韻律
情報選択部11から供給された定型文パターンに対応す
る定型文)を構成する単語のうちの○○の部分を、置換
単語で置き換えた置き換え文を生成し、その置き換え文
の音韻情報および韻律情報を生成する。さらに、定型文
読み韻律情報生成部15は、その音韻情報または韻律情
報を、発音記号または韻律記号にそれぞれ変換し、規則
音声合成部16に供給する。 【0055】なお、定型文読み韻律情報生成部15で
は、単語アクセント検索部13から、アクセント型なし
メッセージを受信した場合、上述したように、その置換
単語のアクセント型が平板型に決定され、置き換え文の
発音記号および韻律記号が生成される。 【0056】規則音声合成部16では、まず、韻律処理
部17において、韻律制御規則/モデル記憶部18を参
照して、定型文読み韻律情報生成部15より出力された
発音記号および韻律記号から、上述したような制御情報
を生成するモデルを駆動するためのパラメータが算出さ
れ、さらに、そのパラメータを用いて、モデルが駆動さ
れる。これにより、制御情報の具体的数値が生成され
る。この制御情報の具体的数値は、置き換え文の発音記
号とともに、音素片選択部19に供給される。音素片選
択部19では、韻律処理部17からの発音記号列に対応
した音素片データが、音素片記憶部20より読み出さ
れ、それらが、同じく韻律処理部17からの制御情報の
具体的数値に基づいて接続されることにより、置き換え
文に対応する音声波形が生成される。なお、定型読み韻
律情報生成部15で生成された置き換え文の韻律情報の
1つであるアクセント型は、音声波形のピッチパターン
などに反映され、これにより自然なアクセントを有する
合成音の音声波形が生成される。 【0057】さらに、音素片選択部19では、以上のよ
うにして得られた音声波形に対し、定型文読み韻律情報
生成部15で決定された韻律情報の1つであるポーズの
位置に対応してポーズが挿入され、音声合成部21に供
給される。音声合成部21では、その内蔵するD/A変
換器によって、音素片選択部19からの音声波形がD/
A変換され、スピーカ8に供給される。これにより、ス
ピーカ8からは、置き換え文に対応する合成音が出力さ
れる。 【0058】次に、スピーカ8から、例えば合成音「北
品川1丁目付近です。」が出力される場合を例にして、
ナビゲーションシステムの動作について、さらに説明す
る。この場合、制御部2から音声合成装置7に対しは、
特定情報として、例えば定型文「○○付近です。」に対
応するものが供給されるとともに、置換単語(正確に
は、上述したように、置換単語の見出し、または見出し
と音韻情報)として、例えば「北品川1丁目」(きたし
ながわいっちょうめ)(この場合、「」内の文字は、置
換単語の見出しに相当し、それに続く()内の文字は、
その音韻情報に相当する)が供給される。 【0059】定型文読み韻律情報選択部11では、定型
文「○○付近です。」に対応する特定情報を受信する
と、定型文パターン記憶部12から、「○○付近です」
の定型文パターン、即ち、その読み(音韻情報)および
韻律情報が検索されて読み出される。 【0060】ここで、以下、適宜、読み(音韻情報)を
平仮名で、韻律情報の1つであるアクセント核の位置
を’印で、韻律語の境界を|印で表す。なお、このよう
な表記は、音韻情報および韻律情報(ここでは、韻律情
報のうちのアクセント型(アクセント核の位置)の両方
を含むので、音韻韻律情報という。以下では、定型文パ
ターン記憶部12および単語アクセント辞書14には、
このような音韻韻律情報が記憶されているものとする。 【0061】従って、定型文韻律読み情報選択部11で
は、音韻韻律情報(定型文パターン)「○○ふき’んで
す」が検索される。 【0062】一方、単語アクセント検索部13では、置
換単語「北品川1丁目」(きたしながわいっちょうめ)
を受信すると、単語アクセント辞書14から、「北品川
1丁目」の音韻韻律情報「きたしな’がわ|いっちょう
め」が検索される。 【0063】ここで、定型文「○○付近です。」を構成
する単語○○を、置換単語「北品川1丁目」で置き換え
た置き換え文「北品川1丁目付近です。」を、その音の
高い部分に ̄印を、音の低い部分に_印を付して音韻情
報とともに表すと、図4(A)に示すようになる。な
お、同図における|印は、上述したように、韻律語の境
界を表す。 【0064】図4(A)に示したように、置き換え文
「北品川1丁目付近です。」において、置換単語「北品
川1丁目」のアクセント型は平板型とはならない。従っ
て、単語アクセント辞書14には、「北品川1丁目」の
音韻韻律情報「きたしな’がわ|いっちょうめ」が登録
されており、その結果、単語アクセント検索部13で
は、「北品川1丁目」の音韻韻律情報「きたしな’がわ
|いっちょうめ」が検索されて読み出される。 【0065】なお、単語アクセント辞書14において、
上述したように、置換単語のアクセント型が、その置換
単語の見出しおよび音韻情報と対応付けて記憶されてい
る場合には、単語アクセント辞書14における登録フォ
ーマットは、例えば次のようなものである。 【0066】即ち、例えば置換単語「北品川1丁目」
は、 見出し:北品川1丁目 音韻情報:きたしながわいっちょうめ アクセント型:4/6+0/5 という形で、単語アクセント辞書14に登録されてい
る。なお、アクセント型におけるa/bは、ある韻律語
がbモーラで構成され、そのアクセント型がa型である
ことを表しており、+は、韻律語の境界を表している。
従って、上述の例では、置換単語「北品川1丁目」が、
2つの韻律語で構成されており、先頭の韻律語は、その
アクセント型が4型で6モーラを有し、2番目の韻律語
は、そのアクセント型が0型で5モーラを有しているこ
とを表している。 【0067】定型文読み韻律情報選択部11で検索され
た音韻韻律情報「ふき’んです。」(「○○ふき’んで
す。」)、および単語アクセント検索部13で検索され
た音韻韻律情報「きたしな’がわ|いっちょうめ」は、
いずれも、定型文読み韻律情報生成部15に供給され、
そこでは、これらが組み合わされて、置き換え文「北品
川1丁目付近です。」が生成される。即ち、定型文読み
韻律情報生成部15では、置き換え文「北品川1丁目付
近です。」についての読みおよび韻律情報が生成され
る。 【0068】ここで、通常、「付近です。」の前段に、
「北品川1丁目」が付加され、これにより、「北品川1
丁目付近です。」となると、そのうちの、「1丁目」と
「付近です。」との、いわば接続部分は、アクセント融
合を生じ、1つにまとまる。その結果、「1丁目」およ
び「付近です。」は、1つの韻律語となるため、置き換
え文「北品川1丁目付近です。」についての読みおよび
韻律情報、即ち、音韻韻律情報は、図4(A)に既に示
したように、「きたしな’がわ|いっちょうめふき’ん
です」となる。 【0069】以上のようにして生成された置き換え文
「北品川1丁目付近です。」の音韻韻律情報「きたし
な’がわ|いっちょうめふき’んです」は、規則音声合
成部16に供給され、上述したような処理が行われるこ
とにより、スピーカ8からは、音韻韻律情報「きたし
な’がわ|いっちょうめふき’んです」にしたがった合
成音「北品川1丁目付近です。」が出力される。即ち、
自然な合成音が出力される。 【0070】次に、上述の場合において、置換単語「北
品川1丁目」に代えて、置換単語「北品川」が、制御部
2から単語アクセント検索部13に供給された場合につ
いて説明する。 【0071】この場合、定型文韻律読み情報選択部11
では、上述したように、音韻韻律情報(定型文パター
ン)「○○ふき’んです」が検索され、定型文読み韻律
情報生成部15に供給される。 【0072】一方、単語アクセント検索部13でも、単
語アクセント辞書14からの、置換単語「北品川」(き
たしながわ)の音韻韻律情報の検索が行われる。 【0073】ここで、定型文「○○付近です。」を構成
する単語○○を、置換単語「北品川」で置き換えた置き
換え文「北品川付近です。」を、図4(A)における場
合と同様に表すと、図4(B)に示すようになる。即
ち、通常、「付近です。」の前段に、「北品川」が付加
され、これにより、「北品川付近です。」となると、
「北品川」と「付近です。」との接続部分は、アクセン
ト融合を生じ、これにより、置換単語「北品川」のアク
セントは、「きたしな’がわ」から「きたしながわ」と
なり、平板化する。従って、同図(B)に示したよう
に、置き換え文「北品川付近です。」において、置換単
語「北品川」のアクセント型は平板型となる。よって、
単語アクセント辞書14には、「北品川」の音韻韻律情
報「きたしな’がわ」は登録されておらず、その結果、
単語アクセント検索部13では、「北品川」の音韻韻律
情報を検索することができないこととなる。従って、単
語アクセント検索部13では、上述したように、置換単
語「北品川」の音韻情報「きたしながわ」とともに、ア
クセント型なしメッセージが、定型文読み韻律情報生成
部15に出力される。 【0074】定型文読み韻律情報生成部15では、定型
文読み韻律情報選択部11からの音韻韻律情報「ふき’
んです。」(「○○ふき’んです。」)と、単語アクセ
ント検索部13からの音韻情報「きたしながわ」とが組
み合わされて、置き換え文「北品川付近です。」につい
ての読みおよび韻律情報が生成される。 【0075】ここで、上述したように、定型文読み韻律
情報生成部15は、単語アクセント検索部13から、置
換単語「北品川」とともに、アクセント型なしメッセー
ジを受信した場合、その置換単語のアクセント型を平板
型として扱うようになされている。従って、この場合、
定型文読み韻律情報生成部15では、置き換え文「北品
川付近です。」についての読みおよび韻律情報、即ち、
音韻韻律情報として、図4(B)に既に示したように、
「きたしながわふき’んです」が生成される。 【0076】以上のようにして生成された置き換え文
「北品川付近です。」の音韻韻律情報「きたしながわふ
き’んです」は、規則音声合成部16を介して、スピー
カ8に供給され、これにより、音韻韻律情報「きたしな
がわふき’んです」にしたがった合成音「北品川付近で
す。」が出力される。即ち、自然な合成音が出力され
る。 【0077】ナビゲーションシステムで用いられる定型
文を構成する単語を、例えば地名その他の置換単語で置
き換えた置き換え文においては、多くの場合、置換単語
が、定型文の中でアクセント融合を起こし、その置換単
語のアクセントが平板型化することが、本願発明者によ
って確認されている。 【0078】従って、単語アクセント辞書14には、そ
のような多くの置換単語のアクセント型を登録しておか
ずに済むので、即ち、置き換え文中で、そのアクセント
型が平板型以外になる置換単語のアクセント型だけを登
録しておけば良いので、その容量(辞書サイズ)を低減
化することができる。 【0079】さらに、単語アクセント辞書14に登録さ
れていない置換単語については、そのアクセント型が平
板型として扱われるが、上述したように、単語アクセン
ト辞書14に登録されていない置換単語は、置き換え文
中で、そのアクセント型が平板型となるものであるか
ら、そのように扱って合成音を生成しても、その合成音
が不自然なものとなることはない。 【0080】なお、以上では、置換単語が「北品川」と
「北品川1丁目」の場合を例に説明したが、この例だけ
からも分かるように、単語アクセント辞書14に登録す
る必要のある単語(置換単語)は、複数韻律語で構成さ
れ、その最後に位置する韻律語以外の韻律語が平板型以
外のものである。 【0081】また、単語アクセント辞書14には、上述
のようなアクセントが平板化する置換単語を除く単語に
代えて、アクセントが平板化しない、ある特定のアクセ
ント型の置換単語を除く単語を登録しておくことも可能
であるが、そのような置換単語は、アクセントが平板化
する置換単語に比較して、数が非常に少ないので、単語
アクセント辞書14の容量低減の観点からは、上述のよ
うに、アクセントが平板化する置換単語を除く単語を登
録するようにするのが望ましい。 【0082】次に、図5は、図1の音声合成装置7の他
の構成例を示している。なお、図中、図2における場合
を対応する部分については、同一の符号を付してあり、
以下では、その説明は、適宜、省略する。即ち、この音
声合成装置7は、単語アクセント検索部13に代えて単
語アクセント検索部33が、単語アクセント辞書14に
代えて後件要素辞書34A、前件要素辞書34B、およ
び特定前件辞書34Cが、定型文読み韻律情報生成部1
5に代えて定型文読み韻律情報生成部35が、それぞれ
設けられている他は、図2における場合と同様に構成さ
れている。 【0083】単語アクセント検索部33は、制御部2か
ら置換単語を受信し、後件要素辞書34A、前件要素辞
書34B、または特定前件辞書34Cを必要に応じて参
照しながら、その置換単語のアクセントに関するアクセ
ント情報としての、例えばアクセント型を検索し、置換
単語(置換単語の音韻情報)とともに、定型文読み韻律
情報生成部35に供給するようになされている。 【0084】後件要素辞書34Aは、単語(置換単語)
の後件(但し、後述する珍しい後件を除く)の見出し
(さらには、必要に応じて、音韻情報)を記憶してお
り、前件要素辞書34Bは、単語(置換単語)前件(但
し、後述する特定前件を除く)のアクセントに関するア
クセント情報としての、例えばアクセント型を記憶して
いる。 【0085】ここで、単語の後件とは、その単語が、複
数の韻律語で構成される場合に、その最後に位置する韻
律語を意味し、前件とは、その残りの韻律語すべてを意
味する。 【0086】特定前件要素辞書34Cは、前件要素辞書
34Bと同様に、単語(置換単語)前件のアクセント型
を記憶している。但し、特定前件要素辞書34Cには、
特定の前件(以下、適宜、特定前件という)のみのアク
セント型を記憶している。ここで、特定前件とは、単語
アクセント検索部33に、置換単語を構成する前件とし
て入力されることが、ほとんどないものをいう(従っ
て、ナビゲーションシステムでは、例えば、珍しい(数
の少ない)地名の前件などが、特定の前件となる)。 【0087】定型文読み韻律情報生成部35は、単語ア
クセント検索部33による、後件要素辞書34A、前件
要素辞書34B、または特定前件辞書34Cを参照して
の検索結果に基づいて、置き換え文を生成し、そのアク
セント(置換単語のアクセントを含む)その他の韻律情
報を生成(決定)するようになされている。 【0088】以上のように構成される音声合成装置7で
は、制御部2から特定情報および置換単語が供給される
と、その特定情報または置換単語は、それぞれ定型文読
み韻律情報選択部11または単語アクセント検索部13
に入力される。定型文読み韻律情報選択部11では、制
御部2から特定情報を受信すると、上述したように、そ
の特定情報に対応する定型文の音韻韻律情報(定型文パ
ターン)が、定型文パターン記憶部12から読み出さ
れ、定型文読み韻律情報生成部35に供給される。ま
た、単語アクセント検索部33では、制御部2から置換
単語を受信すると、図6のフローチャートにしたがった
処理が行われる。 【0089】即ち、まず最初に、ステップS11におい
て、制御部2からの置換単語(置換単語の見出し、また
は見出しと音韻情報)が受信される。そして、ステップ
S12において、その置換単語の後件の検索が、後件要
素辞書34Aを参照しながら行われる。なお、ステップ
S12において、置換単語の後件の検索は、置換単語の
最後の部分(場合によっては置換単語全体)と、後件要
素辞書34Aに登録されている後件とをマッチングする
ことにより行われる。 【0090】ここで、後件要素辞書34Aには、例えば
「1丁目」(いっちょうめ)や、「2丁目」(にちょう
め)、「3丁目」(さんちょうめ)、「4丁目」(よん
ちょうめ)などの「〜丁目」の他、「〜番町」(〜番
町)、「北口」(きたぐち)、「本町」(ほんまち)、
「下」(しも)、「一」(いち)などの、地名(さらに
は、例えば施設名や、道路名、交差点名など)の後件と
なり得る単語(但し、珍しい後件を除く)が登録されて
いる。 【0091】後件要素辞書34Aの検索が終了すると、
ステップS13において、制御部2からの置換単語の後
件が見つかったか否かが判定される。ステップS13に
おいて、制御部2からの置換単語の後件が見つかったと
判定された場合、ステップS14に進み、その置換単語
の前件の検索が、前件要素辞書34Bを参照しながら行
われる。なお、ステップS14において、置換単語の前
件の検索は、置換単語の後件を除いた部分と、前件要素
辞書34Bに登録されている前件とをマッチングするこ
とにより行われる。 【0092】ここで、前件要素辞書34Bには、例えば
「北品川」(きたしながわ)や、「東品川」(ひがしし
ながわ)、「西品川」(にししながわ)、「南品川」
(みなみしながわ)などの、地名(さらには、例えば施
設名や、道路名、交差点名など)の前件となり得る単語
(但し、特定前件を除く)が登録されている。 【0093】前件要素辞書34Bの検索が終了すると、
ステップS15において、制御部2からの置換単語の前
件が見つかったか否かが判定される。ステップS15に
おいて、制御部2からの置換単語の前件が見つかったと
判定された場合、ステップS16に進み、その前件のア
クセント型が、前件要素辞書34Bから読み出される。
そして、ステップS17に進み、そのアクセント型が、
置換単語(置換単語の音韻情報)とともに、定型文読み
韻律情報生成部35に出力され、処理を終了する。 【0094】定型文読み韻律情報生成部35は、単語ア
クセント検索部33から、置換単語の音韻情報ととも
に、その前件のアクセント型を受信した場合、その音韻
情報およびアクセント型、並びに定型文読み韻律情報選
択部11からの定型文の音韻韻律情報に基づいて、置き
換え文の音韻情報、およびアクセントその他の韻律情報
を生成(決定)する。 【0095】即ち、例えば、いま、「北品川1丁目」
(きたしながわいっちょうめ)が置換単語として入力さ
れたとすると、そのうちの、「北品川」(きたしなが
わ)が前件として、「1丁目」(いっちょうめ)が後件
として、ステップS14またはS12でそれぞれ検索さ
れる。 【0096】従って、この場合、単語アクセント検索部
33から定型文読み韻律情報生成部35には、置換単語
「北品川1丁目」の音韻韻律情報「きたしな’がわ|い
っちょうめ」が出力される。なお、後件要素辞書34A
には、後件のアクセント型は登録されていないが、上述
した図4(A)に示したように、「1丁目」などの後件
のアクセントは、置き換え文中では、通常、平板化する
ので、置換単語の後件のアクセント型は、例えば平板型
として扱われる。 【0097】一方、定型文読み韻律情報選択部11から
定型文読み韻律情報生成部35に対して、例えば、定型
文の音韻韻律情報「○○ふき’んです。」が供給された
とすると、定型文読み韻律情報生成部35では、図2の
定型文読み韻律情報生成部15における場合と同様に、
置き換え文の音韻韻律情報「きたしな’がわ|いっちょ
うめふき’んです」が生成される。 【0098】従って、この場合も、図2における場合と
同様に、自然な合成音が出力されることとなる。さら
に、この場合、置換単語を、後件と前件とに分割して、
それぞれ後件要素辞書34Aまたは前件要素辞書34B
に記憶させておくようにしたので、置換単語をそのまま
辞書に登録しておく場合に比較して、辞書全体の容量を
小さくすることができる。即ち、例えば「北品川1丁
目」、「北品川2丁目」、「北品川3丁目」、「北品川
4丁目」、「東品川1丁目」、「東品川2丁目」、「東
品川3丁目」、「東品川4丁目」の8つを置換単語とす
る場合において、置換単語をそのまま辞書に登録すると
きには、これらすべてを記憶させる必要があるが、後件
と前件とに分割して登録するときには、後件要素辞書3
4Aには、「1丁目」、「2丁目」、「3丁目」、およ
び「4丁目」の4つを記憶させ、前件要素辞書34Bに
は、「北品川」および「東品川」の2つを記憶させるだ
けで済む。 【0099】また、この場合、後件の検索を、前件の検
索より先に行うようにしたので処理の高速化を図ること
ができる。即ち、例えば地名を、置換単語の対象とした
場合、後件の数は、前件の数に比較して、かなり少なく
なる。そして、図6に示したフローチャートでは、ステ
ップS13で後件が見つからなかったと判定された場合
に、後述するように、ステップS14の前件の検索処理
を行わず、ステップS18以降の処理を行うようになさ
れているので、処理の高速化を図ることができる。 【0100】一方、ステップS13において、制御部2
からの置換単語の後件が見つからなかったと判定された
場合、あるいは、制御部2からの置換単語の後件は見つ
かったが、ステップS15において、その前件が見つか
らなかったと判定された場合、ステップS18に進み、
制御部2からの置換単語の前件(特定前件)の検索が、
特定前件要素辞書34Cを参照しながら行われる。な
お、ステップS18において、置換単語の前件(特定前
件)の検索は、置換単語の後件を除いた部分または置換
単語の先頭部分(場合によっては置換単語全体)と、特
定前件要素辞書34Cに登録されている前件とをマッチ
ング(見出しまたは音韻情報のマッチング)することに
より行われる。 【0101】ここで、例えば兵庫県の一地方には、「道
場町生野」(どうじょうちょういくの)や、「道場町日
下部」(どうじょうちょうくさかべ)、「道場町塩田」
(どうじょうちょうしおた)などの珍しい地名(特殊な
地名)が存在する。このような地名では、「道場町」
(どうじょうちょう)が前件なり、「生野」(いく
の)、「日下部」(くさかべ)、「塩田」(しおた)な
どが後件となる。この場合、後件である「生野」(いく
の)、「日下部」(くさかべ)、「塩田」(しおた)
は、上述した「1丁目」などのような頻繁に用いられて
いる後件とは異なり、地名の後件としてはほとんど用い
られない(一般的でない)、いわば珍しい後件であると
いうことができる。 【0102】従って、一般的な後件に加え、このような
珍しい後件すべてを、後件要素辞書34Aに登録したの
では、後件要素辞書34Aの容量が大きなものとなり、
ステップS12における後件の検索処理に時間を要する
こととなる。一方、前件が「道場町」(どうじょう)と
なっている、複合語の地名は、上述した兵庫県の一地方
を除いて、いまのところ存在しない。 【0103】そこで、「道場町」(どうじょうちょう)
を前件として有する置換単語(地名)(あるいは、その
先頭部分が「道場町」(どうじょうちょう)となってい
る置換単語)については、その前件または後件を、前件
要素辞書34Bまたは後件要素辞書34Aにそれぞれ登
録せずに、「道場町」を、特定前件要素辞書34Cに登
録し、さらに、図6に示したように、後件要素辞書34
A、前件要素辞書34Bを対象とした検索処理(ステッ
プS12,S13の処理)とは別に、特定前件要素辞書
34Cを対象とした検索処理(ステップS18の処理)
を行うようにする。 【0104】この場合、制御部2からの置換単語の後件
が見つからなかったとき、あるいは、制御部2からの置
換単語の後件は見つかったが、その前件が見つからなか
ったときだけ、特定前件の検索を行えば済むので、処理
の高速化を図ることができる。さらに、後件要素辞書3
4Aの容量の増大、および後件の検索処理の遅延を防止
することもできる。 【0105】ステップS18における、特定前件要素辞
書34Cを参照しての(特定前件要素辞書34Cを対象
としての)置換単語の前件(特定前件)の検索が終了す
ると、ステップS19に進み、特定前件が見つかったか
否か(特定前件要素辞書34Cに登録されている特定前
件のいずれかが、制御部2からの置換単語に含まれるか
否か)が判定される。ステップS19において、特定前
件が見つかったと判定された場合、ステップS20に進
み、そのアクセント型が、特定前件要素辞書34Cから
読み出される。そして、ステップS21に進み、そのア
クセント型が、置換単語(置換単語の音韻情報)ととも
に、定型文読み韻律情報生成部35に出力され、処理を
終了する。 【0106】従って、例えば、いま、置換単語として
「道場町生野」が入力され、特定前件要素辞書34C
に、特定前件「道場町」の音韻韻律情報「どうじょ’う
ちょう」が登録されていれば、単語アクセント検索部3
3から定型文読み韻律情報生成部35には、置換単語
「道場町生野」の音韻韻律情報「どうじょ’うちょう|
いくの」が出力されることになる。なお、置換単語「道
場町生野」の特定前件以降の部分、即ち、後件「生野」
のアクセント型は、上述した場合と同様に、平板型とさ
れる。 【0107】以下、定型文読み韻律情報生成部35およ
び規則音声合成部16において、上述した場合と同様の
処理が行われ、これにより、スピーカ8からは、自然な
合成音が出力される。 【0108】一方、ステップS19において、制御部2
からの置換単語の前件(特定前件)が見つからなかった
と判定された場合、即ち、その置換単語が、後件要素辞
書34A、前件要素辞書34B、または特定前件要素辞
書34Cにそれぞれ登録されている後件、前件、または
特定前件のいずれも含まない場合、ステップS22に進
み、その旨を表すメッセージ、即ち、アクセント型なし
メッセージが、制御部2からの置換単語とともに、定型
文読み韻律情報生成部35に出力され、処理を終了す
る。 【0109】この場合、定型文読み韻律情報生成部35
では、置換単語のアクセント型が平板型とされ、置き換
え文の音韻韻律情報が生成される。そして、以下、上述
した場合と同様にして、スピーカ8から合成音が出力さ
れる。 【0110】なお、上述の場合においては、特定前件辞
書34Cを設け、それを対象とした検索を行うようにし
たが、そのような処理を行わないようにすることも可能
である。即ち、ステップS13において、制御部2から
の置換単語の後件が見つからなかったと判定された場
合、あるいは、制御部2からの置換単語の後件は見つか
ったが、ステップS15において、その前件が見つから
なかったと判定された場合、ステップS18の処理を行
わず、ステップS22の処理を行うようにすることも可
能である。この場合、処理の高速化を図ることができる
他、特定前件要素辞書34Cを設ける必要がないので、
システムの低コスト化、小型化を図ることが可能とな
る。 【0111】但し、この場合、特定前件を含む地名(置
換単語)は、すべて平板型のアクセントとされることと
なり、従って、アクセント型が平板型でない地名につい
ては、不自然な合成音が生成されることとなる。しかし
ながら、特定前件を含む地名の数は少なく、そのような
地名が置き換え文に含まれる確率は低いので、上述のよ
うに、特定前件辞書34Cを対象とした検索処理を行わ
なくても、不自然な合成音が頻繁に出力されることはな
い。 【0112】さらに、上述の場合、前件要素辞書34B
には(特定前件要素辞書34Cについても同様)、置き
換え文中におけるアクセント型に無関係に、前件のアク
セント型を登録しておくようにしたが、前件要素辞書3
4Bには、図2の単語アクセント辞書14における場合
と同様に、置き換え文中において、そのアクセント型が
平板型以外になる前件のみを登録しておくようにするこ
とも可能である。この場合、前件要素辞書34B(特定
前件要素辞書34C)の容量の低減化を図ることができ
る。 【0113】また、例えば、「どうじょうちょうい」な
どという、1つの韻律語で構成される地名が存在し(但
し、このような地名は現実には存在しない)、これが、
置換単語として、単語アクセント選択部33に入力され
た場合、図6のフローチャートにしたがった処理によれ
ば、この置換単語は、特定前件「どうじょうちょう」
と、後件「い」とに、誤って分割されることとなる。そ
こで、このような誤った分割を防止するため、後件が、
例えば2モーラ数以下などの場合には、単語アクセント
選択部33に、置換単語を、2つの韻律語、即ち、前件
と後件とに分割させないようにすることが可能である。 【0114】さらに、地図上の地名の表記には、後件が
数字だけでなるもの、即ち、例えば「北品川5」(きた
しながわご)などが存在する。例えば定型文「○○付近
です。」の○○を、このような「北品川5」に置き換え
た(「北品川5」と組み合わせた)置き換え文「北品川
5付近です。」を、実際に発話した場合、一般的には、
「北品川5」の後件である「5」は、「付近です。」と
アクセント融合することにより、1つの韻律語を構成す
るようになり、そのアクセントが平板化する。しかしな
がら、このように後件が数字だけでなる地名(置換単
語)については、「5」と「付近です」とをアクセント
融合するより、両者を、別の韻律語として分割して、数
字の部分は数字が有するアクセント型とした方が、その
合成音は、聞き取り易いものとなる。即ち、例えば、
「北品川5付近です。」については、図7に示すような
韻律情報とした方が、合成音が聞き取り易いものとな
る。 【0115】そこで、後件要素辞書34Aには、後件と
なる数字については、その見出し(あるいは、見出しお
よび音韻情報)だけでなく、そのアクセント型を登録し
ておくようにし、さらに、図6のステップS13で、後
件が見つかった場合に、図8に示すような処理を行うよ
うにする。即ち、ステップS31において、後件が数字
か否かを判定し、後件が数字でない場合には、図6のス
テップS14以下の処理を行う。また、後件が数字であ
る場合には、ステップS32に進み、前件の検索を行
う。そして、ステップS33に進み、前件および後件の
両方のアクセント型(但し、前件が見つからなかった場
合は、前件については、アクセント型なしメッセージ)
を、単語アクセント検索部33から定型文読み韻律情報
生成部35に出力するようにする。 【0116】そして、定型文読み韻律情報生成部35に
は、単語アクセント検索部33から、前件および後件の
両方のアクセント型を受信した場合、後件をアクセント
融合させずに、独立した韻律語として扱わせ、前件およ
び後件の両方のアクセント型を、そのまま用いて、置き
換え文の音韻韻律情報を生成させるようにする。以上の
ようにすることで、定型文読み韻律情報生成部35で
は、例えば、置き換え文「北品川5付近です。」につい
ては、「きたしな’がわ|ご’|ふき’んです」という
音韻韻律情報が生成されることとなる。 【0117】なお、数字の他、アクセント融合させない
方が聞き取り易い後件(例えば、甲(「こ’う」)、乙
(「お’つ」)、丙(「へ’い」)など)については、
そのアクセント情報を、後件要素辞書34Aに記憶させ
ておき、定型文読み韻律情報生成部35には、後件要素
辞書34Aにアクセント情報が記憶されている後件を有
する置換単語について、上述した数字のみの後件を有す
る置換単語における場合と同様にして韻律情報を生成さ
せるようにすることが可能である。この場合、後件のア
クセントを、一律に平板化する場合に比較して、より理
解が容易な合成音を提供することができる。 【0118】また、上述の場合には、後件要素辞書34
Aに後件のアクセント型を登録しておくようにはしてお
かなかったが、後件要素辞書34Aには、後件のアクセ
ント型を登録しておくようにすることが可能である。こ
の場合、置換単語が、後件要素辞書34A、前件要素辞
書34B、または特定前件要素辞書34Cにそれぞれ登
録されている後件、前件、または特定前件のうちのいず
れかと完全に一致するときには、その一致するものを見
つけた後、以降の処理を行わずに、その一致するものの
アクセント型を、単語アクセント検索部33から定型文
読み韻律情報生成部35に出力させるようにすることが
可能である。 【0119】以上、本発明を、自動車に搭載されるナビ
ゲーションシステムに適用した場合について説明した
が、本発明は、その他、例えば航空機や船舶などに搭載
されるナビゲーションシステムなどにも適用可能であ
る。さらに、本発明は、ナビゲーションシステムの他、
合成音による音声応答を行う音声ガイダンス装置、その
他のあらゆる装置に適用可能である。 【0120】なお、本実施例においては、現在地を、ユ
ーザに報知するための定型文「○○付近です。」を例に
して、合成音の出力を説明したが、本発明は、その他の
定型文を用いた場合にも適用可能である。 【0121】さらに、本実施例では、定型パターン記憶
部12および単語アクセント辞書14(または、後件要
素辞書34A、前件要素辞書34B、および特定前件要
素辞書34C)を音声合成装置7に内蔵させるようにし
たが、その記憶情報は、例えば、CD−ROM3などに
登録しておくようにすることが可能である。 【0122】また、本実施例では、音声合成装置7にお
いて規則音声合成処理により合成音を生成するようにし
たが、音声合成装置7には、その他の手法で合成音を生
成させるようにすることが可能である。 【0123】さらに、本実施例では、音韻情報を、必要
に応じて、単語アクセント辞書14(または、後件要素
辞書34A、前件要素辞書34B、および特定前件要素
辞書34Cについても同様)に記憶させるようにした
が、制御部2から置換単語として、その平仮名読みが供
給される場合(これは、CD−ROM3に地名などの平
仮名読みを記録しておくようにすることで実現すること
ができる)は、単語アクセント辞書14に見出しを登録
しておく必要はない(例えば、音韻情報となる平仮名読
みおよびアクセント型だけで足りる)。この場合、単語
アクセント辞書14の容量のさらなる低減化を図ること
ができる。 【0124】 【発明の効果】本発明のナビゲーションシステムによれ
ば、前件アクセント情報記憶手段には、前件のアクセン
トに関するアクセント情報が記憶され、後件記憶手段に
は、後件が記憶されている。そして、所定の単語が後件
を有するか否かが、後件が記憶されている後件記憶手段
を参照することにより判定され、所定の単語が後件を有
しない場合、所定の単語のアクセント型を平板型に決定
される。また、所定の単語が後件を有する場合、その前
件のアクセント情報が、前件のアクセントに関するアク
セント情報が記憶されている前件アクセント情報記憶手
段から検索され、その検索結果に基づいて、所定の単語
のアクセントを決定される。従って、自然なアクセント
の合成音を、迅速に得ることが可能となる。さらに、こ
の場合、前件アクセント情報記憶手段および後件記憶手
段の容量の低減化を図ることが可能となる。 【0125】 【0126】 【0127】 【0128】
DETAILED DESCRIPTION OF THE INVENTION [0001] [0001] The present invention relates to:Navigation
StemAbout. Especially for adding accents to synthesized sounds
Of the words that compose the synthesized sound
The amount of accent information can be reduced
It was to soNavigation systemAbout. [0002] 2. Description of the Related Art Conventional speech synthesizers include words of fixed sentences.
Output synthetic speech (synthesized speech)
You. In other words, it is suitable for car navigation systems, for example.
In the speech synthesizer used, for example, "here is near XX
is. ”And other frequently used sentences
Was replaced with the place name.
By outputting a synthesized sound corresponding to the replacement sentence, the driver
In addition, the current location is notified. [0003] The synthesized sound output as described above
Must be accented with
You. Therefore, for example, a so-called waveform editing type speech synthesizer is used.
In the dictionary, the replacement dictionary (the above-mentioned place name
Words that can be replaced with words that make up a fixed sentence)
Is replaced in a fixed sentence
The speech waveform of the word is stored.
The dictionary built into the speech synthesizer that performs synthesis contains replacement words.
The accent type is stored. [0004] The Japanese accent is the pitch of the sound.
It depends on the placement, but the accent type here is
This height arrangement is shown. In particular, Japanese
How high should the accent of the idiom be, that is, where
Whether there is a transition from a high level to a low level
Round. Here, change from this high level to the low level
The last high-level beat of the
And the accent nucleus is N mora (beat) from the beginning of the word
, The accent type of the word is N-type.
Here, the mora (beat) is equivalent to the kana character unit.
(But slightly different from syllables). From a high level
If there is no change to low level, type 0 Accen
It becomes a shape. [0005] In this specification, the type 0
Xent type is called flat type,
A unit of prosody having a nucleus is called a prosodic word. The sentence
For accent, the prosodic word unit
The position is specified. [0006] SUMMARY OF THE INVENTION Conventional fixed phrase words are
In a speech synthesizer that outputs synthesized speech by replacing
As mentioned above, some form (in the above case, the audio waveform
Or accent type), and
Information (hereinafter referred to as accent information as appropriate)
Traditionally, such accent information is
It was registered in a word dictionary. However, for car navigation, etc.
Applicable speech synthesizers require proper nouns, especially
Names are often replaced words, and the number is huge.
(The names of places and facilities throughout Japan reach more than 100,000 words.
ing). Because of this, a huge number of replacement words
When accent information is registered in the word dictionary, the word
There was a problem that the volume of the book became large. In addition,
As a result, there has been a problem that the system is increased in size and cost is increased. Therefore, the accent type of the replacement word must be
There is a method of making the sound flat, but in this case, the synthesized sound is
There was a problem that became natural. The present invention has been made in view of such a situation.
And the amount of accent information to be registered in the dictionary.
Reduced and able to generate natural synthesized sounds
It is to be. [0010] [Means for Solving the Problems]Navigation of the present invention
The system provides at least map information,
Map information storage means for storing
Measurement means, and the contents and measurement of the map information storage means
Output for outputting predetermined information according to the measurement result of the means
A navigation system comprising:
Means for outputting predetermined information as synthesized sound.
When the predetermined information includes a predetermined word,
When the predetermined word is less than or equal to 1
Including multiple prosodic words, which are prosodic units with proto-core
Suppose that the prosodic word located at the end of the word is the consequent
When the rest is the antecedent, the accent on the antecedent
Antecedent accent information that stores accent information
Storage means for storing the consequent,
Word accents are stored in the antecedent accent information storage means and
Determining means with reference to the storage means and the consequent storage means;
For a given word with an accent determined by the column
Generating means for generating a corresponding synthesized sound;
Determines whether a given word has a consequent,
Is determined by referring to the specified word has a consequent.
If not, set the accent type of the given word to flat
If a given word has a consequent,
Event information from the antecedent accent information storage means,
Based on the search results, determine the accent of a given word.
Is characterized. [0011]In the navigation system of the present invention
Means the antecedent accent information storage means
Accent information about
Remembers the consequent. The determination means determines the
Xent, the antecedent accent information storage means and the consequent
Is determined by referring to the storage means, and the generation means is determined by the determination means.
A match corresponding to a given word having the determined accent
It is adapted to generate articulated sounds. In this case smell
The determining means determines whether or not the predetermined word has a consequent.
Judgment by referring to the consequent storage means, a predetermined word
If has no consequent, flatten the accent type of the given word.
If it is determined to be a plate type and the given word has a consequent,
Is the accent information storage means
Search, and based on the search results,
The cents have been made to determine. [0012] [0013] [0014] [0015] [0016] [0017] [0018] [0019] [0020] [0021] [0022] [0023] Embodiments of the present invention will be described below.
However, before that, each means of the invention described in the claims
In order to clarify the correspondence between
In the parentheses after the means, the corresponding examples (but one example)
In addition, the features of the present invention are described as follows.
You. [0024]The navigation system of the present invention
Stores map information that is information about at least a map
Map information storage means (for example, the CD-ROM 3 shown in FIG. 1)
Etc.) and measuring means for measuring the current location (for example, FIG. 1)
Measuring unit 4 shown in FIG.
Outputs predetermined information according to the measurement results of the measuring means
Output means (eg, the output unit 5 shown in FIG. 1)
A navigation system comprising:
Speech synthesis means for outputting predetermined information as synthesized sound (for example,
1 etc.).
When the predetermined information includes a predetermined word, the speech synthesis means
A given word is a simple prosodic with less than one accent kernel
If there is more than one prosodic word at the end,
The prosodic word to be placed is the consequent, and the rest is the antecedent
Sometimes remembers accent information about the antecedent's accent
Antecedent accent information storage means (for example, in FIG. 5
And the consequent element dictionary 34B).
Consequence storage means (for example, consequent element dictionary 34A shown in FIG. 5)
Etc.) and the accent of the given word, the antecedent accent
Decision made with reference to the information storage means and the consequent storage means
Determining means (for example, the word accent search unit 33 shown in FIG. 5)
And fixed phrase reading prosody information generating unit 35, etc.)
For a given word with an accent determined by the column
Generating means for generating a corresponding synthetic sound (for example, as shown in FIG.
Ruled speech synthesizer 16 etc.), and
Whether or not the word has a consequent is referred to the consequent storage means.
If a given word has no consequent,
If the word's accent type is determined to be flat,
If the word has a consequent, the accent information of the antecedent
From the antecedent accent information storage means, and the search
Based on the results, determine the accent for a given word.
And features. [0025] [0026] [0027] [0028] [0029] Of course, in this description, each means is described above.
It is not meant to limit to things. FIG. 1 shows a navigation to which the present invention is applied.
It is a block diagram showing composition of one example of a system. This
Navigation systems are installed in, for example, automobiles
Besides the operation of buttons, etc.
Have been made to work. In addition, this navigator
In addition to being installed in automobiles,
It is designed so that it can be used in a band. The input unit 1 includes, for example, a button and a joystick.
And other microphones for inputting audio
And other voice input means. And the input section
From 1, a signal corresponding to the operation of the operation means is sent to the control unit 2.
Has been made to be sent. Further, the input unit 1
It has a built-in voice recognition device,
The voice input to the input means is
Is also transmitted to the control unit 2.
ing. The control unit 2 includes:
Control the operation of the entire system.
It has been made. For example, the CD-ROM 3
Digitized map information (map image data) on a number scale
Not only data, but also text such as place names and facility names on the map.
Required for other navigation)
Necessary information is recorded (stored), and from there, control
The necessary information is read out based on the command from the unit 2.
It has been done. The measuring unit 4 receives radio waves from GPS satellites
Or use a measuring device such as a gyroscope
For example, the present location is measured.
The output unit 5 outputs predetermined information supplied from the control unit 2.
It has been made to be. That is, the output unit 5 outputs the predetermined information.
If the report is an image or other displayable (for example, a map
For example, to display it when
The display unit 6 composed of a monitor, a CRT, etc.
If it is necessary to generate the sound,
Voice synthesizer 7 that performs voice synthesis based on
The synthesized sound generated by the device 7 and other information that can be output as voice
It has a speaker 8 for outputting. The navigation system configured as described above
In the stem, for example, the input unit 1 displays the current location.
Is operated, the operation signal corresponding to the operation
Is output from the input unit 1 to the control unit 2. Then control
In the section 2, the current position measured by the measuring section 4 is received.
And a map of a given scale, including the current location,
It is read from the CD-ROM 3. Further, the control unit 2
Indicates the map read from the CD-ROM 3
It is supplied to the display unit 6. Thereby, in the display unit 6, for example,
For example, if the map centered on the current location is a mark representing itself (for example,
(E.g., an arrow pointing in the direction of the car)
Is done. Thereafter, the automatic operation performed by the user (driver)
For example, a car is approaching a certain area, intersection, facility, etc.
Then, in the control unit 2, the place name (intersection name,
Is read from the CD-ROM 3,
Along with the information necessary for speech synthesis, the speech synthesis
Output to the device 7. In the voice synthesizer 7, the control unit 2
When receiving the information, based on the information, for example, a regular sound
Voice synthesis is performed, and a synthesized sound is generated. That is, the place name is
For example, in the case of "Kitashinagawa", the speech synthesizer 7
Is a synthetic sound for notifying the user of the current location, for example.
"Near Kitashinagawa" is generated. This synthesized sound
The peaker 8 is supplied and output, whereby the user
Recognizes the current location without moving the line of sight to the display unit 6.
can do. As described above, the present location is output as a synthetic sound.
The point of emphasis (area, facility, intersection, etc.) is CD-RO
It can be stored in M3,
The user can also set it in advance. In addition, the user
However, when the input unit 1 is operated in a predetermined manner, the current position is
It is also possible to output. The CD-ROM 3 is compatible with the system.
It is made detachable, so that future maps
Regardless of the change, the map information after the change is stored
CD-ROM instead of CD-ROM3.
To display information stored in the CD-ROM 3.
That decay effectively renders the system unusable.
It has been made so that it can be prevented. FIG. 2 shows a configuration example of the speech synthesizer 7 in FIG.
Is shown. The speech synthesizer 7 converts the words of the fixed phrase into
Replace with the replacement word (input word) (predetermined word)
It is configured to generate a synthesized sound as described above. Immediately
That is, the control unit 2 sends a speech
Identify the fixed phrases to be used, for example, as information necessary for
Information (typical sentence pattern input) for CD-RO
Replacement words (such as place names recorded in M3)
(Word input). Specifically
Is, for example, as described above,
You. Is generated, it is called "around XX."
A fixed phrase and a replacement word "Kitashinagawa" that can be replaced with XX
Is supplied. In addition, the specific information is the fixed phrase reading prosody information
The replacement word is input to the selection unit 11 by the word accent search unit 13.
, Respectively. The standard sentence reading prosody information selecting unit 11 includes a control unit
2 receives the specific information, and is specified by the specific information.
Information about a fixed sentence to be stored in the fixed sentence pattern storage unit 12.
And supplies it to the fixed phrase reading prosody information generating unit 15
It has been done. The fixed phrase pattern storage unit 12 stores
Sentences frequently used in navigation systems
Fixed phrase (for example, as described above, "Around XX."
"Please turn right (left) at the XX intersection."
Or, "And, in the vicinity of ○○ (destination etc.) at ○ km
You. , "Next is the XX intersection."
Information such as phonological information (reading) and prosodic information
(For example, the start position of a phrase in a fixed phrase,
Accent nucleus position of formed word (morpheme), inserted into fixed phrase
(The position of the pause to be entered, etc.)
Information and prosodic information,
"). [0040] The word accent search unit 13 is
Received the replacement word from the
For example, an accent type as accent information
A search is made from the word accent dictionary 14 and a replacement word (replacement word
Along with the standard sentence reading prosody information generation unit 15
It is made to supply to. Word accent dictionary 1
4 is a fixed pattern stored in the fixed sentence pattern storage unit 12.
When replacing a sentence with a word that composes a sentence,
Accent type of replacement word whose xent type becomes something other than flat type
Is paired with the heading and phonological information (reading) of the replacement word.
I remember it. Therefore, the word access is
The cent search unit 13 actually includes a heading of the replacement word,
Or heading and phonological information is provided
The word accent search unit 13 receives the word
Corresponds to the heading of the replacement word, or heading and phonological information
The attached accent type is converted to word accent dictionary 1.
4 is searched. The word accent dictionary 14 is as described above.
Was replaced with words that make up fixed phrases
Sometimes a replacement word whose accent type becomes something other than a flat type
Only the accent type is memorized and it becomes a flat type.
The accent type of the paraphrase is not stored. Therefore, simply
Such a replacement word is input to the word accent search unit 13.
If it is, the accent type of the replacement word is searched.
Cannot be used (get accent type as search result)
Can not), but in such a case, the word accent
The search unit 13 sends the standard sentence reading prosody information generation unit 15
Failed to search accent type of replacement word
And the phonetic information of the replacement word are output.
Have been. The standard sentence reading prosody information generation unit 15
Receive a fixed sentence pattern from the reading prosody information selecting unit 11
And the replacement word from the word accent search unit 13
Phonological information and accent type
Based on the information, there is only one of the words that
Word (the above-mentioned XX part) is replaced with a replacement word
Generate a replacement sentence, and obtain phonemic information and rhyme for the replacement sentence.
Is generated. That is, the fixed phrase reading prosody information generating unit 15
The phoneme information of the XX part of the fixed phrase is replaced with the phoneme information of the replacement word.
To generate phonemic information of the replacement sentence.
You. Also, the fixed phrase reading prosody information generation unit 15
The starting position of the sentence phrase and the words that make up the replacement sentence
Accent nucleus position, pose position to be inserted in replacement sentence
Generate (determine) prosody information such as the position. Here, words are connected to form a sentence.
And if the word is spoken in the sentence,
The accent nucleus position of the word
May change (such a change in accent nucleus position).
Ization is called accent fusion). Therefore, fixed phrase reading
In the prosody information generating unit 15, such accent fusion
From the fixed phrase reading prosody information selecting unit 11
Prosody information and word accents included in fixed sentence patterns
The accent type of the replacement word from the search unit 13 is
We should not combine them into the prosodic information of the replacement sentence.
Based on that information, so to speak,
Generates (determines) prosodic information of a sentence
(However, the prosody information generated in this way is
And the prosody information included in the
May be the same as the combination
). The fixed sentence reading prosody information generation unit 15
From the word accent search unit 13, the accent of the replacement word
If you receive a message that the type could not be searched,
Determines (recognizes) the accent type of the replacement word of the word as a flat type
It has been done. The fixed sentence reading prosody information generating unit 15
After generating the phonological or prosodic information of the sentence,
Is converted to phonetic symbols or prosodic symbols represented by predetermined symbols
To be supplied to the rule speech synthesizer 16.
You. The rule speech synthesizer 16 includes a prosody processor 17,
Prosody control rule / model storage unit 18, phoneme unit selection unit 19,
It is composed of a phoneme segment storage unit 20 and a speech synthesis unit 21,
Phoneme information generated by the standard sentence reading prosody information generation unit 15,
Sentence with prosodic information such as accent and accent nucleus
Is generated by the rule-based speech synthesis process.
It has been made. That is, the prosody processing unit 17 outputs the
With reference to the model storage unit 18, generation of fixed phrase reading prosody information
From the phonetic symbols and prosodic symbols output from the
Constructs a replacement sentence, such as a pitch pattern and a replacement sentence
Control information such as the duration of each phoneme
Calculate parameters to drive the model that generates the report
It has been made to be. Further, the prosody processing unit 17
Prosody control rules / model notation
The model stored in the storage unit 18 is driven.
The pitch pattern described above, the duration of each phoneme, and
Generates control information (specific numerical values) such as
The data is supplied to the segment selection unit 19. In addition,
The prosody processing unit 17 converts the control information (specific numerical values)
In addition, phonemic symbols from the fixed phrase reading prosody information generating unit 15 are also:
It is supplied to the phoneme segment selection unit 19. The prosody control rule / model storage unit 18
Prosody control rules for controlling the prosody of the sound, and
Various models for generating control information are stored. The phoneme segment selecting section 19 sends the
Phoneme segment data corresponding to the phonetic symbol string of
20 and the control information from the prosody processing unit 17 as well.
The connection is made based on the information. That is, phonemes
The segment selector 19 converts the phoneme segment data into a pitch pattern,
Connect and place based on rhyme duration, power, etc.
To generate an audio waveform corresponding to the replacement sentence.
I have. The phoneme segment storage unit 20 stores, for example, CV, CVC /
Speech unit data required for rule-based speech synthesis in units such as VCV
I remember. The voice synthesizer 21 has a built-in D / A converter
Then, the speech waveform output from the phoneme segment selection unit 19 is converted to a D / A
The data is converted and supplied to the speaker 8 for output.
ing. Next, the operation will be described. Control unit
2 provides the specific information and the replacement word,
The fixed information or replacement word is the standard sentence reading prosody information, respectively.
Input to the selection unit 11 or the word accent search unit 13
You. In the standard sentence reading prosody information selecting section 11, the control section 2
When the specific information is received, the fixed phrase corresponding to the specific information
The pattern is read from the fixed phrase pattern storage unit 12.
Then, it is supplied to the standard sentence reading prosody information generating unit 15. Ma
In the word accent search unit 13, the replacement is performed from the control unit 2.
Upon receiving a word, follow the flowchart in FIG.
Processing is performed. That is, first, in step S1
The replacement word (the heading of the replacement word,
Is heading and phoneme information). And step
In S2, the accent type of the replacement word is
Is searched from the Xent dictionary 14 and proceeds to step S3.
Determine whether the accent type of the replacement word was found.
Is determined. In step S3, replacement from the control unit 2
If it is determined that a word accent type has been found,
Proceeding to step S4, the accent type is read.
Then, the process proceeds to step S5, and the accent type is
Along with the substitute words (phonemic information of the replacement words),
This is output to the rule information generation unit 15 and the process is terminated. On the other hand, in step S3, the control unit 2
Judgment that the accent type of these replacement words was not found
If so, the process proceeds to step S6, and a message to that effect is sent.
Page (hereinafter referred to as an accent-less message, as appropriate)
), But with a replacement word from the control unit 2
The prosody information is output to the prosody information generating unit 15, and the process is terminated. Returning to FIG. 2, the standard sentence reading prosody information generation unit 1
Reference numeral 5 denotes a standard sentence pattern from the standard sentence reading prosody information selecting unit 11.
And the word accent search unit 13
Receive the phonological information and accent type of the replacement word
And, based on the information, a fixed phrase (a fixed phrase reading prosody)
Corresponding to the standard sentence pattern supplied from the information selection unit 11
Replace the XX part of the words that make up the fixed form sentence
Generates a replacement sentence replaced with a word, and the replacement sentence
Phonological information and prosody information are generated. Furthermore, fixed phrases
The reading prosody information generation unit 15 outputs the phonetic information or the prosody information.
Information into phonetic or prosodic symbols, respectively.
It is supplied to the speech synthesis unit 16. Note that the standard sentence reading prosody information generating unit 15
Is no accent type from the word accent search unit 13.
If a message is received, replace it as described above.
The accent type of the word is determined to be flat, and the replacement sentence
Phonetic and prosodic symbols are generated. In the rule speech synthesizer 16, first, the prosody processing
In the unit 17, the prosodic control rule / model storage unit 18 is referred to.
And output from the fixed phrase reading prosody information generation unit 15
From phonetic symbols and prosodic symbols, control information as described above
The parameters for driving the model that generates the
And the model is driven using the parameters.
It is. As a result, specific numerical values of the control information are generated.
You. The specific numerical value of this control information is the phonetic transcription of the replacement statement.
Along with the number, it is supplied to the phoneme segment selection unit 19. Phoneme selection
The selection unit 19 corresponds to the phonetic symbol string from the prosody processing unit 17
The read speech unit data is read out from the speech unit storage unit 20.
These are also used as control information from the prosody processing unit 17.
Replaced by being connected based on specific numbers
An audio waveform corresponding to the sentence is generated. In addition, the fixed reading rhyme
Of the prosody information of the replacement sentence generated by the
One accent type is the pitch pattern of the audio waveform.
Etc., which has a natural accent
A speech waveform of the synthesized sound is generated. Further, the phoneme segment selecting section 19
Of the resulting speech waveform,
The pose of one of the prosody information determined by the generation unit 15
A pause is inserted corresponding to the position, and the pause is
Paid. The voice synthesizer 21 has a built-in D / A converter.
The sound waveform from the speech element selection unit 19 is changed to D /
The signal is A-converted and supplied to the speaker 8. This allows
The synthesized sound corresponding to the replacement sentence is output from the peaker 8.
It is. Next, from the speaker 8, for example, the synthesized sound "Kita
It is near Shinagawa 1-chome. Is output as an example,
The operation of the navigation system will be further described.
You. In this case, the control unit 2 sends a signal to the speech synthesizer 7.
As the specific information, for example, the fixed phrase "Around XX."
And a replacement word (exactly
Is the heading of the replacement word, or
For example, "Kitashinagawa 1-chome" (Kitashi
(In this case, the characters in ""
The characters in parentheses that correspond to the headwords of the substitute words,
(Corresponding to the phoneme information). In the standard sentence reading prosody information selecting section 11,
Receive the specific information corresponding to the sentence "Near XX."
From the fixed phrase pattern storage unit 12, "It is near XX"
Of the fixed sentence pattern, that is, its reading (phonological information) and
Prosody information is retrieved and read. Hereafter, the reading (phonological information) is appropriately changed as follows.
The position of the accent nucleus, which is one of the prosodic information in Hiragana
Is represented by a 'mark, and the boundary between prosodic words is represented by a | mark. In addition, like this
The notation is phonological information and prosodic information (here, prosodic information
Both the accent type (the position of the accent nucleus) in the report
Therefore, it is called phonological information. In the following,
The turn storage unit 12 and the word accent dictionary 14 include
It is assumed that such phonological information is stored. Therefore, the fixed phrase prosody reading information selecting unit 11
Is the phonemic prosody information (fixed sentence pattern)
"Is searched. On the other hand, the word accent search unit 13
Paraphrase "Kitashinagawa 1-chome" (Kitashinagawa Ichome)
Received from the word accent dictionary 14, "Kitashinagawa
1-chome phonetic prosody information "Kitashina" |
Is searched. Here, the fixed phrase "Around XX" is constructed.
Word to be replaced with the replacement word "Kitashinagawa 1-chome"
Replacement sentence "It is near Kita Shinagawa 1-chome."
Put a 韻 mark on the high part and a _ mark on the low part, and
When expressed together with the information, the result is as shown in FIG. What
In the figure, | marks indicate the boundaries between prosodic words as described above.
Represents the world. As shown in FIG. 4A, the replacement statement
In the "Kitashinagawa 1-chome area", the replacement word "Kitashinagawa
The accent type of Kawa 1-chome is not a flat type. Follow
And, the word accent dictionary 14 contains "Kitashinagawa 1-chome"
Phonetic prosody information "Kitashina" is registered.
As a result, the word accent search unit 13
Is the phonetic prosody information of "Kitashinagawa 1-chome"
| Icchome "is retrieved and read. In the word accent dictionary 14,
As mentioned above, the accent type of the replacement word
It is stored in association with the word heading and phonological information.
If the registered font in the word accent dictionary 14
The mat is, for example, as follows. That is, for example, the replacement word “Kitashinagawa 1-chome”
Is Headline: Kitashinagawa 1-chome Phoneme information: Kita Shinagawa Accent type: 4/6 + 0/5 Is registered in the word accent dictionary 14
You. Note that a / b in the accent type is a certain prosodic word
Is composed of b mora and its accent type is a type
+ Indicates a boundary between prosodic words.
Therefore, in the above example, the replacement word “Kitashinagawa 1-chome” is
It consists of two prosodic words, and the first prosodic word is
Accent type 4 with 6 mora, second prosodic word
Must be of type 0 and have 5 mora
And The standard sentence reading prosody information selection unit 11 searches
The phonetic prosody information "Fuki'n."
You. )) And the word accent search unit 13
Phonetic prosody information "Kitashina" |
Both are supplied to the fixed phrase reading prosody information generating unit 15,
There, these are combined and the replacement statement
It is near the river 1-chome. Is generated. That is, fixed phrase reading
In the prosody information generation unit 15, the replacement sentence "Kitashinagawa 1-chome
It's close. Reading and prosodic information about
You. Here, usually, in the preceding stage of “Nearby.”
"Kitashinagawa 1-chome" is added, and as a result, "Kitashinagawa 1
It is near the street. ”Means“ 1 chome ”
The so-called connecting part of "Nearby."
A merge occurs and they are united. As a result, "1 chome" and
And “Nearby.” Are replaced by one prosodic word.
Read about the sentence "It is near Kita Shinagawa 1-chome."
The prosody information, that is, the phoneme prosody information, is already shown in FIG.
As you did, "Kitashina" is
It is. " The replacement statement generated as described above
"Kitashinagawa is near 1-chome."
"Nanakawa" is a ruled voice
Is supplied to the component 16 and the above-described processing is performed.
Thus, the speaker 8 outputs the phonetic prosody information “Kitashi
"I'm |
The sound "Near Kita Shinagawa 1-chome" is output. That is,
A natural synthesized sound is output. Next, in the above case, the replacement word "Kita
The replacement word “Kitashinagawa” is replaced by the control unit instead of “Shinagawa 1-chome”.
2 to the word accent search unit 13
Will be described. In this case, the fixed sentence prosody reading information selecting unit 11
Then, as described above, phonological prosody information (fixed sentence pattern
N) “○○ Fuki” is searched, and the fixed phrase reading prosody
The information is supplied to the information generation unit 15. On the other hand, the word accent search unit 13
The replacement word “Kitashinagawa” from the word accent dictionary 14
A search for the phonetic prosody information of T. Shinagawa is performed. Here, the fixed phrase "Around XX" is constructed.
Word replaced with the replacement word "Kitashinagawa"
The paraphrase "Near Kitashinagawa."
When expressed in the same way as in the case, the result is as shown in FIG. Immediately
Usually, "Kitashinagawa" is added before "Nearby."
And, by this, "it is near Kitashinagawa."
The connection between "Kitashinagawa" and "Nearby."
Fusion, which results in the replacement word "Kitashinagawa"
Cent says "Kitashinagawa" from "Kitashinagawa"
And flatten. Therefore, as shown in FIG.
In the replacement sentence "Near Kitashinagawa."
The accent type of the word "Kitashinagawa" is a flat type. Therefore,
The word accent dictionary 14 contains the phonetic prosodic information of "Kitashinagawa".
The report "Kitashina'agawa" has not been registered, and as a result,
In the word accent search unit 13, the phonetic prosody of "Kitashinagawa"
Information cannot be retrieved. Therefore, simply
As described above, the word accent search unit 13
Along with the phonetic information "Kitashinagawa" of the word "Kitashinagawa",
Xententless message generates fixed phrase reading prosody information
Output to the unit 15. In the standard sentence reading prosody information generation unit 15, the standard sentence reading prosody information
Phonetic prosody information “blow” from the sentence reading prosody information selection unit 11
I'm ”(“ ○ ふ ”) and the word access
Paired with phonetic information “Kitashinagawa” from the client search unit 13
Combined, the replacement sentence "Near Kitashinagawa."
Reading and prosody information are generated. Here, as described above, the standard sentence reading prosody
The information generation unit 15 receives a word from the word accent search unit 13.
A message without accent type with the paraphrase "Kitashinagawa"
When the message is received, the accent type of the replacement word is
It is designed to be treated as a type. Therefore, in this case,
In the fixed sentence reading prosody information generation unit 15, the replacement sentence "Kitashin
It is near the river. And the prosodic information about
As shown in FIG. 4B, as phonological prosody information,
"Kitashinawafuki" is generated. The replacement statement generated as described above
"Near Kitashinagawa." Phonetic prosody information "Kitashinagawa
Is the speed through the rule speech synthesizer 16.
8 is supplied to the phonetic prosodic information “Kitashina”.
Synthetic sound according to "Gawabuki"
You. Is output. That is, a natural synthesized sound is output
You. [0077] A fixed form used in the navigation system
Replace words that make up the sentence with, for example, place names or other replacement words.
In the replacement sentence, the replacement word is often
Causes accent fusion in the fixed phrase,
The flattening of word accents has been reported by the present inventor.
Has been confirmed. Therefore, the word accent dictionary 14 contains
You have registered the accent type of many replacement words like
That is, in the replacement sentence,
Only the accent type of the replacement word whose type is other than the flat type
Reduce the capacity (dictionary size) because it only needs to be recorded
Can be Further, it is registered in the word accent dictionary 14.
Unreplaced words have a flat accent type.
Although it is treated as a plate type, as described above, the word Accen
Replacement words that are not registered in the dictionary 14
Whether the accent type becomes a flat type
However, even if a synthetic sound is generated in this way,
Is not unnatural. In the above description, the replacement word is “Kitashinagawa”.
I explained the case of "Kitashinagawa 1chome" as an example, but this example only
As can be seen from the word accent dictionary 14.
Words that need to be replaced (replacement words) are composed of multiple prosodic words.
Prosodic words other than the last prosodic word are flat
Outside. The word accent dictionary 14 contains
Words except for replacement words that flatten accents like
Alternatively, certain accents that do not flatten the accent
It is also possible to register words except for replacement words
But such replacement words have flattened accents
The number is very small compared to the replacement word
From the viewpoint of reducing the capacity of the accent dictionary 14,
Words except for replacement words whose accents are flattened.
It is desirable to record it. Next, FIG. 5 shows another example of the speech synthesizer 7 shown in FIG.
Is shown. In the figure, the case in FIG.
Are assigned the same reference numerals as those corresponding to
Hereinafter, the description thereof will be appropriately omitted. That is, this sound
The voice synthesizer 7 replaces the word accent search unit 13 with a simple
The word accent search unit 33 is added to the word accent dictionary 14.
Instead, the consequent element dictionary 34A, the antecedent element dictionary 34B, and
And the specific antecedent dictionary 34C is a fixed sentence reading prosody information generation unit 1
5 instead of the standard sentence reading prosody information generation unit 35,
Other than being provided, the configuration is the same as that in FIG.
Have been. The word accent search unit 33 determines whether the control unit 2
From the consequent element dictionary 34A,
34B or the specific antecedent dictionary 34C as necessary.
Access to the replacement word's accent
Search and replace, for example, accent type
Along with the word (phonemic information of the replacement word), the standard sentence reading prosody
The information is supplied to the information generating unit 35. The consequent element dictionary 34A stores words (substitution words).
Heading of the consequent (except for the rare consequent described below)
(And phonetic information if necessary)
In the antecedent element dictionary 34B, the word (substitution word) antecedent (
(Excluding specific antecedents described later)
For example, memorize accent type as Xent information
I have. Here, the consequent of a word means that the word
The last rhyme if it consists of a number of prosodic words
The antecedent means all the remaining prosodic words.
To taste. The specific antecedent element dictionary 34C is an antecedent element dictionary.
Like 34B, accent type of word (replacement word) antecedent
I remember. However, the specific antecedent element dictionary 34C includes:
Access to only specific antecedents (hereinafter referred to as specific antecedents as appropriate)
I remember the cent type. Here, the specific antecedent is a word
In the accent search unit 33, the
Are rarely entered (eg,
In navigation systems, for example,
Is less specific), and the antecedent of the place name is a specific antecedent). The standard sentence reading prosody information generation unit 35
Consequence element dictionary 34A, antecedent by Xent search unit 33
Referring to the element dictionary 34B or the specific antecedent dictionary 34C
Generates a replacement sentence based on the search results of
Cents (including replacement word accents) and other prosody
The information is generated (determined). With the speech synthesizer 7 configured as described above,
Is supplied with specific information and a replacement word from the control unit 2.
And the specific information or replacement word
Prosody information selection unit 11 or word accent search unit 13
Is entered. The standard sentence reading prosody information selection unit 11
When the specific information is received from the control unit 2, as described above,
Phonemic prosody information of the fixed sentence corresponding to the specific information
Turn) is read out from the fixed phrase pattern storage unit 12.
This is supplied to the standard sentence reading prosody information generating unit 35. Ma
In the word accent search unit 33, the replacement is performed from the control unit 2.
When a word is received, follow the flowchart in FIG.
Processing is performed. That is, first, in step S11,
The replacement word (the heading of the replacement word,
Is heading and phoneme information). And step
In S12, the search for the consequent of the replacement word is performed
This is performed with reference to the elementary dictionary 34A. Note that step
In S12, the search for the consequent of the replacement word is
The last part (possibly the whole replacement word) and the consequent
Match with the consequent registered in the elementary dictionary 34A
It is done by doing. Here, the consequent element dictionary 34A contains, for example,
"1-chome" (Ichome) and "2-chome" (Nicho)
), "3-chome" (Sanchome), "4-chome" (Yon
In addition to "~ chome" such as chome, "~ bancho" (~ ban
Town), "North exit" (Kitaguchi), "Honmachi" (honmachi),
Place names (such as "below", "one", etc.)
Are the consequents of, for example, facility names, road names, intersection names, etc.)
Possible words (except for unusual consequents) are registered
I have. When the search of the consequent element dictionary 34A is completed,
In step S13, after the replacement word from the control unit 2
It is determined whether a case has been found. In step S13
Then, if the consequent of the replacement word from the control unit 2 is found
If it is determined, the process proceeds to step S14, and the replacement word
Is searched while referring to the antecedent element dictionary 34B.
Is In step S14, before the replacement word,
Search is performed by excluding the consequent of the replacement word and the antecedent element
Matches the antecedent registered in the dictionary 34B.
Is performed by Here, the antecedent element dictionary 34B contains, for example,
"Kitashinagawa" (Kitashinagawa) and "Higashishinagawa" (Higashishi
(Nagawa), "Nishishinagawa" (Nishishinagawa), "Minamishinagawa"
(Such as Minami Shinagawa)
Words that can be the antecedent of a building name, road name, intersection name, etc.)
(However, except for the specific antecedent) is registered. When the search of the antecedent element dictionary 34B is completed,
In step S15, before the replacement word from the control unit 2
It is determined whether a case has been found. In step S15
Then, if the antecedent of the replacement word from the control unit 2 is found
If it is determined, the process proceeds to step S16, and the
The Xent type is read from the antecedent element dictionary 34B.
Then, the process proceeds to step S17, and the accent type is
Fixed phrase reading along with replacement words (phonemic information of replacement words)
The output is output to the prosody information generation unit 35, and the process ends. The standard sentence reading prosody information generation unit 35 outputs the word
From the xent search unit 33 with the phoneme information of the replacement word.
When the accent type of the antecedent is received,
Information and accent type, and fixed sentence reading prosody information selection
Based on the phonetic prosodic information of the fixed sentence from the selector 11,
Phonological information of paraphrase, accent and other prosodic information
Is generated (determined). That is, for example, “Kitashinagawa 1-chome”
(Kitashinagawa Icchome) is entered as a replacement word
If it was, "Kitashinagawa" (Kitashinaga)
“Wa” is the antecedent and “1chome” (Icchome) is the antecedent.
Are searched in step S14 or S12, respectively.
It is. Therefore, in this case, the word accent search unit
33, the fixed phrase reading prosody information generating unit 35
Phonetic prosody information "Kitashina" for "Kitashinagawa 1chome"
Is output. The consequent element dictionary 34A
Has no registered consequent accent type.
As shown in Fig. 4 (A), the consequents such as "1-chome"
Accents are usually flattened in replacement sentences
So, the accent type of the consequent of the replacement word is, for example,
Is treated as On the other hand, from the standard sentence reading prosody information selecting section 11
For example, the standard sentence reading prosody information generation unit 35
Phonological prosody information of sentence "○○ Fuki'n."
Then, in the fixed sentence reading prosody information generating unit 35,
As in the case of the standard sentence reading prosody information generation unit 15,
Phonological prosody information of replacement sentence "Kitashina" |
Umefukin 'is generated. " Therefore, also in this case, the case shown in FIG.
Similarly, a natural synthesized sound is output. Further
In this case, the replacement word is divided into the consequent and the antecedent,
The consequent element dictionary 34A or the antecedent element dictionary 34B respectively
So that the replacement word is
Compared to the case of registering in the dictionary, the capacity of the entire dictionary is
Can be smaller. That is, for example, "1 Kitashinagawa
"Eye", "Kitashinagawa 2-chome", "Kitashinagawa 3-chome", "Kitashinagawa
4-chome ”,“ Higashishinagawa 1chome ”,“ Higashishinagawa 2-chome ”,“ East
8 words of "Shinagawa 3-chome" and "Higashi-Shinagawa 4-chome" are replaced words.
The replacement word in the dictionary
You need to remember all of these,
And the antecedent are divided and registered, the consequent element dictionary 3
4A includes “1 chome”, “2 chome”, “3 chome” and
And “4” are stored in the antecedent element dictionary 34B.
Remembers "Kitashinagawa" and "Higashishinagawa"
It only needs to be done. In this case, the search for the consequent is replaced with the search for the predecessor.
Speed up the process because it is done before the search
Can be. That is, for example, a place name is set as a target of a replacement word.
If the number of consequents is much smaller than the number of consequents
Become. Then, in the flowchart shown in FIG.
When it is determined that the consequent was not found in step S13
As described later, the antecedent search process in step S14
Is performed, and the processing after step S18 is performed.
Therefore, the processing can be speeded up. On the other hand, in step S13, the control unit 2
Determined that the consequent of the replacement word from was not found
Or the consequent of the replacement word from the control unit 2 is found.
In step S15, the antecedent was found.
If it is determined that there has not been, the process proceeds to step S18,
The search for the antecedent (specific antecedent) of the replacement word from the control unit 2
This is performed while referring to the specific antecedent element dictionary 34C. What
In step S18, the antecedent of the replacement word (before identification)
Search) is the part of the replacement word excluding the consequent or the replacement
The first part of the word (possibly the whole replacement word)
Match with the antecedent registered in the fixed antecedent element dictionary 34C
(Heading or phonemic information matching)
Done by Here, for example, in one area of Hyogo prefecture, the
"Bamachi Ikuno" and "Dojomachi Day"
Bottom part ”, Dojocho Shioda
Unusual place names such as
Place name) exists. In such a place name, "Dojomachi"
Is an antecedent, and “Ikuno” (go
), "Kusakabe" (Kusakabe), "Shiota" (Shiota)
Which is the consequent. In this case, the consequent “Ikuno” (Ikuno
), Kusakabe (Kusakabe), Shioda (Shiota)
Is frequently used, such as "1 chome" mentioned above.
Unlike consequents, they are mostly used as consequents of place names
Can not be (uncommon), so to speak, a rare consequent
I can say. Therefore, in addition to the general consequents,
All unusual consequents were registered in the consequent element dictionary 34A.
Then, the capacity of the consequent element dictionary 34A becomes large,
It takes time to search for the consequent in step S12
It will be. On the other hand, the antecedent is "Dojo-machi"
The compound place name is one of the Hyogo prefectures mentioned above.
Except for now, it does not exist. [0103] Therefore, "Dojocho" (Dojocho)
Replacement word (place name) with antecedent (or its
The first part is "Dojo-cho"
Replacement word), its antecedent or consequent,
Registered in the element dictionary 34B or the consequent element dictionary 34A, respectively.
Without recording, "Dojo-cho" is registered in the specific antecedent element dictionary 34C.
And further, as shown in FIG.
A, Search processing for the antecedent element dictionary 34B (step
Separate from the specific antecedent element dictionary
Search processing for 34C (processing in step S18)
To do. In this case, the consequent of the replacement word from the control unit 2
Is not found, or when the control unit 2
If the consequent was found, but the antecedent was not found
Only when the search for a specific antecedent is performed.
Can be speeded up. Furthermore, the consequent element dictionary 3
Prevents increase in 4A capacity and delays in subsequent search processing
You can also. The specific antecedent element in step S18
(Specific antecedent element dictionary 34C is referred to
The search for the antecedent (specific antecedent) of the replacement word is terminated.
Then, the process proceeds to step S19, where a specific antecedent is found.
Yes or No (before the specifics registered in the specific antecedent element dictionary 34C)
Is included in the replacement word from the control unit 2?
No) is determined. In step S19, before the identification
If it is determined that a case has been found, the process proceeds to step S20.
Mi, the accent type is from the specific antecedent element dictionary 34C.
Is read. Then, the process proceeds to step S21,
Xent type is replaced with the replacement word (phonetic information of the replacement word)
In addition, the standard sentence reading prosody information generation unit 35 outputs
finish. Thus, for example, as a replacement word,
"Dojomachi Ikuno" is input and the specific antecedent element dictionary 34C
, The phonetic prosody information of the specific antecedent "Dojomachi"
If "cho" is registered, the word accent search unit 3
3 to the standard sentence reading prosody information generating unit 35,
Phonological prosody information of "Dojomachi Ikuno"
"Go" is output. Note that the replacement word “Michi
The part after the specific antecedent of "Bamachi Ikuno", that is, the consequent "Ikuno"
The accent type is the flat type, as described above.
It is. Hereinafter, the fixed phrase reading prosody information generation unit 35 and
And in the rule speech synthesizer 16 as in the case described above.
The processing is performed, so that a natural
A synthesized sound is output. On the other hand, in step S19, the control unit 2
Predecessor (specific antecedent) of replacement word from was not found
Is determined, that is, the replacement word is
34A, antecedent element dictionary 34B, or specific antecedent element dictionary
Consequent, antecedent, or
If none of the specific antecedents is included, proceed to step S22.
Only, a message to that effect, ie no accent type
The message is a fixed form with the replacement word from the control unit 2.
This is output to the sentence reading prosody information generating unit 35, and the processing is terminated.
You. In this case, the fixed phrase reading prosody information generation unit 35
In, the accent type of the replacement word is
Phonological prosodic information of the sentence is generated. And, below,
The synthesized sound is output from the speaker 8 in the same manner as
It is. In the above case, the specific antecedent
34C, and search for it
However, it is possible to prevent such processing
It is. That is, in step S13, the control unit 2
If it is determined that the consequent of the replacement word is not found
Or the consequent of the replacement word from control unit 2 is found.
However, in step S15, the antecedent was found.
If it is determined that there is no data, the process of step S18 is performed.
Alternatively, the processing of step S22 may be performed.
Noh. In this case, the processing speed can be increased.
Since there is no need to provide the specific antecedent element dictionary 34C,
It is possible to reduce the cost and size of the system.
You. In this case, however, the place name (place
Paraphrases) are to be all flat accents
Therefore, if the accent type is not flat,
As a result, an unnatural synthesized sound is generated. However
However, the number of place names including specific antecedents is small,
Since the probability that the place name is included in the replacement sentence is low,
In this way, the search processing for the specific antecedent dictionary 34C is performed.
Even if it is not, unnatural synthesized sounds will not be output frequently.
No. Further, in the above case, the antecedent element dictionary 34B
(The same applies to the specific antecedent element dictionary 34C)
Regardless of the accent type in the paraphrase,
The cent type was registered, but the antecedent element dictionary 3
4B shows the case in the word accent dictionary 14 of FIG.
In the same way as in
Be sure to register only the antecedents other than the flat type.
Both are possible. In this case, the antecedent element dictionary 34B (specific
The capacity of the antecedent element dictionary 34C) can be reduced.
You. For example, for example,
There is a place name consisting of one prosodic word, such as
And such place names do not exist in reality).
The replacement word is input to the word accent selection unit 33.
In this case, the processing according to the flowchart of FIG.
In this case, this replacement word is a specific antecedent "dojocho"
And the consequent "i" is erroneously divided. So
Here, in order to prevent such an incorrect division,
For example, if the number is less than 2 moras, the word accent
In the selection unit 33, the replacement word is set to two prosody words,
And the consequent. Further, the notation of the place name on the map has a consequent
What consists only of numbers, for example, "Kitashinagawa 5"
Shinagawa). For example, the fixed phrase "around XX
is. "Is replaced with" Kitashinagawa 5 "
Ta (combined with "Kitashinagawa 5") replacement sentence "Kitashinagawa
It is around 5. ), When you actually say
"5" which is the consequent of "Kitashinagawa 5" is "Nearby."
Composing accents to form one prosodic word
And the accent is flattened. But
In this way, the place name whose consequent consists only of numbers (replacement
")", "5" and "Nearby" are accented
Rather than fusing them, split them into separate prosodic words
It is better to make the character part accent type that the number has
The synthesized sound becomes easy to hear. That is, for example,
About "Near Kita Shinagawa 5", as shown in Fig. 7
Prosody information makes the synthesized sound easier to hear.
You. Therefore, the consequent element dictionary 34A contains the consequent
For the number, the heading (or heading
And phonetic information) as well as their accent types
And further, in step S13 of FIG.
When a case is found, a process as shown in FIG. 8 is performed.
To do. That is, in step S31, the consequent is a number.
It is determined whether the consequent is not a number or not.
Step S14 and subsequent steps are performed. The consequent is a number.
If the search for the antecedent is performed, the process proceeds to step S32.
U. Then, the process proceeds to step S33, where the antecedent and the
Both accent types (however, if the antecedent was not found
If the antecedent, no message with accent type)
From the word accent search unit 33 to the standard sentence reading prosody information
The data is output to the generation unit 35. Then, the fixed phrase reading prosody information generating unit 35
From the word accent search unit 33,
If both accent types are received, the consequent is accented
Instead of fusing, treat them as independent prosodic words,
And use both accent types of the consequent
Phonological prosody information of a paraphrase is generated. More than
By doing so, the fixed phrase reading prosody information generation unit 35
Is, for example, the replacement sentence "Near Kitashinagawa 5".
Is "Kitashina" |
Phonological prosody information will be generated. In addition to numbers, no accent fusion
Consequences that are easier to hear (e.g.
("O'tsu"), Hei ("Hey"), etc.
The accent information is stored in the consequent element dictionary 34A.
In addition, the fixed phrase reading prosody information generation unit 35 includes the consequent element
Has consequent that accent information is stored in dictionary 34A
Have only the above-mentioned consequents for the replacement word
Prosody information is generated in the same way as
It is possible to make it. In this case,
Xcent is more logical than flattening
It is possible to provide a synthesized sound that is easy to solve. In the above case, the consequent element dictionary 34
A to register the consequent accent type in A
However, the consequent element dictionary 34A has
Can be registered. This
, The replacement word is the consequent element dictionary 34A,
In the contract 34B or the specific antecedent element dictionary 34C, respectively.
Any of the recorded consequents, antecedents, or specific antecedents
When there is an exact match, look for the match.
After attaching, without further processing,
The accent type is input from the word accent search unit 33 as a fixed phrase.
It is possible to make the reading prosody information generation unit 35 output the information.
It is possible. As described above, the present invention is applied to a navigation system mounted on an automobile.
Explained the case of applying to the gating system
However, the present invention is also mounted on, for example, an aircraft or a ship.
Navigation system, etc.
You. In addition, the present invention, in addition to the navigation system,
Voice guidance device that performs voice response using synthesized sound
Applicable to any other devices. In this embodiment, the current location is
For example, the fixed phrase "Around XX."
As described above, the output of the synthesized sound has been described.
It is also applicable when using fixed phrases. Further, in this embodiment, the fixed pattern storage is performed.
Part 12 and word accent dictionary 14 (or consequently
Elementary dictionary 34A, antecedent element dictionary 34B, and specific antecedent required
Elementary dictionary 34C) in the speech synthesizer 7.
However, the stored information is stored, for example, on a CD-ROM3 or the like.
It is possible to register. In this embodiment, the speech synthesizing device 7
To generate synthesized speech by regular speech synthesis processing.
However, the speech synthesizer 7 generates synthesized sounds by other methods.
It is possible to make it. Further, in the present embodiment, the phoneme information
, The word accent dictionary 14 (or the consequent element
Dictionary 34A, antecedent element dictionary 34B, and specific antecedent element
The same applies to the dictionary 34C).
Is provided by the control unit 2 as the replacement word.
(If this is the case, this is
What you can do by recording kana readings
Can be registered in the word accent dictionary 14)
You do not need to do this (for example, Hiragana reading
Only the accent and accent types are sufficient). In this case, the word
To further reduce the capacity of the accent dictionary 14
Can be. [0124] 【The invention's effect】According to the navigation system of the present invention
If the antecedent accent information storage means is
Accent information is stored in the consequent storage means
Has stored the consequent. And the given word is the consequent
Is a consequent storage means in which the consequent is stored
Is determined by referring to the
If not, set the accent type of the given word to flat
Is done. If a given word has a consequent,
Information about the previous accent
Antecedent accent information memory with cent information stored
Column, and based on the search result, a predetermined word
The accent is determined. Therefore, a natural accent
Can be quickly obtained. In addition,
In the case of, the antecedent accent information storage means and the consequent memory
The capacity of the stage can be reduced. [0125] [0126] [0127] [0128]

【図面の簡単な説明】 【図1】本発明を適用したナビゲーションシステムの一
実施例の構成を示すブロック図である。 【図2】図1の音声合成装置7の構成例を示すブロック
図である。 【図3】図2の単語アクセント選択部13の動作を説明
するためのフローチャートである。 【図4】音の高低、音韻情報、および韻律語の境界を示
す図である。 【図5】図1の音声合成装置7の他の構成例を示すブロ
ック図である。 【図6】図5の単語アクセント選択部33の動作を説明
するためのフローチャートである。 【図7】音の高低、音韻情報、および韻律語の境界を示
す図である。 【図8】数字だけでなる後件を1つの韻律語として扱う
場合を説明するためのフローチャートである。 【符号の説明】 1 入力部 2 制御部 3 CD−ROM 4 測定部 5 出力部 6 表示部 7 音声合成装置 11 定型文読み韻律情報選択部 12 定型文パターン記憶部 13 単語アクセント検索部 14 単語アクセント辞書 15 定型文読み韻律情報生成部 16 規則音声合成部 33 単語アクセント検索部 34A 後件要素辞書 34B 前件要素辞書 34C 特定前件要素辞書 35 定型文読み韻律情報生成部
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a configuration of an embodiment of a navigation system to which the present invention is applied. FIG. 2 is a block diagram showing a configuration example of a speech synthesizer 7 of FIG. FIG. 3 is a flowchart for explaining the operation of a word accent selection unit 13 in FIG. 2; FIG. 4 is a diagram showing pitches of sounds, phoneme information, and boundaries between prosodic words. FIG. 5 is a block diagram showing another example of the configuration of the speech synthesizer 7 in FIG. 1; 6 is a flowchart for explaining the operation of the word accent selection unit 33 of FIG. FIG. 7 is a diagram showing pitches of sounds, phoneme information, and boundaries between prosodic words. FIG. 8 is a flowchart for explaining a case where a consequent consisting only of numbers is treated as one prosodic word. [Description of Signs] 1 Input unit 2 Control unit 3 CD-ROM 4 Measurement unit 5 Output unit 6 Display unit 7 Speech synthesis device 11 Standard sentence reading prosody information selecting unit 12 Standard sentence pattern storage unit 13 Word accent search unit 14 Word accent Dictionary 15 Fixed sentence reading prosody information generation unit 16 Rule speech synthesis unit 33 Word accent search unit 34A Consequent element dictionary 34B Predicted element dictionary 34C Specific antecedent element dictionary 35 Fixed sentence reading prosody information generation unit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G10L 13/08 ──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int.Cl. 7 , DB name) G10L 13/08

Claims (1)

(57)【特許請求の範囲】 【請求項1】 少なくとも地図に関する情報である地図
情報を記憶している地図情報記憶手段と、 現在地を測定する測定手段と、 前記地図情報記憶手段の記憶内容および前記測定手段の
測定結果に対応して、所定の情報を出力する出力手段と
を備えるナビゲーションシステムであって、 前記出力手段が、前記所定の情報を合成音で出力する音
声合成手段を含んで構成され、 前記所定の情報が、所定の単語を含むとき、 前記音声合成手段は、 前記所定の単語が、1以下のアクセント核を有する韻律
の単位である韻律語を複数含む場合に、その単語の最後
に位置する前記韻律語を後件とするとともに、残りを前
件とするとき、 前記前件のアクセントに関するアクセント情報を記憶し
ている前件アクセント情報記憶手段と、 前記後件を記憶している後件記憶手段と、 前記所定の単語のアクセントを、前記前件アクセント情
報記憶手段および後件記憶手段を参照して決定する決定
手段と、 前記決定手段により決定されたアクセントを有する前記
所定の単語に対応する合成音を生成する生成手段とを有
し、 前記決定手段は、前記所定の単語が前記後件を有するか
否かを、前記後件記憶手段を参照することにより判定
し、前記所定の単語が前記後件を有しない場合、前記所
定の単語のアクセント型を平板型に決定し、前記所定の
単語が前記後件を有する場合、その前件のアクセント情
報を、前記前件アクセント情報記憶手段から検索し、そ
の検索結果に基づいて、前記所定の単語のアクセントを
決定することを特徴とするナビゲーションシステム。
(57) [Claims] [Claim 1] A map which is at least information on a map
A map information storage means for storing information, and measuring means for measuring the current position, the stored content and the measurement unit of the map information storage means
Output means for outputting predetermined information according to the measurement result;
A navigation system comprising said output means, a sound to output the predetermined information in the synthesized speech
It is configured to include a voice synthesis unit, the predetermined information, when containing a predetermined word, the speech synthesizing means, the predetermined words, prosody having 1 following accent nucleus
If there are multiple prosodic words that are units of
The prosodic word located at
When the case is made, the accent information on the accent of the preceding antecedent is stored.
An antecedent accent information storage means, a consequent storage means for storing the consequent, and an accent of the predetermined word,
Decision determined with reference to the information storage means and the consequent storage means
Wherein having means, accent determined by the determining means
Generating means for generating a synthetic sound corresponding to a predetermined word.
And the determining means determines whether the predetermined word has the consequent.
Is determined by referring to the consequent storage means.
And if the predetermined word does not have the consequent,
The accent type of a given word is determined to be a flat type, and
If the word has the consequent, the accent information of the antecedent
Information is retrieved from the antecedent accent information storage means.
Based on the search result of
A navigation system characterized by determining.
JP18419795A 1995-07-20 1995-07-20 Navigation system Expired - Fee Related JP3513988B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18419795A JP3513988B2 (en) 1995-07-20 1995-07-20 Navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18419795A JP3513988B2 (en) 1995-07-20 1995-07-20 Navigation system

Publications (2)

Publication Number Publication Date
JPH0934491A JPH0934491A (en) 1997-02-07
JP3513988B2 true JP3513988B2 (en) 2004-03-31

Family

ID=16149062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18419795A Expired - Fee Related JP3513988B2 (en) 1995-07-20 1995-07-20 Navigation system

Country Status (1)

Country Link
JP (1) JP3513988B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH117296A (en) * 1997-06-18 1999-01-12 Oputoromu:Kk Storage medium having electronic circuit and speech synthesizer having the storage medium
JP3895830B2 (en) 1997-06-18 2007-03-22 インテリジェントディスク株式会社 Storage medium having electronic circuit
US20010044864A1 (en) 1997-06-18 2001-11-22 Kabushiki Kaisha Optrom Disk storage system having an electronic circuit mounted on the surface of the disk and control method thereof
TW389894B (en) 1997-06-19 2000-05-11 Optrom Kk Device for exchanging information with storage medium having electronic circuit and the electronic circuit, and system including the same
JP4516863B2 (en) * 2005-03-11 2010-08-04 株式会社ケンウッド Speech synthesis apparatus, speech synthesis method and program
JP2010039277A (en) * 2008-08-06 2010-02-18 Mitsubishi Electric Corp Speech synthesizer
JP2016173833A (en) * 2016-04-08 2016-09-29 健哲 福井 Figure or code attached for reading kanji or kana, and combination with character

Also Published As

Publication number Publication date
JPH0934491A (en) 1997-02-07

Similar Documents

Publication Publication Date Title
US6012028A (en) Text to speech conversion system and method that distinguishes geographical names based upon the present position
EP2137723B1 (en) Apparatus for text-to-speech delivery and method therefor
EP1071074B1 (en) Speech synthesis employing prosody templates
US20080183473A1 (en) Technique of Generating High Quality Synthetic Speech
US7991616B2 (en) Speech synthesizer
EP0821344A2 (en) Method and apparatus for synthesizing speech
JP3513988B2 (en) Navigation system
JPH08193837A (en) Navigation system
JP4268325B2 (en) Voice operation phrase presentation device and presentation method
JPH06282290A (en) Natural language processing device and method thereof
JP2003029778A (en) Voice interactive interface processing method in navigation system
JP4550207B2 (en) Voice recognition device and voice recognition navigation device
JP2006330486A (en) Speech synthesizer, navigation device with same speech synthesizer, speech synthesizing program, and information storage medium stored with same program
JPH09244677A (en) Speech synthesis system
JP2001083983A (en) Speech recognition device, recording medium having data for speech recognition recorded therein and speech recognition navigation device
JPH07262191A (en) Word dividing method and voice synthesizer
JP3058439B2 (en) Rule speech synthesizer
JP4684609B2 (en) Speech synthesizer, control method, control program, and recording medium
JP3432336B2 (en) Speech synthesizer
JPH0712581A (en) Voice output device for vehicle
Krivnova Automatic synthesis of Russian speech
JP3437472B2 (en) Speech synthesis method and apparatus
JPH05960Y2 (en)
JPH11259094A (en) Regular speech synthesis device
JPH0934490A (en) Method and device for voice synthetization, navigation system, and recording medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080123

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090123

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100123

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100123

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110123

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees