JP2002062889A - 音声合成方法 - Google Patents

音声合成方法

Info

Publication number
JP2002062889A
JP2002062889A JP2000245863A JP2000245863A JP2002062889A JP 2002062889 A JP2002062889 A JP 2002062889A JP 2000245863 A JP2000245863 A JP 2000245863A JP 2000245863 A JP2000245863 A JP 2000245863A JP 2002062889 A JP2002062889 A JP 2002062889A
Authority
JP
Japan
Prior art keywords
character information
tag
information
reserved
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2000245863A
Other languages
English (en)
Inventor
Koji Shibata
晃司 柴田
Shinichi Suzuki
伸一 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2000245863A priority Critical patent/JP2002062889A/ja
Priority to US09/925,960 priority patent/US20020026318A1/en
Priority to EP01119461A priority patent/EP1182644A3/en
Publication of JP2002062889A publication Critical patent/JP2002062889A/ja
Abandoned legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Circuits Of Receivers In General (AREA)

Abstract

(57)【要約】 【課題】 デジタル放送における文字情報放送にて、視
聴者の必要とする文字情報のみを発音する音声合成方法
を提供する。 【解決手段】 デジタル放送における文字情報に含まれ
るタグ及び文字情報自体の内容を認識し、これを視聴者
が予め設定したタグ及び文字情報と比較する。かかる比
較結果に基づいて、デジタル放送から受信した文字情報
の音声合成を行うか否かを判断する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、デジタル放送等の
通信媒体を通じて伝送された情報に含まれる文字情報
を、これに対応する合成音に変換する音声合成方法に関
する。
【0002】
【従来の技術】近年におけるデジタル放送技術の飛躍的
進歩に伴い、従来、映像情報のみを伝送していた放送に
おいて、かかる映像情報を補填する文字情報をも加えて
伝送するデジタル放送の形態が普及しつつある。例え
ば、道路地図のディスプレイと共に渋滞情報を文字情報
として伝送したり、天気図のディスプレイと共に天気予
報を文字情報として伝送するような形態である。
【0003】しかし、車載受信機のように運転操作を行
いつつ放送番組を視聴するような場合は、運転者は常に
前方方向の視認に注意力を集中することが重要であり、
安全運転の観点から文字情報伝送の利点を生かし難い。
このような欠点を解決すべく、放送媒体によって伝送さ
れた文字情報について合成音を用いて音声情報に変換す
る音声合成方法及び装置が特開平9−251373によ
って開示されている。しかしながら、かかる従来技術に
おいては、放送者側が文字情報中に設けた音声化コマン
ド、即ち文字情報のどの部分を対象に音声合成処理を行
うかを指示するコマンドを受信機が検出し、当該指示の
ある文字情報のみを音声情報に変換するものである。
【0004】従って、文字情報の如何なる部分を発音す
るかについては、常に放送者側の意思で決定され、放送
視聴者側の意思が反映されない。また、発音指示は前記
音声化コマンドを文字情報中に付加することによってな
されるため、発声を伴う文字情報放送と発声を伴わない
文字情報放送の2種類が混在することになり受信装置の
構成が煩雑となる。
【0005】
【発明が解決しようとする課題】本発明は、かかる欠点
を解消するためになされたものであり、伝送される文字
情報放送の内、視聴者の必要とする情報のみについての
合成音を得る音声合成方法を提供することを目的とす
る。
【0006】
【課題を解決するための手段】本発明による音声合成方
法は、文字情報と前記文字情報を予約するためのタグと
を有する文書記述言語で記述された伝送情報に含まれる
文字情報中に対応する合成音を生成する音声合成方法で
あって、前記文字情報中のタグを認識するタグ認識行程
と、前記タグ認識行程で認識されたタグと予め設定され
た所定タグとを比較するタグ比較行程と、前記タグ比較
行程の比較結果に基づいてタグが一致した場合にのみ、
前記認識されたタグによって予約された文字情報を合成
音の生成対象とし、若しくは生成対象から除外して合成
音を生成する行程と、を有することを特徴とする。
【0007】
【発明の実施の形態】図1は、本発明による音声合成方
法を実行する車載デジタル放送受信機の構成を示すブロ
ック図である。図1において、受信アンテナ10は、ロ
ッドアンテナや誘電体アンテナ等の小型高利得アンテナ
であり、放送局からのデジタル放送電波を受信するもの
である。
【0008】RF部11は、受信電波の増幅、周波数変
換及び検波等の処理を行う回路であり、受信機における
いわゆるフロントエンド部に相当する。受信処理部12
は、検波・復調された受信データについてデインターリ
ーブ処理や誤り訂正処理等の正確な受信データ再生に必
要とされる一切の処理、及び各チャンネル毎の受信デー
タのデコードを行う回路である。
【0009】システム制御部13は、主にマイクロコン
ピュータ(以下μCPUと称する)から構成され、受信
機全体の動作を制御する部分である。なお、後述のメモ
リ部14に記憶された、受信機動作を担うメインプログ
ラムや本発明にかかる音声合成サブルーチン等の各種サ
ブプログラムを、前記μCPUが内蔵クロックに同期し
て実行する。
【0010】メモリ部14は、ROM(Read Only Memor
y)やRAM(Random Access Memory)等の記憶素子から構
成される。ROMには前述の如く受信機動作を制御する
各種プログラムが記憶されており、RAMには、動作処
理の過程における各種の計算結果や、処理判断の指針と
なる各種のフラグ・レジスタ(以下、単にフラグと称す
る)の状態、及び予め設定された所定のタグ情報や文字
情報の内容等のデータが一時的に保存される。なお、音
声合成処理に用いられる発音用音源データもデジタルデ
ータとしてメモリ部14のROM乃至は不揮発性RAM
に蓄積記憶されている。
【0011】映像信号出力部15は、受信データの内の
映像情報をCRTや液晶ディスプレイなどの表示装置に
出力するための処理回路である。また、音声信号出力部
16は、受信データの内の音声情報や、システム制御部
13が行った音声合成処理による音声情報をスピーカー
やヘッドフォン等の音響機器に出力するための処理回路
である。
【0012】操作入力部17は、使用者が受信機を取り
扱う際に各種の動作指令や情報を入力するための操作部
であり、キーボードや種々のファンクションキー等のス
イッチ群から構成されている。デジタル放送によって伝
送される文字情報は、一般に、データネットワークにお
ける情報交換用言語である、SGML(Standard Genera
lized Markup Language)やHTML(Hypertext Markup
Language)などのJIS-X-4151等で規定される、いわゆる
文章記述言語によって記述さている。
【0013】デジタル放送で伝送される文字情報の一例
を図2に示す。本実施例は交通情報を文字情報として伝
送したものであり、図2(a)は、伝送された文字情報
が受信機の表示画面に表示される様子を表している。ま
た、かかる文字情報を文章記述言語によつて記述したも
のを図2(b)に示す。なお、本実施例では、文章記述
言語として前記のHTMLを用いて説明を行うが、記述
言語はこれに限定されるものではなく、SGMLやXM
L(Extensible Markup Language)、若しくはBML(Bro
adcasting Markup Language)等の文章記述言語を用いて
も良い。
【0014】文章記述言語で記載した文字情報の一単位
はテキストと呼ばれ、その構成を図2(c)に示す。1
つのテキストは、タグと呼ばれる“<”と“>”とで囲
まれた予約語によつて定義される。1つのテキストは、
テキスト開始タグによって始まりテキスト終了タグによ
って終了する。両タグに挟まれた部分が当該テキストに
よって伝送される文字情報である(本明細書の説明にお
いては「タグによって予約される文字情報」と言う表現
を用いる)。タグの種類は、文字情報の内容によって異
なり、例えば、図2(b)に示すように“渋滞情報”の
ような純粋に文字のみからなる文字情報のときは“<T
D>”なるタグが用いられ、“←戻る”のようにその一
部に矢印のような記号を含む文字情報のときは“<A…
>”なるタグが用いられる。また、テキスト開始タグと
テキスト終了タグの文字構成は同一であり、テキスト開
始タグの頭に“/”を付加したものがテキスト終了タグ
となる(前述の場合を例に取れば、テキスト終了タグ
は、各々“</TD>”“</A…>”となる)。
【0015】図2(b)に示す如く、複数のテキストが
集まって一画面分の文字情報を形成し、文字情報の文章
記述言語としてHTMLを使用した場合は、一画面分の
文字情報の区切りを示す識別タグとして<HTML>〜
(一頁分の文字情報)〜</HTML>なるタグが用い
られる。図1のブロック図に示す受信機において、図2
(b)の例に示した文字情報を受信した場合の本発明に
基づく動作の実施例を以下に説明する。なお、実施例で
は複数の動作モードが考えられるため、これを動作モー
ド1から動作モード4に分けて説明する。
【0016】先ず、動作モード1の実施例を説明する。
動作モード1とは、予め所定のタグをメモリ部14に設
定しておき、受信した文字情報の中で当該設定タグに該
当するタグによって予約された文字情報については音声
合成をしない、即ち、発音しない動作モードを言う。動
作モード1において、システム制御部13は、図3のフ
ローチャートに示す処理サブルーチンを、内蔵クロック
に同期して常時実行されているメインルーチンに割り込
んで実行する。本サブルーチンの起動に関しては、例え
ば、操作入力部17からの使用者による発音指令ボタン
の押下による割込信号によって起動されるようにしても
良い。また、システム制御部13が受信処理部12から
一画面分の表示データの供給を受けたとき或いは、シス
テム制御部13が一画面分のデータを映像信号出力部1
5へ供給するときに起動されるようにしても良い。
【0017】このサブルーチンにおいて、先ずシステム
制御部13は、図2(b)に示した一画面分のテキスト
データをメモリ部14に設けた発音処理用のRAMエリ
ア上に一旦蓄える(ステップ11)。次に、RAMエリ
ア上にタグ検索ポインタP(n)なるレジスタ(以下、
単にP(n)と称する)を設け、当該レジスタの内容n
を初期値n=0に設定する(ステップ12)。
【0018】かかる準備が終了後、システム制御部13
は、前記RAM上に蓄えられた一画面分のテキストデー
タ中のタグデータのみに着目し、一画面中に在るタグの
中からn番目のタグを検索してその内容を認識する(ス
テップ13)。因みに、本サブルーチンが起動された直
後は、前述の如くP(n)の内容がn=0のP(0)に
初期設定されている。このため、システム制御部13
は、図2(b)に示す一画面分のテキストデータの内、
一番最初のタグ即ち<HTML>から検索して行くこと
になる。
【0019】システム制御部13は、ステップ13でn
番目のタグを検索してその内容を認識した結果、タグの
内容がテキスト開始タグであると判断した場合ステップ
15に移り(ステップ14)、当該タグの内容が予め設
定した所定の発音除外タグに該当するか否かを判断す
る。ここで、所定の発音除外タグとは、受信機製造時に
製造メーカが予めメモリ部14のROMエリアに固定入
力設定しておいても良いし、また、使用者が操作入力部
17のキーボードからメモリ部14の不揮発性RAMエ
リアに入力設定できるようにしても良い。因みに、図2
(b)に記述された文字情報を対象として処理を行う本
実施例においては、<HTML>,<TABLE>,<
A…>が発音除外タグとして、前記いずれかの方法によ
りメモリ部14に設定されているものとする。
【0020】これらのタグは、例えば、表示画面の開始
を指示したり、或いは画面のリンク先を示すなどの予約
語であるため、当該テキストに含まれる文字情報を音声
合成によって音声情報化しても使用者の便宜にはなり得
ないため発音除外とするものである。システム制御部1
3は、ステップ15においてn番目のタグの内容を発音
除外タグと判断した場合、ステップ17に移りP(n)
の内容をn+1に加算した後ステップ13に戻り前述の
処理を繰り返す。また、ステップ15にてタグの内容が
発音除外タグに非該当であったときは、システム制御部
13は、当該タグによって予約される文字情報を基に音
声合成を行い、得られた音声信号を音声信号出力部16
に出力する(ステップ16)。なお、発音処理実施後は
ステップ17に移りP(n)の内容をn+1に加算した
後ステップ13に戻る。
【0021】ステップ14にて、認識したタグの内容が
テキスト開始タグではなかった場合、即ち、該当タグが
</…>で表されるテキスト終了タグであったときは、
システム制御部13はステップ18に移り、当該タグが
一画面終了タグ</HTML>に該当するか否かを判断
する。一画面終了タグでない場合システム制御部13
は、ステップ17に移りP(n)の内容をn+1に加算
した後、ステップ13に戻って更にタグ内容の検索処理
を繰り返す。
【0022】一方、ステップ18において一画面終了タ
グであったときは、既に一画面分のテキストデータにつ
いてタグ検索処理及び該当文字情報の発音処理が終わっ
ているため、システム制御部13は本サブルーチンを終
了させる。なお、本サブルーチンの終了方法としては、
本実施例に示す以外にも例えば、ステップ11において
一画面分のテキストデータに含まれるタグの数を予め数
えておき、タグ検索ポインタP(n)の内容がこのタグ
数に達したときに本サブルーチンを終わらせても良い。
【0023】以上詳述した如く、図2(b)に示す文字
情報を受信して本サブルーチンによる処理を実施する
と、図2(a)の画面表示と共に『交通情報』『川越
市』『254号』『渋滞』『大宮市』『16号』『事
故』の文字情報が音声合成により音声信号に変換され、
順次、スピーカーやヘッドフォンから使用者に出力され
るのである。
【0024】次に、動作モード2の実施例を説明する。
動作モード2とは、予め所定のタグをメモリ部14に入
力設定しておき、受信した文字情報中で当該設定タグに
該当するタグによって予約された文字情報を発音する動
作モードを言う。動作モード2の処理サブルーチンを図
4のフローチャートに示す。動作モード2においても当
該サブルーチンの起動方法は動作モード1の場合と同様
である。即ち、使用者による文字情報発音指令ボタンの
押下や、一画面分の文字情報の受信完了時などの割込指
令によって起動されることになる。
【0025】ところで、前述の動作モード1の処理は、
原則として全ての受信文字情報を発音し、発音を除外す
る文字情報についてのみ、その文字情報を予約するタグ
をメモリ部14に設定しておく方式であった。これに対
し、動作モード2では、原則として全ての受信文字情報
を発音せず、発音する文字情報についてのみ、その予約
タグをメモリ部14に設定する方式である。
【0026】つまり、動作モード1(図3)と動作モー
ド2(図4)の両フローチャートを比較した場合、図3
のステップ15と図4のステップ25の判断処理が異な
るのみである。即ち、動作モード1(図3)ではステッ
プ15において認識タグが発音除外タグか否かを判断し
て非該当の場合には発音処理を実施する(ステツプ1
6)。一方、動作モード2(図4)の場合は、ステップ
25において認識タグが発音指定タグか否かを判断して
該当する場合には発音処理を実施することになる(ステ
ツプ26)。従って、動作モード2については動作モー
ド1の動作とほぼ同一であるため、その動作についての
詳細な説明は省略して以下にその概略のみを記載する。
【0027】図4のフローチャートにおいて、先ず、シ
ステム制御部13は、一画面分のテキストデータを一旦
メモリ部14の発音処理用RAMエリア上に蓄え、その
後、蓄積データの最初からタグデータを検索して行き、
予め設定された発音指定タグに相当した場合は、当該タ
グによって予約された文字情報に基づいて音声合成によ
る発音処理を実施する。
【0028】なお、発音指定タグの入力設定は、動作モ
ード1の場合と同様に、受信機製造メーカー或いは使用
者の手によって行われるものとし、本実施例では<TI
TLE>,<TD>のタグが発音指定タグとして設定さ
れているものと想定する。従って、図2(b)に示す文
字情報を受信して本サブルーチンによる処理を実施した
場合、『交通情報』『川越市』『254号』『渋滞』
『大宮市』『16号』『事故』の文字情報が音声合成に
よって音声信号に変換され出力されることになる。
【0029】因みに、この音声情報出力の結果は、動作
モード1の場合と同様となる。次に、動作モード3の実
施例を説明する。動作モード3とは、受信した文字情報
の中から特定の文字情報についてのみ、使用者が予め入
力設定した文字情報に関するキーワードに従い音声合成
を行い、これを音声信号として出力する動作処理モード
を言う。
【0030】動作モード3の処理サブルーチンを図5の
フローチャートに示す。動作モード3のサブルーチンに
おいて、その起動方法、及び一画面分のテキストデータ
の取り込み(ステップ301)から発音指定タグか否か
の判断(ステップ305)、までの処理については、前
述した動作モード2における処理と同様である。よっ
て、動作モード3の処理については、図5に示すフロー
チャートのステップ305から詳細な説明を行う。
【0031】ステップ305にて、システム制御部13
は、タグの内容が発音指定タグであった場合、そのタグ
によって予約された文字情報(以下、予約文字情報と称
する)の認識を行う(ステップ306)。ここで、文字
情報の認識とは、予約文字情報が予め使用者がメモリ部
14のRAMエリア上に入力設定しておいた文字情報に
該当するか否かをチェックする処理を言う。かかる文字
情報の入力設定は、使用者が操作入力部17のキーボー
ドから直接行っても良いし、また、システム制御部13
が受信機のディスプレイ上に表示する、例えば、『交通
情報』、『天気予報』、『川越(地名例)』など複数の
キーワードの中から、操作入力部17のファンクション
キーを用いて、使用者が選択的に行えるようにしても良
い。
【0032】ステツプ306における文字情報認識処理
の後、システム制御部13は、次の2つの判断処理を行
う。先ず、ステップ307において、予約文字情報が予
め設定された所定の入力設定文字情報の内、発音開始文
字情報に該当するか否かを判断し、該当するときはメモ
リ部14に設けたフラグレジスタ(以下、単にFRと称
する)を1にセットする(ステップ308)。一方、非
該当のときは、更にステップ309において、予約文字
情報が所定の入力設定文字情報の内、発音終了文字情報
に該当するか否かを判断して、該当するときは前記FR
を0にリセットする(ステップ310)。
【0033】ここで発音開始文字情報とは、デジタル放
送から受信した文字情報の中で、使用者が音声情報出力
を希望する部分の開始部を示すキーワードを意味し、ま
た、発音終了文字情報とは、その終了部を示すキーワー
ドを意味している。従って、受信した一画面分の文字情
報を処理する場合、発音開始文字情報が検出されてから
発音終了文字情報が検出されるまでの間、FRは1にセ
ットされていることになる。
【0034】システム制御部13は、ステップ311に
おいてFRの内容を判断し、FR=1であれば、ステッ
プ306で認識した文字情報について音声合成処理を行
い、その内容を音声信号として音声信号処理部16へ供
給する(ステツプ312)。本実施例において、例え
ば、デジタル放送から受信した文字情報の記述フォーマ
ットが図2(b)に示す通りであり、また、発音開始文
字情報として『川越市』が、発音終了文字情報として
『大宮市』が、登録されているものと想定すると、図2
(a)の画面表示と共に、『川越市』『254号』『渋
滞』の文字情報が音声合成により音声信号に変換され、
順次スピーカーやヘッドフォンから使用者に出力される
ことになる。即ち、使用者は、デジタル放送の文字情報
から供給される各地の交通情報の中で、希望する地域に
関する交通情報のみを音声情報として聴取する事ができ
るのである。
【0035】ステップ305にて検索タグが発音指定タ
グに該当しなかったときや、ステップ311にてFR=
0であったとき、及びステップ312における発音処理
を実施した後、システム制御部13はステップ311に
移り、P(n)の内容をn+1に加算した後ステップ3
03に戻って前述の処理を繰り返す。動作モード3にお
いても、前述の動作モード1及び2と同様に、一画面終
了タグの検出により本サブルーチンは終了する(ステッ
プ314)。
【0036】なお、図5に示すフローチャートでは、発
音開始文字情報検出から発音終了文字情報検出までの判
断処理過程、及び当該処理に用いるフラグを1組しか設
けていないが、本発明による音声合成方法はこれに限定
されるものではなく、例えば、かかる組を複数準備し、
これに対応する判断ステップ(ステップ307からステ
ップ309に相当)を縦続的に複数設けることにより一
画面分の文字情報中に、複数の発音部分を任意かつ離散
的に設定することも可能である。
【0037】次に、動作モード4について説明する。動
作モード4とは、使用者が予め入力設定した文字情報に
関する複数のキーワード及び、該キーワードに関する論
理条件に従って、受信した文字情報がかかるキーワード
及び論理条件に合致した場合にのみ音声合成を行い、こ
れを音声信号として出力する動作処理モードを言う。動
作モード4の処理サブルーチンを図6及び図7のフロー
チャートに示す。因みに、図6に示すフローチャートが
当該サブルーチンのメイン処理プログラムであり、図7
に示すフローチャートが同サブルーチンにおける発音文
字情報検索処理(ステップ410)についてのサブ処理
プログラムである。
【0038】図6に示すフローチャートにおいて、シス
テム制御部13は、一画面分のテキストデータをメモリ
部14の発音処理用RAMエリア上に取り込んだ後(ス
テップ401)、同じくRAMエリア上に設けた入力文
字情報カウンタC(m)(以下単に、C(m)と称す
る)の内容を、初期値m=0にリセットする(ステップ
402)。
【0039】かかる初期化の後、システム制御部13
は、図7のフローチャートに示す発音文字検索処理(ス
テップ410)のサブプログラムを実行する。このサブ
プログラムは、一画面分の受信文字情報の中からキーワ
ードとなる特定の文字情報を検索するものである。この
ため、タグ検索ポインタP(n)の設定から、発音指定
タグか否かの判断、更に当該タグによって予約される文
字情報の認識までの処理は(ステップ411からステッ
プ415)、図5における動作モード3のステップ30
2からステップ306の場合と同様である。但し、図7
のサブプログラムでは、ステツプ415で認識した予約
文字情報を、単なる発音処理の開始又は終了を示す識別
子として判断するのではなく、使用者が予め入力設定し
たキーワードの内m番目の文字情報に該当するか否かを
判断する(ステップ416)。
【0040】例えば、本実施例において、使用者が文字
情報の音声合成出力のため文字情報検索キーワードとし
て、『交通情報』『首都高』『渋滞』の3つの文字情報
をこの順序で予め入力設定しておいたものと想定する
と、各々がm=0番目、m=1番目、m=2番目に入力
設定した文字情報となる。図6のフローチャートのステ
ップ410にて、初回に図7のサブプログラムを呼び出
したときは、前述の如く、ステップ402においてC
(m)の内容は、m=0となっている。このため、シス
テム制御部13は、認識した予約文字情報が0番目の入
力設定文字情報、即ち、本実施例で言えば『交通情報』
に該当するか否かを判断するのである。
【0041】ステップ416で、予約文字情報が入力設
定文字情報に該当したとき、即ち、本実施例で言えば
『交通情報』に該当した場合、システム制御部13は、
入力文字情報フラグF(m)(以下単に、F(m)と称
する)の内容を1にセットして(ステップ417)、本
サブプログラムを終了させ図6のフローチャートのステ
ップ410に戻る。なお、言うまでもなく、このときの
フラグはF(0)である。因みに、本実施例の場合、入
力設定文字情報とF(m)との対応は『交通情報』;F
(0),『首都高』;F(1),『渋滞』;F(2)の
ようになる。
【0042】図7に示すフローチャートのステップ41
6で予約文字情報が入力設定文字情報に該当しなかった
とき、ステップ414で発音指定タグに該当しなかった
とき、及びステップ419で一画面終了タグでなかった
とき、システム制御部13は、先のタグ検索ポインタP
(n)の内容をn+1に増加した後(ステップ418)
ステップ412に戻り、本サブプログラムにおけるタグ
検索処理を繰り返す。
【0043】一方、ステップ413でテキスト開始タグ
でなかった場合、システム制御部13は、ステップ41
9において該テキスト終了タグが一画面終了タグである
か否かを判断し、該当する場合は先のF(m)の内容を
0にリセットして(ステップ420)本サブプログラム
を終了させ、図6のフローチャートのステップ410に
戻る。
【0044】図7の発音文字検索処理サブプログラムか
ら復帰した後、システム制御部13は、図6のステップ
403において、カウンタC(m)の内容m+1にイン
クリメントし、次のステップ404において、カウント
値が所定値Mに達したか否かを判断する。因みに、Mの
値は、使用者が音声合成出力のキーワードとなる入力設
定文字情報を入力する際に自動的にセットされるもので
あり、本実施例では『交通情報』『首都高』『渋滞』の
3つのキーワードが入力設定されているためM=3にセ
ットされる。
【0045】ステップ404においてカウント値がMに
達していないとき、システム制御部13は、ステップ4
10に戻り、図7に示す発音文字情報検索処理のサブプ
ログラムをm≧Mとなるまで繰り返す。すなわち、図6
のフローチャートのステップ404で、カウント値mが
M=3となり次の発音処理(ステップ430)に移行す
るときは、各フラグF(0),F(1),F(2)のセ
ット又はリセットが完了していることになる。因みに、
各フラグに対応する入力設定文字情報が受信文字情報中
に存在した場合は、該フラグは1にセットされ、存在し
なかったときは0にリセットされる。
【0046】従って、本実施例の場合、受信した一画面
分の文字情報中に『交通情報』『首都高』『渋滞』の3
つ全てが存在したとき、各フラグの状態は、F(0)=
1,F(1)=1,F(2)=1となる。動作モード4
の処理では、以降のステップ430にて受信文字情報に
ついての発音処理がなされる。即ち、システム制御部1
3は、各フラグのセット/リセット状態と、予め使用者
によって入力設定されている各フラグの組み合わせ論理
条件を検討して発音処理の方法を決定するのである。
【0047】例えば、使用者により予め入力設定された
論理条件がF(0)からF(2)までの論理積となって
いるとき、各フラグが全て1の場合のみ、つまり受信文
字情報中にこれら3つの文字情報が存在したときにの
み、『交通情報』『首都高』『渋滞』に関連する文字情
報に基づいて音声合成が行われ、かかる情報が使用者に
音声信号として供給される。また、論理条件がF(0)
とF(1)の論理積、及び、F(0)とF(2)の論理
積との論理和に設定されているときは、受信文字情報中
に『交通情報』と『首都高』、又は『交通情報』と『渋
滞』なる文字情報があった場合に音声合成が行われる。
【0048】キーワードとなる入力設定文字情報の入力
方法は、他の動作モードと同様に、使用者が操作入力部
17のキーボード操作やファンクションキー操作によっ
て、入力設定するものとしてもよい。また、これらのキ
ーワードに関する論理条件も、例えば、入力したキーワ
ードについて特別のファンクションキーを用いて定義で
きるようにしても良い。
【0049】なお、本実施例では、説明の便宜上純然た
る文字情報のみを扱ってきたが、本発明はこれに限定さ
れるものではなく、図形情報を対象として音声合成を行
っても良い。例えば、天気予報のデジタル放送におい
て、天気図中に示される晴れマークや雨マーク及び風の
強さを示す矢印などの図形情報を認識した場合、予め、
所定の図形情報に対応して記憶されている文字情報(例
えば、“太陽/雲”の図形について『晴れ後曇り』や、
“黄色の北向き矢印”の図形について『北の風やや強
し』など)を天気図の図形表示と共に音声合成により発
音を行う構成としても良い。
【0050】また、本実施例では、デジタル放送受信機
単体のみについて説明したが、他の車載オーディオシス
テムと組み合わせて本発明を用いても良い。例えば、使
用者がカセットやCD等の他の信号ソースを選択中もデ
ジタル放送を常に受信しておき、デジタル放送による文
字情報が所定条件を満たしたときに、他の信号ソースを
中断して文字情報を音声信号出力するようにしても良
い。
【0051】
【発明の効果】以上詳述した如く、本発明によれば、伝
送された文字情報に含まれるタグ及び文字情報自体の内
容を認識して文字情報の音声合成を制御するため、かか
る制御を行うべく送信側で文字情報中に特別のコマンド
を含ませる必要が無い。また、文字情報の発音を行うか
否かも受信者側で任意に制御できるため、受信機使用上
のの利便性を高めることができる。
【図面の簡単な説明】
【図1】本発明の実施例である車載受信機の構成を示す
ブロック図である。
【図2】デジタル放送における文字情報の表示例及び記
述例を示す構成図である。
【図3】図1の装置における動作モード1の処理を示す
フローチャートである。
【図4】図1の装置における動作モード2の処理を示す
フローチャートである。
【図5】図1の装置における動作モード3の処理を示す
フローチャートである。
【図6】図1の装置における動作モード4のメイン処理
を示すフローチャートである。
【図7】図1の装置における動作モード4の発音文字検
索処理サブプログラムを示すフローチャートである。
【符号の説明】
10 受信アンテナ 11 RF部 12 受信処理部 13 システム制御部 14 メモリ部 15 映像信号出力部 16 音声信号出力部 17 操作入力部

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 文字情報と前記文字情報を予約するため
    のタグとを有する文書記述言語で記述された伝送情報に
    含まれる文字情報に対応する合成音を生成する音声合成
    方法であって、 前記文字情報中のタグを認識するタグ認識行程と、 前記タグ認識行程で認識されたタグと予め設定された所
    定タグとを比較するタグ比較行程と、 前記タグ比較行程の比較結果に基づいてタグが一致した
    場合にのみ、前記認識されたタグによって予約された文
    字情報を合成音の生成対象から除外して合成音を生成す
    る行程と、を有することを特徴とする音声合成方法。
  2. 【請求項2】 文字情報と前記文字情報を予約するため
    のタグとを有する文書記述言語で記述された伝送情報に
    含まれる文字情報に対応する合成音を生成する音声合成
    方法であって、 前記文字情報中のタグを認識するタグ認識行程と、 前記タグ認識行程で認識されたタグと予め設定された所
    定タグとを比較するタグ比較行程と、 前記タグ比較行程の比較結果に基づいてタグが一致した
    場合にのみ、前記認識されたタグによって予約された文
    字情報を合成音の生成対象として合成音を生成する行程
    と、を有することを特徴とする音声合成方法。
  3. 【請求項3】 前記タグ比較行程の比較においてタグが
    一致した場合にのみ、文字情報に対応する合成音の生成
    の開始及び終了の少なくとも一方を行う行程を有するこ
    とを特徴とする、請求項1又は請求項2に記載の音声合
    成方法。
  4. 【請求項4】 前記タグ認識行程で認識されたタグによ
    る予約文字情報の内容を認識する予約文字情報認識行程
    と、 前記予約文字情報認識行程で認識された予約文字情報の
    内容と予め設定された所定文字情報の内容とを比較する
    文字情報比較行程と、 前記文字情報比較行程の比較において前記予約及び所定
    文字情報の内容が互いに一致した場合は、前記予約文字
    情報に対応する合成音の生成の開始及び終了の少なくと
    も一方を行う行程と、を有することを特徴とする、請求
    項1乃至請求項3の何れか1に記載の音声合成方法。
  5. 【請求項5】 前記予約文字情報認識行程で認識された
    予約文字情報と、予め設定された複数の文字情報とを予
    め設定された所定の論理条件に基づいて比較する論理条
    件比較行程と、 前記論理条件比較行程の比較において前記所定の論理条
    件を満足した場合は、合成音の生成の開始及び終了の少
    なくとも一方を行う行程と、を有することを特徴とする
    請求項4に記載の音声合成方法。
JP2000245863A 2000-08-14 2000-08-14 音声合成方法 Abandoned JP2002062889A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2000245863A JP2002062889A (ja) 2000-08-14 2000-08-14 音声合成方法
US09/925,960 US20020026318A1 (en) 2000-08-14 2001-08-10 Method of synthesizing voice
EP01119461A EP1182644A3 (en) 2000-08-14 2001-08-13 Method of synthesizing voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000245863A JP2002062889A (ja) 2000-08-14 2000-08-14 音声合成方法

Publications (1)

Publication Number Publication Date
JP2002062889A true JP2002062889A (ja) 2002-02-28

Family

ID=18736305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000245863A Abandoned JP2002062889A (ja) 2000-08-14 2000-08-14 音声合成方法

Country Status (3)

Country Link
US (1) US20020026318A1 (ja)
EP (1) EP1182644A3 (ja)
JP (1) JP2002062889A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003052370A1 (en) * 2001-12-14 2003-06-26 Canon Kabushiki Kaisha Information processing apparatus and method, and program
JP2008294952A (ja) * 2007-05-28 2008-12-04 Mitsubishi Electric Corp デジタル放送受信装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4476725B2 (ja) * 2004-07-21 2010-06-09 株式会社東芝 ディジタル放送受信装置
JP6784022B2 (ja) * 2015-12-18 2020-11-11 ヤマハ株式会社 音声合成方法、音声合成制御方法、音声合成装置、音声合成制御装置およびプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944189A (ja) * 1995-05-24 1997-02-14 Sanyo Electric Co Ltd テキスト情報の合成音声読み上げ装置及び文字放送受信機
JPH10153998A (ja) * 1996-09-24 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> 補助情報利用型音声合成方法、この方法を実施する手順を記録した記録媒体、およびこの方法を実施する装置
GB2325112B (en) * 1997-05-06 2002-07-31 Ibm Voice processing system
US5983190A (en) * 1997-05-19 1999-11-09 Microsoft Corporation Client server animation system for managing interactive user interface characters
US6324500B1 (en) * 1997-11-14 2001-11-27 International Business Machines Corporation Method and system for the international support of internet web pages
JP4185175B2 (ja) * 1997-11-20 2008-11-26 富士通株式会社 構造化文書の表示方法
US6622158B1 (en) * 1998-04-20 2003-09-16 Sony Corporation Character information copying system, recording apparatus, and recording method
JPH11327870A (ja) * 1998-05-15 1999-11-30 Fujitsu Ltd ドキュメント読み上げ装置、読み上げ制御方法及び記 録媒体
US6243676B1 (en) * 1998-12-23 2001-06-05 Openwave Systems Inc. Searching and retrieving multimedia information
US6589291B1 (en) * 1999-04-08 2003-07-08 International Business Machines Corporation Dynamically determining the most appropriate location for style sheet application
US6463440B1 (en) * 1999-04-08 2002-10-08 International Business Machines Corporation Retrieval of style sheets from directories based upon partial characteristic matching
US6585778B1 (en) * 1999-08-30 2003-07-01 International Business Machines Corporation Enforcing data policy using style sheet processing
US6715129B1 (en) * 1999-10-13 2004-03-30 International Business Machines Corporation Achieving application-specific document content by transcoding using Java Server Pages
US6662163B1 (en) * 2000-03-30 2003-12-09 Voxware, Inc. System and method for programming portable devices from a remote computer system
GB0025331D0 (en) * 2000-10-16 2000-11-29 Canon Kk Control apparatus
US7194683B2 (en) * 2001-03-02 2007-03-20 International Business Machines Corporation Representing and managing dynamic data content for web documents
US20020173961A1 (en) * 2001-03-09 2002-11-21 Guerra Lisa M. System, method and computer program product for dynamic, robust and fault tolerant audio output in a speech recognition framework
US20030018668A1 (en) * 2001-07-20 2003-01-23 International Business Machines Corporation Enhanced transcoding of structured documents through use of annotation techniques

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003052370A1 (en) * 2001-12-14 2003-06-26 Canon Kabushiki Kaisha Information processing apparatus and method, and program
JP2008294952A (ja) * 2007-05-28 2008-12-04 Mitsubishi Electric Corp デジタル放送受信装置

Also Published As

Publication number Publication date
US20020026318A1 (en) 2002-02-28
EP1182644A2 (en) 2002-02-27
EP1182644A3 (en) 2002-12-11

Similar Documents

Publication Publication Date Title
US20050043067A1 (en) Voice recognition in a vehicle radio system
JPH0969793A (ja) 無線放送受信機および符号化メッセージの処理モジュール
US5845248A (en) Apparatus for reading out textual information with synthesized speech, and teletext receiver
JPH0946243A (ja) 無線放送受信機および符号化メッセージの処理モジュール
JP2002062889A (ja) 音声合成方法
US20160019892A1 (en) Procedure to automate/simplify internet search based on audio content from a vehicle radio
JP4476725B2 (ja) ディジタル放送受信装置
JP4482368B2 (ja) データ放送コンテンツ受信変換装置およびデータ放送コンテンツ受信変換プログラム
JP3315845B2 (ja) 車載音声合成装置
EP1324313B1 (en) Text to speech conversion
US5806035A (en) Traffic information apparatus synthesizing voice messages by interpreting spoken element code type identifiers and codes in message representation
JP3565927B2 (ja) 多重受信装置
JPH10326099A (ja) 音声片メモリを含むrds−tmc無線受信機
JPH1028068A (ja) ラジオ装置
JPH0969791A (ja) 無線放送受信機および符号化メッセージの処理モジュール
JPH10254470A (ja) テキスト音声合成装置
JP3372382B2 (ja) Fm多重放送受信機
JP3274773B2 (ja) Fm多重放送受信装置
JPH09114807A (ja) 文音声合成装置
JP2002314444A (ja) 車載用ディジタル放送受信機
JP2865590B2 (ja) 車両用情報提供装置
JP3593798B2 (ja) Fm多重放送受信機
JPH09275330A (ja) Fm多重放送受信機
JPH10319992A (ja) 車載用音声合成装置
JPH0646016A (ja) 無線伝送方式による新聞記事音声情報提供システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050509

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20070802