JP3010630B2 - 音声出力電子機器 - Google Patents

音声出力電子機器

Info

Publication number
JP3010630B2
JP3010630B2 JP63323067A JP32306788A JP3010630B2 JP 3010630 B2 JP3010630 B2 JP 3010630B2 JP 63323067 A JP63323067 A JP 63323067A JP 32306788 A JP32306788 A JP 32306788A JP 3010630 B2 JP3010630 B2 JP 3010630B2
Authority
JP
Japan
Prior art keywords
memory
digit
output
voice
hour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63323067A
Other languages
English (en)
Other versions
JPH0250196A (ja
Inventor
由美 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP63323067A priority Critical patent/JP3010630B2/ja
Priority to DE3912714A priority patent/DE3912714A1/de
Priority to GB8910603A priority patent/GB2218602A/en
Priority to US07/350,173 priority patent/US5027409A/en
Publication of JPH0250196A publication Critical patent/JPH0250196A/ja
Application granted granted Critical
Publication of JP3010630B2 publication Critical patent/JP3010630B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • G10L13/07Concatenation rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electric Clocks (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は数値を音声出力する音声出力電子機器に関す
る。
〔従来の技術〕
従来の音声出力電子機器においては、各ブロックが全
て専用音声データメモリを持ち、出力している。例え
ば、従来の音声報知電子時計における日本語報知におい
ては、実公昭63−4239の様に10位桁出力の際、2つの
“ジュウ”コードを有し、10位桁の内容によって使いわ
け、20〜50では“ジュウ”コードを共用しているが、時
桁、分桁においては全て専用コードを有して出力してい
る。
〔発明が解決しようとする課題〕
しかし乍ら、従来の音声報知時計における様に時桁、
分桁の音声コードをそれぞれの桁毎に有することはIC設
計上大きなメモリを有することを強いられ、チップサイ
ズが大きくなり大きくコストアップすることになる。又
限られたメモリ内で実現させるためには音声データを高
圧縮させる必要があり、音声データと音質には密接な関
係があるため、音質劣化を強いられるか、若しくは製品
化をあきらめざるを得なかった。殊に独語や西語を用い
て音声報知を行なおうとする際はその言葉の性質上、必
要データは膨大であり、実公昭63−4239の様な同一桁種
内のデータ共有化のみでは限られた腕時計サイズでの音
声時計の実現は難しかった。
例えば独語にて時刻の音声報知を行なう場合におい
て、時桁、分桁毎に編集語のライブラリーを持ったとす
ると、実公昭63−4239において日本語の“ジュウ”を共
通化した様に、“Zig"“Zehn"を共通化したとしても、
概ね、48単語、50秒分のデータを必要とする。これをビ
ットレート6Kbit/secでデータ化したとすると、メモリ
は300Kbitを必要とし、我々は170Kbitのメモリしか有し
ていなかったために、更にビットレートを低下させ、音
質劣化をがまんするか、製品化をあきらめざるを得なか
った。
そこで本発明はより高効率な音声データを共有化する
ことによって、より小型でより安価でかつより高音質よ
り自然な報知を行ない又時間長の長い言葉をも出力する
音声出力電子機器を供給することを目的とする。
〔実 施 例〕
我々は、日本語以外の言葉における時刻報知において
は、時桁と分桁の数値が同じものであれば言葉として全
く同じとなるものが多いことに注目した。即ち、“4"を
例にとってみると、日本語では、時桁は“よ”分桁は
“よん”となり語が全く異なるのに対し、英語は同じ
“four"、独語は“veir"、西語は“cuatro"である。し
かし乍らこれら英語、独語、西語などでも前に語がある
かないか又は次に語を続けるか否かでアクセントは異な
ってくる。今、独語を例にとって説明する。出力する時
刻を“4:04(veir uhr veir)”とした場合、時桁の
4のアクセントは次に“uhr"という語を継ぐために上り
調子となり となる。この上り調子の4を“veir−1"とする。これに
対し分桁の4は次に続く語がないため下がり調子となり となる。この下がり調子の4を“veir−2"とする。次に
出力時刻“4:24(veir uhr veirundzwanzig)”を考
えてみる。時桁は前述のveir−1を出力し、uhrを続け
る。次に分桁の4は、前述では後ろに続く語がなかった
ため下がり調子のveir−2を使用したのに対して、後ろ
にund zwanzigを続けるために上り調子のveirでなくて
はならない。本来ならば、時桁と分桁では前に語がある
か否かの違いがあるために若干アクセントが異なってく
るため時桁とは違う上り調子のveirを用いるのが正法で
ある。しかし乍ら時計の報時という機能からすると、先
ず要求されるのは了解度であり、独語の場合10分桁2以
上の場合は1、0の場合より若干了解度が落ちこの場
合、Xuhrの出力語数十msec〜数百msecの無音状態をお
き、時桁のような強い出だしをもつ語を出力することに
より了解度を上げ、かつ自然性をも確保できるというこ
とが実験的に明らかになった。故にこの場合4はvier−
1を使用する。その語undとzwanzigを出力する。又、こ
のzwanzigも時、分で共用することができる。今“20:20
zwanzig uhr zwanzig")を出力することを考える。zw
anzigはzwanとzigの2語に分けて考えることができ、zi
gはvierzig funfzigのzigと共有化できる。先ず時桁出
力時はzwanを出力後語尾であるzigを出力するが、次にu
hrが続くため上り調子となる。このzigを“zig−1"とす
る。これに対し分桁出力では、前述の4の場合同様によ
り高い了解性を持たせることのできる時桁と同様のzwan
を出力し、その後語尾zigを出力するが、後に続く語が
ないために、下がり調子となり時桁とは異なるzig−2
を出力する。“18:18achtzehn uhr achtzehn"などの1
3〜19の数値も同様に考えられる。
故に前述の場合を例にとると、veir−1、zwanなどを
時分共用メモリに、veir−2を分桁用メモリに、zigを
語尾メモリに、uhrをメッセージメモリに記憶し、桁セ
レクト音声指定メモリが時刻値を判別してどのメモリブ
ロックのどの音声データを出力させるか選択し出力を行
なわせるため音声データの高共有化が可能となり、小規
模メモリで、より高音質より自然な報知をさせることが
できる。
以下、本発明に関して実施例を示すと、第2図の様
に、マイクロコンピューター200、音声合成回路201、ア
ンプ212、スピーカ213、スイッチ206より構成されてお
り、マイクロコンピューター200は、発振回路202、分周
回路203、制御回路204、入力回路205、出力回路209、RO
M207、及びRAM208より構成されている。スイッチ206を
今報時をさせるための報時スイッチとする。報時スイッ
チ206が入力されるとマイクロコンピューター200内のRO
M207内に記憶された実行手順に従って音声出力のデータ
指定が音声合成回路201に対して行なわれる。音声合成I
Cは、音声データメモリ210、DA変換回路214及び、入出
力回路等を有しており、マイクロコンピューター200の
指定するところの音声を合成し、スピーカ213へ出力す
る。以下、ROM207内に記憶されている音声出力の際のマ
イクロコンピューター200の動作手順について、ドイツ
語報時を例として、第3図のフローチャートに基づいて
説明する。
第4図及び第5図はドイツ語報時用の音声データメモ
リ210の構成でありtableD1〜tableD6までのブロックに
分かれている。このうち、tableD1及びD2の各データは
時桁出力及び分桁出力双方に用いられ、tableD3は分桁
出力のみに用いられる。tableD4及びD5の各語はtableD2
の語尾として出力される語であるが、zig−1とzig−
2、zehn−1とzehn−2はアクセントの異なる同一語で
あり、zig−1及びzehn−1は時桁出力時に、zig−2及
びzehn−2は分桁出力時に用いられる。
第3図は、第4図及び第5図の音声データを用いて、
ドイツ語を24時間制で報時する際のフローチャートであ
る。スイッチ6が押下され入力回路5にHレベルが印加
されると動作する。
先ず時桁が0〜12であるか否かを判断し(ステップ30
0)そうであれば音声データメモリ210内のtableD1内
の、時桁数値に対応した数値の語の出力を行なわせるべ
く語指定を行なう。例えば4時であればtableD1内のVEI
Rが指定され、出力される。(ステップ301)時桁が13〜
19の場合(ステップ302YES)は、音声データメモリ210
内のtableD2内の時桁数値に対応した数値の語の出力を
行なわせるべく語指定を行なう。例えば13時の場合はdr
ei−が指定され、出力される(ステップ303)。次に13
〜19の語尾であるzehnが出力されるが、時桁出力なので
zehn1が指定され、出力される(ステップ304)。時桁が
20の場合はtableD2内の時桁10位桁に対応した数値の語z
wan−を指定し出力した後、語尾であるzigが出力される
が時桁出力なのでzig1が指定され、出力される(ステッ
プ305、306、307)。時桁が21〜23の場合は先ず1位桁
をtableD1に従って出力し、次にundを出力し、10位桁
(2)をtableD2に従ってzwanを出力し、語尾であるzig
出力では時桁出力なのでzig1を指定し出力する(ステッ
プ308、309、310、311)。次に日本語に“時”に対応す
る“unr"を出力し(ステップ312)、分桁の出力に移
る。先ず分桁が0である場合は分桁は何も出力しないの
で動作を終了する(ステップ213)。分桁が1〜12の場
合は分桁出力用のtableD3を使用し、分数値に対応した
数値の語が指定され、出力される(ステップ314、31
5)。分桁が13〜19の場合は、時桁の場合と共用のtable
D2を使用し、1分桁の数値に対応した数値の出力を行な
った後、語尾であるzehnが出力されるが、分桁なので分
桁用のアクセントのzehn2が指定され、出力される。
(ステップ316、317、318)次に1分桁が0であるか否
かを判断するが、概ね0、1〜12、13〜19は分枝させて
あるので、ここでyesとなれば分桁は20、30、40、50の
何れかとなる(ステップ319)。分桁が20、30、40、50
の何れかであれば、時、分共用のtableD2を用い、10分
桁の数値に対応する数値の語を指定し出力し、(ステッ
プ319、320)、その後語尾のzig又はβigを出力させる
が、分桁なので分桁用のzig−2又はβig−2を指定し
出力する(ステップ321、322、323)。ステップ319でNO
と判断された場合は分は21〜29、31〜39、41〜49、51〜
59である。先ず1位桁を出力するが、ステップ215とは
異なり次に10分桁の語が続くためアクセントは時桁に近
いものとなるため、時桁で使用したtableD1を使用し、
1分桁値に対応する数値の語を指定し、出力し、次に、
“und"を出力し、10位桁の出力に時分共用のtableD2を
使用し10分桁の値に対応した数値の語を出力し、最後に
分桁用のzig2又はβig−2を出力する(ステップ324、3
25、326、327、328、329)。
又、独語は他の英語、西語などと異なり、2桁数値出
力の際1位桁を先に出力する。このため本来であれば1
桁数値は時桁用、分桁1〜9分用、分桁21〜29、31〜3
9、41〜49、51〜59分の3種類を要するが、本発明の構
成によれば分桁21〜29分などの語は、後に10桁出力があ
るためイントネーションは時桁音に近くなり、時桁音を
用いることが可能であるため、大きなメモリ効率向上が
できる。
次に英語で時刻報知する場合を例にとって説明する。
今出力する時刻を“4:04"(four oh four)とする。
時桁のfourは次にohという語を継ぐためのアクセントを
とり、分桁のfourは文を終結させるためのアクセントを
とるため、それぞれ別な語を用いる必要がある。次に1
3:13(thirteen thirteen)を出力する場合を考える
と、時桁のthirteenは次の分桁を継ぐために下がり調子
となり分桁のthirteenは終結のために下がり調子となる
ために本来であれば別の語を用いる必要があるが、独語
の場合と同様に、了解度向上のためには時桁と分桁の間
には若干秒の無音状態があった方が良いことが実験上明
らかになり、この場合はthir−の部分は同じ音が使用で
き、語尾のteenのみでアクセントの違いを出すことがで
きる。更に、21:21(twenty one twenty one)の出
力を考えると、13:13と同じ了解度向上面からの理由でt
wentyのtwenは同じ語を用いることができるが、時桁分
桁のoneのイントネーションの差異が甚だしいために、t
yの部分は時桁、分桁とも後に語を継ぐにもかかわらず
同じ音をとることはできない。
第7図、第8図は英語報時用の音声データメモリ10の
構成であり、tableE1〜E6のブロックに分かれている。
このうちtableE1は時桁専用のメモリブロック、tableE3
は分桁専用のメモリブロックであり、tableE2は時分桁
共用メモリブロックである。tableE4、E5はE2の語尾と
して用いられる語のブロックで、teen−1とteen−2、
ty−11とty−21、ty−12とty−22はアクセントの異なる
同一語であり、tableE4のteen−1、ty−11、ty−12は
時桁出力時にtableE5のteen−2、ty−21、ty−22は分
桁出力時に用いられる。ty−11、21は、分桁がφの場
合、即ち、20、30、40、50出力時に用いられ、ty−21、
ty−22は分桁が1〜9の場合に用いられる。第6図は第
7図及び第8図の音声データを出力する場合のフローチ
ャートである。
先ず時桁が1〜12時であるか否かを判断し(ステップ
600)そうであれば音声データメモリ210内のtableE1内
の、時桁数値に対応した数値の出力を行なわせるべく語
指定を行なう。例えば3時であれば、tableE1内のTHREE
が出力される。(ステップ601)時桁が13〜19の場合
(ステップ602 y es)は、音声データメモリ210内の
tableE2内の時桁数値に対応した数値の語の出力を行な
う。例えば14時の場合はfour−を出力する(ステップ60
3)。次に13〜19の語尾であるteenが出力されるが、時
桁なのでteen−1が出力される(ステップ604)。時桁
が20時の場合はtableE2内のtwenが出力され(ステップ6
06)、その後時桁20用ty−11が出力される(ステップ60
7)。時桁が21〜24の場合はtableE2内のtwenが出力され
(ステップ608)、その後時桁21〜24用のty−12が出力
され(ステップ609)、tableE1内の時1桁用の音声が出
力される(ステップ610)。次に分析の出力を行なう。
分桁が1〜9の場合は、ohを出力し、分桁用のtableE3
内の、数値に対応した音声を出力する(ステップ613、6
14)。分桁が10〜12の場合は分桁用のtableE3内の数値
に対応した音声を出力する(ステップ616)。分桁が13
〜19の場合は時分共用のtable2より数値に応じた音声を
出力した後(ステップ618)分桁用の語尾teen−2を出
力する。分桁が20、30、40、50の何れかの場合は、時分
共用のtable2より数値に応じた音声を出力した後、分桁
用のtyのうち、20、30、40、50用のty−21を出力する
(ステップ621、622)。分桁が21〜29、31〜39、41〜4
9、51〜59の場合は、時分共用の、tableE2より10位桁の
数値に応じた音声出力した後、分桁用のtyのうち終結し
ないアクセントであるty−22を出力し、分桁用のtableE
3より1位桁に対応する数値の音声を出力する(ステッ
プ623、624、625)尚、ここではty−11とty−12、ty−2
1と、ty−22を別な語としたが、共通化することも可能
である。
以上独語と英語を用いて時刻報知する際の本発明の実
施例を述べてきたが、本発明の応用は時刻報知に限るも
のではない。例えばキャッシュレジスタなどで金額の読
み上げを行なわせる場合においても応用できる。例えば
独語にて金額を読み上げた場合を考える。今、読み上げ
る金額を23.15DMとする。即ちdreiundzwanzig Mark v
ierundfunfzigである。第9図にフローチャートを示
す。音声データメモリは時刻報知の場合に用いた第4図
及び5図を用いる。この場合、Markの値は時桁と、Pfen
nigの値は分桁と同様の扱いとなる。MarkはtableD1内か
ら“DREI"を読み出し出力し(ステップ900)“und"を出
力し(ステップ901)、tableD2内の“zwan"を出力し
(ステップ903)、zwanの語尾として上り調子のzig−1
を出力し(ステップ904)、最後に“MARK"を出力する
(ステップ905)。次にPfennig部を出力する。tableD1
内から“VEIR"を出力し(ステップ905)、“und"を出力
し(ステップ906)tableD2内の“funt"を出力し、funt
の語尾として下がり調子の“zig−2"を出力する(ステ
ップ907、908)。但しMarkは出力しなくても良い。又、
電子計算機において演算を読み上げて行なった場合にお
いても用いることができる。例として西語を用いた実施
例を示す。第10図及び第11図は、式に用いられる数値が
2桁以内の自然数或いは0の場合の四則演算に用いられ
る西語出力の語のライブラリであり、このライブラリを
用いて四則演算の西語音声出力を行なう場合のフローチ
ャートを第12図、13図、14図に示す。今、N1+N2=N3と
いう演算を考えた場合、N1及びN2は一般ブロックの数値
であり、N3は最終ブロックの数値である。第10図中tabl
eEs1は一般ブロック用データメモリであり、tableEs4は
最終ブロック用データメモリであり、tableEs2及びEs3
は全ブロック共用データメモリである。又、第11図tabl
eEs5、Es6、Es7は語尾メモリである。第12図は演算出力
の際のフローチャートである。先ずN1ブロックの出力を
行なうのでN1数値に応じて一般ブロックの出力を行なう
(ステップ1200)。次に出力すべき演算記号が“=”以
外の場合(ステップ1201NO)は、それぞれ演算記号に応
じて、“mas"、“mens"、“por"、“entre"の何れかを
出力する(ステップ1204、1205、1206、1207、1208、12
09、1210)。次にN2を出力するために一般ブロック出力
を行なう(ステップ1200)。次に出力はことなるので
“iguala"を出力し(ステップ1202)、その後に最終ブ
ロックの出力を行なう(ステップ1203)。第13図は、第
12図中のステップ1200の処理を示すフローチャートであ
る。一般ブロックの数値が1〜10の場合はtableEs1内の
数値に対応した音声を出力し(ステップ1300、1301)11
〜15の場合はtableEs2内の数値に対応した音声を出力
し、一般ブロック語尾であるce−1を出力する(ステッ
プ1302、1303、1304)。数値の1位桁が0の場合、即
ち、20、30、40、50、60、70、80、90、の何れかである
場合はtableEs2内より10位桁に対応する数値の音声を出
力し、一般ブロック語尾であるta−1を出力する(ステ
ップ1305、1306、1307)。数値が16〜19、21〜29の場合
はtableEs3内より10位桁に対応する数値の音声を出力
し、1位桁に対応する数値の音声をtableEs1を用いて出
力する(ステップ1311,1312,1310)。また、数値が31以
上で31〜39など1位桁、10位桁ともに1〜9の数値であ
る場合は、tableEs3内より10位桁に対応する数値の音声
を出力し、一般ブロック語尾ta y−1を出力し、1位
桁に対応する数値の音声をtableEs1を用いて出力する
(ステップ1308、1309、1310)。
第14図は、第12図中のステップ1203の処理を示すフロ
ーチャートである。最終ブロックの数値が1〜10の場合
はtableEs4内の数値に対応した音声を出力し(ステップ
1400、1401)11〜15の場合はtableEs2内の数値に対応し
た音声を出力し、最終ブロック語尾であるce−2を出力
する(ステップ1402、1403、1404)。数値の1位桁がφ
の場合、即ち、20、30、40、50、60、70、80、90、の何
れかである場合はtableEs2内より10位桁に対応する数値
の音声を出力し、最終ブロック語尾であるta−2を出力
する(ステップ1405、1406、1407)。数値が16〜19、21
〜29の場合はtableEs3内より10位桁に対応する数値の音
声を出力し、1位桁に対応する数値の音声をtableEs1を
用いて出力する(ステップ1411,1412,1410)。また、数
値が31以上で31〜39など1位桁、10位桁ともに1〜9の
数値である場合は、tableEs3内より10位桁に対応する数
値の音声を出力し、最終ブロック語尾ta y−2を出力
し、1位桁に対応する数値の音声をtableEs4を用いて出
力する(ステップ1408、1409、1410)。
特に西語に関しては、例えば31を出力する際本来は
“treinta y uno"であるが発音としては、treintaの
taとyはほとんど密接であり切り離すことが難しいばか
りでなく、30と31のtreintaは別な語を用いる必要があ
るために必ずペアで使われる。このため、文法上は別な
語ではあるものの同一語にまとめたことにより、マイコ
ン等による制御が本来は2語分行なわなければならない
のに対し、1語で行なうことができ、容易になるという
効果も有する。
〔発明の効果〕
以上述べた様に本発明の音声出力電子機器は、全ブロ
ック共用メモリ、語尾メモリ、ブロック専用メモリを持
ち、数値音声出力の際、その数値が一般ブロックである
か最終ブロックであるかのブロック種の選択を行ないブ
ロック種によって上記のどのメモリの語を指定するかを
選択する様にしたので、音声データが効率的にコード化
され、より高音質な音声報知が行なえるという効果を持
つ。殊に音声報知の腕時計の様に小型電子機器において
は、そのサイズ上の問題から回路基板上に載せられるIC
の数及びサイズ即ちメモリサイズには制約があり、又、
そのために音声データを圧縮すると言っても、了解性、
音質面より限度がある。このため言葉そのものが長い言
葉や語数の多くなる言葉を用いた音声時計は、従来の様
に単純に音声コード化したのでは製品として実現できな
かった。しかし乍ら本発明の様に言葉の音としての共通
点を見い出し、共通化し、共通化できない語尾のような
音を分離しそれだけを単独使用のコードとすればメモリ
は大変高効率に使用でき、製品化も叶い、又、音質も向
上し、了解度、満足度も向上する。たとえば実施例で用
いた独語の例では、時、分語を独立してデータ化した場
合、音声データは時間にして50〜60秒分必要となるが、
本発明による構成を用いた場合は、約30秒分で済み、IC
が小さくできるということは、ICチップ単価は安くな
り、更に安価な音声報知時計が供給できる。
【図面の簡単な説明】
第1図は本発明の音声出力電子機器のクレーム対応図。 第2図は本発明の音声出力電子機器実施例の音声報知電
子時計ハード構成図。 第3図は独語にて音声報時する場合のフローチャート。 第4図及び第5図は独語2桁数値出力、又は報時の際の
音声データメモリ構成図。 第6図は英語にて音声報時する場合のフローチャート。 第7図及び第8図は英語2桁数値出力又は報時の際の音
声データメモリ構成図。 第9図は、独語にて金額を音声出力する際の一出力例の
ためのフローチャート。 第10図、及び第11図は西語にて2桁数値出力又は四則演
算のための音声データメモリ構成図。 第12図、第13図、第14図は、西語にて四則演算式出力の
ためのフローチャート。 2……ブロックセレクト音声指定手段

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】数値に対応する音声データを記憶するメモ
    リを有し、 一連の数値が複数のブロックに分けられており、 音声出力の際各ブロック毎に数値を出力し、 接続のための言葉により各ブロックの数値をつないで出
    力する音声出力電子機器において、前記メモリは、 一般ブロック出力用の音声データと最終ブロック出力用
    の音声データの共通部分を記憶する全ブロック共用メモ
    リと、 一般ブロック出力用の音声データと最終ブロック出力用
    の音声データとで異なるアクセントを持つ複数種類の語
    尾音声データを記憶する語尾メモリと、 一般ブロック専用音声データを記憶する一般ブロック専
    用メモリと、 最終ブロック専用音声データを記憶する最終ブロック専
    用メモリとを備え、 音声出力時に、前記複数のブロックの間に所定の無音状
    態をおくと共に、 一般ブロックの音声出力にあたって、 (1)前記一般ブロック専用メモリに記憶され一般ブロ
    ック用のアクセントをもつ音声データを出力する場合、 (2)前記全ブロック共用メモリに記憶され全ブロック
    共用のアクセントをもつ音声データと、前記語尾メモリ
    に記憶され一般ブロック専用のアクセントをもつ語尾音
    声の音声データを出力する場合、 (3)または、前記全ブロック共用メモリに記憶され全
    ブロック共用のアクセントをもつ音声データと、前記語
    尾メモリに記憶され一般ブロック専用のアクセントをも
    つ語尾音声の音声データと、前記一般ブロック専用メモ
    リに記憶され一般ブロック専用のアクセントをもつ音声
    データを出力する場合のいずれかを選択して音声出力を
    行い、 最終ブロックの音声出力にあたって、 (1)前記最終ブロック専用メモリに記憶され最終ブロ
    ック用のアクセントをもつ音声データを出力する場合、 (2)前記全ブロック共用メモリに記憶され全ブロック
    共用のアクセントをもつ音声データと、前記語尾メモリ
    に記憶され最終ブロック専用のアクセントをもつ語尾音
    声の音声データを出力する場合、 (3)または、前記全ブロック共用メモリに記憶され全
    ブロック共用のアクセントをもつ音声データと、前記語
    尾メモリに記憶され最終ブロック専用のアクセントをも
    つ語尾音声の音声データと、前記最終ブロック専用メモ
    リに記憶され最終ブロック専用のアクセントをもつ音声
    データを出力する場合のいずれかを選択して数値音声の
    出力を行うことを特徴とする音声出力電子機器。
  2. 【請求項2】数値に対応する音声データを記憶するメモ
    リと、時計手段とを備え、前記時計手段により計時され
    た時および分の値に応じた前記音声データを読み出し、
    時刻を音声にて出力する音声出力電子機器において、 前記メモリは、 時桁用の音声データと分桁用の音声データの共通部分を
    記憶する時分桁共用メモリと、 時桁用の音声データと分桁用の音声データとで異なるア
    クセントを持つ複数種類の語尾音声データを記憶する語
    尾メモリと、 時桁専用音声データを記憶する時桁専用メモリと 分桁専用音声データを記憶する分桁専用メモリとを備
    え、 時刻情報出力時に、時桁用音声と分桁用音声の間に所定
    期間の無音状態をおくと共に、 時桁音声の出力にあたって、 (1)前記時桁専用メモリに記憶され時桁用のアクセン
    トをもつ音声データを出力する場合、 (2)前記時分桁共用メモリに記憶され時分桁共用のア
    クセントをもつ音声データと、 前記語尾メモリに記憶され時桁専用のアクセントをもつ
    語尾音声の音声データを出力する場合、 (3)または、前記時分桁共用メモリに記憶され時分桁
    共用のアクセントをもつ音声データと、前記語尾メモリ
    に記憶され時桁用のアクセントをもつ語尾音声の音声デ
    ータと、前記時桁専用メモリに記憶され時桁専用のアク
    セントをもつ音声データを出力する場合のいずれかを選
    択して時刻音声の出力を行い、 分桁音声の出力に際しては、 (1)前記分桁専用メモリに記憶され分桁用のアクセン
    トをもつ音声データを出力する場合、 (2)前記時分桁共用メモリに記憶され時分桁共用のア
    クセントをもつ音声データと、 前記語尾メモリに記憶され分桁専用のアクセントをもつ
    語尾音声の音声データを出力する場合、 (3)または、前記時分桁共用メモリに記憶され時分桁
    共用のアクセントをもつ音声データと、前記語尾メモリ
    に記憶され分桁専用のアクセントをもつ語尾音声の音声
    データと、前記分桁専用メモリに記憶され分桁専用のア
    クセントをもつ音声データを出力する場合のいずれかを
    選択して時刻音声の出力を行うことを特徴とする音声出
    力電子機器。
JP63323067A 1988-05-10 1988-12-21 音声出力電子機器 Expired - Fee Related JP3010630B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP63323067A JP3010630B2 (ja) 1988-05-10 1988-12-21 音声出力電子機器
DE3912714A DE3912714A1 (de) 1988-05-10 1989-04-18 Elektronische sprachausgabe-vorrichtung
GB8910603A GB2218602A (en) 1988-05-10 1989-05-09 Voice synthesizer
US07/350,173 US5027409A (en) 1988-05-10 1989-05-10 Apparatus for electronically outputting a voice and method for outputting a voice

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11301288 1988-05-10
JP63-113012 1988-05-10
JP63323067A JP3010630B2 (ja) 1988-05-10 1988-12-21 音声出力電子機器

Publications (2)

Publication Number Publication Date
JPH0250196A JPH0250196A (ja) 1990-02-20
JP3010630B2 true JP3010630B2 (ja) 2000-02-21

Family

ID=26452041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63323067A Expired - Fee Related JP3010630B2 (ja) 1988-05-10 1988-12-21 音声出力電子機器

Country Status (4)

Country Link
US (1) US5027409A (ja)
JP (1) JP3010630B2 (ja)
DE (1) DE3912714A1 (ja)
GB (1) GB2218602A (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2609752B2 (ja) * 1990-10-09 1997-05-14 三菱電機株式会社 音声/音声帯域内データ識別装置
US5649059A (en) * 1991-05-22 1997-07-15 Tendler Cellular, Inc. Alpha-numeric verbal scroll technique for use in an emergency location system
US5617478A (en) * 1994-04-11 1997-04-01 Matsushita Electric Industrial Co., Ltd. Sound reproduction system and a sound reproduction method
DE19518504C2 (de) * 1994-10-26 1998-08-20 United Microelectronics Corp Dynamisch programmierbare Ansage-Einrichtung
US7305243B1 (en) 1996-02-28 2007-12-04 Tendler Cellular, Inc. Location based information system
US6519463B2 (en) 1996-02-28 2003-02-11 Tendler Cellular, Inc. Location based service request system
US20030101045A1 (en) * 2001-11-29 2003-05-29 Peter Moffatt Method and apparatus for playing recordings of spoken alphanumeric characters
US20160179060A1 (en) * 2014-12-19 2016-06-23 Thony Chukwuemezie Anyiam Anyiams Voice Thermoa Watch
GB2559766A (en) * 2017-02-17 2018-08-22 Pastel Dreams Method and system for defining text content for speech segmentation

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3641496A (en) * 1969-06-23 1972-02-08 Phonplex Corp Electronic voice annunciating system having binary data converted into audio representations
DE2525025C3 (de) * 1975-06-05 1981-01-29 Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt Schaltungsanordnung zur Ausgabe akustischer Auskünfte
US4214125A (en) * 1977-01-21 1980-07-22 Forrest S. Mozer Method and apparatus for speech synthesizing
JPS54127359A (en) * 1978-03-25 1979-10-03 Sharp Corp Voice watch
JPS5574600A (en) * 1978-11-30 1980-06-05 Sharp Kk Speech annunciation control system
JPS59164099U (ja) * 1984-03-22 1984-11-02 シャープ株式会社 音声報知式電子機器
JPH0833744B2 (ja) * 1986-01-09 1996-03-29 株式会社東芝 音声合成装置

Also Published As

Publication number Publication date
DE3912714A1 (de) 1989-11-23
GB8910603D0 (en) 1989-06-21
US5027409A (en) 1991-06-25
JPH0250196A (ja) 1990-02-20
GB2218602A (en) 1989-11-15

Similar Documents

Publication Publication Date Title
US4912768A (en) Speech encoding process combining written and spoken message codes
US7558732B2 (en) Method and system for computer-aided speech synthesis
US4685135A (en) Text-to-speech synthesis system
CN101171624B (zh) 语音合成装置及语音合成方法
JP3144273B2 (ja) 自動歌唱装置
US5682502A (en) Syllable-beat-point synchronized rule-based speech synthesis from coded utterance-speed-independent phoneme combination parameters
EP0059880A2 (en) Text-to-speech synthesis system
US4398059A (en) Speech producing system
US4701862A (en) Audio output device with speech synthesis technique
JP3010630B2 (ja) 音声出力電子機器
EP1265226B1 (en) Device for generating announcement information
EP0045813B1 (en) Speech synthesis unit
EP0194004A2 (en) Voice synthesis module
JPS6014360B2 (ja) 音声応答装置
JP3087761B2 (ja) 音声処理方法及び音声処理装置
JP3312106B2 (ja) 声帯模写機能付き目覚まし時計
GB1603993A (en) Lattice filter for waveform or speech synthesis circuits using digital logic
EP0205298A1 (en) Speech synthesis device
JPS634239Y2 (ja)
JPH08160991A (ja) 音声素片作成方法および音声合成方法、装置
JPS621230B2 (ja)
Mezzalama et al. A microprocessor based audio response system
GB2047443A (en) Electronic timepiece with variable melody alarm facility
Phillips The Speech Synthesiser
JPS6036597B2 (ja) 音声合成装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees