JP3711411B2 - 音声合成装置 - Google Patents
音声合成装置 Download PDFInfo
- Publication number
- JP3711411B2 JP3711411B2 JP11030999A JP11030999A JP3711411B2 JP 3711411 B2 JP3711411 B2 JP 3711411B2 JP 11030999 A JP11030999 A JP 11030999A JP 11030999 A JP11030999 A JP 11030999A JP 3711411 B2 JP3711411 B2 JP 3711411B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- data
- text data
- telephone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000015572 biosynthetic process Effects 0.000 claims description 61
- 238000003786 synthesis reaction Methods 0.000 claims description 60
- 238000006243 chemical reaction Methods 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 9
- 230000003139 buffering effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 238000000034 method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
Description
【発明の属する技術分野】
本発明は、テキストデータを音声データに変換して出力する音声合成装置に関し、特にCTI(Computer Telephony Integration;コンピュータ・テレフォニー・インテグレーション)システムにて用いられる音声合成装置に関するものである。
【0002】
【従来の技術】
近年、デジタル信号処理技術を利用して人工的に音声を作り出す音声合成装置が広く普及しつつある。特に、コンピュータシステムと電話システムとを統合して顧客満足度の高い電話応対サービスを実現するCTIシステムにおいては、音声合成装置を用いることで、コンピュータネットワーク上で授受される電子メール等の内容を、公衆回線網上の電話機で音声出力する、といったことを可能にしている。
【0003】
このようなCTIシステムにおける音声出力サービス(以下「ユニファイドメッセージサービス」と称す)は、以下のようにして行われる。例えば、電子メールについての音声出力を行う場合には、CTIシステムを構成するCTIサーバが電子メールを保管しているメールサーバと連携し、公衆回線網上の電話機からの呼着信に応じて、その呼着信時に指定されたアドレス宛の電子メールをメールサーバから取得するとともに、その電子メールに含まれるテキストデータをCTIサーバに搭載された音声合成装置を用いて音声データに変換する。そして、変換後の音声データを発呼元の電話機へ送信することで、CTIサーバは、その電話機の利用者が電子メールの内容を聞き出せるようにする。なお、ユニファイドメッセージサービスを提供するにあたっては、例えば、CTIサーバがWWW(World Wide Web)サーバと連携して、そのWWWサーバがインターネット等のコンピュータネットワーク上に発信しているコンテンツ(例えば Webページ)の内容の一部(文章化された部分)を、音声出力するようにすることもできる。
【0004】
【発明が解決しようとする課題】
ところで、従来の音声合成装置、特にCTIサーバに搭載された音声合成装置は、通常、ある一つの特定の言語(例えば日本語)に特化して形成されている。一方、変換対象となる電子メール等には、日本語や英語など、様々な言語で記述されたものが存在する。
【0005】
したがって、従来の音声合成装置では、音声合成装置が対応している言語種類と変換すべきテキストデータの言語種類とのマッチングによっては、音声データへの変換を正しく行えないおそれがある。例えば、日本語に対応した音声合成装置を用いて英語の文章を変換すると、日本語と英語とでは文法その他文章の構造が異なるため、英語に対応した音声合成装置で変換した場合に比べて、正しい音声出力ができなかったり、流暢でない音声出力になってしまうなど、質の高い音声出力の提供が困難になってしまう。
【0006】
特にCTIシステムにおいて、ユニファイドメッセージサービスにより音声出力を行う場合には、電話機の利用者が音声出力の結果のみから電子メール等の内容を判断するので、質の高い音声出力が行えないと、結果として誤った内容を伝えてしまうことになるおそれがある。
【0007】
そこで、本発明は、変換すべきテキストデータの言語が複数種類存在していても、それぞれについて質の高い音声出力を行うことのできる音声合成装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明は、上記目的を達成するために案出された音声合成装置である。すなわち、CTIシステムにて用いられる音声合成装置であって、それぞれが異なる言語のテキストデータを当該言語の音声データに変換する複数の音声合成手段と、公衆回線網上の電話機との通信を行う通信制御手段と、前記通信制御手段が前記電話機からの発呼を受けると、該電話機から指定されるテキストデータを、該テキストデータを保管しているサーバから取得するデータ取得手段と、前記電話機から通知される指示に基づいて、前記データ取得手段が取得したテキストデータの音声データへの変換を、前記複数の音声合成手段のうちのどの音声合成手段に行わせるかを決定する変換制御手段と、前記データ取得手段が取得したテキストデータを、該テキストデータを構成する文章単位または幾つかの文章からなる段落単位で保持しておくバッファ手段とを備え、前記変換制御手段に選択された音声合成手段がテキストデータを音声データに変換すると、該変換後の音声データを前記通信制御手段が前記電話機へ送信するように構成されるとともに、前記変換制御手段は、あるテキストデータについての変換中に前記音声合成手段の選択を切り替えると、該切り替えにより新たに選択した音声合成手段に対し、前記バッファ手段に保持されたテキストデータについて、該切り替え前の音声合成手段により変換中であった文章または段落の先頭に戻って、音声データへの変換を行わせることを特徴とするものである。
【0009】
上記構成の音声合成装置によれば、それぞれが異なる言語に対応した複数の音声合成手段を備えており、これら音声合成手段のうちのいずれか一つがテキストデータから音声データへの変換を選択的に行う。したがって、この音声合成装置を用いれば、変換すべきテキストデータの言語が複数種類存在していても、各言語種類に応じた音声合成手段によって、音声データへの変換を行い得るようになる。
【0010】
【発明の実施の形態】
以下、図面に基づき本発明に係る音声合成装置について説明する。ただし、ここでは、本発明をCTIシステムにて用いられる音声合成装置に適用した場合を例に挙げて説明する。
【0011】
図1は、本発明に係る音声合成装置を用いたCTIシステムの基本的なシステム構成を示す概略図である。
図例のように、本実施の形態におけるCTIシステムは、公衆回線網1上に存在する電話機2と、その公衆回線網1に接続するCTIサーバ10と、を備えて構成されている。
【0012】
電話機2は、有線または無線を介して公衆回線網1に接続し、その公衆回線網1上の通信相手との通話を行うためのものである。
【0013】
一方、CTIサーバ10は、インターネット等のコンピュータネットワーク(ただし不図示)と接続したコンピュータとしての機能を有するものであり、公衆回線網1上の電話機2に対してユニファイドメッセージサービスを提供するものである。そのために、CTIサーバ10は、回線接続制御部11と、通話制御部12と、電子メールサーバ13と、複数の音声合成エンジン14a,14b…と、を有している。
【0014】
回線接続制御部11は、例えば公衆回線網1に接続する通信インタフェースからなるもので、その公衆回線網1上の電話機2との間の通信を実現するためのものである。具体的には、電話機2からの発呼を受け付けてこれを処理したり、電話機2への音声データの送信を行ったりするものである。なお、回線接続制御部11では、公衆回線網1上の複数の電話機2と同時に通信を行うことを可能にするため、その公衆回線網1と複数回線分の接続を確保している。
【0015】
通話制御部12は、例えばCTIサーバ10が有するCPU(Central Processing Unit)およびこのCPUが実行する制御プログラムによって実現されるもので、ユニファイドメッセージサービスを提供するにあたって、詳細を後述するような動作制御を行うものである。
【0016】
電子メールサーバ13は、例えばハードディスク装置等の不揮発性の記録装置からなるものであり、コンピュータネットワーク上で授受される電子メールを記憶蓄積することで保管しているものである。なお、電子メールサーバ13は、CTIサーバ10とは別に、コンピュータネットワーク上に設けられていてもよい。
【0017】
複数の音声合成エンジン14a,14b…は、それぞれがハードウエア(例えば音声合成LSI)またはソフトウエア(例えばCPUで実行される音声合成プログラム)によって実現されるもので、周知技術である波形重畳法等を利用して受け取ったテキストデータを音声データに変換するものである。ただし、これらの音声合成エンジン14a,14b…は、それぞれが異なる自然言語(日本語、英語、フランス語、中国語等)に対応しているものとする。すなわち、各音声合成エンジン14a,14b…は、それぞれが言語の種類に依存した音声合成処理を行うようになっている。例えば、各音声合成エンジン14a,14b…のうち、あるものは日本語のテキストデータを日本語の音声データに変換する日本語音声合成エンジン14aであり、他のものは英語のテキストデータを英語の音声データに変換する英語音声合成エンジン14bである、といった具合である。なお、どの音声合成エンジン14a,14b…がどの言語に対応しているかは、予め定められているものとする。
【0018】
このような回線接続制御部11、通話制御部12および複数の音声合成エンジン14a,14b…を有することによって、CTIサーバ10は、本発明に係る音声合成装置としての機能を実現するようになっている。
【0019】
次に、以上のように構成されたCTIシステムにおいて、ユニファイドメッセージサービスを提供する場合における処理動作例について説明する。ただし、ここでは、電子メールの内容を公衆回線網1上の電話機2で音声出力する場合を例に挙げて説明する。
図2は、本発明に係る音声合成装置を用いたCTIシステムにおける基本的な処理動作の一例を示すフローチャートである。
【0020】
このCTIシステムでは、電話機2からCTIサーバ10への発呼があると、CTIサーバ10がユニファイドメッセージサービスの提供を開始する。詳しくは、電話機2の利用者がCTIサーバ10のダイヤル番号を指定して発呼を行うと、CTIサーバ10では、回線接続制御部11がその発呼を受け付けて、その受け付けた発呼に対する通話の呼処理を実施する(ステップ101、以下ステップをSと略す)。すなわち、回線接続制御部11は、電話機2からの発呼に応じてその電話機2との間の回線接続を行うとともに、通話制御部12に対して電話機2からの着信があった旨を通知する。
【0021】
回線接続制御部11から着信の通知があると、ここで、通話制御部12は、その着信の発呼元である利用者のメールアドレスを特定する(S102)。この特定は、例えば音声合成エンジン14a,14b…を利用して回線接続中の電話機2に対し「メールアドレスを入力して下さい」といったメッセージを送信した後、これに応じてその電話機2の利用者により行われるプッシュボタン(以下「PB」と略す)入力を認識することで行えばよい。また、CTIサーバ10が音声認識機能を実現する音声認識エンジンを備えている場合には、上述したメッセージに応じて電話機2の利用者により行われる音声入力を認識することで行うようにしてもよい。なお、音声認識機能については、周知技術であるため、その詳細な説明を省略する。
【0022】
発呼元である利用者のメールアドレスを特定すると、続いて、通話制御部12は、電子メールサーバ13にアクセスして、その電子メールサーバ13から特定したメールアドレス宛の電子メールを取得する(S103)。そして、通話制御部12は、取得した電子メールの内容を音声データに変換すべく、その電子メールの内容に相当するテキストデータを、予め定められたデフォルトの音声合成エンジン、例えば日本語音声合成エンジン14aへ送出して、そのデフォルトエンジンで音声データに変換させる(S104)。
【0023】
デフォルトエンジンが音声データへの変換を行うと、回線接続制御部11は、その変換後の音声データを回線接続中の電話機2、すなわち発呼元である利用者に対して、公衆回線網1を介して送信する(S105)。これにより、電話機2では、電子メールの内容が音声出力されることとなり、その電話機2の利用者がその音声出力を聞いて電子メールの内容を理解することができるようになる。
【0024】
ただし、音声データへの変換対象となる電子メールは、必ずしもデフォルトエンジンが対応している言語で記述されているとは限らない。つまり、電子メール毎、または電子メールを構成する各部分(例えば文章単位)毎に、異なる言語で記述されていることも考えられる。
【0025】
そのため、このCTIシステムでは、例えば日本語音声合成エンジン14aがデフォルトエンジンである場合に、電子メールの内容が日本語であれば電話機2の利用者はそのまま音声出力を聞き続けるが、電子メールの内容が他の言語(例えば英語)であれば、その電話機2で所定操作を行うことによって、音声合成エンジン14a,14b…の切り替えを行い得るようになっている。このときの所定操作としては、各言語に対応したPB入力(例えば、英語であれば「9」をダイアル)を行うことが考えられる。また、CTIサーバ10が音声認識エンジンを備えている場合には、各言語に対応した音声入力(例えば「英語」と発音)を行うようにしてもよい。
【0026】
このことから、CTIサーバ10では、回線接続制御部11が音声データを送信している間、その送信先の電話機2で所定操作が行われるか否か、すなわちその電話機2から音声合成エンジン14a,14b…の切り替え指示があるか否かを、通話制御部12が監視している(S106)。そして、電話機2からの切り替え指示があると、通話制御部12は、指示された言語に対応する音声合成エンジン、例えば英語音声合成エンジン14bを起動するとともに、デフォルトエンジンを停止させる(S107)。その後、通話制御部12は、新たに起動した英語音声合成エンジン14bに対し、電子メールサーバ13から取得した電子メールを送出して、その電子メールのテキストデータを音声データに変換させる(S108)。
【0027】
つまり、通話制御部12は、電子メールサーバ13から取得した電子メールの内容であるテキストデータを音声データに変換するのにあたって、各音声合成エンジン14a,14b…のうちのいずれか一つを選択し、その選択した音声合成エンジン14a,14b…に当該変換を行わせる。また、このときの選択は、通話制御部12が、電話機2からの切り替え指示に基づいて決定する。
【0028】
このようにして、例えば新たに起動された英語音声合成エンジン14bが音声データへの変換を行うと、回線接続制御部11は、デフォルトエンジンの場合と同様に、その変換後の音声データを電話機2へ送信する(S105)。これにより、電話機2では、電子メールの内容が、その電子メールが記述された言語に対応した音声合成エンジン14a,14b…によって音声データに変換されて音声出力されることとなる。したがって、正しい音声出力ができなかったり、流暢でない音声出力になってしまう、といったことがなくなる。
【0029】
その後、電子メールの内容がさらに他の言語となったり、あるいは再び元の言語(デフォルトの言語)に戻った場合には、上述の場合と同様の処理を行うことによって、その言語に対応した音声合成エンジン14a,14b…に音声データへの変換を行わせるようにすればよい。通話制御部12は、発呼元宛の全ての電子メールについて、音声データへの変換および電話機2への送信が終了するまで(S109)、上述の処理を繰り返して行う(S105〜S108)。
【0030】
以上のように、本実施の形態のCTIサーバ10は、それぞれが異なる言語に対応した複数の音声合成エンジン14a,14b…を備えており、これらのうちのいずれか一つがテキストデータから音声データへの変換を選択的に行うようになっているので、日本語で記述された電子メールであっても、英語で記述された電子メールであっても、あるいは他の言語で記述された電子メールであっても、それぞれの言語に対応して、専用の音声合成エンジン14a,14b…で音声データへの変換を行うことが可能になる。したがって、このCTIサーバ10では、各言語の文章の構造等が異なっていても、正しい音声出力ができなかったり流暢でない音声出力になってしまうといったことがなくなり、結果として高品質な音声出力を実現することができるようになる。
【0031】
特に、本実施の形態のCTIシステムでは、CTIサーバ10が公衆回線網1上の電話機2からの要求に応じてその電話機2に対する電子メールの内容を音声出力するといった、ユニファイドメッセージサービスを実現するようになっている。つまり、ユニファイドメッセージサービスを提供する場合に、従来よりも質の高い電子メールの読み上げ(音声出力)システムを実現できる。したがって、このCTIシステムにおいては、電話機2の利用者が音声出力の結果のみから電子メールの内容を判断しても、誤った内容が伝わってしまうおそれを極力抑えることができる。
【0032】
また、本実施の形態のCTIサーバ10では、複数の音声合成エンジン14a,14b…のうちのいずれか一つを選択するのにあたって、その選択を通話制御部12が電話機2からの切り替え指示に基づいて決定するようになっている。したがって、例えば互いに異なる言語で記述された複数の電子メールについての音声出力を行う場合や、一つの電子メールの中に互いに異なる言語で記述された文章が混在している場合であっても、電話機2の利用者は、必要に応じて音声合成エンジン14a,14b…の切り替えを指示することができ、それぞれの電子メールまたは文章について質の高い音声出力を行うことができる。
【0033】
次に、本発明に係る音声合成装置を用いたCTIシステムの特徴点について説明する。
【0034】
図3は、本発明に係る音声合成装置を用いたCTIシステムの特徴的なシステム構成を示す概略図である。
図例のように、本実施の形態におけるCTIシステムでは、図1に示した基本的な構成に加えて、CTIサーバ10aにメールバッファ部15が設けられている。
【0035】
メールバッファ部15は、例えばCTIサーバ10aに設けられたRAM(Random Access Memory)内またはハードディスク装置内に確保された記憶領域からなるものであり、通話制御部12が電子メールサーバ13から取得した電子メールを一時的に保持記憶(バッファリング)するものである。
【0036】
図4は、本発明に係る音声合成装置を用いたCTIシステムにおける特徴的な処理動作の一例を示すフローチャートである。
【0037】
ユニファイドメッセージサービスを提供する場合には、図2に示した基本的な処理動作例の場合と同様に、CTIサーバ10aにて、回線接続制御部11が通話の呼処理を実施し(S201)、通話制御部12が発呼元を特定した後に(S202)、その発呼元宛の電子メールを通話制御部12が電子メールサーバ13から取得する(S203)。
【0038】
電子メールを取得すると、通話制御部12は、その電子メールの内容であるテキストデータをデフォルトエンジンへ送出するのと並行して、そのテキストデータをメールバッファ部15にバッファリングさせる(S204)。このバッファリングは、電子メールを構成する文章単位または幾つかの文章からなる段落単位で行われる。すなわち、メールバッファ部15内には、常に音声合成エンジン14a,14b…にて処理中の文章または段落(以下「文章等」と称す)のみが保持され、処理が終了した文章等についてはその処理終了時点でメールバッファ部15内から消去(クリア)される。そのために、通話制御部12は、各音声合成エンジン14a,14b…での処理状態を監視しつつ、文章の区切りに相当する「。(句点)」や「.(ピリオド)」といった記号や段落または電子メールの区切りに相当する制御コマンド等を認識して、メールバッファ部15のバッファリングを管理するようになっている。なお、文章単位でバッファリングを行うか、段落単位でバッファリングを行うかは、予めの設定によって決められているものとする。
【0039】
このバッファリングと並行して、デフォルトエンジンが通話制御部12からのテキストデータを音声データに変換すると(S205)、第1の実施の形態の場合と同様に、回線接続制御部11は、その変換後の音声データを発呼元の電話機2へ送信する(S206)。この間、通話制御部12は、送信先となる電話機2から音声合成エンジン14a,14b…の切り替え指示があるか否かを監視している(S207)。
【0040】
そして、電話機2からの切り替え指示があると、通話制御部12は、指示された言語に対応する音声合成エンジンを起動するとともに、デフォルトエンジンを停止させる(S208)。ただし、ここで通話制御部12は、第1の実施の形態の場合とは異なり、メールバッファ部15にバッファリングされているテキストデータを取り出して(S209)、これを新たに起動した音声合成エンジンへ送出して音声データに変換させる(S210)。これにより、新たに起動された音声合成エンジンは、デフォルトエンジンが処理中であった文章等の先頭に戻って、再度音声データへの変換を行うこととなる。
【0041】
その後、回線接続制御部11は、デフォルトエンジンの場合と同様に、新たに起動された音声合成エンジンによって変換された音声データを電話機2へ送信する(S206)。通話制御部12は、発呼元宛の全ての電子メールについて、音声データへの変換および電話機2への送信が終了するまで(S211)、上述の処理を繰り返して行う(S206〜S210)。これにより、電話機2では、音声出力の途中で音声合成エンジン14a,14b…の切り替えを指示しても、既にデフォルトエンジンにより音声出力されてしまった文章等について、新たな音声合成エンジンによる読み直しが行われることとなる。これは、その後、さらに音声合成エンジンの切り替え指示があった場合も同様である。
【0042】
以上のように、本実施の形態のCTIサーバ10aでは、請求項1に記載の発明の如く、電子メールサーバ13から取得したテキストデータを保持しておくメールバッファ部15を備えており、あるテキストデータについての変換中に音声合成エンジン14a,14b…の選択を切り替えると、その切り替えにより新たに選択した音声合成エンジンに対し、メールバッファ部15に保持されたテキストデータについて音声データへの変換を行わせるようになっている。つまり、音声合成エンジン14a,14b…の切り替え時に当該文章等の先頭に戻って再度新たな音声合成エンジンで読み直すことが可能になる。したがって、本実施の形態の場合は、音声合成エンジン14a,14b…の切り替え時に、既に読まれてしまった部分を新たな音声合成エンジンで読み直せるので、音声合成エンジン14a,14b…の切り替え後に最初に読む文章から新たな音声合成エンジンでの読み上げが有効になる第1の実施の形態の場合より、さらに一層適切な音声読み上げを行うことができる。
【0043】
なお、上述した実施の形態では、請求項2に記載の発明の如く、電子メールサーバ13から取得した電子メールに含まれるテキストデータについて、音声データへの変換を行う場合を例に挙げて説明したが、本発明はこれに限定されるものではなく、他のテキストデータについても同様に適用することができる。他のテキストデータとしては、例えば請求項3に記載の発明の如く、WWWサーバがインターネット等のコンピュータネットワーク上に発信しているコンテンツ(例えば Webページ)に含まれるデータ、すなわちコンテンツの中の文章化された部分のデータが考えられる。この場合、コンテンツが準拠するHTML(Hyper Text Markup Language)のタグに文字コード情報が記述されていれば、第3の実施の形態で説明したようにその文字コード情報を基に音声合成エンジン14a,14b…を自動選別することが可能になる。さらに、他のテキストデータとしては、例えばOCR(Optical Character Reader)を備えているシステムにおいて、そのOCRにて読み取ったデータ等が考えられる。
【0044】
また、上述した実施の形態では、本発明をCTIシステムにて用いられる音声合成装置に適用し、変換後の音声データを公衆回線網1上の電話機2へ送信してその電話機2にて音声出力を行う場合を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、発券システムにて用いられる音声合成装置のように、システム内に設けられたスピーカ等を介して音声出力を行うものであっても、本発明を適用することによって高品質な音声出力を実現することができる。
【0045】
【発明の効果】
以上に説明したように、本発明の音声合成装置は、それぞれが異なる言語に対応した複数の音声合成手段を備えており、これらのうちのいずれか一つがテキストデータから音声データへの変換を選択的に行うようになっているので、日本語のテキストデータであっても、英語のテキストデータであっても、あるいは他の言語のテキストデータであっても、それぞれの言語に対応した音声合成手段により音声データへの変換を行うことが可能になる。したがって、この音声合成装置を用いれば、各言語の文章の構造等が異なっていても、正しい音声出力ができなかったり流暢でない音声出力になってしまうといったことがなくなり、結果として高品質な音声出力を実現することができるようになる。
【図面の簡単な説明】
【図1】 本発明に係る音声合成装置を用いたCTIシステムの基本的なシステム構成を示す概略図である。
【図2】 図1のCTIシステムにおいて、ユニファイドメッセージサービスを提供する場合における基本的な処理動作の一例を示すフローチャートである。
【図3】 本発明に係る音声合成装置を用いたCTIシステムの特徴的なシステム構成を示す概略図である。
【図4】 図3のCTIシステムにおいて、ユニファイドメッセージサービスを提供する場合における特徴的な処理動作の一例を示すフローチャートである。
【符号の説明】
1 公衆回線網
2 電話機
10,10a,10b CTIサーバ
11 回線接続制御部
12 通話制御部
13 電子メールサーバ
14a,14b 音声合成エンジン
15 メールバッファ部
16 ヘッダ認識部
Claims (3)
- CTIシステムにて用いられる音声合成装置であって、
それぞれが異なる言語のテキストデータを当該言語の音声データに変換する複数の音声合成手段と、
公衆回線網上の電話機との通信を行う通信制御手段と、
前記通信制御手段が前記電話機からの発呼を受けると、該電話機から指定されるテキストデータを、該テキストデータを保管しているサーバから取得するデータ取得手段と、
前記電話機から通知される指示に基づいて、前記データ取得手段が取得したテキストデータの音声データへの変換を、前記複数の音声合成手段のうちのどの音声合成手段に行わせるかを決定する変換制御手段と、
前記データ取得手段が取得したテキストデータを、該テキストデータを構成する文章単位または幾つかの文章からなる段落単位で保持しておくバッファ手段とを備え、
前記変換制御手段に選択された音声合成手段がテキストデータを音声データに変換すると、該変換後の音声データを前記通信制御手段が前記電話機へ送信するように構成されるとともに、
前記変換制御手段は、あるテキストデータについての変換中に前記音声合成手段の選択を切り替えると、該切り替えにより新たに選択した音声合成手段に対し、前記バッファ手段に保持されたテキストデータについて、該切り替え前の音声合成手段により変換中であった文章または段落の先頭に戻って、音声データへの変換を行わせる
ことを特徴とする音声合成装置。 - 前記データ取得手段が取得するテキストデータは、電子メールサーバから取得する電子メールに含まれるテキストデータであることを特徴とする請求項1記載の音声合成装置。
- 前記データ取得手段が取得するテキストデータは、WWWサーバから取得するコンテンツに含まれるテキストデータであることを特徴とする請求項1記載の音声合成装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11030999A JP3711411B2 (ja) | 1999-04-19 | 1999-04-19 | 音声合成装置 |
US09/525,057 US6243681B1 (en) | 1999-04-19 | 2000-03-14 | Multiple language speech synthesizer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11030999A JP3711411B2 (ja) | 1999-04-19 | 1999-04-19 | 音声合成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000305583A JP2000305583A (ja) | 2000-11-02 |
JP3711411B2 true JP3711411B2 (ja) | 2005-11-02 |
Family
ID=14532451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11030999A Expired - Lifetime JP3711411B2 (ja) | 1999-04-19 | 1999-04-19 | 音声合成装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6243681B1 (ja) |
JP (1) | JP3711411B2 (ja) |
Families Citing this family (157)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2242065C (en) | 1997-07-03 | 2004-12-14 | Henry C.A. Hyde-Thomson | Unified messaging system with automatic language identification for text-to-speech conversion |
JP2001084183A (ja) * | 1999-09-17 | 2001-03-30 | Nec Corp | データ変換システム |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
DE10018143C5 (de) * | 2000-04-12 | 2012-09-06 | Oerlikon Trading Ag, Trübbach | DLC-Schichtsystem sowie Verfahren und Vorrichtung zur Herstellung eines derartigen Schichtsystems |
US7590539B1 (en) | 2000-06-28 | 2009-09-15 | At&T Intellectual Property I, L.P. | System and method for email notification |
US6621892B1 (en) * | 2000-07-14 | 2003-09-16 | America Online, Inc. | System and method for converting electronic mail text to audio for telephonic delivery |
US7139709B2 (en) * | 2000-07-20 | 2006-11-21 | Microsoft Corporation | Middleware layer between speech related applications and engines |
US6990452B1 (en) | 2000-11-03 | 2006-01-24 | At&T Corp. | Method for sending multi-media messages using emoticons |
US7091976B1 (en) | 2000-11-03 | 2006-08-15 | At&T Corp. | System and method of customizing animated entities for use in a multi-media communication application |
US7203648B1 (en) | 2000-11-03 | 2007-04-10 | At&T Corp. | Method for sending multi-media messages with customized audio |
US6963839B1 (en) | 2000-11-03 | 2005-11-08 | At&T Corp. | System and method of controlling sound in a multi-media communication application |
US7035803B1 (en) | 2000-11-03 | 2006-04-25 | At&T Corp. | Method for sending multi-media messages using customizable background images |
US6976082B1 (en) | 2000-11-03 | 2005-12-13 | At&T Corp. | System and method for receiving multi-media messages |
US20080040227A1 (en) | 2000-11-03 | 2008-02-14 | At&T Corp. | System and method of marketing using a multi-media communication system |
RU2265375C2 (ru) * | 2000-11-17 | 2005-12-10 | Тейт Энд Лайл Паблик Лимитед Компани | Плавкий, содержащий сукралозу подсластитель |
KR20020060799A (ko) * | 2001-01-12 | 2002-07-19 | 엘지전자 주식회사 | 전자 상거래를 위한 디지털 아이템 생성방법 |
GB2376394B (en) * | 2001-06-04 | 2005-10-26 | Hewlett Packard Co | Speech synthesis apparatus and selection method |
US7444375B2 (en) * | 2001-06-19 | 2008-10-28 | Visto Corporation | Interactive voice and text message system |
US7671861B1 (en) | 2001-11-02 | 2010-03-02 | At&T Intellectual Property Ii, L.P. | Apparatus and method of customizing animated entities for use in a multi-media communication application |
US7286993B2 (en) * | 2002-01-31 | 2007-10-23 | Product Discovery, Inc. | Holographic speech translation system and method |
US7272377B2 (en) * | 2002-02-07 | 2007-09-18 | At&T Corp. | System and method of ubiquitous language translation for wireless devices |
KR100447404B1 (ko) * | 2002-05-06 | 2004-09-04 | 엘지전자 주식회사 | 디지털 아이템의 적응적 기술자 생성방법 |
KR100619317B1 (ko) * | 2002-10-17 | 2006-09-05 | 엘지전자 주식회사 | 선택묶음 우선 순위 기술자 및 디지털 아이템 선언문서의적응적 생성방법 |
US7496498B2 (en) * | 2003-03-24 | 2009-02-24 | Microsoft Corporation | Front-end architecture for a multi-lingual text-to-speech system |
FR2865846A1 (fr) * | 2004-02-02 | 2005-08-05 | France Telecom | Systeme de synthese vocale |
JP4947883B2 (ja) | 2004-07-30 | 2012-06-06 | キヤノン株式会社 | 通信装置、制御方法ならびにプログラム |
TWI281145B (en) * | 2004-12-10 | 2007-05-11 | Delta Electronics Inc | System and method for transforming text to speech |
US20060235929A1 (en) * | 2005-04-13 | 2006-10-19 | Sbc Knowledge Ventures, L.P. | Electronic message notification |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
KR100735261B1 (ko) * | 2005-12-26 | 2007-07-03 | 삼성전자주식회사 | 휴대 단말기 및 그 단말기의 음성 데이터 출력 방법 |
US20070159968A1 (en) * | 2006-01-12 | 2007-07-12 | Cutaia Nicholas J | Selective text telephony character discarding |
US7822434B2 (en) * | 2006-05-09 | 2010-10-26 | Research In Motion Limited | Handheld electronic device including automatic selection of input language, and associated method |
US20080162459A1 (en) * | 2006-06-20 | 2008-07-03 | Eliezer Portnoy | System and method for matching parties with initiation of communication between matched parties |
JP2008040371A (ja) * | 2006-08-10 | 2008-02-21 | Hitachi Ltd | 音声合成装置 |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US20080084974A1 (en) * | 2006-09-25 | 2008-04-10 | International Business Machines Corporation | Method and system for interactively synthesizing call center responses using multi-language text-to-speech synthesizers |
US7702510B2 (en) * | 2007-01-12 | 2010-04-20 | Nuance Communications, Inc. | System and method for dynamically selecting among TTS systems |
US8799369B2 (en) * | 2007-02-23 | 2014-08-05 | At&T Intellectual Property I, L.P. | Recipient-controlled remote E-mail alerting and delivery |
US8719348B2 (en) * | 2007-02-23 | 2014-05-06 | At&T Intellectual Property I, L.P. | Sender-controlled remote e-mail alerting and delivery |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
JP2011135419A (ja) * | 2009-12-25 | 2011-07-07 | Fujitsu Ten Ltd | データ通信システム、車載機、通信端末、サーバ装置、プログラム、及び、データ通信方法 |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
WO2011089450A2 (en) | 2010-01-25 | 2011-07-28 | Andrew Peter Nelson Jerram | Apparatuses, methods and systems for a digital conversation management platform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8566100B2 (en) * | 2011-06-21 | 2013-10-22 | Verna Ip Holdings, Llc | Automated method and system for obtaining user-selected real-time information on a mobile communication device |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) * | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
EP3809407A1 (en) | 2013-02-07 | 2021-04-21 | Apple Inc. | Voice trigger for a digital assistant |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
AU2014233517B2 (en) | 2013-03-15 | 2017-05-25 | Apple Inc. | Training an at least partial voice command system |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
JP2016521948A (ja) | 2013-06-13 | 2016-07-25 | アップル インコーポレイテッド | 音声コマンドによって開始される緊急電話のためのシステム及び方法 |
AU2014306221B2 (en) | 2013-08-06 | 2017-04-06 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
JP6210495B2 (ja) * | 2014-04-10 | 2017-10-11 | 株式会社オリンピア | 遊技機 |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
CN110073437A (zh) * | 2016-07-21 | 2019-07-30 | 欧斯拉布斯私人有限公司 | 一种用于将文本数据转换为多种语音数据的系统和方法 |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
JP7064534B2 (ja) * | 2020-07-01 | 2022-05-10 | 富士フイルムデジタルソリューションズ株式会社 | オートコールシステムおよびその方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4829580A (en) * | 1986-03-26 | 1989-05-09 | Telephone And Telegraph Company, At&T Bell Laboratories | Text analysis system with letter sequence recognition and speech stress assignment arrangement |
US5375164A (en) * | 1992-05-26 | 1994-12-20 | At&T Corp. | Multiple language capability in an interactive system |
US5615301A (en) * | 1994-09-28 | 1997-03-25 | Rivers; W. L. | Automated language translation system |
JPH09231224A (ja) * | 1996-02-26 | 1997-09-05 | Fuji Xerox Co Ltd | 言語情報処理装置 |
US6085162A (en) * | 1996-10-18 | 2000-07-04 | Gedanken Corporation | Translation system and method in which words are translated by a specialized dictionary and then a general dictionary |
-
1999
- 1999-04-19 JP JP11030999A patent/JP3711411B2/ja not_active Expired - Lifetime
-
2000
- 2000-03-14 US US09/525,057 patent/US6243681B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2000305583A (ja) | 2000-11-02 |
US6243681B1 (en) | 2001-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3711411B2 (ja) | 音声合成装置 | |
US6216013B1 (en) | Communication system with handset for distributed processing | |
US8705705B2 (en) | Voice rendering of E-mail with tags for improved user experience | |
JP5089683B2 (ja) | テキストメッセージ通信のための言語翻訳サービス | |
US6600930B1 (en) | Information provision system, information regeneration terminal, and server | |
KR100394305B1 (ko) | 전자 메일 처리 시스템, 처리 방법 및 처리 장치 | |
US20040204068A1 (en) | Mobile communication system and method, mobile communication terminal, server apparatus and program | |
JP2002536886A (ja) | チャネルトランスペアレントなマルチメディアブロードキャスト通信装置及び方法 | |
US7106836B2 (en) | System for converting text data into speech output | |
US8300774B2 (en) | Method for operating a voice mail system | |
JP3714159B2 (ja) | ブラウザ搭載装置 | |
KR20070031117A (ko) | 데이터 검색기능이 구비된 이동통신 단말기 및 그 동작방법 | |
KR100370973B1 (ko) | 통화중 음성에 배경음악을 합성해서 전송하는 방법 및 그장치 | |
KR100380829B1 (ko) | 에이전트를 이용한 대화 방식 인터페이스 운영 시스템 및방법과 그 프로그램 소스를 기록한 기록 매체 | |
KR100359871B1 (ko) | 통합 메세징 서비스를 제공하는 방법 및 그 기록 매체 | |
JPH08242280A (ja) | 音声メール装置 | |
JP2001127888A (ja) | 音声出力メールシステム | |
KR20010068773A (ko) | 메일 음성 변환 장치 | |
JP2689277B2 (ja) | 応答制御システム | |
JP3257445B2 (ja) | 電子メール転送方法及び電子メール送信方法及び電子メールシステム | |
JP2002300307A (ja) | 音声メッセージ提供装置、音声メッセージ提供方法、音声メッセージ提供プログラム、音声メッセージ提供プログラムを記録した記録媒体および音声メッセージ提供システム | |
JP2000020422A (ja) | メールアクセスシステム | |
JP2001285564A (ja) | 通信メディア統合装置における発信者id抽出方法 | |
JP2005286886A (ja) | サーバ | |
JP2002132639A (ja) | 言語データ送信システム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050728 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090826 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090826 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100826 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100826 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110826 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120826 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130826 Year of fee payment: 8 |
|
EXPY | Cancellation because of completion of term |