JP4478647B2 - 音声応答システム、音声応答方法、音声サーバ、音声ファイル処理方法、プログラム及び記録媒体 - Google Patents

音声応答システム、音声応答方法、音声サーバ、音声ファイル処理方法、プログラム及び記録媒体 Download PDF

Info

Publication number
JP4478647B2
JP4478647B2 JP2005506746A JP2005506746A JP4478647B2 JP 4478647 B2 JP4478647 B2 JP 4478647B2 JP 2005506746 A JP2005506746 A JP 2005506746A JP 2005506746 A JP2005506746 A JP 2005506746A JP 4478647 B2 JP4478647 B2 JP 4478647B2
Authority
JP
Japan
Prior art keywords
voice
file
audio
variable
grammar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2005506746A
Other languages
English (en)
Other versions
JPWO2004109658A1 (ja
Inventor
義則 田原
智子 村山
正浩 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPWO2004109658A1 publication Critical patent/JPWO2004109658A1/ja
Application granted granted Critical
Publication of JP4478647B2 publication Critical patent/JP4478647B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Studio Devices (AREA)
  • Computer And Data Communications (AREA)

Description

本発明は、自動音声応答システムに関し、より具体的には、音声認識を利用した自動合成音声による応答を行うシステムに関するものである。
従来、音声アプリケーションが、システムのメッセージを自動的に出力をする時には、あらかじめ録音した音声ファイルを用いていた。例えば、標準のスピーチインタフェースを定義するVoiceXMLの場合では、音声ファイル名を、〈audio〉タグで指定することにより、実現されている。例えば、VoiceXMLを使用したVoIPベースの音声システムとしては、以下の特許文献1がある。
特開2002−57724号公報
しかし、そのメッセージに変数が含まれる場合、アプリケーションに負担がかかっていることが問題である。
より具体的に説明すれば、VoiceXMLアプリケーションの場合を考えた場合、従来の音声サーバ上で、アプリケーションが音声ファイルに変数を挿入しようとした場合、アプリケーションの作業と実装は、あらかじめ、文を変数位置で分割した音声ファイルを用意して、変数から音声ファイル名を決定し、その音声ファイルを再生するVXMLドキュメントを動的に生成する、という機能を持つサーブレットを開発し、VXMLドキュメントでは、変数前後の音声ファイルをふたつの〈audio〉タグで指定し、適切なタイミングでサーブレットをサブ音声情報として呼ぶ、というような実装が一例として考えられる。
このようにしてメッセージを音声ファイルで再生する場合、アプリケーションには、以下の点で、負担がかかっており問題となる。
まず、アプリケーションの実装に関して問題がある。すなわち、実行時に変数部の音声ファイルを特定し再生するためのロジックを、アプリケーションが独自に開発しなくてはならくなる。つまり、アプリケーションを複雑かつ大量に開発する必要があり問題となる。さらに、文章の変更に応じて、アプリケーションの変更を必要とすることも問題となる。
さらに、録音ファイルの作成作業の手間、品質、管理に関する点にも問題がある。従来の方法では、音声ファイルは、変数前部分、変数部、変数後部分に分割して録音されている必要がある。例えば、商品名を変数部として含む「ご注文の商品は{お米}です」という文の場合、「ご注文の商品は」と「お米」と「です」という音声ファイルを作成する必要がある。このようにすると録音者は、文章として不自然に分断されたパーツを話さなくてはならないので、不自然な発声になりやすく、再生結果も自然さ、円滑さを欠くこととなり問題である。
また、全文をひと続きで録音して音声ファイルエディターで分割する方法もある。しかし、この場合、音声ファイル編集者は、アプリケーションの設計を正確に把握していなくてはならない。さらに、音声ファイルの分割など複雑な作業を必要とするためにミスを生じやすい。かつ、そのような音声ファイルの編集等の作業が多く必要となるため生じる作業量増大が問題である。また、文をあらかじめ変数位置で分割した状態の音声ファイルを用意するために、音声ファイル数が多くなる。さらに、音声ファイルをスムーズに連結するために、音声ファイルの初めと終わりの無音部は、音声ファイルエディターで切り取り編集する必要がある。このような編集作業は音声ファイルの数に比例して増えるので、音声ファイル数の多くなってくるとその作業はよりいっそう膨大かつ煩雑となる。また、音声ファイル数の多さは、ファイル名の命名やファイルの管理を複雑にする可能性も考えられる。
以上の課題を解決するために、本発明は、システムとして捉えれば、アプリケーション・サーバ及び音声サーバからなる音声応答システムであって、前記アプリケーション・サーバは、第1の音声ファイルと、第2の音声ファイルと、音声情報を有するものであり、前記音声サーバは、前記アプリケーション・サーバから前記音声情報と前記第1の音声ファイルを受け取り、前記音声情報に基づいてグラマーを生成する音声ファイル処理手段と、前記グラマーに基づいて、前記第1の音声ファイルを音声認識し、複数の音声ファイルに分割する音声認識手段と、前記分割された音声ファイルの内の少なくとも1の音声ファイルを前記第2の音声ファイルに置き換える音声処理手段とを有する音声応答システムを提供する。
ここで、前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、とすることができる。また、前記第2の音声ファイルは、変数部に入る音声をファイルとして録音したものである、とすることができる。さらに、前記音声情報には、前記第1の音声ファイルのファイル名が含まれ、前記音声ファイル処理手段は前記全文音声ファイル名に基づいて前記第1の音声ファイルを抽出するものである、とすることができる。さらに、前記音声情報には、代替テキストが含まれ、前記音声ファイル処理手段は前記代替テキストに基づいてグラマーを生成するものである、とすることができる。さらに、前記音声情報には、変数についての処理を行う必要があるかどうかを示す変数情報が含まれる、とすることができる。さらに、音声を出力する音声出力手段を有する、とすることができる。
また、方法として捉えれば、アプリケーション・サーバ及び音声サーバからなる音声応答システムにおける音声応答方法であって、前記アプリケーション・サーバは、第1の音声ファイルと、第2の音声ファイルと、音声情報を有するものであり、前記音声応答方法は、前記音声サーバが、前記アプリケーション・サーバから前記音声情報と前記第1の音声ファイルを受け取り、前記音声情報に基づいてグラマーを生成するステップと、前記グラマーに基づいて、前記第1の音声ファイルを音声認識し、複数の音声ファイルに分割するステップと、前記分割された音声ファイルの内の少なくとも1の音声ファイルを前記第2の音声ファイルに置き換えるステップとからなる音声応答方法を提供する。
ここで、前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、とすることができる。また、前記第2の音声ファイルは、変数部に入る音声をファイルとして録音したものである、とすることができる。さらに、前記音声情報には、前記第1の音声ファイルのファイル名が含まれ、前記第1の音声ファイル名に基づいて前記第1の音声ファイルを抽出するものである、とすることができる。さらに、前記音声情報には、代替テキストが含まれ、前記前記代替テキストに基づいてグラマーを生成するものである、とすることができる。さらに、前記音声情報には、変数についての処理を行う必要があるかどうかを示す変数情報が含まれる、とすることができる。
また、プログラムとして捉えれば、アプリケーション・サーバ及び音声サーバからなる音声応答システムにおける音声応答を実行するためのプログラムであって、前記アプリケーション・サーバは、第1の音声ファイルと、第2の音声ファイルと、音声情報を有するものであり、前記プログラムは、前記音声サーバを
前記アプリケーション・サーバから前記音声情報と前記第1の音声ファイルを受け取り、前記音声情報に基づいてグラマーを生成し、前記グラマーに基づいて、前記第1の音声ファイルを音声認識し、複数の音声ファイルに分割し、前記分割された音声ファイルの内の少なくとも1の音声ファイルを前記第2の音声ファイルに置き換えるように動作させるものであるプログラムを提供する。
ここで、前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、とすることができる。また、前記第2の音声ファイルは、変数部に入る音声をファイルとして録音したものである、とすることができる。さらに、前記音声情報には、前記第1の音声ファイルのファイル名が含まれ、前記音声ファイル処理手段は前記全文音声ファイル名に基づいて前記第1の音声ファイルを抽出するものである、とすることができる。さらに、前記音声情報には、代替テキストが含まれ、前記音声ファイル処理手段は前記代替テキストに基づいてグラマーを生成するものである、とすることができる。さらに、前記音声情報には、変数についての処理を行う必要があるかどうかを示す変数情報が含まれる、とすることができる。
さらに、本発明は、このようなプログラムを格納したコンピュータが読み取り可能な記録媒体を提供する。
また、本発明を音声サーバとして捉えれば、自動的に音声処理を行うための音声サーバであって、代替テキストからグラマーを生成する手段と、前記グラマーに基づいて、第1の音声ファイルを音声認識し、複数の音声ファイルに分割する手段と、前記分割された音声ファイルの内の少なくとも1の音声ファイルを第2の音声ファイルに置き換える手段とを有する音声サーバを提供する。
ここで、前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、とすることができる。また、前記第2の音声ファイルは、変数部に入る音声をファイルとして録音したものである、とすることができる。さらに、前記第2の音声ファイルは、変数部に入る音声を合成音声により生成したものである、とすることができる。さらに、前記グラマーを生成する手段は、代替テキストを変数部と変数部以外に分割し、変数部を予め定められた単語に置き換えることにより、グラマーを生成するとすることができる。さらに、前記グラマーを生成する手段は、さらに前記単語の置き換えにより生成されたテキストファイルを分割し、音声認識が可能な形式にすることにより、グラマーを生成するとすることができる。
また、これを方法として捉えれば、音声サーバによって自動的に音声ファイルの処理を行うための方法であって、前記音声サーバが代替テキストからグラマーを生成するステップと、前記グラマーに基づいて、第1の音声ファイルを音声認識し、複数の音声ファイルに分割するステップと、前記分割された音声ファイルの内の少なくとも1の音声ファイルを第2の音声ファイルに置き換えるステップとを有する音声ファイル処理方法を提供する。
ここで、前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、とすることができる。また、前記第2の音声ファイルは、変数部に入る音声をファイルとして録音したものである、とすることができる。さらに、前記第2の音声ファイルは、変数部に入る音声を合成音声により生成したものである、とすることができる。さらに、前記グラマーを生成するステップは、代替テキストを変数部と変数部以外に分割し、変数部を予め定められた単語に置き換えることにより、グラマーを生成するとすることができる。さらに、前記グラマーを生成するステップは、さらに前記単語の置き換えにより生成されたテキストファイルを分割し、音声認識が可能な形式にすることにより、グラマーを生成するとすることができる。
また、これをプログラムとして捉えれば、音声サーバによって自動的に音声ファイルの処理を行うためのプログラムであって、前記プログラムは前記音声サーバを代替テキストからグラマーを生成し、前記グラマーに基づいて、第1の音声ファイルを音声認識し、複数の音声ファイルに分割し、前記分割された音声ファイルの内の少なくとも1の音声ファイルを第2の音声ファイルに置き換えるように動作させるものであるプログラムを提供する。
ここで、前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、とすることができる。また、前記第2の音声ファイルは、変数部に入る音声をファイルとして録音したものである、とすることができる。さらに、前記第2の音声ファイルは、変数部に入る音声を合成音声により生成したものである、とすることができる。さらに、前記グラマーを生成する動作は、代替テキストを変数部と変数部以外に分割し、変数部を予め定められた単語に置き換えることにより、グラマーを生成するとすることができる。さらに、前記グラマーを生成する動作は、さらに前記単語の置き換えにより生成されたテキストファイルを分割し、音声認識が可能な形式にすることにより、グラマーを生成するとすることができる。
さらに、本発明は、このようなプログラムを格納したコンピュータが読み取り可能な記録媒体を提供する。
まず、図1は本発明を実施するのに好適なコンピュータ装置のハードウェア構成の例を模式的に示した図である。
図1には、本実施の形態を実現するコンピュータ装置のハードウェア構成を例示する。コンピュータ装置は、演算手段であるCPU(Central Processing Unit:中央処理装置)101と、M/B(マザーボード)チップセット102及びCPUバスを介してCPU101に接続されたメインメモリ103と、同じくM/Bチップセット102及びAGP(Accelerated Graphics Port)を介してCPU101に接続されたビデオカード104と、PCI(Peripheral Component Interconnect)バスを介してM/Bチップセット102に接続されたハードディスク105、ネットワークインターフェイス106及びUSBポート107と、さらにこのPCIバスからブリッジ回路108及びISA(Industry Standard Architecture)バスなどの低速なバスを介してM/Bチップセット102に接続されたフレキシブルディスクドライブ109及びキーボード/マウス110とを備える。
なお、この図1は本実施の形態を実現する典型的なコンピュータ装置のハードウェア構成をあくまで例示するに過ぎず、本実施の形態を適用可能であれば、他の種々の構成を取ることができる。例えば、ビデオカード104を設ける代わりに、ビデオメモリのみを搭載し、CPU101にてイメージデータを処理する構成としても良いし、ATA(AT Attachment)などのインターフェイスを介してCD−ROM(Compact Disc Read Only Memory)やDVD−ROM(Digital Versatile Disc Read Only Memory)のドライブを設けても良い。また音声再生のためのスピーカ等を備えてもよい。
図2は、本発明を機能ブロックを用いて示した図である。音声応答システム210は、音声サーバ220とアプリケーションサーバ230からなる。これら音声サーバ220とアプリケーション・サーバ230は、図1に示したような1のコンピュータ装置で実現されることもあり、また2以上のコンピュータ装置やコンピュータ装置と記憶装置との組み合わせで実現されることもある。
アプリケーション・サーバ220には、全文録音音声ファイル221、変数録音音声ファイル222、223、音声情報224が含まれる。これらは、アプリケーション・サーバ上で実行されるアプリケーション・プログラムまたはその一部としても捉えられるものである。まず、全文録音音声ファイル221は、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである。この全文録音音声ファイル221の変数部は、ある特定の単語に置き換えて録音されている。この単語は、音声サーバにおいて予め指定された語を用いる。例えば、変数部に「品名」という単語を用いて、「ご注文は品名でよろしいですか」という文を音声化して、全文録音音声ファイルとして保存する。
さらに、アプリケーション・サーバ220には、この変数部に入る音声が変数録音音声ファイル1、2、・・・(222,223)として格納されている。例えば「お米」「みそ」を音声化したファイルである。ここで、変数部は複数用いることも可能であり、この場合にはそれぞれの変数部に対応した変数録音音声ファイルが格納されることになる。例えば変数部1、変数部2をそれぞれ「品名」「品数」として「ご注文は品名、数量は品数でよろしいですか」という文を音声化して、全文録音音声ファイルとして保存する。そして、「品名」「品数」に対応した変数録音音声ファイル(前者に対して「お米」「みそ」、後者に対して「1つ」「2つ」等)が格納されることになる。
さらに、アプリケーション・サーバ220には、音声情報224が格納されている。この音声情報224は、全文録音音声ファイルのファイル名、変数情報と代替テキストとからなる。変数情報には変数部の有無、つまり変数処理の必要性の有無を示す情報が少なくとも含まれる。代替テキストは、変数部を含むテキスト全文であり、例えば上述の例でいえば「ご注文は<変数部>でよろしいですか」となる。なお、全文録音音声ファイルが複数存在する場合、その全文録音音声ファイルごとに音声情報を用意しておけばよい。
音声サーバ230は、音声ファイル処理部231、音声認識エンジン232、音声化処理部233、及び音声化処理部233を有する。音声ファイル処理部231は、アプリケーション・サーバ220から音声情報224とそれにより指定される全文録音音声ファイル221を取り出し、音声情報に含まれる変数情報から変数処理が必要かどうかを判断する。変数処理が必要な場合、さらに、代替テキストからグラマーを動的に生成する。
音声認識エンジン232は、音声ファイル処理部234から全文録音音声ファイルと動的に生成されたグラマーを受け取る。そして、それらに基づいて認識した全文録音音声ファイルを変数部分である変数音声ファイルと変数以外の部分である部品音声ファイルに分割する。ここで、変数音声ファイルや部品音声ファイルは1つとは限らず、複数あることもある。
音声化処理部233は、音声認識エンジン232から部品音声ファイルと変数音声ファイルを受け取る。そして、変数音声ファイルに対応して置き換えるべく指定された変数録音音声ファイルをアプリケーション・サーバ220から取得する。なお、この動作は、音声ファイル処理部で行われて、音声化処理部に渡されてもよい。そして、部品音声ファイルと変数録音音声ファイルを連結して、代替テキストの順に音声化して再生されるようにする。
さらに、この音声応答システム210に音声出力装置240が接続され、再生音声ファイルに基づいた音声が再生され出力される。この音声出力装置は、音声応答システムと同一の図1に示したようなコンピュータ装置の例えばスピーカ装置でもよいし、あるいは公衆回線等を介して接続された電話端末等でもよい。
図3には、音声ファイル処理部231におけるグラマーの生成ロジックを示す。まず、代替テキスト全文を変数部と変数部以外に分割する(310)。次に、その変数部を予め定めた単語に置換する(320)。この単語は、音声サーバが予め定めたものであり、全文録音音声ファイルにはこの単語が変数部分として予め定められた語を用いて音声化され録音されている。そして、その置換されたテキストに基づいてグラマーを動的に生成する(330)。
図4は、グラマーの生成について、さらに一例を詳細に説明する。まず、代替テキストの変数部を予め定めた単語に置換する(410)。そして、それをもとにテキストファイルを生成する。この時、音声認識エンジンが認識できるように単語分割する必要がある(420)。この単語分割は、例えば、句読点をとる、音声認識エンジンの辞書に登録されている単語から最長一致法で単語に分割する、等の処理を行う。次に、その分割された結果を、音声認識エンジンに伝えるために、音声認識エンジンが理解できる形式にする(430)。以上によって生成されたグラマーを音声認識エンジンに渡し登録する。
図5には、音声認識エンジン232における音声認識による音声ファイルの分割ロジックについて示す。まず、音声認識エンジンを、認識した音声をファイルにするモードに設定する(510)。次に、音声認識エンジン232に変数を含む全文録音音声ファイルと生成されたグラマーが入力される(520)。音声認識エンジン232はグラマーに従って、全文録音音声ファイルを認識する(530)。そして、認識した全文録音音声ファイルを変数部分である変数音声ファイルと変数以外の部分である部品音声ファイルに分割して、それぞれの音声ファイルを生成する(540)。
図6には、音声認識エンジン232における音声認識による音声ファイルの分割結果について示す。この例では、変数部分を「品名」とした。全文録音音声ファイル610は、音声認識及び分割の結果(620)として、変数部分である変数音声ファイル622と、変数以外の部分である部品音声ファイル621、622に分割されたこととなる。
図7には、本発明の音声サーバ230における処理の流れについての一例を記述したフローチャートを示す。まず、アプリケーション・サーバ220から得た音声情報224の中の変数情報に含まれる変数であることを示す情報の有無によって、変数処理が必要かどうかを判断する(701)。なお、変数処理が必要ないと判断された場合、通常のオーディオ処理を行う(720)。ここで、通常のオーディオ処理とは、一例を示せば、音声情報中のファイル名に対応する再生する音声ファイルがアプリケーション・サーバに存在すれば、それをそれを再生する。無い場合、代替テキストが音声情報中にあれば、その代替テキストを再生する。代替テキストもない場合、エラー処理を行うか、エラー処理がない場合はエラーで終了する。
ステップ701で、変数処理が必要と判断された場合、音声情報224から全文録音音声ファイル名とその代替テキストを抽出する(702)。そして、全文録音音声ファイルがアプリケーション・サーバ220に存在するかどうかを確認する(703)。なお、全文録音音声ファイルがアプリケーション・サーバ220に存在しない場合は、変数であることを示す情報を削除した上で、上述したような通常のオーディオ処理を行う(730)。
全文録音音声ファイルがアプリケーション・サーバ220に存在する場合、さらに代替テキストがあるかどうか確認する(704)。代替テキストが存在しない場合は、エラーとなり処理は終了する(740,741)。代替テキストが存在する場合、全文録音音声ファイルが既に音声サーバ230上のキャッシュ(図示せず)に存在するかどうかが判断される(705)。既にキャッシュ上に存在する場合、ステップ709へ行く。キャッシュ上に存在しない場合、全文録音音声ファイルをアプリケーション・サーバ220から得る(706)。そして、代替テキストと全文録音音声ファイルを用いてグラマーが動的に生成される(707)。次に、音声認識を行い、全文録音音声ファイルを分割する(708)。
そして、変数録音音声ファイルがアプリケーション・サーバ220に存在するかどうかが確認される(709)。変数録音音声ファイルがアプリケーション・サーバ220に存在する場合、アプリケーション・サーバ220から変数録音音声ファイルを得る(710)。そして、これらの音声ファイルを順次連結して音声化して再生できるようにする(711)。また、必要な期間その生成された音声ファイルをキャッシュに保持し(712)、必要に応じて直接使用できるようにする。なお、ステップ709で変数録音音声ファイルが存在しない場合、その変数に対応する代替テキストを用いて音声合成した音声ファイルを生成する(750)。なお、このような一連の処理はコンピュータ・プログラムとして実現されるものである。また、このコンピュータ・プログラムは、必要に応じて、CD−ROM,フレキシブルディスク(フレキシブルディスク)等のコンピュータが読み取り可能な記録媒体に格納されて提供されることがある。
次に、図7に示した本発明の処理をVXMLブラウザ実装した例を示す。なお、(1)−(9)は図7中のものに対応する。また、「VMXLブラウザ」とは、VMXLを処理するために本発明の音声ファイル処理部231及び音声化処理部233に対応する機能を提供する手段である。
(1)変数処理を要求する目印となる、Audioタグの’#’記号を調べ、なければ通常のオーディを処理を行う。
(2)Audioタグより、全文録音音声ファイル名と、全文録音音声ファイルに対応する代替テキストを抽出する。
(3)全文録音音声ファイルが存在しない場合は、’#’をとり、通常のオーディオ処理を行う。必要により音声合成される。
(4)代替テキストがなければ、エラーとなり処理は終了。
(5)既に処理済の場合は、キャッシュされた音声ファイルを利用する。なお、変数部のみ変更されたものなら、変数録音ファイルのみアプリケーション・サーバから取得する。
(6)代替テキストと決められた変数部の文字列からグラマーを作成する。
(7)グラマーと全文録音音声ファイルを音声認識エンジンにより認識させ、全文録音音声ファイルを分割する。
(8)変数録音音声ファイルがない場合は、変数の部分は音声合成する。
(9)得られた音声ファイル(と場合によっては音声合成結果)を連結して再生できるようにする。
以下の表1−表7には、図7に示した本発明の処理を擬似コード的表現で表したものを示す。なお、(1)−(9)は図7中のものに対応する。以下の表1は、一連の処理を示したものである。
Figure 0004478647
Figure 0004478647
表2は、表1に示した処理のうち、(4)中の代替テキストを分割する処理に関するものである。
Figure 0004478647
表3は、表1に示した処理のうち、(5)の処理をさらに詳細に述べたものである。
Figure 0004478647
Figure 0004478647
表4は、表1に示した処理のうち、(6)の処理の一部をさらに詳細に述べたものである。
Figure 0004478647
表5は、表1に示した処理のうち、(6)の処理の他の一部をさらに詳細に述べたものである。
Figure 0004478647
Figure 0004478647
表6は、表1に示した処理のうち、(7)の処理をさらに詳細に述べたものである。
Figure 0004478647
表7は、表1に示した処理のうち、(8)の処理をさらに詳細に述べたものである。
Figure 0004478647
Figure 0004478647
以下には、発明の具体的な実施例として、VoiceXMLの場合にどのように実装するかを示す。この拡張は、既存の機能に影響を与えず、VoiceXML仕様を侵害することなく、実現できるものである。
アプリケーション・サーバで用意する音声ファイル
全文録音音声ファイルは、変数を含む全文をひとつのファイルとして録音する。変数部分は、ある特定の単語に置き換えて録音する。この単語は、音声サーバと了解し合った特定のものにする。例えば、”変数”という単語とする。
変数録音音声ファイル名は、″{変数の内容}.wav″とする。なお、変数文字列が、音声ファイルを格納する環境においてファイル名として許されない文字を含む場合は、変数対音声ファイル名を、CSV形式でマッピングした、マッピングリストファイルを作成する。マッピングリストファイル名は、音声サーバと了解し合った固定のものにする。例えば、″value−wav.map″とする。
変数録音音声ファイルと、場合によりマッピングリストファイルをカレントパスに置く。なお、ひとつあるいは複数の変数録音音声ファイルをクラス化することもできる。クラスは、カレントパス下にクラス名と同じ名前で、クラス専用フォルダを持つ。クラスに属している変数録音音声ファイルと、場合によりそれを記述するマッピングリストファイルは、クラス専用フォルダに置く。
アプリケーション・サーバ中の音声情報の記述
全文録音音声ファイル対応して、その全文録音音声ファイルが変数を持つかどうかを示す目印を音声情報につける。さらに、変数を持つ全文録音音声ファイルに対応して、音声情報に少なくとも変数部を含むテキスト全文(代替テキスト)と挿入する変数名の情報を格納する。さらに必要により、変数用音声ファイルが属するクラス名を格納する。場合により、マッピングリストファイルはカレントパス、あるいは、クラス専用フォルダに置く。
例として、上記ルールを、VoiceXMLに具体的に適用し、定めた例を示す。以下では、VoiceXMLの〈audio〉タグに本発明を適用する。
音声アプリケーションは通常、最終的には人の声を録音した音声ファイルを用いて運用されることが多いが、開発中は音声ファイルがない状態で開発を行う必要があるので、音声合成を利用する。VoiceXMLが音声ファイルを再生するために定義している〈audio〉タグは、そのような利用環境に対応するために、音声ファイル名と文字列を記述して、音声ファイルが存在すれば音声ファイルを再生し、音声ファイルが再生不可能な状態である場合には、文字列を音声合成する、という仕様になっている。
記述例:”〈audio src=″wav/sample.wav″〉ご注文の商品〈/audio〉”
機能的にもフォーマット的にも、〈audio〉タグ本来の仕様に則った状態で、今回の発明を適用する。
全文録音音声ファイルが変数部を持つかどうかを示すために、〈audio〉タグのsrc属性フィールドを利用する。全文録音音声ファイル名の先頭に、’#’をつけて、変数処理の必要があることを示す。
変数部を持つ全文録音音声ファイルに情報を付加するために、〈audio〉タグの代替テキスト部を利用する。代替テキスト部に、変数を含むテキスト全文を記述する。挿入する変数を、〈value〉タグで指定し、挿入位置に、〈value〉タグを挿入する。クラスに属する場合は、クラス名をclass属性で指定した〈sayas〉タグで、〈value〉タグを囲む。マッピングリストファイルは、クラス専用パス、あるいは、カレントパスに置く。
例:「ご注文の商品は、{?}です」というメッセージを音声ファイルを再生する場合用意する音声ファイル
全文録音音声ファイルとして、「ご注文の商品は、変数です」と録音した
″wav¥sample.wav″音声ファイル
変数録音音声ファイルとして、「お米」と録音した″カレントパス¥product¥お米.wav″音声ファイル
VXMLドキュメントの記述(音声情報に対応する)
〈audio src=″#wav/sample.wav″〉
ご注文の商品は、
〈sayas class=″product″〉
〈value expr=″ProductName″/〉
〈/sayas〉
です。
〈/audio〉
ここで、#によって、変数処理の必要性を表し、「wav/sample.wav」は全文録音音声ファイル名である。そして、
「ご注文の商品は、
〈sayas class=″product″〉
〈value expr=″ProductName″/〉
〈/sayas〉
です。」
の部分が代替テキストとなる。
なお、これらの記述は、アプリケーション・サーバで実行されるアプリケーション・プログラムの一部として記述されるものである。
音声サーバサイドの機能
全文録音音声ファイルが変数を持つかどうか、音声ファイル指定の目印の有無で判断して、単純な再生処理か、変数挿入が必要な再生処理か、適切な方の処理に分岐する。単純な音声ファイル再生は、従来の動作どおりである。引き続き、以下に、変数挿入処理を記述する。なお、全て実行時の処理である。
全文録音音声ファイルに対応する代替テキストを、変数部と変数部以外の部分に分割して、各パーツをルールに持つグラマーを動的に生成する。変数部を認識する語句として、変数部を置換する語句を認識するルールをグラマーに追加する。例えば”変数”という語句である。
グラマーの生成について、さらに詳細に説明すれば、以下の通りである。対象とする記述が次のようなっていたとする。
〈audio src=″#confirm.wav″〉
ご注文は、〈value expr=″Product″/〉でよろしいですか?
〈/audio〉
グラマーにしていく過程は以下のとおりである。
1.変数部を変数部用テキストで置換する。
(変換前)ご注文は、〈value expr=″Product″/〉でよろしいですか
(変換後)ご注文は変数でよろしいですか
2.テキストファイル(BNFファイル)を生成する。この時、音声認識エンジンが認識できるように単語分割する必要がある。その結果、この例では以下のようになる。
〈_rule1〉=ご注文は変数でよろしいですか
3.受け入れ可能な発話文を、音声認識エンジンに伝えるために、音声認識エンジンが理解できる形式にする。具体的には、BNFファイルを、グラマーコンパイルして、グラマーボキャブラリ(FSGファイル)を生成する。グラマーコンパイルとは、グラマーを音声認識エンジンが理解できる形式にすることである。例えば、グラマーコンパイラAPIを使って、音声認識エンジンが理解できるFSGファイル形式にコンパイルする。FSG(finite state grammar)ファイル形式とは、音声認識エンジンが理解できる形式の、コンパイル済みグラマーファイルである。なお、FSG形式は、W3C Speech Interface Frameworkでもサポートされる形式である。
以上によって生成されたグラマーを音声認識エンジンに渡し、そのグラマーを登録する。
そして、生成したグラマーを、音声認識エンジンに対して、使用可能(enable)にする。音声認識エンジンを、認識した音声をファイルにするモードに設定する。そして、変数を含む全文録音音声ファイルを、音声認識エンジンに入力する。音声認識エンジンはグラマーに従い、入力された音声を、変数部分と変数以外の部分に分割した状態で認識する。そした、音声認識エンジンは、認識した音声を、認識した単位に分割して、音声ファイルを生成する。
アプリケーション・プログラムから指定された変数録音音声ファイルを、″{変数の内容}.wav″というファイル名で検索する。検索場所は、場合により、その音声ファイルがクラスに属している場合はクラス専用パス、属していなければカレントパスである。″{変数の内容}.wav″ファイルが存在しなければ、変数対音声ファイル名のマッピングリストを読み、ファイル名を取得し、検索する。マッピングリストが存在しない、マッピングリストにターゲットとなる変数に関する指定がない、マッピングリストでターゲットとなる変数に対応付けられている音声ファイルがない、あるいは、その他の理由で、尚、変換用音声ファイルを見つけられない場合は、変数テキストに基づいて音声合成する。
分割生成された音声ファイルと、検索した変数録音音声ファイル、あるいは、変数テキストの音声合成、をテキストの順に順々に再生するようにする。パフォーマンス向上のため、分割した音声ファイルは、アプリケーション終了時までは保管する。ただし、適切なファイルの削除も実行すべきである。キャッシュファイル管理について、音声サーバが既に持っているルールに従うのが適切である。分割された音声ファイル断片の存在状態を記憶し、分割済み音声ファイルが存在するものは、それを利用するようにする。
変数の決定について
変数に対応するテキストは、アプリケーションの変数の値である。その値は実行時に決定される。この変数の値が、いつどこで決まるかはアプリケーションロジックによる。例えば、Product=″’変数値’″として、いつでもその値をいれるようにすることができ、また例えば注文を聞いた時に認識した語句を、その値とするように書いておくこともできる。
より具体的に、変数の決定も含めた一連の処理について以下に説明する。
″変数値がいつどのような形で決まるか″は、アプリケーションのデザインにより、大きく次の2タイプある。(1)認識対象に名前をつけておき、それが変数名となり、ユーザの発声を認識した時に認識した語句が変数値になるようにする。(2)あらかじめ変数を宣言しておき、好きなタイミングで変数値をいれるようにする。
例えば、以下の表8に処理の一例を示す。
Figure 0004478647
このサンプルは、次のような対話をする従来の機能で書いたVoiceXMLアプリケーションである。
System:お名前をどうぞ
User: 加藤 :この発声を認識した時に、UserName変数値=”加藤”となります。
System:加藤様ですね:この後、〈assign〉タグにより、Address変数値=getUserAddress関数の返り値;”東京都渋谷区”などとなります。
System:ご注文をどうぞ
User: お米 :この発声を認識した時に、Product変数値=”お米”となります。
System:ご注文はお米ですね。
タイプ(1)の例は、UserName変数、Product変数、answer変数である。タイプ(2)の例は、Address変数である。変数値を参照する時は、〈value〉タグを使う。SCRIPT関数へのパラメータとして使う時は直接変数名を使う。
タイプ(1)として、UserName変数についてさらに詳細に述べる。まず、VXML処理部は、アプリケーションサーバにあるVXMLアプリケーションを読み込む。そして、VXML処理部は、対話が5行目に来た時、音声認識エンジンに、「加藤、あるいは、佐藤、という語句を認識するのだ、」ということをグラマーで指示する。ユーザの「加藤」と発声した音声が、音声認識エンジンに届くと、音声認識エンジンは、グラマーと照合して、「加藤」という語句を認識する。そして音声認識エンジンは、「加藤です、という語句を認識した」と、VXML処理部に伝えます。VXML処理部は、UserName変数に、″加藤″という変数値をいれる。なお、一例では、これらのVXML処理部も音声認識エンジンも、どちらも、音声サーバにおいて実施される。一例としては、このようなVXML処理部は音声化処理部の一部として実施することができる。
タイプ(2)として、Address変数についてさらに詳細に述べる。VXML処理部は、UserNameフィールドの認識が済んだという通知を受け取り、12行目の処理を始める。getUserAddress関数という、顧客名対住所のデータベースを参照して、住所を返す関数を、呼びだす。その返り値を、Address変数に変数値としてわりあてる。
変数名の決定
本実施例の1つでは、変数録音ファイル名は、″変数値″+″.wav″とした。例えば、変数が、変数”Product”の時、Productの変数値が″お米″だったら、変部録音ファイル名=″お米.wav″である、ということである。これに関連して、以下の表9に示す例を基に、さらに詳細に説明する。
Figure 0004478647
Figure 0004478647
これは、あるアプリケーションで、注文を伺い、そして「ご注文は、○○でよろしいですか」と言いたい時、の記述である。このサンプルは、次のような対話ができます。
System: ご注文をどうぞ
User: お米
System: ご注文はお米ですね。
このようなアプリケーションおいては、アプリケーション開発時にあらかじめ、変数”Product”として有効な値について、変数録音ファイルを生成してアプリケーション・サーバに格納しておく。変数録音ファイルのファイル名は、″変数値″+″.wav″です。変数の有効値が、″お米″と″お味噌″の場合、″お米.wav″と″お味噌.wav″を作成し、それらをアプリケーション・サーバに格納しておく。音声サーバは実行時に、〈value expr=″Product″/〉部分に、変数”Product”の値(″お米″など)から、変数部録音ファイル名(″お米.wav″)を組み立てます。そのファイルがアプリケーション・サーバに存在すれば、それを再生します。存在しなければ、変数値(″お米″)を音声合成します。このようなファイル名の組み立ては、一例では、図7のフローチャートの″(8)変数部録音ファイルが存在するか″で行われる。
[図1]本発明を実施するのに好適なコンピュータ装置のハードウェア構成の例を模式的に示した図である。
[図2]本発明を機能ブロックを用いて示した図である。
[図3]音声ファイル処理部231におけるグラマーの生成ロジックを示す図である。
[図4]グラマーの生成ロジックの詳細を示す図である。
[図5]音声認識エンジン232における音声認識による音声ファイルの分割ロジックについて示す図である。
[図6]音声認識エンジン232における音声認識による音声ファイルの分割結果について示す図である。
[図7]本発明の音声サーバ230における処理の流れについての一例を記述したフローチャートを示す図である。
符号の説明
101 CPU
102 M/Bチップセット
103 メインメモリ
104 ビデオカード
105 ハードディスク
106 ネットワークインターフェイス
107 USB
108 ブリッジ回路
109 フレキシブルディスクドライブ
110 キーボード/マウス
210 音声応答システム
221 全文録音音声ファイル
222 変数録音音声ファイル
223 変数録音音声ファイル
224 音声情報
220 アプリケーション・サーバ
231 音声ファイル処理部
232 音声認識エンジン
233 音声化処理部
230 音声サーバ
240 音声出力装置

Claims (29)

  1. アプリケーション・サーバ及び音声サーバとを備える音声応答システムであって、
    前記アプリケーション・サーバは、第1の音声ファイルと、第2の音声ファイルと、音声情報を有するものであり、
    前記音声サーバは、
    前記アプリケーション・サーバから前記音声情報と前記第1の音声ファイルを受け取り、前記音声情報に基づいてグラマーを生成する音声ファイル処理手段と、
    前記グラマーに基づいて、前記第1の音声ファイルを音声認識し、複数の音声ファイルに分割する音声認識手段と、
    前記分割された音声ファイルの内の少なくとも1の音声ファイルを前記第2の音声ファイルに置き換える音声処理手段と
    を有する音声応答システム。
  2. 前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、請求項1記載の音声応答システム。
  3. 前記第2の音声ファイルは、変数部に入る音声をファイルとして録音したものである、請求項2記載の音声応答システム。
  4. 前記音声情報には、前記第1の音声ファイルのファイル名が含まれ、前記音声ファイル処理手段は前記ファイル名に基づいて前記第1の音声ファイルを抽出するものである、請求
    項1乃至3のいずれかに記載の音声応答システム。
  5. 前記音声情報には、代替テキストが含まれ、前記音声ファイル処理手段は前記代替テキストに基づいてグラマーを生成するものである、請求項1乃至4のいずれかに記載の音声応答システム。
  6. 前記音声情報には、変数についての処理を行う必要があるかどうかを示す変数情報が含まれる、請求項1乃至5のいずれかに記載の音声応答システム。
  7. さらに、音声を出力する音声出力手段を有する請求項1乃至6のいずれかに記載の音声応答システム。
  8. アプリケーション・サーバ及び音声サーバとを備える音声応答システムにおける音声応答方法であって、前記アプリケーション・サーバは、第1の音声ファイルと、第2の音声ファ
    イルと、音声情報を有するものであり、前記音声応答方法は、
    前記音声サーバが、
    前記アプリケーション・サーバから前記音声情報と前記第1の音声ファイルを受け取り、前記音声情報に基づいてグラマーを生成するステップと、
    前記グラマーに基づいて、前記第1の音声ファイルを音声認識し、複数の音声ファイルに分割するステップと、
    前記分割された音声ファイルの内の少なくとも1の音声ファイルを前記第2の音声ファイルに置き換えるステップと
    を有する音声応答方法。
  9. 前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、請求項8記載の音声応答方法。
  10. 前記第2の音声ファイルは、変数部に入る音声をファイルとして録音されたものである、請求項9記載の音声応答方法。
  11. 前記音声情報には、前記第1の音声ファイルのファイル名が含まれ、前記第1の音声ファイルを前記ファイル名に基づいて抽出する、請求項8乃至10のいずれかに記載の音声応答方法。
  12. 前記音声情報には、代替テキストが含まれ、前記グラマーを前記代替テキストに基づいて生成する、請求項8乃至11のいずれかに記載の音声応答方法。
  13. 前記音声情報には、変数についての処理を行う必要があるかどうかを示す変数情報が含まれる、請求項8乃至12のいずれかに記載の音声応答方法。
  14. アプリケーション・サーバ及び音声サーバとを備える音声応答システムに音声応答を実行させるためのコンピュータ・プログラムであって、当該音声応答システムに請求項8乃至13のいずれかに記載の方法を実行させるコンピュータ・プログラム。
  15. 請求項14に記載のコンンピュータ・プログラムを格納したコンピュータ読み取り可能な記憶媒体。
  16. 自動的に音声処理を行うための音声サーバであって、
    代替テキストからグラマーを生成する手段と、
    前記グラマーに基づいて、第1の音声ファイルを音声認識し、複数の音声ファイルに分割する手段と、
    前記分割された音声ファイルの内の少なくとも1の音声ファイルを第2の音声ファイルに置き換える手段と
    を有する音声サーバ。
  17. 前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、請求項16記載の音声サーバ。
  18. 前記第2の音声ファイルは、変数部に入る音声をファイルとして録音したものである、請求項17記載の音声サーバ。
  19. 前記第2の音声ファイルは、変数部に入る音声を合成音声により生成したものである、請求項17記載の音声サーバ。
  20. 前記グラマーを生成する手段は、代替テキストを変数部と変数部以外に分割し、変数部を予め定められた単語に置き換えることにより、グラマーを生成する請求項16乃至19のいずれかに記載の音声サーバ。
  21. 前記グラマーを生成する手段は、さらに前記単語の置き換えにより生成されたテキストファイルを分割し、音声認識が可能な形式にすることにより、グラマーを生成する請求項16乃至20のいずれかに記載の音声サーバ。
  22. 音声サーバによって自動的に音声ファイルの処理を行うための方法であって、
    前記音声サーバが
    代替テキストからグラマーを生成するステップと、
    前記グラマーに基づいて、第1の音声ファイルを音声認識し、複数の音声ファイルに分割するステップと、
    前記分割された音声ファイルの内の少なくとも1の音声ファイルを第2の音声ファイルに置き換えるステップと
    を有する音声ファイル処理方法。
  23. 前記第1の音声ファイルは、変数が入ることを示す変数部を含む全文を一つのファイルとして録音されたものである、請求項22に記載の音声ファイル処理方法。
  24. 前記第2の音声ファイルは、変数部に入る音声をファイルとして録音されたものである、請求項23記載の音声ファイル処理方法。
  25. 前記第2の音声ファイルは、変数部に入る音声を合成音声により生成したものである、請求項23記載の音声ファイル処理方法。
  26. 前記グラマーを生成するステップは、代替テキストを変数部と変数部以外に分割し、変数部を予め定められた単語に置き換えることにより、グラマーを生成する請求項22乃至25のいずれかに記載の音声ファイル処理方法。
  27. 前記単語の置き換えにより生成されたテキストファイルを分割し、音声認識が可能な形式にすることにより、グラマーを生成する請求項26記載の音声ファイル処理方法。
  28. 音声サーバによって自動的に音声ファイルの処理を実行させるためのコンピュータ・プログラムであって、当該音声サーバに請求項22乃至27のいずれかに記載の方法を実行させるコンピュータ・プログラム。
  29. 請求項28に記載のコンンピュータ・プログラムを格納したコンピュータ読み取り可能な記憶媒体。
JP2005506746A 2003-06-02 2004-05-28 音声応答システム、音声応答方法、音声サーバ、音声ファイル処理方法、プログラム及び記録媒体 Expired - Lifetime JP4478647B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003156714 2003-06-02
JP2003156714 2003-06-02
PCT/JP2004/007368 WO2004109658A1 (ja) 2003-06-02 2004-05-28 音声応答システム、音声応答方法、音声サーバ、音声ファイル処理方法、プログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JPWO2004109658A1 JPWO2004109658A1 (ja) 2006-07-20
JP4478647B2 true JP4478647B2 (ja) 2010-06-09

Family

ID=33508327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005506746A Expired - Lifetime JP4478647B2 (ja) 2003-06-02 2004-05-28 音声応答システム、音声応答方法、音声サーバ、音声ファイル処理方法、プログラム及び記録媒体

Country Status (8)

Country Link
EP (1) EP1632932B1 (ja)
JP (1) JP4478647B2 (ja)
KR (1) KR100834363B1 (ja)
CN (1) CN1830022B (ja)
AT (1) ATE381755T1 (ja)
AU (1) AU2004246451A1 (ja)
DE (1) DE602004010804T2 (ja)
WO (1) WO2004109658A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181397B2 (en) 2005-04-29 2007-02-20 Motorola, Inc. Speech dialog method and system
WO2010068882A2 (en) * 2008-12-11 2010-06-17 Nortel Networks Limited Automated text-based messaging interaction using natural language understanding technologies
JP5787794B2 (ja) * 2012-03-05 2015-09-30 株式会社東芝 音声合成システム、音声変換支援装置および音声変換支援方法
WO2018133307A1 (zh) 2017-01-20 2018-07-26 华为技术有限公司 一种实现语音控制的方法和终端
JP7013172B2 (ja) * 2017-08-29 2022-01-31 株式会社東芝 音声合成辞書配信装置、音声合成配信システムおよびプログラム
CN108090051A (zh) * 2017-12-20 2018-05-29 深圳市沃特沃德股份有限公司 连续长语音文件的翻译方法与翻译机
KR102293772B1 (ko) * 2018-08-02 2021-08-25 주식회사 케이티 음성 합성 서비스를 제공하는 서버, 사용자 단말 및 방법
KR102304993B1 (ko) * 2018-11-01 2021-09-27 주식회사 케이티 Tts 서비스 제공 방법 및 이를 위한 중계 서버

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2554116B2 (ja) * 1988-01-30 1996-11-13 日本電気ホームエレクトロニクス株式会社 テレビジョン受像機
US5652789A (en) * 1994-09-30 1997-07-29 Wildfire Communications, Inc. Network based knowledgeable assistant
AU1987097A (en) * 1996-03-07 1997-09-22 American Express Travel Related Services Company, Inc. Methods and apparatus for providing a prepaid, remote memory transaction account with voice indicia
US5970449A (en) * 1997-04-03 1999-10-19 Microsoft Corporation Text normalization using a context-free grammar
JP3472101B2 (ja) * 1997-09-17 2003-12-02 株式会社東芝 音声入力解釈装置及び音声入力解釈方法
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US6499013B1 (en) * 1998-09-09 2002-12-24 One Voice Technologies, Inc. Interactive user interface using speech recognition and natural language processing
KR100287905B1 (ko) * 1998-12-31 2001-05-02 서평원 실시간 음성 재생 시스템 및 그를 이용한 음성 재생 방법
CZ299508B6 (cs) * 1999-02-19 2008-08-20 Custom Speech Usa, Inc. Systém automatické transkripce a zpusob užití dvou stupnu konverze reci a pocítacem podporovaná korekce
JP2001265376A (ja) * 2000-03-22 2001-09-28 Pioneer Electronic Corp 音声合成出力装置ならびに方法および同方法が記録される記録媒体
KR100364546B1 (ko) * 2000-12-29 2002-12-18 엘지전자 주식회사 음성 메일링 시스템의 음성자원 교체방법
JP2002221980A (ja) * 2001-01-25 2002-08-09 Oki Electric Ind Co Ltd テキスト音声変換装置
US7711570B2 (en) * 2001-10-21 2010-05-04 Microsoft Corporation Application abstraction with dialog purpose
JP4554561B2 (ja) * 2006-06-20 2010-09-29 株式会社シマノ 釣り用グローブ
JP2008002005A (ja) * 2006-06-21 2008-01-10 Shimada Shoji Kk 衣服用パッド
JP4880379B2 (ja) * 2006-06-23 2012-02-22 粕谷 普烈 型板の緊張度が調節自在な枠体

Also Published As

Publication number Publication date
ATE381755T1 (de) 2008-01-15
JPWO2004109658A1 (ja) 2006-07-20
KR100834363B1 (ko) 2008-06-02
DE602004010804T2 (de) 2008-12-04
EP1632932A1 (en) 2006-03-08
DE602004010804D1 (de) 2008-01-31
AU2004246451A1 (en) 2004-12-16
CN1830022B (zh) 2010-05-05
WO2004109658A1 (ja) 2004-12-16
KR20060014043A (ko) 2006-02-14
EP1632932A4 (en) 2007-05-09
EP1632932B1 (en) 2007-12-19
CN1830022A (zh) 2006-09-06

Similar Documents

Publication Publication Date Title
US6801897B2 (en) Method of providing concise forms of natural commands
JP4558308B2 (ja) 音声認識システム、データ処理装置、そのデータ処理方法及びプログラム
US8594995B2 (en) Multilingual asynchronous communications of speech messages recorded in digital media files
JP4478939B2 (ja) 音声処理装置およびそのためのコンピュータプログラム
JP3232289B2 (ja) 記号挿入装置およびその方法
US8626489B2 (en) Method and apparatus for processing data
JP4901155B2 (ja) 音声認識装置が使用するのに適した文法を生成するための方法、媒体、およびシステム
JP2010160316A (ja) 情報処理装置及びテキスト読み上げ方法
JP2013072957A (ja) 文書読み上げ支援装置、方法及びプログラム
US20220036005A1 (en) Tokenization of text data to facilitate automated discovery of speech disfluencies
JP4478647B2 (ja) 音声応答システム、音声応答方法、音声サーバ、音声ファイル処理方法、プログラム及び記録媒体
JP3936351B2 (ja) 音声応答サービス装置
JP5693834B2 (ja) 音声認識装置及び音声認識方法
JP2006236037A (ja) 音声対話コンテンツ作成方法、装置、プログラム、記録媒体
US20210142784A1 (en) Speech synthesis system, method and non-transitory computer readable medium
JP4286583B2 (ja) 波形辞書作成支援システムおよびプログラム
JP2011150169A (ja) 音声認識装置
WO2022196087A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JPS6083136A (ja) プログラム読上装置
JP4206253B2 (ja) 自動音声応答装置及び自動音声応答方法
JP3958908B2 (ja) 書き起こしテキスト自動生成装置、音声認識装置および記録媒体
US20020042040A1 (en) Talking book method and system
JP2007127994A (ja) 音声合成方法及び音声合成装置並びにプログラム
JP3414326B2 (ja) 音声合成用辞書登録装置及び方法
JP2000214874A (ja) 音声合成装置及びその方法、コンピュ―タ可読メモリ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100315

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3