JP4619623B2 - ボイスメッセージ処理システムおよび方法 - Google Patents
ボイスメッセージ処理システムおよび方法 Download PDFInfo
- Publication number
- JP4619623B2 JP4619623B2 JP2003068978A JP2003068978A JP4619623B2 JP 4619623 B2 JP4619623 B2 JP 4619623B2 JP 2003068978 A JP2003068978 A JP 2003068978A JP 2003068978 A JP2003068978 A JP 2003068978A JP 4619623 B2 JP4619623 B2 JP 4619623B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- voice message
- data
- voice
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 27
- 238000000034 method Methods 0.000 title claims description 13
- 230000008451 emotion Effects 0.000 claims description 39
- 238000013500 data storage Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 description 21
- 239000000284 extract Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000013518 transcription Methods 0.000 description 5
- 230000035897 transcription Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- CDFKCKUONRRKJD-UHFFFAOYSA-N 1-(3-chlorophenoxy)-3-[2-[[3-(3-chlorophenoxy)-2-hydroxypropyl]amino]ethylamino]propan-2-ol;methanesulfonic acid Chemical compound CS(O)(=O)=O.CS(O)(=O)=O.C=1C=CC(Cl)=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC(Cl)=C1 CDFKCKUONRRKJD-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/64—Automatic arrangements for answering calls; Automatic arrangements for recording messages for absent subscribers; Arrangements for recording conversations
- H04M1/65—Recording arrangements for recording a message from the calling party
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/64—Automatic arrangements for answering calls; Automatic arrangements for recording messages for absent subscribers; Arrangements for recording conversations
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/57—Arrangements for indicating or recording the number of the calling subscriber at the called subscriber's set
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/60—Medium conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2242/00—Special services or facilities
- H04M2242/22—Automatic class or number identification arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42025—Calling or Called party identification service
- H04M3/42034—Calling party identification service
- H04M3/42042—Notifying the called party of information on the calling party
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/53—Centralised arrangements for recording incoming messages, i.e. mailbox systems
- H04M3/533—Voice mail systems
- H04M3/53333—Message receiving aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q3/00—Selecting arrangements
- H04Q3/72—Finding out and indicating number of calling subscriber
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Information Transfer Between Computers (AREA)
Description
【発明の属する技術分野】
本発明は、音声処理に関し、より具体的には、分散システムによって受信されたボイスメッセージを処理するためのボイスメッセージ処理に関する。
【0002】
【従来の技術】
現在、多くの人々が広範な種類の情報源から極めて多くの種々のメッセージを受信する。例えば、人々にとって、週に数十通のボイスメールメッセージを受信することは珍しいことではない。現在ユニファイドメッセージを使用することが、この問題を悪化させている。ユニファイドメッセージシステムにおいては、広範な種類の情報源から受信されたメッセージ、例えばボイスメッセージ、電子メールメッセージ、ファックスメッセージおよびインスタントメッセージなどは、シームレスに結び付けられてアクセスすることができる。しかしながら、電子メールメッセージおよびインスタントメッセージシステムと比べ、ボイスメッセージに関連する情報の種類は非常に限定される。
【0003】
【発明が解決しようとする課題】
例えば、電子メールメッセージは、通常、その送信者の識別情報、件名および優先順位を含む。同様に、このような情報は、元々テキストなので、非常に容易にスキャンたり、コピーやペーストをしたりすることができる。反対に、ボイスメールメッセージは、通常、送信者のいかなる識別情報も持たない。発信者表示が組み込まれたシステムでは、入力している番号を識別することができ、その入力している番号が個人に関連付けられていれば、送信者と思われる人を識別することもできる。しかしながら、このようなシステムが追跡するのは電話器だけであって、話者ではない。通常、ボイスメールメッセージは、件名や優先順位に関する指示が含まれておらず、元々書かれたものではなく音声なので、スキャンしたり、コピーやペーストをしたりするのも困難である。
【0004】
ボイスメッセージに関連する情報が不足しているため、処理にはより多くの時間が費やされることとなる。例えば、件名や送信者をざっと見て多くの電子メールメッセージを除去し、必要でなければ直ちにメールボックスから削除したり、所定のホルダを構成したりすることができる。実際、特定のユーザからのメールメッセージ、あるいは特定の件名を持つメールメッセージを削除するための規則を指定して、自動的にこれらの処理をすることさえできる。
【0005】
一方、ユーザは単に送信者や件名などの基本的な情報を抽出するだけでもメッセージを1件1件聞かなければならないので、ボイスメールメッセージを調べるには、一般に非常に多くの時間を必要とする。現時点では、ボイスメールメッセージを(送信者、件名あるいは緊急度で整理するなど)予め構成しておくための規則を自動的に生成することも、実質上不可能である。
【0006】
【課題を解決するための手段】
分散データ記憶上に複数のボイスメッセージを示すボイスメッセージデータを格納することによって、分散システムにおいてはボイスメッセージが処理される。分散データプロセッサは、ボイスメッセージにアクセスして、そのボイスメッセージから所定の情報を抽出する。次に、データプロセッサは、ボイスメッセージデータ記憶に格納されたデータに抽出された情報を付加する。ユーザは、ユーザインタフェースコンポーネントにより、付加されたデータをもってボイスメッセージをアクセスすることができる。
【0007】
一実施形態において、分散ボイスデータプロセッサは、ソートや警告の生成などユーザ選択の規則をそのデータに適用する。
【0008】
ボイスデータプロセッサは、例えば(話者識別モデルを用いた)話者の識別、話者の感情や発話速度のような広範な情報を抽出する。ボイスデータプロセッサは、また、メッセージをユーザによって選択可能な所定の発話速度に標準化することもできる。
一実施形態において、ボイスデータプロセッサは、メッセージを文字に転写(transcribing)して要約し、ボイスメッセージに関し(意味解析のような)自然言語処理を実行するための文字転写(transcription)コンポーネントも含む。
【0009】
ユーザ入力によって、ユーザはボイスメッセージを扱うための広範囲のユーザ起動入力を得ることができる。このような入力は、例えばボイスメッセージの速度を上げたり、または下げるための速度変更入力、規則を設定するための入力、ボイスメッセージから抽出された種々の情報の表示、およびユーザによって選択あるいは除外された規則の表示を含む。
【0010】
【発明の実施の形態】
本発明は、分散処理システム上で実現され、所定の情報をボイスメッセージから抽出する。本発明は、所定の情報を抽出して、抽出された情報をもつボイスメッセージを含むボイスデータ記憶に付加する。ユーザインタフェースによって、ボイスメッセージは、追加された付加情報を付与して容易に取り扱うことができる。本明細書の分散されたとの記載は、サーバを含まないシステムを意味し、デスクトップシステム、パーソナルデジタルアシスタント(PDA)、電話、ラップトップコンピュータなどのような個人ユーザがコントロールするシステムを意味する。したがって、例えば、本明細書で分散処理プロセッサを議論する際、それは例えばサーバ上に存在するというよりも、ネットワークの一部とすることができるのであって、ユーザ個人がコントロールする装置上に存在するプロセッサを意味する。
【0011】
図1は、本発明を実施することができる適切なコンピューティングシステム環境100を例示する。コンピューティング環境100は適切なコンピューティング環境の一例にすぎず、本発明の使用または機能の範囲に関しいかなる限定を示唆することも企図していない。コンピューティング環境100は、例示の動作環境100に示されたいかなる各コンポーネントまたはその組み合わせに依存し、またはこれらを要求するものと解釈すべきではない。
【0012】
本発明は、多くの他の汎用のまたは専用のコンピューティングシステム環境または構成とともに動作することができる。本発明で使用するのに適する例としてよく知られたコンピューティングシステム、環境、および/または構成、例えばパーソナルコンピュータ、ハンドヘルドまたはラップトップ装置、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能なコンシューマ電子機器、ネットワークPC、ミニコンピュータ、マインフレームコンピュータ、上記のいずれかのシステムまたは装置を含む分散コンピューティング環境などが含まれるが、これに限定されない。
【0013】
本発明は、コンピュータによって実行されるプログラムモジュールといったコンピュータ実行可能命令の通常のコンテキストで記述することができる。一般に、プログラムモジュールは、特定のタスクを実行しあるいは特定の抽象データタイプを実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。本発明はまた、分散コンピューティング環境で実施することもでき、そこではコミュニケーションネットワークを通して接続されたリモート処理装置によってタスクが実行される。分散コンピューティング環境において、プログラムモジュールは、メモリ記憶装置を含むローカルおよびリモートの双方のコンピュータ記憶媒体に置くことができる。
【0014】
図1を参照すると、本発明を実施するための例示のシステムは、コンピュータ110の形の汎用コンピューティング装置を含む。コンピュータ110のコンポーネントには、処理ユニット120、システムメモリ130および、システムメモリを含む種々のシステムコンポーネントを処理ユニット120に結合するシステムバス121を含むがこれに限定されない。システムバス121は、いかなる種類のバスアーキテクチャをも使用するメモリバスまたはコントローラ、ペリフェラルバスおよびローカルバスを含む数種のバス構造とすることができる。例として、このようなアーキテクチャには工業標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオ電子標準化協会(VESA)ローカルバスおよびメザニンバスとしても知られる周辺コンポーネント相互接続(PCI)バスが含まれるがこれに限られない。
【0015】
コンピュータ110は、通常、種々の読み取り可能媒体を含む。コンピュータ読み取り可能媒体は、コンピュータ110によりアクセス可能ないかなる媒体とすることができ、揮発性および不揮発性媒体、並びに取外し可能および固定媒体の双方を含む。例として、コンピュータ読み取り可能媒体は、コンピュータ記憶媒体および通信媒体を備えることができるが、これに限られない。コンピュータ記憶媒体は、情報、例えばコンピュータ読み取り可能命令、データ構造、プログラムモジュールまたはその他のデータを記憶するためのいずれかの方法または技術で実施される揮発性および不揮発性媒体、並びに取外し可能および固定媒体の双方を含む。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリまたはその他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)またはその他の光ディスク記憶、磁気カセット、磁気テープ、磁気記憶ディスクまたはその他の磁気記憶機器、あるいは所定の情報を記憶するための使用およびコンピュータ110からのアクセスが可能な他のいずれかの媒体も含むがこれに限られない。通信媒体は、一般に、コンピュータ読み取り可能命令、プログラムモジュールあるいはその他のデータから変調されたデータ信号、例えば搬送波やその他の伝送手法に具現化するもであり、いかなる配信媒体をも含む。用語「変調されたデータ信号」とは、一定の手法、例えば情報を信号に符号化して設定または変更された1つまたは複数の特性を有する信号を意味する。例として、通信媒体は、有線ネットワークやディレクトワイヤード接続などの有線媒体および音声、電波、赤外線その他のような無線媒体を含むが、これに限られない。コンピュータ読み取り可能媒体の範囲には上述のいずれの組み合わせも含まれるべきである。
【0016】
システムメモリ130は、コンピュータ記憶媒体を揮発性および/または不揮発性のメモリ、例えば読取専用メモリ(ROM)131および逐次アクセスメモリ(RAM)132の形式で備える。基本入出力システム133(BIOS)は、スタートアップの最中などにコンピュータ110内の要素間における情報の移送を支援する基本ルーチンをみ、通常ROM131に格納される。RAM132は一般に、処理ユニット120にすぐにアクセス可能であり、および/または現在処理ユニット120によってオペレートされているデータおよび/またはプログラムモジュールを含む。例として、図1はオペレーティングシステム134、アプリケーションプログラム135、その他のプログラムモジュール136およびプログラムデータ137を示しているがこれに限られない。
【0017】
コンピュータ110は、その他の取外し可能/固定で、揮発性/不揮発性のコンピュータ記憶媒体も含むことができる。単に例としてであるが、図1は、固定で不揮発性の磁気媒体の読み書きを行うハードディスクドライブ141、取外し可能で不揮発性の磁気ディスク152の読み書きを行う磁気ディスクドライブ151、およびCD−ROMやその他の光媒体のような取外し可能で不揮発性の光ディスク156の読み書きを行う光ディスクドライブ155を示す。例示の動作環境において使用することができる他の取外し可能/固定で揮発性/不揮発性のコンピュータ記憶媒体には、磁気テープカセット、フラッシュメモリカード、デジタル多用途ディスク、デジタルビデオテープ、ソリッドステートRAM、ソリッドステートROMなどが含まれるがこれに限定されない。通常、ハードディスクドライブ141は、インタフェース140のような固定メモリインタフェースを通してシステムバス121に接続されており、磁気ディスクドライブ151と光ディスクドライブ155とは、インタフェース150のような取外し可能メモリインタフェースによってシステムバス121に接続される。
【0018】
上記で議論し図1に示されたドライブと関連するコンピュータ記憶媒体によって、コンピュータ読み取り可能命令、データ構造、プログラムモジュールおよびコンピュータ110のためのその他のデータが記憶される。例えば、図1において、ハードディスクドライブ141は、オペレーティングシステム144、アプリケーションプログラム145、その他プログラムモジュール146およびプログラムデータ147を格納するように示されている。これらのコンポーネントは、オペレーティングシステム134、アプリケーションプログラム135、その他プログラムモジュール136およびプログラムデータ137と同一または異なるもののいずれかとすることができ、符号は最低限それらが異なるコピーであることを示すために付与されていることに留意されたい。
【0019】
ユーザは、キーボード162、マイクロホン163などの入力機器およびマウス、トラックボールまたはタッチパッドなどのポインティング機器161を通してコマンドおよび情報をコンピュータ110に入力することができる。その他の入力機器(図示せず)には、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナ、などを含むことができる。これらおよび他の入力機器はしばしば、システムバスに結合するユーザ入力インタフェース160を通して処理ユニット120に接続するが、他のインタフェースおよびバス構造、例えばパラレルポート、ゲームポート、あるいはユニバーサルシリアルバス(USB)などによって接続することもできる。モニタ191または他の種類の表示機器もまた、ビデオインタフェース190のようなインタフェースを介して、システムバス121に接続される。モニタに加え、コンピュータは、その他の周辺出力機器、例えばスピーカ197およびプリンタ196を備えることもでき、出力周辺インタフェース195を通して接続することができる。
【0020】
コンピュータ110は、1つまたは複数のリモートコンピュータ180のようなリモートコンピュータへの論理接続を用い、ネットワーク化された環境で動作することができる。リモートコンピュータ180は、パーソナルコンピュータ、ハンドヘルド機器、サーバ、ルータ、ネットワークPC、ピア機器またはその他従来のネットワークノードとすることができ、一般にコンピュータ110に関する上述した要素の多くまたは全てを含む。図1に示される論理接続はローカルエリアネットワーク(LAN)171および広域ネットワーク(WAN)173を含むが、他のネットワークも含むことができる。このようなネットワーク環境は、オフィス、企業内コンピュータネットワーク、イントラネットおよびインターネットにおいては、通常のものである。
【0021】
LANネットワーク環境で用いられる際、コンピュータ110はネットワークインタフェースまたはアダプタ170を通してLAN171に接続する。WANネットワーク環境で使用される際は、コンピュータ110は一般的に、インターネットのようなWAN173を介して通信を確立するためのモデム172または他の手法を備える。モデム172は、内蔵または外付けとすることができるが、ユーザインタフェース160またはその他の適切な仕組みを介してシステムバス121に接続することができる。ネットワーク化された環境においては、コンピュータ110あるいはその部分に関連して示されたプログラムモジュールは、リモートメモリ記憶機器に格納することができる。例として、図1は、リモートのアプリケーションプログラム185をリモートコンピュータ180に存在するように示しているがこれに限られない。示されたネットワーク接続が例示であり、コンピュータ間における通信接続を確立する他の手法を用いることができることが理解されるであろう。
【0022】
図2は、本発明の一実施形態に合致したボイスメッセージ処理システム200のより詳細なブロック図である。システム200は、例示するようにボイスデータ入力コンポーネント202、ボイスデータ記憶204、ユーザインタフェースコンポーネント206およびボイスデータプロセッサ208を含む。ボイスデータ入力コンポーネント202は、例示するようにボイスデータにボイスメールメッセージが含まれる場合には電話、ボイスデータが録音された講義や会話の場合にはマイクロフォンを含むことができ、および他のコンポーネント、例えばラジオ、コンパクトディスクプレーヤなどとすることができる。
【0023】
ボイスデータ記憶204は、例示するようにWAVファイルのようなボイスデータを格納するメモリの一部である。ユーザインタフェースコンポーネント206は、例示するようにユーザによって起動され、ユーザインタフェースを生成して、ボイスデータ記憶204に格納されたボイスメッセージを操作し、および整理することができる。ボイスデータプロセッサ208は例示するように、ボイスメッセージから有用な情報を抽出する情報抽出コンポーネント210およびボイスメッセージにユーザ選択の規則を適用する規則適用コンポーネント212を含む。
【0024】
図3は、システム200の一般的な動作を示すフロー図である。まず、データ入力コンポーネント202からボイスメッセージを受信して、ボイスデータ記憶204に格納する。これは図3のブロック214によって示される。情報抽出コンポーネント210は、定期的あるいは断続的に、データ記憶204にアクセスして、それが情報抽出コンポーネント210によって最後にアクセスされてから新たなボイスメッセージがデータ記憶204に格納されたか否かを決定する。これは図3のブロック216および218によって示される。データ記憶204が情報抽出コンポーネント210によって最後にアクセスされてから、新たなボイスメッセージがデータ記憶204に格納されなかった場合、処理は単にブロック216に戻るだけである。
【0025】
しかし、情報抽出コンポーネント210は、ブロック218において処理されなかった新しいボイスメッセージに遭遇した場合、それらの新しいメッセージをボイスデータ処理に委ね、新しいメッセージから所定の情報を抽出する。これはブロック220によって示される。所定の情報の例は、より詳細に以下で議論するが、例示するようにデータ記憶204にあるボイスメッセージの処理と整理を改善するように、およびこれらのメッセージへの規則の適用を改善するように所定の情報を適合させることができる。
【0026】
いかなる場合においても、所定の情報が新しいメッセージから抽出されると、ボイスデータ記憶204に格納されている(新しいメッセージに対応する)情報は、情報抽出コンポーネント210によってちょうど抽出された追加情報を付加される。これは図3のブロック222によって示される。
【0027】
ボイスメールメッセージから抽出される情報の種類は、上述のように広範囲にわたり変化に富む可能性があるが、ユーザに効果的にボイスメッセージを処理させることができるように、抽出される多くの種類の情報には、話者の識別、話者の発話速度、話者の心理状態、メッセージの内容などが含まれる。図4は、これらの種類の情報を抽出するための情報抽出コンポーネント210の一実施形態を示すブロック図である。当然、その他の異なる情報も同様に抽出することができる。
【0028】
図4で例示されるように、情報抽出コンポーネント210は、モデルトレーニングコンポーネント300、話者識別コンポーネント302、話者識別モデル304、音響特徴抽出コンポーネント306、感情識別器(emotion identifier)308、速度標準化コンポーネント310、音声−テキストコンポーネント312および自然言語プロセッサ314を含む。一実施形態においては、新たなメッセージボイスデータ316は、ボイスデータ記憶204から得られる。データ316は、例示されるように、情報抽出コンポーネント210によってまだ処理されたことがなかった新しいボイスメッセージを表現するWAVファイル、その他のファイルであり、データ記憶204に格納されている。
【0029】
一実施形態においては、データ316を話者識別コンポーネント302に提供する。コンポーネント302は、話者識別モデル304にアクセスして、話者の識別(情報)を示す話者認識出力(話者ID)320を生成する。話者識別コンポーネント302および話者識別モデル304は、例示するように特定の話者に関しトレーニングされたいずれかの既知の話者識別コンポーネントおよび話者識別モデルとすることができる。話者認識出力320は話者のテキストにおける名前、符号化された識別情報(identifier)またはユーザによって割り当てられたいずれかの識別情報とすることができる。
【0030】
コンポーネント302が話者を識別できない場合(例えば、モデル304が、新しいメッセージの話者に関連するモデルを含んでいない場合)、コンポーネント302は、例示されるように話者の個人情報が不明であることを示して話者認識出力320を提供する。この場合、ユーザは新しいメッセージを再検討し、話者ID320が不知と表示されると、例示する(図5に関連して以下でより詳細に議論する)ようにユーザインタフェース上でユーザ入力を起動する。これによって、モデルトレーニングコンポーネント300は、その新しいメッセージに関連するWAVファイル(あるいは、他のボイスデータ)を取得する。次に、モデルトレーニングコンポーネント300は、この話者に対応する話者識別モデルをトレーニングして、それとユーザによる話者識別の入力またはデフォルトの話者識別とを関連付ける。したがって、次にこの話者からのボイスメッセージを処理する際は、話者識別コンポーネント302は、その話者に関連する話者識別モデル304を有するので、正確な話者ID320を生成する。
【0031】
モデルトレーニングコンポーネント300は、話者識別コンポーネント302が誤りを起こしていた場合、モデルを改善させることもできる。システムが誤りを犯す場合、ユーザは例示するように、ユーザインタフェースのウィンドウ内に正確な名前を打ち込みユーザ入力コマンドを入力して、モデルトレーニングコンポーネント300がその特定の話者に対する新たな話者モデル304を自動的にトレーニングするよう命令する。また、ユーザは、将来、システムがより多く使用されればされるほど話者識別が正確になるように、使用中にモデルを更新するよう選択することもできる。反対に、トレーニングコンポーネント300は、指図されることなく話者モデル304を徐々に更新することができる。例えば、ユーザが新しいボイスメッセージにアクセスし、それが話者の個人情報を表示していて、ユーザがそれを変更しない場合、モデルトレーニングコンポーネント300は、そのメッセージに関連するボイスデータにアクセスして、その話者に対応するモデルを改善させることができる。
【0032】
また、話者識別コンポーネント302は話者ID320に加えて、認識された個人情報がどの程度機密であるかを示す機密度を提供することもできる。ユーザによって確認されたシステムの判断に基づいて、話者識別コンポーネント302は、自動的にそのパラメータを更新して、時間に関する性能を改善することができる。
【0033】
本発明の他の形態によると、情報抽出コンポーネント310は、所定の音響情報をボイスデータ316から抽出して、ボイスメッセージを処理する際にユーザに有用な別のデータを生成するための音響特徴抽出コンポーネント306を含む。例えば、所定の音響の特徴を抽出することによって、感情識別器308は、予め定められた話者の感情を識別して、その感情を表す話者感情ID322を出力する。
【0034】
感情識別器308は、いかなる既知の感情識別器とすることもでき、2001年の論文「EMOTION DETECTION FROM SPEECH TO ENRICH MULTIMEDIA CONTENT」(F.Yu等執筆)に記載された感情識別器とすることもできる。このシステムは、感情を一般的なカテゴリ、例えば怒り、恐れおよび緊張に分類する。このような情報を用いることによって、このシステムは送信者とその心理状態に基づき緊急度に合わせて容易にメッセージを分類することができる。
【0035】
例示の一実施形態においては、音響特徴抽出コンポーネント306は、入ってくる音声のピッチを抽出し、ピッチ信号から引き出される複数の特徴を基本的なものとして使用する。これらの特徴は、感情識別器308にあるサポートベクトルマシンに入力され、各々の文章は嬉しい、悲しいまたは怒っているに分類される。サポートベクトルマシンは例示されるように、それぞれ二値のクラシファイヤである。このため、感情識別器308は、各文章に複数の感情が種々の重みをもって存在することを決定することができる。これは、単一の文章中に複数の感情が存在する可能性のあることに対応するものである。したがって、話者感情識別出力322は、これらの感情の全てを対応する重みをもって表示するか、または単に最も強い感情、またはその他の感情の任意の組み合わせを表示することができる。
【0036】
また、一実施形態においては、音響特徴抽出コンポーネント306は、例示するようにメッセージの発話速度も抽出する。これは、多くの異なる手法を用いて行うことができる。例えば、音響特徴抽出コンポーネント306は、ケプストラム測定を用いて、新たなボイスメッセージに関連するケプストラムパターンの変化する速度を決定することができる。これによって新たなボイスメッセージについての発話速度についての目安(例えば、1分間の単語数)が示される。
【0037】
一実施形態においては、速度標準化コンポーネント310が用いられる。この形態のとおりに、ユーザは所定の発話速度を入力することができる(あるいは、予め設定されたリストから1つを選択することができる)。次に、速度標準化コンポーネント310は、新しいボイスメッセージに関連する発話速度を音響特徴抽出コンポーネント306から受信して、そのメッセージに対する発話速度をユーザによって選択された速度に標準化する。速度標準化コンポーネント310は、ブロック324によって示すように、所定の速度に標準化された速度標準化音声データファイル(例えば、WAVファイル)を出力する。このファイル324は、例示するようにユーザインタフェースにおいて用いられ、ユーザが新しいメッセージにアクセスすると、ボイスメッセージが標準化された速度で発生される。当然、システムは元のメッセージも同様に保持することもできる。
【0038】
例示の一実施形態においては、発話速度を標準化するために、速度標準化コンポーネント310は、新しいボイスメッセージの発話速度を見積もって、既知のタイムスケール変更(modification)アルゴリズムによって各文章の発話速度を調整する。本システムはまた、より効果的に聴取するため、無音およびポーズ間隔の長さを減らすこともできる。
【0039】
本発明の他の実施形態にしたがい、情報抽出コンポーネント210はまた、音声−テキストコンポーネント312をも含む。コンポーネント312は、例示するように、新しいメッセージに対応するボイスデータをテキストに転写する音声認識器を含み、それは随意に自然言語処理プロセッサ314に提供される。当然、音声−テキストコンポーネント312は、単にメッセージ転写330を出力することもでき、それはデータ316によって示された新しいボイスメッセージの転写全体に相当する。しかし、自然言語処理プロセッサ314が提供される場合は、その転写にも自然言語処理を同様に適用することができる。
【0040】
一実施形態において、自然言語処理プロセッサ314は要約コンポーネント332および意味解析器(semantic parser)334を含む。要約コンポーネント332は、例示するようにテキストの入力を要約するための既知の処理サブシステムである。したがって、要約コンポーネント332は、ボイスメッセージの要旨に対応するメッセージ要約336を出力する。
【0041】
意味解析器334が提供される一実施形態において、音声−テキストコンポーネント312によって生成されるテキスト転写は、例示されるように意味解析器334に入力される。意味解析器334はテキストの入力の意味解析を生成して、意味ラベルをテキスト入力の所定の部分に割り当て、および意味解析ツリー338をその出力において提供する。意味解析ツリーの一例では、ボイスメッセージが格納されている計算機システムによって実行される種々のアプリケーションスキーマに対応するボイスメッセージの部分に意味ラベルを割り当てて出力され、ボイスメッセージをそのスキーマにより容易に適合させることができる。
【0042】
情報抽出コンポーネント210がこれらの出力全てを生成すると、(図2に示す)規則適用コンポーネント212は、ボイスメッセージの構成を強化するためにユーザ指定の規則をボイスデータ316および抽出された情報(320、322、324、330、336および338)に基づいて実行することができる。例えば、ユーザは規則を選択して、規則適用コンポーネント212に、ボイスメッセージを話者でソートし、それらをフィルタにかけて異なるディレクトリに入れ、(メッセージ要約336のような)件名に基づいてメッセージをソートしあるいはフィルタにかけ、または日付でソートさせることができる。規則適用コンポーネント212は、その他の規則、例えば話者の感情322、話者の個人情報320または(メッセージ転写330、メッセージ要約336あるいは意味解析338からの)メッセージ内容のようなメッセージの所定の属性に基づいてユーザに警告するなどのためにも用いることができる。規則適用コンポーネント212は、所定の人たちからのメッセージまたは受信してから所定の時間が経過したメッセージを削除するように構成することもできる。規則適用コンポーネント212は、予め定められた基準、例えば格納されたメッセージの数、話者の個人情報320、話者の感情322などに基づいて警告を生成することもできる。当然、規則適用コンポーネント212も同様に、他の広範な種々の規則を適用することができる。
【0043】
図5は、本発明の一例によるユーザインタフェースの一実施形態を示す。他の広範な種々のユーザインタフェースが用いられるか、またはユーザインタフェースは図5に示されるのと同じ情報を含むが、異なる構成とすることができることは当然理解されるであろう。図5はユーザインタフェース400を示しており、これは表示部402およびツールバー部404を含む。表示部402は、WAVファイル403を一般的に表す表示が生成して示されるか、あるいは現時点で選択されたボイスメッセージの音響的表現である。表示部402は、テキストの転写405も表示して示し、テキストの要約またはそれらもしくは他の情報アイテムとのいずれかの組み合わせを示すことができる。表示部402は、例示するように発信者の電話番号とともに発信者の個人情報と発信日時を表示する表示部分406を含む。
【0044】
ツールバー部404は、例示するように種々のユーザ起動入力を含み、ユーザはこれを起動してボイスメッセージを処理し、または構成することができる。図5に示される入力は、例えばメッセージを削除するための削除入力408、またはボイスメッセージの再生の開始および停止を行うための開始ボタン410および停止ボタン412を含む。図5はスロー/早送り再生ワイパー416を示しており、これによってユーザはボイスメッセージの再生速度を遅くしたり早くしたりすることが可能となる。図5のインタフェース400は、他のユーザ起動入力、例えばメッセージを格納および印刷するために用いられる「ファイル」並びに「印刷」もまた含むことができ、および古いメッセージまたは新しいメッセージを検索するために用いられる「メッセージ取り込み」並びに「新しいメッセージ」を含むこともできる。インタフェース400はまた、例示されるように、メッセージを所定の速度に自動的に標準化させる起動セレクタ418をも含むことができる。さらに、インタフェース400は、例示するように、読み取った感情を表示する感情表示420を含む。当然、ユーザインタフェースは広範な種々の起動入力を含み、ユーザはテキスト、音響情報または付加情報を表示し、および異なる規則を適用する等ができるようにユーザインタフェースを構成することができる。
【0045】
以上により、本発明が所定の情報を抽出し、所定の情報でボイスメッセージデータ記憶を付加するための分散型プロセッサを提供することが理解される。所定の情報は、例示されるように本来的に、ユーザがボイスメッセージを整理し、ソートしおよび見直しあるいは処理するのを支援する。
【0046】
本発明は所定の実施形態を参照して記述してきたが、本発明の精神と範囲から離れない限り形態や細部について変更することができることを当業者は理解するであろう。
【図面の簡単な説明】
【図1】本発明を使用することができる環境を例示するブロック図である。
【図2】本発明によるシステムを示す詳細なブロック図である。
【図3】図2に示すシステムの動作を一般的に示すフロー図である。
【図4】本発明の一実施形態によるボイスデータ処理システムのより詳細なブロック図である。
【図5】本発明によるユーザインタフェースの一実施形態を例示する図である。
【符号の説明】
110 コンピュータ
120 プロセッシングユニット
121 システムバス
130 システムメモリ
131 読取専用メモリ
132 ランダムアクセスメモリ
133 基本入出力システム
134 オペレーティングシステム
135 アプリケーションプログラム
136 プログラムモジュール
137 プログラムデータ
140 固定メモリインタフェース
141 磁気ハードディスクドライブ装置
144 オペレーティングシステム
145 アプリケーションプログラム
146 プログラムモジュール
147 プログラムデータ
150 取外し可能メモリインタフェース
151 磁気ディスクドライブ装置
152 取外し可能な磁気ディスク
155 光ディスクドライブ装置
156 取外し可能な光ディスク
160 ユーザ入力インタフェース
161 ポインティング装置
162 キーボード
163 マイクロホン
170 ネットワークインタフェースアダプタ
171 ローカルネットワーク
172 モデム
173 広域ネットワーク
180 リモートコンピュータ
185 リモートアプリケーション
190 ビデオアダプタ
191 モニタ
195 出力周辺インタフェース
196 プリンタ
197 スピーカ
200 ボイスメッセージ処理システム
202 ボイスデータ入力コンポーネント
204 ボイスデータ記憶
206 ユーザインタフェースコンポーネント
208 ボイスデータプロセッサ
210 情報抽出コンポーネント
212 規則適用コンポーネント
300 モデルトレーニングコンポーネント
302 話者識別コンポーネント
304 話者識別モデル
306 音響特徴抽出コンポーネント
308 感情識別器
310 速度標準化コンポーネント
312 音声−テキストコンポーネント
314 自然言語処理プロセッサ
316 データ記憶からの新しいメッセージボイスデータ
320 音声ID
322 話者感情
324 速度標準化音声データファイル
330 メッセージ転写
332 要約コンポーネント
334 意味解析器
336 メッセージ要約
338 意味解析
400 ユーザインタフェース
402 表示部
403 WAVファイルを一般的に示す表示
404 ツールバー
405 テキストの転写
406 発信者の電話番号とともに発信者の個人情報と発信日時を表示する表示部分
408 削除入力
410 開始ボタン
412 停止ボタン
416 スロー/早送り再生ワイパー
418 起動セレクタ
420 感情表示
Claims (18)
- 複数のボイスメッセージを示すボイスメッセージデータを格納するボイスメッセージ(VM)データ記憶と、
前記VMデータ記憶に結合され、および前記ボイスメッセージにアクセスし、有用な情報を前記ボイスメッセージから抽出して、抽出した情報から特定される所定の情報を前記VMデータ記憶に格納されたVMデータに付加するように構成されたボイスデータプロセッサと、
前記VMデータ記憶に結合され、および前記付加されたVMデータへのユーザアクセスを提供するように構成されたユーザインタフェースコンポーネントと
少なくとも1つの話者識別モデルを格納する話者識別モデルデータ記憶と、
該話者識別モデルデータ記憶にアクセスして、前記VMデータに対応するボイスメッセージに関連する話者の識別の指示を前記所定の情報として提供するように構成された話者識別コンポーネントと
話者の感情を表す音響特徴または発話速度を示す音響特徴を前記VMデータから抽出する音響特徴抽出器と、
前記抽出した話者の感情を表す音響特徴に基づいて該話者の感情を示す感情出力を前記所定の情報として提供する感情識別器と、
前記抽出した発話速度を示す音響特徴に基づいて該発話速度を示す速度出力を前記所定の情報として提供する速度識別器と、
ボイスメッセージの内容を表すテキストの出力を生成して前記所定の情報として提供するように構成された音声テキストコンポーネントと、
を備え、
前記ボイスデータプロセッサは、前記ボイスメッセージに付加された話者の識別、話者の感情、発話速度およびボイスメッセージの内容の少なくとも1つに基づいて前記ボイスメッセージをソートする規則適用コンポーネントをさらに備えたことを特徴とするボイスメッセージ処理システム。 - 前記ボイスデータプロセッサは、
VMデータを受信して、前記VMデータに基づく話者識別モデルを更新して前記VMデータに対応するボイスメッセージの話者を表すユーザ入力に関連付けるように構成された話者モデルトレーニングコンポーネントを備えたことを特徴とする請求項1に記載のシステム。 - 前記ボイスデータプロセッサは、
前記速度出力を受信して、関連するボイスメッセージを予め定められた発話速度に標準化するように構成された速度標準化コンポーネントを備えたことを特徴とする請求項1または2に記載のシステム。 - 前記音声テキストコンポーネントは、前記ボイスメッセージの転写を前記テキストの出力として生成するように構成されたことを特徴とする請求項1または2に記載のシステム。
- 前記ボイスデータプロセッサは、
前記ボイスメッセージの要約を生成するように構成された要約コンポーネントを備えたことを特徴とする請求項1または2に記載のシステム。 - 前記ボイスデータプロセッサは、
前記ボイスメッセージの少なくとも一部の意味解析を生成するように構成された意味解析器を備えたことを特徴とする請求項1または2に記載のシステム。 - 前記規則適用コンポーネントは、前記所定の情報に基づいて警告を生成することを特徴とする請求項1または2に記載のシステム。
- 前記ユーザインタフェースコンポーネントは、前記ボイスメッセージのユーザによる処理のためにユーザ選択可能な入力を可視出力(exposing)するユーザインタフェースを生成することを特徴とする請求項1または2に記載のシステム。
- 前記ユーザ選択可能な入力は、
ユーザによって起動されると、ボイスメッセージに関連する発話速度が変更される速度変更入力を備えたことを特徴とする請求項8に記載のシステム。 - 前記ユーザインタフェースは、ボイスメッセージの内容を示すテキストを表示することを特徴とする請求項8に記載のシステム。
- 前記ユーザインタフェースは、ボイスメッセージの話者の個人を示す個人情報を表示することを特徴とする請求項8に記載のシステム。
- 前記ユーザインタフェースは、ボイスメッセージの話者の感情を表す感情情報(emotion indicator)を表示することを特徴とする請求項8に記載のシステム。
- 前記ユーザインタフェースは、適用される規則を表す規則情報(a rule indicator)を表示することを特徴とする請求項8に記載のシステム。
- ボイスメッセージを処理する方法であって、
前記ボイスメッセージデータをボイスメッセージ(VM)データ記憶に格納するステップと、
前記VMデータ記憶を断続的にアクセスして、新しいボイスメッセージが格納されたか否かを決定するステップと、
新しいボイスメッセージの各々について、プロセッサにおいて前記新しいボイスメッセージを処理して、所定の情報を提供するステップであって、前記提供するステップは、さらに、少なくとも1つの話者識別モデルを格納する話者識別モデルデータ記憶にアクセスして、前記VMデータに対応するボイスメッセージに関連する話者の識別の指示を前記所定の情報として提供するステップと、話者の感情を表す音響特徴を前記VMデータから抽出して該話者の感情を示す感情出力を前記所定の情報として提供し、かつ発話速度を示す音響特徴を前記VMデータから抽出して該発話速度を示す速度出力を前記所定の情報として提供するステップと、ボイスメッセージの内容を表すテキストの出力を生成して前記所定の情報として提供するステップとを含む、提供する
ステップと、
前記提供された前記ボイスメッセージに付加された話者の識別、話者の感情、発話速度およびボイスメッセージの内容をVMデータ記憶中のデータに付加するステップと
前記ボイスメッセージに付加された話者の識別、話者の感情、発話速度およびボイスメッセージの内容の少なくとも1つに基づいて前記ボイスメッセージをソートするステップと
を備えたことを特徴とする方法。 - 前記音響特徴は、前記新しいボイスメッセージの話者の発話速度を表す発話速度情報(speaking rate indicator)を含み、
前記発話速度をユーザ選択の速度に標準化するステップをさらに備えたことを特徴とする請求項14に記載の方法。 - 前記話者の個人情報を取得するステップは、予め格納された話者を識別するためのモデルに基づいて話者の個人情報が不明であると決定されるとき不明出力を提供するステップを含み、
前記新しいボイスメッセージについての話者の個人情報を表すユーザ入力を受信するステップと、
話者を識別するためのモデルを更新して前記ユーザ入力に関連付けるステップと
をさらに備えたことを特徴とする請求項14に記載の方法。 - 前記新しいボイスメッセージのためのテキスト表現を意味的に構文解析するステップ
をさらに備えたことを特徴とする請求項14に記載の方法。 - 前記VMデータ記憶へのユーザインタフェースを生成するステップであって、該ユーザインタフェースは前記VMデータ記憶にあるボイスメッセージを処理するためのユーザ起動入力を含むステップ
をさらに備えたことを特徴とする請求項14に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/099,606 | 2002-03-15 | ||
US10/099,606 US7440900B2 (en) | 2002-03-15 | 2002-03-15 | Voice message processing system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003289387A JP2003289387A (ja) | 2003-10-10 |
JP4619623B2 true JP4619623B2 (ja) | 2011-01-26 |
Family
ID=27765452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003068978A Expired - Fee Related JP4619623B2 (ja) | 2002-03-15 | 2003-03-13 | ボイスメッセージ処理システムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US7440900B2 (ja) |
EP (1) | EP1345394B1 (ja) |
JP (1) | JP4619623B2 (ja) |
DK (1) | DK1345394T3 (ja) |
HK (1) | HK1059013A1 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7665024B1 (en) | 2002-07-22 | 2010-02-16 | Verizon Services Corp. | Methods and apparatus for controlling a user interface based on the emotional state of a user |
US7231019B2 (en) * | 2004-02-12 | 2007-06-12 | Microsoft Corporation | Automatic identification of telephone callers based on voice characteristics |
JP2005346252A (ja) * | 2004-06-01 | 2005-12-15 | Nec Corp | 情報伝達システムおよび情報伝達方法 |
US7680254B2 (en) * | 2004-06-30 | 2010-03-16 | Glenayre Electronics, Inc. | Health monitor for a geographically distributed voice messaging system |
US7551727B2 (en) * | 2004-10-20 | 2009-06-23 | Microsoft Corporation | Unified messaging architecture |
US20060229882A1 (en) * | 2005-03-29 | 2006-10-12 | Pitney Bowes Incorporated | Method and system for modifying printed text to indicate the author's state of mind |
US8094803B2 (en) | 2005-05-18 | 2012-01-10 | Mattersight Corporation | Method and system for analyzing separated voice data of a telephonic communication between a customer and a contact center by applying a psychological behavioral model thereto |
US8542803B2 (en) * | 2005-08-19 | 2013-09-24 | At&T Intellectual Property Ii, L.P. | System and method for integrating and managing E-mail, voicemail, and telephone conversations using speech processing techniques |
US8553854B1 (en) | 2006-06-27 | 2013-10-08 | Sprint Spectrum L.P. | Using voiceprint technology in CALEA surveillance |
US8059790B1 (en) * | 2006-06-27 | 2011-11-15 | Sprint Spectrum L.P. | Natural-language surveillance of packet-based communications |
US7617042B2 (en) * | 2006-06-30 | 2009-11-10 | Microsoft Corporation | Computing and harnessing inferences about the timing, duration, and nature of motion and cessation of motion with applications to mobile computing and communications |
JP2008113331A (ja) * | 2006-10-31 | 2008-05-15 | Aplix Corp | 電話システム、電話機、サーバ装置およびプログラム |
US8238528B2 (en) * | 2007-06-29 | 2012-08-07 | Verizon Patent And Licensing Inc. | Automatic analysis of voice mail content |
US7728636B2 (en) * | 2007-08-14 | 2010-06-01 | Qimonda Ag | Clock signal synchronizing device with inherent duty-cycle correction capability |
JP4968147B2 (ja) * | 2008-03-31 | 2012-07-04 | 富士通株式会社 | 通信端末、通信端末の音声出力調整方法 |
DE602009000214D1 (de) * | 2008-04-07 | 2010-11-04 | Ntt Docomo Inc | Gefühlerkennungsmitteilungssystem und Mitteilungsspeicherserver dafür |
US8311188B2 (en) * | 2008-04-08 | 2012-11-13 | Cisco Technology, Inc. | User interface with voice message summary |
US8489992B2 (en) | 2008-04-08 | 2013-07-16 | Cisco Technology, Inc. | User interface with visual progression |
DE102008046431A1 (de) * | 2008-09-09 | 2010-03-11 | Deutsche Telekom Ag | Sprachdialogsystem mit Reject-Vermeidungsverfahren |
US8467402B2 (en) * | 2008-09-10 | 2013-06-18 | Miselu, Inc. | Digital audio communication system |
US8284909B2 (en) | 2008-09-29 | 2012-10-09 | Microsoft Corporation | Offline voicemail |
US20100135472A1 (en) * | 2008-11-18 | 2010-06-03 | Timothy Watanabe | Automated voice mail communication system |
US8185132B1 (en) | 2009-07-21 | 2012-05-22 | Modena Enterprises, Llc | Systems and methods for associating communication information with a geographic location-aware contact entry |
US8358752B2 (en) | 2009-11-19 | 2013-01-22 | At&T Mobility Ii Llc | User profile based speech to text conversion for visual voice mail |
US9222798B2 (en) | 2009-12-22 | 2015-12-29 | Modena Enterprises, Llc | Systems and methods for identifying an activity of a user based on a chronological order of detected movements of a computing device |
US9215735B2 (en) | 2010-03-03 | 2015-12-15 | Modena Enterprises, Llc | Systems and methods for initiating communications with contacts based on a communication specification |
US9009041B2 (en) * | 2011-07-26 | 2015-04-14 | Nuance Communications, Inc. | Systems and methods for improving the accuracy of a transcription using auxiliary data such as personal data |
US9569424B2 (en) * | 2013-02-21 | 2017-02-14 | Nuance Communications, Inc. | Emotion detection in voicemail |
US9628414B1 (en) * | 2013-03-15 | 2017-04-18 | Google Inc. | User state based engagement |
US9710219B2 (en) * | 2013-06-10 | 2017-07-18 | Panasonic Intellectual Property Corporation Of America | Speaker identification method, speaker identification device, and speaker identification system |
KR102146261B1 (ko) * | 2014-02-14 | 2020-08-20 | 삼성전자 주식회사 | 전자 장치 및 전자 장치의 대화 메시지에서 의미개체 추출 및 이용방법 |
US10164921B2 (en) * | 2014-03-12 | 2018-12-25 | Stephen Davies | System and method for voice networking |
US10540979B2 (en) * | 2014-04-17 | 2020-01-21 | Qualcomm Incorporated | User interface for secure access to a device using speaker verification |
US9288327B2 (en) * | 2014-05-14 | 2016-03-15 | Mitel Networks Corporation | Apparatus and method for routing an incoming call |
JP6485856B2 (ja) * | 2014-10-21 | 2019-03-20 | Necソリューションイノベータ株式会社 | 情報伝達装置、制御方法、及びプログラム |
US10339933B2 (en) | 2016-05-11 | 2019-07-02 | International Business Machines Corporation | Visualization of audio announcements using augmented reality |
CN109417504A (zh) | 2017-04-07 | 2019-03-01 | 微软技术许可有限责任公司 | 自动聊天中的语音转发 |
WO2019160556A1 (en) * | 2018-02-16 | 2019-08-22 | Hewlett-Packard Development Company, L.P. | Encoded features and rate-based augmentation based speech authentication |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5713493A (en) * | 1980-06-27 | 1982-01-23 | Hitachi Ltd | Speaker recognizing device |
JPH07250166A (ja) * | 1994-03-08 | 1995-09-26 | Matsushita Electric Ind Co Ltd | ボイスメールシステム |
JPH09284399A (ja) * | 1996-04-18 | 1997-10-31 | Toshiba Corp | 音声サービス装置 |
JPH10285286A (ja) * | 1997-04-07 | 1998-10-23 | Casio Comput Co Ltd | 情報処理装置及び記憶媒体 |
JP2000010578A (ja) * | 1998-06-19 | 2000-01-14 | Ntt Data Corp | 音声メッセージ送受信システム、及び音声メッセージ処理方法 |
JP2000209364A (ja) * | 1998-10-19 | 2000-07-28 | Lucent Technol Inc | 能動性応答マシン |
JP2000242300A (ja) * | 1999-02-22 | 2000-09-08 | Nippon Telegr & Teleph Corp <Ntt> | 音声速度変換装置、音声速度変換方法および音声速度変換方法を実行するプログラムを記録した記録媒体 |
JP2001024781A (ja) * | 1999-06-03 | 2001-01-26 | Lucent Technol Inc | 発呼者により生成された音声メッセージを分類する方法 |
WO2001016938A1 (en) * | 1999-08-31 | 2001-03-08 | Accenture Llp | A system, method, and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters |
JP2001101099A (ja) * | 1999-09-30 | 2001-04-13 | Oki Electric Ind Co Ltd | 電子メール管理装置 |
JP2001237948A (ja) * | 2000-02-22 | 2001-08-31 | Nippon Telegraph & Telephone West Corp | 音声メール装置及びプログラムを記憶した記憶媒体 |
JP2001292240A (ja) * | 2000-04-06 | 2001-10-19 | Mitsubishi Electric Corp | ボイスメールシステム、ボイスメール装置およびボイスメール転送方法 |
JP2002032213A (ja) * | 2000-05-26 | 2002-01-31 | Internatl Business Mach Corp <Ibm> | ボイス・メール・メッセージを転記する方法およびシステム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5568540A (en) | 1993-09-13 | 1996-10-22 | Active Voice Corporation | Method and apparatus for selecting and playing a voice mail message |
US5751793A (en) * | 1995-03-14 | 1998-05-12 | U S West Technologies, Inc. | Method and instructions for visual voice messaging user interface |
US5848130A (en) * | 1996-12-31 | 1998-12-08 | At&T Corp | System and method for enhanced intelligibility of voice messages |
US7590538B2 (en) | 1999-08-31 | 2009-09-15 | Accenture Llp | Voice recognition system for navigating on the internet |
GB2364850B (en) * | 2000-06-02 | 2004-12-29 | Ibm | System and method for automatic voice message processing |
US6778644B1 (en) * | 2001-12-28 | 2004-08-17 | Vocada, Inc. | Integration of voice messaging and data systems |
-
2002
- 2002-03-15 US US10/099,606 patent/US7440900B2/en not_active Expired - Fee Related
-
2003
- 2003-03-13 JP JP2003068978A patent/JP4619623B2/ja not_active Expired - Fee Related
- 2003-03-14 EP EP03005822A patent/EP1345394B1/en not_active Expired - Lifetime
- 2003-03-14 DK DK03005822.6T patent/DK1345394T3/da active
-
2004
- 2004-03-08 HK HK04101702.3A patent/HK1059013A1/xx not_active IP Right Cessation
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5713493A (en) * | 1980-06-27 | 1982-01-23 | Hitachi Ltd | Speaker recognizing device |
JPH07250166A (ja) * | 1994-03-08 | 1995-09-26 | Matsushita Electric Ind Co Ltd | ボイスメールシステム |
JPH09284399A (ja) * | 1996-04-18 | 1997-10-31 | Toshiba Corp | 音声サービス装置 |
JPH10285286A (ja) * | 1997-04-07 | 1998-10-23 | Casio Comput Co Ltd | 情報処理装置及び記憶媒体 |
JP2000010578A (ja) * | 1998-06-19 | 2000-01-14 | Ntt Data Corp | 音声メッセージ送受信システム、及び音声メッセージ処理方法 |
JP2000209364A (ja) * | 1998-10-19 | 2000-07-28 | Lucent Technol Inc | 能動性応答マシン |
JP2000242300A (ja) * | 1999-02-22 | 2000-09-08 | Nippon Telegr & Teleph Corp <Ntt> | 音声速度変換装置、音声速度変換方法および音声速度変換方法を実行するプログラムを記録した記録媒体 |
JP2001024781A (ja) * | 1999-06-03 | 2001-01-26 | Lucent Technol Inc | 発呼者により生成された音声メッセージを分類する方法 |
WO2001016938A1 (en) * | 1999-08-31 | 2001-03-08 | Accenture Llp | A system, method, and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters |
JP2001101099A (ja) * | 1999-09-30 | 2001-04-13 | Oki Electric Ind Co Ltd | 電子メール管理装置 |
JP2001237948A (ja) * | 2000-02-22 | 2001-08-31 | Nippon Telegraph & Telephone West Corp | 音声メール装置及びプログラムを記憶した記憶媒体 |
JP2001292240A (ja) * | 2000-04-06 | 2001-10-19 | Mitsubishi Electric Corp | ボイスメールシステム、ボイスメール装置およびボイスメール転送方法 |
JP2002032213A (ja) * | 2000-05-26 | 2002-01-31 | Internatl Business Mach Corp <Ibm> | ボイス・メール・メッセージを転記する方法およびシステム |
Also Published As
Publication number | Publication date |
---|---|
EP1345394A1 (en) | 2003-09-17 |
DK1345394T3 (da) | 2013-04-08 |
HK1059013A1 (en) | 2004-06-11 |
US7440900B2 (en) | 2008-10-21 |
JP2003289387A (ja) | 2003-10-10 |
EP1345394B1 (en) | 2013-03-13 |
US20030177008A1 (en) | 2003-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4619623B2 (ja) | ボイスメッセージ処理システムおよび方法 | |
US8526580B2 (en) | System and method for voicemail organization | |
US7236932B1 (en) | Method of and apparatus for improving productivity of human reviewers of automatically transcribed documents generated by media conversion systems | |
US8447015B2 (en) | Method and system for processing messages within the framework of an integrated message system | |
US6308151B1 (en) | Method and system using a speech recognition system to dictate a body of text in response to an available body of text | |
CN102782751B (zh) | 社会网络中的数字媒体语音标签 | |
US10629189B2 (en) | Automatic note taking within a virtual meeting | |
US8238528B2 (en) | Automatic analysis of voice mail content | |
US6366882B1 (en) | Apparatus for converting speech to text | |
EP1261179B1 (en) | Method and apparatus for multimedia messaging | |
US5526407A (en) | Method and apparatus for managing information | |
JP3725566B2 (ja) | 音声認識インターフェース | |
WO2007079251A1 (en) | Personalized user specific grammars | |
US20080281927A1 (en) | Summarization tool and method for a dialogue sequence | |
US7260607B2 (en) | Methods and apparatus for performing media/device sensitive processing of messages stored in unified multimedia and plain text mailboxes | |
KR102208954B1 (ko) | 대화록 서비스를 제공하는 컴퓨팅 장치 | |
US20030046071A1 (en) | Voice recognition apparatus and method | |
JPH1074138A (ja) | 音声をセグメント化するための方法と装置 | |
JP2007102787A (ja) | インスタント・メッセージを可聴音信号によって注釈付けする方法、システム及びプログラム | |
GB2323694A (en) | Adaptation in speech to text conversion | |
CN103916513A (zh) | 在通信终端记录通话信息的方法和设备 | |
CN1934848A (zh) | 用于语音交互式消息传送的方法和设备 | |
US20040098266A1 (en) | Personal speech font | |
US9077813B2 (en) | Masking mobile message content | |
CN110740212B (zh) | 基于智能语音技术的通话接听方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101022 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101027 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131105 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4619623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |