JP2003216181A - 制約に基づく音声認識システム及び方法 - Google Patents
制約に基づく音声認識システム及び方法Info
- Publication number
- JP2003216181A JP2003216181A JP2002359296A JP2002359296A JP2003216181A JP 2003216181 A JP2003216181 A JP 2003216181A JP 2002359296 A JP2002359296 A JP 2002359296A JP 2002359296 A JP2002359296 A JP 2002359296A JP 2003216181 A JP2003216181 A JP 2003216181A
- Authority
- JP
- Japan
- Prior art keywords
- information
- input
- keypad
- voice
- voice recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
Abstract
(57)【要約】
【課題】 電話回線システムで使用される書式記入アプ
リケーションにおいて、音声認識を容易にする、制約に
基づく高信頼性の音声認識システムと方法を提供する。 【解決手段】 制約に基づく音声認識システムは、音声
入力と、利用者が手動装置を使って作成する非音声入力
の両方を含む入力信号36を備えている。また、音声認
識システムは、音声認識に適した情報を含む情報データ
ベース44にアクセスするとともに、上記非音声入力と
上記情報データベース44とに基づいて上記情報の一部
である候補情報を作成するよう動作可能な制約モジュー
ル40を備えている。さらに、音声認識システムは、上
記音声入力と上記候補情報とに基づいて音声を認識する
よう動作可能な音声認識モジュール48を備えている。
典型的な実施形態では、上記手動装置はタッチトーン電
話14のキーパッド26であり、上記情報データベース
44は、キーパッド26のキーがそれぞれ規定するクラ
スに従って符号化される辞書である。
リケーションにおいて、音声認識を容易にする、制約に
基づく高信頼性の音声認識システムと方法を提供する。 【解決手段】 制約に基づく音声認識システムは、音声
入力と、利用者が手動装置を使って作成する非音声入力
の両方を含む入力信号36を備えている。また、音声認
識システムは、音声認識に適した情報を含む情報データ
ベース44にアクセスするとともに、上記非音声入力と
上記情報データベース44とに基づいて上記情報の一部
である候補情報を作成するよう動作可能な制約モジュー
ル40を備えている。さらに、音声認識システムは、上
記音声入力と上記候補情報とに基づいて音声を認識する
よう動作可能な音声認識モジュール48を備えている。
典型的な実施形態では、上記手動装置はタッチトーン電
話14のキーパッド26であり、上記情報データベース
44は、キーパッド26のキーがそれぞれ規定するクラ
スに従って符号化される辞書である。
Description
【0001】
【発明の属する技術分野】本発明は音声認識に関し、特
に、電話回線システムで使用される書式記入アプリケー
ション用の制約に基づく音声認識システム及び方法に関
する。
に、電話回線システムで使用される書式記入アプリケー
ション用の制約に基づく音声認識システム及び方法に関
する。
【0002】
【従来の技術】現在、電話回線システムで使用される書
式記入アプリケーションにおいて音声認識を容易にする
ことに大きな関心がもたれており、電話回線を通じて音
声認識を実現する作業を容易にする様々なシステムや方
法が開発されている。例えば、名前を入力する問題を解
決するため、システムが利用者に対して名前とその綴り
を言うように要求する方法が開発されている。さらに、
このような方法では、2つの認識実験が行われ、最も整
合性のある結果が出力される。同様に、制約に基づくシ
ステムでは、名前の発話入力を、そのイニシャル、利用
者ID、利用者の所在地等、最初の発話入力と結びつけ
て利用している。その最初の認識結果は、利用者による
確認の後に、次の認識処理を制約するために使用され
る。
式記入アプリケーションにおいて音声認識を容易にする
ことに大きな関心がもたれており、電話回線を通じて音
声認識を実現する作業を容易にする様々なシステムや方
法が開発されている。例えば、名前を入力する問題を解
決するため、システムが利用者に対して名前とその綴り
を言うように要求する方法が開発されている。さらに、
このような方法では、2つの認識実験が行われ、最も整
合性のある結果が出力される。同様に、制約に基づくシ
ステムでは、名前の発話入力を、そのイニシャル、利用
者ID、利用者の所在地等、最初の発話入力と結びつけ
て利用している。その最初の認識結果は、利用者による
確認の後に、次の認識処理を制約するために使用され
る。
【0003】
【発明が解決しようとする課題】残念ながら、電話回線
による音声認識に関連する問題は、電話を利用した全て
の発話入力に影響を及ぼしており、それにより、制約に
基づく音声認識システムが認識された発話入力を利用し
て次の認識処理を制約する場合には、問題がさらに悪化
している。したがって、電話回線による音声認識システ
ムで使用される、より信頼性の高い制約システムと方法
に対する要望を満たすことが、依然として本発明の課題
として残されている。
による音声認識に関連する問題は、電話を利用した全て
の発話入力に影響を及ぼしており、それにより、制約に
基づく音声認識システムが認識された発話入力を利用し
て次の認識処理を制約する場合には、問題がさらに悪化
している。したがって、電話回線による音声認識システ
ムで使用される、より信頼性の高い制約システムと方法
に対する要望を満たすことが、依然として本発明の課題
として残されている。
【0004】
【課題を解決するための手段】本発明の第1の態様は、
電話回線システムで使用される書式記入アプリケーショ
ン用の制約に基づく音声認識システムである。この音声
認識システムは、音声入力と、利用者が手動装置を使っ
て作成する非音声入力の両方を含む入力信号を備えてい
る。また、音声認識システムは、音声認識に適した情報
を含む情報データベースにアクセスするよう動作可能な
制約モジュールを備えている。制約モジュールは、さら
に、上記非音声入力と上記情報データベースとに基づい
て上記情報の一部である候補情報を作成するよう動作可
能である。さらに、音声認識システムは、上記音声入力
と上記候補情報とに基づいて音声を認識するよう動作可
能な音声認識モジュールを備えている。
電話回線システムで使用される書式記入アプリケーショ
ン用の制約に基づく音声認識システムである。この音声
認識システムは、音声入力と、利用者が手動装置を使っ
て作成する非音声入力の両方を含む入力信号を備えてい
る。また、音声認識システムは、音声認識に適した情報
を含む情報データベースにアクセスするよう動作可能な
制約モジュールを備えている。制約モジュールは、さら
に、上記非音声入力と上記情報データベースとに基づい
て上記情報の一部である候補情報を作成するよう動作可
能である。さらに、音声認識システムは、上記音声入力
と上記候補情報とに基づいて音声を認識するよう動作可
能な音声認識モジュールを備えている。
【0005】本発明の第2の態様は、電話回線で使用さ
れる書式記入アプリケーション用の制約に基づく音声認
識方法である。この音声認識方法は、音声入力と、利用
者が手動装置を使って作成する非音声入力の両方を含む
入力信号を受け取る工程を備えている。また、音声認識
方法は、音声認識に適した情報を含む情報データベース
にアクセスする工程を備えている。さらに、音声認識方
法は、上記非音声入力に基づいて上記情報の一部である
候補情報を作成する工程を備えている。さらに、音声認
識方法は、上記音声入力と上記候補情報とに基づいて音
声を認識する工程を備えている。
れる書式記入アプリケーション用の制約に基づく音声認
識方法である。この音声認識方法は、音声入力と、利用
者が手動装置を使って作成する非音声入力の両方を含む
入力信号を受け取る工程を備えている。また、音声認識
方法は、音声認識に適した情報を含む情報データベース
にアクセスする工程を備えている。さらに、音声認識方
法は、上記非音声入力に基づいて上記情報の一部である
候補情報を作成する工程を備えている。さらに、音声認
識方法は、上記音声入力と上記候補情報とに基づいて音
声を認識する工程を備えている。
【0006】本発明の第3の態様は、データ処理システ
ムを使って操作可能なメモリ内の情報データベースであ
る。この情報データベースは、上記データ処理システム
上で動作する音声認識システムでの利用に適した情報を
含んでおり、手動装置が構成するクラスに従って符号化
されるよう構成されている。
ムを使って操作可能なメモリ内の情報データベースであ
る。この情報データベースは、上記データ処理システム
上で動作する音声認識システムでの利用に適した情報を
含んでおり、手動装置が構成するクラスに従って符号化
されるよう構成されている。
【0007】本発明の第4の態様は、音声認識システム
で使用される制約方法である。この制約方法は、利用者
がタッチトーン電話のキーパッドを使って作成する非音
声入力を含む入力信号を受け取る工程を備えている。ま
た、制約方法は、探索可能な情報を含む情報データベー
スにアクセスする工程を備えている。さらに、制約方法
は、上記非音声入力に基づいて上記探索可能な情報の一
部である候補情報を作成する工程を備えている。
で使用される制約方法である。この制約方法は、利用者
がタッチトーン電話のキーパッドを使って作成する非音
声入力を含む入力信号を受け取る工程を備えている。ま
た、制約方法は、探索可能な情報を含む情報データベー
スにアクセスする工程を備えている。さらに、制約方法
は、上記非音声入力に基づいて上記探索可能な情報の一
部である候補情報を作成する工程を備えている。
【0008】本発明を適用可能な他の分野は、以下に記
載する詳細な説明から明らかになるであろう。なお、以
下の詳細な説明とその具体例は、本発明の好ましい実施
形態を示しているが、例示のみを目的とするものであっ
て、本発明の範囲を限定することを意図したものではな
いことを理解されるべきである。
載する詳細な説明から明らかになるであろう。なお、以
下の詳細な説明とその具体例は、本発明の好ましい実施
形態を示しているが、例示のみを目的とするものであっ
て、本発明の範囲を限定することを意図したものではな
いことを理解されるべきである。
【0009】
【発明の実施の形態】以下、本発明の好ましい実施の形
態を図面に基づいて詳細に説明する。なお、以下の好ま
しい実施の形態の説明は、本質的に例示に過ぎず、本発
明、その適用物または用途を限定することは全く意図し
ていない。
態を図面に基づいて詳細に説明する。なお、以下の好ま
しい実施の形態の説明は、本質的に例示に過ぎず、本発
明、その適用物または用途を限定することは全く意図し
ていない。
【0010】図1に、本発明を使用した自動書式記入シ
ステム10を示す。本発明のシステム及び方法によれ
ば、利用者12は、電話14で顧客電話窓口16と通信
する。書式データ構造18の名前欄に記入しようとする
場合、書式記入アプリケーション20が、図1に符号2
4で示すように、受話器22から利用者12に対して名
前の最初の2文字を入力し、続いて名前を発声するよう
に促す。そこで、利用者12は、キーパッド26から名
前の最初の2文字を入力することによって書式記入アプ
リケーション20の要求に従う。図1の符号28に示す
ような“Knight”に相当する名前の場合、利用者
12は、第1のキー30と第2のキー32を選択すると
ともに、受話器22から符号34に示すような話声を伝
達する。
ステム10を示す。本発明のシステム及び方法によれ
ば、利用者12は、電話14で顧客電話窓口16と通信
する。書式データ構造18の名前欄に記入しようとする
場合、書式記入アプリケーション20が、図1に符号2
4で示すように、受話器22から利用者12に対して名
前の最初の2文字を入力し、続いて名前を発声するよう
に促す。そこで、利用者12は、キーパッド26から名
前の最初の2文字を入力することによって書式記入アプ
リケーション20の要求に従う。図1の符号28に示す
ような“Knight”に相当する名前の場合、利用者
12は、第1のキー30と第2のキー32を選択すると
ともに、受話器22から符号34に示すような話声を伝
達する。
【0011】発生した入力信号36は、符号38で示す
ように、第1のキー30及び第2のキー32がそれぞれ
規定するクラスを示す発信音(例えば、デュアルトーン
多周波数(DTMF))と、利用者の話声を含んでい
る。本発明のシステムと方法によれば、入力信号36が
顧客電話窓口16で受け取られ、複数のモジュール42
のうちの制約モジュール40が、複数のデータベース4
6のうちの名前データベース44にアクセスし、入力信
号36の非音声部分と名前データベース44に基づいて
候補の情報(候補情報)を作成する。複数のデータベー
ス46は、本実施形態の場合、適合する音素データと結
合した名前や住所など、音声認識に適した情報を含むデ
ータベースであるが、別の例では、適合する音素データ
が欠けた名前のみから構成されてもよい。それでもな
お、情報が音声認識に適しているとは、その情報が音声
認識処理のどの時点であっても入力となるのに適してい
る場合に該当する。したがって、適合する音素データを
欠いた名前の集合は、適合する音素データを欠いた入力
として名前を採用することが可能な音声認識処理の場合
に有用であることが分かる。さらに、データベースに格
納されている情報は、音声認識に直接的に適している必
要はなく、間接的に適していてもよい。したがって、音
声認識に直接的に適した情報を、情報データベース内で
発見された何らかの入力に基づいて実行中に作成しても
よい。
ように、第1のキー30及び第2のキー32がそれぞれ
規定するクラスを示す発信音(例えば、デュアルトーン
多周波数(DTMF))と、利用者の話声を含んでい
る。本発明のシステムと方法によれば、入力信号36が
顧客電話窓口16で受け取られ、複数のモジュール42
のうちの制約モジュール40が、複数のデータベース4
6のうちの名前データベース44にアクセスし、入力信
号36の非音声部分と名前データベース44に基づいて
候補の情報(候補情報)を作成する。複数のデータベー
ス46は、本実施形態の場合、適合する音素データと結
合した名前や住所など、音声認識に適した情報を含むデ
ータベースであるが、別の例では、適合する音素データ
が欠けた名前のみから構成されてもよい。それでもな
お、情報が音声認識に適しているとは、その情報が音声
認識処理のどの時点であっても入力となるのに適してい
る場合に該当する。したがって、適合する音素データを
欠いた名前の集合は、適合する音素データを欠いた入力
として名前を採用することが可能な音声認識処理の場合
に有用であることが分かる。さらに、データベースに格
納されている情報は、音声認識に直接的に適している必
要はなく、間接的に適していてもよい。したがって、音
声認識に直接的に適した情報を、情報データベース内で
発見された何らかの入力に基づいて実行中に作成しても
よい。
【0012】以上のことから、音声認識モジュール48
が、入力信号36の音声部分と候補情報に基づいて音声
を認識する。音声認識処理は、信頼性のある方法で作成
された候補情報に音声認識が制約を受ける場合に非常に
容易になる。当業者であればすぐに理解できるように、
本発明のシステムと方法は、書式データ構造18の住所
欄やその他の欄に記入する場合にも容易に適用すること
ができる。例えば、利用者12は、郵便番号を入力する
こととその後に住所を発話することを促される場合もあ
る。郵便番号は、制約モジュール40を住所データベー
ス50にアクセスさせて入力信号36の非音声部分に基
づいて候補情報を作成させることができる受話器26で
あれば、わけなく入力することが可能であり、それによ
り、発話された住所に対する音声認識を大幅に容易にす
ることができる。
が、入力信号36の音声部分と候補情報に基づいて音声
を認識する。音声認識処理は、信頼性のある方法で作成
された候補情報に音声認識が制約を受ける場合に非常に
容易になる。当業者であればすぐに理解できるように、
本発明のシステムと方法は、書式データ構造18の住所
欄やその他の欄に記入する場合にも容易に適用すること
ができる。例えば、利用者12は、郵便番号を入力する
こととその後に住所を発話することを促される場合もあ
る。郵便番号は、制約モジュール40を住所データベー
ス50にアクセスさせて入力信号36の非音声部分に基
づいて候補情報を作成させることができる受話器26で
あれば、わけなく入力することが可能であり、それによ
り、発話された住所に対する音声認識を大幅に容易にす
ることができる。
【0013】図2に、本発明のシステムと方法に従って
符号化された符号化データベース60を示す。名前デー
タベース62の内容64は、タッチトーン電話のキーパ
ッドが規定するクラスに従って符号化される。符号化処
理66は、木68の形で示される。根節点70からぶら
下がるように、第1のクラス72a、第2のクラス74
a、及び第3のクラス76aが、利用者が最初に入力し
たクラスに応じてデータベース62の内容64を制約す
る働きをする。その結果、第1のクラス72aが入力さ
れると、第1の短いリスト78が直ちに決定して作成さ
れ、探索が実行される。第1の短いリスト78は、第1
のクラス72aに存在する文字から始まる名前を含んで
いる。同様に、第3のクラス76aが入力されると、第
2の短いリスト80が直ちに作成され、探索が実行され
る。したがって、第2の短いリスト80は、第3のクラ
ス76aに存在する文字から始まる名前を含んでいる。
しかしながら、第2のクラス74aが入力された場合
は、さらに制約が必要になる。
符号化された符号化データベース60を示す。名前デー
タベース62の内容64は、タッチトーン電話のキーパ
ッドが規定するクラスに従って符号化される。符号化処
理66は、木68の形で示される。根節点70からぶら
下がるように、第1のクラス72a、第2のクラス74
a、及び第3のクラス76aが、利用者が最初に入力し
たクラスに応じてデータベース62の内容64を制約す
る働きをする。その結果、第1のクラス72aが入力さ
れると、第1の短いリスト78が直ちに決定して作成さ
れ、探索が実行される。第1の短いリスト78は、第1
のクラス72aに存在する文字から始まる名前を含んで
いる。同様に、第3のクラス76aが入力されると、第
2の短いリスト80が直ちに作成され、探索が実行され
る。したがって、第2の短いリスト80は、第3のクラ
ス76aに存在する文字から始まる名前を含んでいる。
しかしながら、第2のクラス74aが入力された場合
は、さらに制約が必要になる。
【0014】第2のクラス74aからは、さらに、第1
のクラス72b、第2のクラス74b、及び第3のクラ
ス76bがぶら下っている。したがって、最初の入力後
のクラス入力は、追加の制約となる。例えば、次に第1
のクラス72bを入力することにより、探索範囲を第3
の短いリスト82に制約することができる。同様に、次
に第2のクラス74bを入力すると、探索範囲を第4の
短いリスト84にさらに制約することができ、次に第3
のクラス76bを入力した場合は、探索範囲を第5の短
いリスト86にさらに制約することになる。第3の短い
リスト82には、第2のクラス74aに属する最初の文
字と第1のクラス72bに属する2番目の文字とを有す
る名前が含まれている。同様に、第4の短いリスト84
には、第2のクラス74aに属する最初の文字と第2の
クラス74bに属する2番目の文字とを有する名前が含
まれている。同様に、第5の短いリスト86には、第2
のクラス74aに属する最初の文字と第3のクラス76
bに属する2番目の文字とを有する名前が含まれてい
る。
のクラス72b、第2のクラス74b、及び第3のクラ
ス76bがぶら下っている。したがって、最初の入力後
のクラス入力は、追加の制約となる。例えば、次に第1
のクラス72bを入力することにより、探索範囲を第3
の短いリスト82に制約することができる。同様に、次
に第2のクラス74bを入力すると、探索範囲を第4の
短いリスト84にさらに制約することができ、次に第3
のクラス76bを入力した場合は、探索範囲を第5の短
いリスト86にさらに制約することになる。第3の短い
リスト82には、第2のクラス74aに属する最初の文
字と第1のクラス72bに属する2番目の文字とを有す
る名前が含まれている。同様に、第4の短いリスト84
には、第2のクラス74aに属する最初の文字と第2の
クラス74bに属する2番目の文字とを有する名前が含
まれている。同様に、第5の短いリスト86には、第2
のクラス74aに属する最初の文字と第3のクラス76
bに属する2番目の文字とを有する名前が含まれてい
る。
【0015】第2のクラス74aを入力した後に第3の
クラス76bを入力することにより、データベース62
の内容64を第5の短いリスト86に制約することがで
きる。その制約の結果、名前“Knight”に対する
音声認識が、名前データベース62の内容64全体に対
して行われる音声認識よりも大幅に向上する。すなわ
ち、音素の組合せ“n−ay−t”を、例えば、“Ni
ght”ではなく、“Knight”としてすぐに認識
することができる。本発明は、この場合、Knight
の“K”はキーパッドの5のキーに対応するクラスに属
し、Knightの“N”はそうではないということを
利用して混同を避けるようにしている。
クラス76bを入力することにより、データベース62
の内容64を第5の短いリスト86に制約することがで
きる。その制約の結果、名前“Knight”に対する
音声認識が、名前データベース62の内容64全体に対
して行われる音声認識よりも大幅に向上する。すなわ
ち、音素の組合せ“n−ay−t”を、例えば、“Ni
ght”ではなく、“Knight”としてすぐに認識
することができる。本発明は、この場合、Knight
の“K”はキーパッドの5のキーに対応するクラスに属
し、Knightの“N”はそうではないということを
利用して混同を避けるようにしている。
【0016】当業者であればすぐに分かるように、音声
認識に有用な様々なデータベース符号化手段が存在す
る。これらの手段には、ハフマン符号化、桁探索木、2
−3木、(a,b)木、B木、AVL木などがある。例
えば、図3に、ハフマン符号化による実現例90を示
す。名前は添字なし配列92内に存在し、バイナリコー
ド入力94が入力クラスごとに定義されている。したが
って、ハフマン符号化木96は、バイナリ入力に従って
2分枝が親から子へとぶら下る通常の方法で実現され
る。具体的には、根節点70は、バイナリコード入力9
4であるバイナリ入力に応じた経路によって到達可能な
8個の子節点98を特徴としている。例えば、“4,
g,h,i”からなる第1のクラスを入力すること
は、"[0,1]"の配列添字に達する経路“00”に相当す
る。したがって、制約モジュール40は、これらの添字
を使用して添字なし配列92から第1の短いリストの内
容を取り出す。同様に、“5,j,k,l”からなる第
2のクラスの入力の後に“6,m,n,o”からなる第
3のクラスを入力することは、経路“0110”に相当
し、この経路を辿ると、配列添字"[7,9]"に達する。し
たがって、制約モジュール40は、これらの添字を使用
して、これら2つの添字とこれら2つの添字間の値に対
応する添字なし配列92の全内容を取り出すことによっ
て、該配列から第5の短いリストの内容を取り出すこと
ができる。
認識に有用な様々なデータベース符号化手段が存在す
る。これらの手段には、ハフマン符号化、桁探索木、2
−3木、(a,b)木、B木、AVL木などがある。例
えば、図3に、ハフマン符号化による実現例90を示
す。名前は添字なし配列92内に存在し、バイナリコー
ド入力94が入力クラスごとに定義されている。したが
って、ハフマン符号化木96は、バイナリ入力に従って
2分枝が親から子へとぶら下る通常の方法で実現され
る。具体的には、根節点70は、バイナリコード入力9
4であるバイナリ入力に応じた経路によって到達可能な
8個の子節点98を特徴としている。例えば、“4,
g,h,i”からなる第1のクラスを入力すること
は、"[0,1]"の配列添字に達する経路“00”に相当す
る。したがって、制約モジュール40は、これらの添字
を使用して添字なし配列92から第1の短いリストの内
容を取り出す。同様に、“5,j,k,l”からなる第
2のクラスの入力の後に“6,m,n,o”からなる第
3のクラスを入力することは、経路“0110”に相当
し、この経路を辿ると、配列添字"[7,9]"に達する。し
たがって、制約モジュール40は、これらの添字を使用
して、これら2つの添字とこれら2つの添字間の値に対
応する添字なし配列92の全内容を取り出すことによっ
て、該配列から第5の短いリストの内容を取り出すこと
ができる。
【0017】配列添字の各集合は、容易に理解できるよ
うに、短いリストから構成されており、その一部は、さ
らなる制約によって決まる短いリストからさらに構成さ
れている。例えば、“5,j,k,l”からなる第2の
クラスのみを入力することにより、対応する経路“0
1”によって配列添字"[2,9]"が規定する短いリストに
制約することができる。続いて第2のクラスを入力する
ことによってさらに制約が発生し、このようなやり方に
沿ってさらに制約することにより、たった1語からなる
短いリストにたどり着くことさえ可能である。後者の場
合、音声認識が名前の一致不一致を判定する必要はな
く、当業者であれば、データベースの内容の量が充分に
大きい場合には、本発明のシステムと方法によって常に
唯一の候補まで制約される訳ではないことを容易に理解
できるであろう。したがって、実用的な実施形態では、
名前データベースが大きい場合に、文字列全体を入力し
てでき得る限り最短のリストまで認識を制約する必要が
生じることがある。
うに、短いリストから構成されており、その一部は、さ
らなる制約によって決まる短いリストからさらに構成さ
れている。例えば、“5,j,k,l”からなる第2の
クラスのみを入力することにより、対応する経路“0
1”によって配列添字"[2,9]"が規定する短いリストに
制約することができる。続いて第2のクラスを入力する
ことによってさらに制約が発生し、このようなやり方に
沿ってさらに制約することにより、たった1語からなる
短いリストにたどり着くことさえ可能である。後者の場
合、音声認識が名前の一致不一致を判定する必要はな
く、当業者であれば、データベースの内容の量が充分に
大きい場合には、本発明のシステムと方法によって常に
唯一の候補まで制約される訳ではないことを容易に理解
できるであろう。したがって、実用的な実施形態では、
名前データベースが大きい場合に、文字列全体を入力し
てでき得る限り最短のリストまで認識を制約する必要が
生じることがある。
【0018】しかしながら、名前全体を入力すること
は、面倒であったり、時間のかかる作業である。したが
って、音声認識に充分な制約を与えるのに必要なクラス
の数がわずかな利用者であれば、名前全体の入力を要求
するほうが好ましい場合がある。「充分な制約」の定義
は、システム、アプリケーション及び状況に応じて異な
る。しかしながら、「充分な制約」の定義として、少な
くとも2つの定義を使用することができる。例えば、短
いリストの最大長、例えば名前100個分を充分な制約
の定義とすることができる。逆に、リスト上の言葉同士
の混同の可能性をある程度まで解消することを充分な制
約と定義することができる。
は、面倒であったり、時間のかかる作業である。したが
って、音声認識に充分な制約を与えるのに必要なクラス
の数がわずかな利用者であれば、名前全体の入力を要求
するほうが好ましい場合がある。「充分な制約」の定義
は、システム、アプリケーション及び状況に応じて異な
る。しかしながら、「充分な制約」の定義として、少な
くとも2つの定義を使用することができる。例えば、短
いリストの最大長、例えば名前100個分を充分な制約
の定義とすることができる。逆に、リスト上の言葉同士
の混同の可能性をある程度まで解消することを充分な制
約と定義することができる。
【0019】後者の場合、候補の数は、辞書上での混同
可能性の尺度によって決定することができる。この種の
制約を実現するため、辞書は、名前ごとにその発音を綴
りと関連させて記憶している。例えば、たった1つの音
素で発音が異なる名前同士は、多数の音素が異なる名前
同士よりも互いに混同する可能性の指数が高くなる。あ
るいは、音素間の混同表に基づく2つの言葉間の距離尺
度を使用して混同可能性の尺度を求めることができる。
あるいは、混同可能性指数を求める方法は、他にも多数
存在する。そのような混同可能性指数を使用することに
より、探索空間をどの程度制約する必要があるかを決定
することができる。所与の探索空間内の要素間において
(その相互間の混同可能性指数を評価することによって
求められた)混同可能性が低い場合、より大きく、より
制約の少ない探索空間が使用される。逆に、要素間の混
同可能性が相対的に高い場合、より制約の多い探索空間
が使用される。後者の場合、利用者は、タッチトーン文
字をより多く入力することにより、探索空間の大きさを
減少させるように要求される。
可能性の尺度によって決定することができる。この種の
制約を実現するため、辞書は、名前ごとにその発音を綴
りと関連させて記憶している。例えば、たった1つの音
素で発音が異なる名前同士は、多数の音素が異なる名前
同士よりも互いに混同する可能性の指数が高くなる。あ
るいは、音素間の混同表に基づく2つの言葉間の距離尺
度を使用して混同可能性の尺度を求めることができる。
あるいは、混同可能性指数を求める方法は、他にも多数
存在する。そのような混同可能性指数を使用することに
より、探索空間をどの程度制約する必要があるかを決定
することができる。所与の探索空間内の要素間において
(その相互間の混同可能性指数を評価することによって
求められた)混同可能性が低い場合、より大きく、より
制約の少ない探索空間が使用される。逆に、要素間の混
同可能性が相対的に高い場合、より制約の多い探索空間
が使用される。後者の場合、利用者は、タッチトーン文
字をより多く入力することにより、探索空間の大きさを
減少させるように要求される。
【0020】上記の観点から、「充分な制約」の方針
は、短いリスト上の言葉同士が少なくとも1音素異なる
場合に存在し、異音同名性を解消することである。ま
た、上記2つの定義を組み合わせることも予想される。
すなわち、例えば、異音同名が存在しない限り、100
語以下のリスト長で十分であり、異音同名性が存在すれ
ば、異音同名をさらに短いリストに分割する制約がさら
に必要になる。そのような解決策によれば、探索空間内
の最大候補数を限定することによって探索時間を充分に
短縮できるとともに、混同可能性を解消することによっ
て音声認識結果を向上させることができる。充分な制約
の他の定義は、当業者であれば、上記の開示、特に様々
な書式記入アプリケーションに関する開示から、容易に
理解できるであろう。
は、短いリスト上の言葉同士が少なくとも1音素異なる
場合に存在し、異音同名性を解消することである。ま
た、上記2つの定義を組み合わせることも予想される。
すなわち、例えば、異音同名が存在しない限り、100
語以下のリスト長で十分であり、異音同名性が存在すれ
ば、異音同名をさらに短いリストに分割する制約がさら
に必要になる。そのような解決策によれば、探索空間内
の最大候補数を限定することによって探索時間を充分に
短縮できるとともに、混同可能性を解消することによっ
て音声認識結果を向上させることができる。充分な制約
の他の定義は、当業者であれば、上記の開示、特に様々
な書式記入アプリケーションに関する開示から、容易に
理解できるであろう。
【0021】上記の典型的な実施形態の場合、添字なし
配列92の内容は、上下限及び上下限間の配列要素を順
次抽出することによって短いリストを抽出できるように
構成されているが、補完的な抽出方法を用いる他の構成
も使用可能である。また、本発明のシステム及び方法に
従って様々な符号化方法を使用できることは、当業者で
あれば容易に理解できる。勿論、本発明のシステム及び
方法により、郵便番号に応じて住所データベースを符号
化することも可能である。
配列92の内容は、上下限及び上下限間の配列要素を順
次抽出することによって短いリストを抽出できるように
構成されているが、補完的な抽出方法を用いる他の構成
も使用可能である。また、本発明のシステム及び方法に
従って様々な符号化方法を使用できることは、当業者で
あれば容易に理解できる。勿論、本発明のシステム及び
方法により、郵便番号に応じて住所データベースを符号
化することも可能である。
【0022】図4に、本発明のシステムと方法にかかる
書式記入操作方法のフロー図を示す。この方法は、まず
ステップ100において、利用者に問い合わせ、タッチ
トーン電話のキーパッドから利用者の発信音を入力させ
る。ステップ102でその結果生じた入力信号を受け取
ると、ステップ104でその入力信号が利用者発信音を
含んでいるか否かを判定し、判定結果がYESの場合
は、ステップ106に進んで利用者に音声を問い合わせ
る。ステップ108でその結果生じた入力信号を受け取
ると、ステップ110でその入力信号が音声を含むか否
かを判定し、判定結果がYESの場合は、ステップ11
2で利用者発信音と音声を含む入力信号を受け取る。利
用者発信音と音声を受け取った後、ステップ114で利
用者発信音に基づいて言葉のリストを取り出す。利用者
発信音が言葉のリストを取り出せない程度まで該当デー
タベースの内容を制約していると、初めからやり直すこ
とが望ましい。しかしながら、そのような事態は、通
常、入力信号に関して利用者に確認の問合せをして間違
いをなくすようにすることで解消できる。また、そのよ
うな問合せは、利用者が主データベース内に存在しない
名前を入力した結果として空リストが生じた場合に有効
であることも分かる。例えば、外国人名を入力しようと
すると、そのような事態が発生することがある。その場
合、既に詳細に説明したように、利用者に対して名前の
発声とその綴りの入力を要求し、例えば、テキスト音声
変換を利用して、認識した名前の綴りを送り返すことに
よってその認識結果を最終的に確認させることができ
る。したがって、利用者は、認識した名前の綴りを確認
するよう要求される場合がある。
書式記入操作方法のフロー図を示す。この方法は、まず
ステップ100において、利用者に問い合わせ、タッチ
トーン電話のキーパッドから利用者の発信音を入力させ
る。ステップ102でその結果生じた入力信号を受け取
ると、ステップ104でその入力信号が利用者発信音を
含んでいるか否かを判定し、判定結果がYESの場合
は、ステップ106に進んで利用者に音声を問い合わせ
る。ステップ108でその結果生じた入力信号を受け取
ると、ステップ110でその入力信号が音声を含むか否
かを判定し、判定結果がYESの場合は、ステップ11
2で利用者発信音と音声を含む入力信号を受け取る。利
用者発信音と音声を受け取った後、ステップ114で利
用者発信音に基づいて言葉のリストを取り出す。利用者
発信音が言葉のリストを取り出せない程度まで該当デー
タベースの内容を制約していると、初めからやり直すこ
とが望ましい。しかしながら、そのような事態は、通
常、入力信号に関して利用者に確認の問合せをして間違
いをなくすようにすることで解消できる。また、そのよ
うな問合せは、利用者が主データベース内に存在しない
名前を入力した結果として空リストが生じた場合に有効
であることも分かる。例えば、外国人名を入力しようと
すると、そのような事態が発生することがある。その場
合、既に詳細に説明したように、利用者に対して名前の
発声とその綴りの入力を要求し、例えば、テキスト音声
変換を利用して、認識した名前の綴りを送り返すことに
よってその認識結果を最終的に確認させることができ
る。したがって、利用者は、認識した名前の綴りを確認
するよう要求される場合がある。
【0023】利用者発信音に基づいて言葉のリストを取
り出すと、ステップ116でその言葉のリストに基づい
て音声認識が実行される。その結果認識された音声11
8は、利用者に対して発音されるか、綴りを1字ずつ発
せられるか、あるいはその両方であり、ステップ120
で確認の問合せが発せられる。ステップ122で音声が
確認されると、ステップ124で書式の欄に認識した音
声に基づく入力を埋め込む。ステップ126で全ての欄
が入力されたか否かが判定され、判定結果がNOであれ
ば、ステップ128で欄の領域がインクリメントされ、
ステップ100に戻って処理を継続する。しかしなが
ら、ステップ126の判定結果がYESであれば、記入
済みの書式130が完成する。
り出すと、ステップ116でその言葉のリストに基づい
て音声認識が実行される。その結果認識された音声11
8は、利用者に対して発音されるか、綴りを1字ずつ発
せられるか、あるいはその両方であり、ステップ120
で確認の問合せが発せられる。ステップ122で音声が
確認されると、ステップ124で書式の欄に認識した音
声に基づく入力を埋め込む。ステップ126で全ての欄
が入力されたか否かが判定され、判定結果がNOであれ
ば、ステップ128で欄の領域がインクリメントされ、
ステップ100に戻って処理を継続する。しかしなが
ら、ステップ126の判定結果がYESであれば、記入
済みの書式130が完成する。
【0024】本発明のシステム及び方法と整合する形で
利用者が手動の入力装置を操作することによって制約条
件を様々に追加的に利用することができる。例えば、利
用者は、名前の一部あるいは全部の綴りを伝えるのでは
なく、名前の頭文字を入力するよう要求されることもあ
る。また、言葉が7文字を含むことを知らせるため、利
用者が1つのボタンを7回押すこともできる。これによ
り、7文字言葉のデータのみを格納するデータベースの
候補領域を音声認識に利用することができる。あるい
は、ボタンを2回押すことで、言葉が少なくとも2文字
からなることを知らせることができる。さらに、あるボ
タンを押すことで、言葉の最初の文字がアルファベット
順で「N」より前の文字であることを知らせることがで
きる。したがって、選択された制約方法を利用する命令
を利用者に対して伝達するだけでよい。当業者であれ
ば、手動入力装置を使った様々な追加の制約手段を容易
に理解できるであろう。
利用者が手動の入力装置を操作することによって制約条
件を様々に追加的に利用することができる。例えば、利
用者は、名前の一部あるいは全部の綴りを伝えるのでは
なく、名前の頭文字を入力するよう要求されることもあ
る。また、言葉が7文字を含むことを知らせるため、利
用者が1つのボタンを7回押すこともできる。これによ
り、7文字言葉のデータのみを格納するデータベースの
候補領域を音声認識に利用することができる。あるい
は、ボタンを2回押すことで、言葉が少なくとも2文字
からなることを知らせることができる。さらに、あるボ
タンを押すことで、言葉の最初の文字がアルファベット
順で「N」より前の文字であることを知らせることがで
きる。したがって、選択された制約方法を利用する命令
を利用者に対して伝達するだけでよい。当業者であれ
ば、手動入力装置を使った様々な追加の制約手段を容易
に理解できるであろう。
【0025】同様に、利用者は、利用者発信音の問合せ
の前に音声入力の問合せを受けることもできる。したが
って、その場合、利用者は、既に詳細に説明したよう
に、入力音声を認識するのに足りる充分な制約が発生す
るまで利用者発信音を入力することがある。また、入力
の綴りの誤り等、利用者が誤りを起こす確率に基づいて
制約後の候補領域を拡張しなおすことが望ましい場合も
ある。
の前に音声入力の問合せを受けることもできる。したが
って、その場合、利用者は、既に詳細に説明したよう
に、入力音声を認識するのに足りる充分な制約が発生す
るまで利用者発信音を入力することがある。また、入力
の綴りの誤り等、利用者が誤りを起こす確率に基づいて
制約後の候補領域を拡張しなおすことが望ましい場合も
ある。
【0026】本発明の説明は本質的に例示に過ぎず、し
たがって、本発明の主旨から逸脱しない変形は本発明の
範囲に包含されるものと意図されている。そのような変
形は、本発明の精神と範囲から逸脱するものと見なすべ
きではない。
たがって、本発明の主旨から逸脱しない変形は本発明の
範囲に包含されるものと意図されている。そのような変
形は、本発明の精神と範囲から逸脱するものと見なすべ
きではない。
【図1】 顧客電話窓口の自動書式記入アプリケーショ
ンと動作可能に統合された本発明の音声認識システムを
示す図。
ンと動作可能に統合された本発明の音声認識システムを
示す図。
【図2】 本発明のシステムと方法に従って符号化され
た名前データベースを示す図。
た名前データベースを示す図。
【図3】 本発明のシステムと方法に従って符号化され
た名前データベースのハフマン符号化処理を示す図。
た名前データベースのハフマン符号化処理を示す図。
【図4】 本発明のシステムと方法にかかる書式記入操
作方法を示すフロー図。
作方法を示すフロー図。
10 自動書式記入システム、12 利用者、14 電
話、18 書式データ構造、22 受話器、26 キー
パッド、30 第1のキー、32 第2のキー、36
入力信号、60 符号化データベース、64 データベ
ースの内容、68木、70 根節点、72a,72b
第1のクラス、74a,74b 第2のクラス、76
a,76b 第3のクラス、78 第1の短いリスト、
80 第2の短いリスト、82 第3の短いリスト、8
4 第4の短いリスト、86 第5の短いリスト、90
ハフマン符号化による実現例、92 添字なし配列、
94バイナリコード入力、96 ハフマン符号化木、9
8 子節点。
話、18 書式データ構造、22 受話器、26 キー
パッド、30 第1のキー、32 第2のキー、36
入力信号、60 符号化データベース、64 データベ
ースの内容、68木、70 根節点、72a,72b
第1のクラス、74a,74b 第2のクラス、76
a,76b 第3のクラス、78 第1の短いリスト、
80 第2の短いリスト、82 第3の短いリスト、8
4 第4の短いリスト、86 第5の短いリスト、90
ハフマン符号化による実現例、92 添字なし配列、
94バイナリコード入力、96 ハフマン符号化木、9
8 子節点。
─────────────────────────────────────────────────────
フロントページの続き
(51)Int.Cl.7 識別記号 FI テーマコート゛(参考)
H04M 3/42 G10L 3/00 R
(72)発明者 マッテオ コントリーニ
アメリカ合衆国 カリフォルニア州
93109,サンタバーバラ クリフドライブ
821 ビー−1
Fターム(参考) 5D015 KK02 LL08
5D045 AB26
5K024 AA61 EE01 EE06 EE09 GG01
GG05 GG08 GG10
Claims (17)
- 【請求項1】 電話回線システムで使用される書式記入
アプリケーション用の制約に基づく音声認識システムで
あって、 音声入力と、利用者が手動装置を使って作成する非音声
入力とを含む入力信号と、 音声認識に適した情報を含む情報データベースにアクセ
スするとともに、上記非音声入力と上記情報データベー
スとに基づいて上記情報の一部である候補情報を作成す
るよう動作可能な制約モジュールと、 上記音声入力と上記候補情報とに基づいて音声を認識す
るよう動作可能な音声認識モジュールを備えた音声認識
システム。 - 【請求項2】 上記手動装置は複数のクラスを規定して
おり、上記情報データベースは上記複数のクラスに従っ
て符号化される請求項1記載の音声認識システム。 - 【請求項3】 上記情報は、上記書式記入アプリケーシ
ョンにアクセス可能な書式データ構造を実装するのに適
するよう構成されている請求項1記載の音声認識システ
ム。 - 【請求項4】 上記手動装置はタッチトーン電話のキー
パッドであり、上記非音声入力は、利用者が上記キーパ
ッドを使って作成する発信音である請求項1記載の音声
認識システム。 - 【請求項5】 上記キーパッドは複数のクラスを規定し
ており、上記情報データベースは上記複数のクラスに従
って符号化される請求項4記載の音声認識システム。 - 【請求項6】 上記複数のクラスのうちの少なくとも1
つのクラスは、上記キーパッド上に該キーパッドのキー
に対応して可視的に表された文字と数字の組合せになる
よう構成されている請求項5記載の音声認識システム。 - 【請求項7】 上記情報は名前と住所のうちの少なくと
も一方であり、 上記情報データベースは、名前を表すことが可能な、上
記キーのクラスに基づく文字の組合せによる符号化と住
所に関連する郵便番号による符号化の少なくとも一方が
行われるよう構成されている請求項6記載の音声認識シ
ステム。 - 【請求項8】 電話回線で使用される書式記入アプリケ
ーション用の制約に基づく音声認識方法であって、 音声入力と、利用者が手動装置を使って作成する非音声
入力とを含む入力信号を受け取る工程と、 音声認識に適した情報を含む情報データベースにアクセ
スする工程と、 上記非音声入力に基づいて上記情報の一部である候補情
報を作成する工程と、 上記音声入力と上記候補情報とに基づいて音声を認識す
る工程を備えた音声認識方法。 - 【請求項9】 上記手動装置は複数のクラスを規定して
おり、上記情報データベースは上記複数のクラスに従っ
て符号化される請求項8記載の音声認識方法。 - 【請求項10】 上記情報は、上記書式記入アプリケー
ションにアクセス可能な書式データ構造を実装するのに
適するよう構成されている請求項8記載の音声認識方
法。 - 【請求項11】 上記手動装置はタッチトーン電話のキ
ーパッドであり、上記非音声入力は、利用者が上記キー
パッドを使って作成する発信音である請求項8記載の音
声認識方法。 - 【請求項12】 上記キーパッドは複数のクラスを規定
しており、上記情報データベースは上記複数のクラスに
従って符号化される請求項11記載の音声認識方法。 - 【請求項13】 上記複数のクラスのうちの少なくとも
1つのクラスは、上記キーパッド上に該キーパッドのキ
ーに対応して可視的に表された文字と数字の組合せにな
るよう構成されている請求項12記載の音声認識方法。 - 【請求項14】 上記情報は名前と住所のうちの少なく
とも一方であり、 上記情報データベースは、名前を表すことが可能な、上
記キーのクラスに基づく文字の組合せによる符号化と住
所に関連する郵便番号による符号化の少なくとも一方が
行われるよう構成されている請求項13記載の音声認識
方法。 - 【請求項15】 データ処理システムを使って操作可能
なメモリ内の情報データベースであって、 上記データ処理システム上で動作する音声認識システム
での利用に適した情報を格納しており、 手動装置が規定するクラスに従って符号化されるよう構
成されている情報データベース。 - 【請求項16】 上記手動装置はタッチトーン電話のキ
ーパッドであり、上記複数のクラスのうちの少なくとも
1つのクラスは、上記キーパッド上に該キーパッドのキ
ーに対応して可視的に表された文字と数字の組合せにな
るよう構成されている請求項15記載の情報データベー
ス。 - 【請求項17】 音声認識システムで使用される制約方
法であって、 利用者がタッチトーン電話のキーパッドを使って作成す
る非音声入力を含む入力信号を受け取る工程と、 探索可能な情報を格納する情報データベースにアクセス
する工程と、 上記非音声入力に基づいて上記探索可能な情報の一部で
ある候補情報を作成する工程を備えた制約方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/022,023 US7124085B2 (en) | 2001-12-13 | 2001-12-13 | Constraint-based speech recognition system and method |
US10/022,023 | 2001-12-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003216181A true JP2003216181A (ja) | 2003-07-30 |
Family
ID=21807419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002359296A Pending JP2003216181A (ja) | 2001-12-13 | 2002-12-11 | 制約に基づく音声認識システム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US7124085B2 (ja) |
EP (1) | EP1326234A3 (ja) |
JP (1) | JP2003216181A (ja) |
CN (1) | CN1238832C (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196140A (ja) * | 2003-12-30 | 2005-07-21 | Microsoft Corp | テキストを入力するための方法 |
WO2005076259A1 (ja) * | 2004-02-10 | 2005-08-18 | Nec Corporation | 音声入力システム、電子機器、音声入力方法、および、音声入力用プログラム |
Families Citing this family (163)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US7809574B2 (en) | 2001-09-05 | 2010-10-05 | Voice Signal Technologies Inc. | Word recognition using choice lists |
US7526431B2 (en) * | 2001-09-05 | 2009-04-28 | Voice Signal Technologies, Inc. | Speech recognition using ambiguous or phone key spelling and/or filtering |
US7444286B2 (en) | 2001-09-05 | 2008-10-28 | Roth Daniel L | Speech recognition using re-utterance recognition |
JP3542578B2 (ja) * | 2001-11-22 | 2004-07-14 | キヤノン株式会社 | 音声認識装置及びその方法、プログラム |
DE10204924A1 (de) * | 2002-02-07 | 2003-08-21 | Philips Intellectual Property | Verfahren und Vorrichtung zur schnellen mustererkennungsunterstützten Transkription gesprochener und schriftlicher Äußerungen |
US7222072B2 (en) * | 2003-02-13 | 2007-05-22 | Sbc Properties, L.P. | Bio-phonetic multi-phrase speaker identity verification |
US20050049858A1 (en) * | 2003-08-25 | 2005-03-03 | Bellsouth Intellectual Property Corporation | Methods and systems for improving alphabetic speech recognition accuracy |
US6983244B2 (en) * | 2003-08-29 | 2006-01-03 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for improved speech recognition with supplementary information |
GB0322516D0 (en) * | 2003-09-25 | 2003-10-29 | Canon Europa Nv | Cellular mobile communication device |
JP4012143B2 (ja) * | 2003-12-16 | 2007-11-21 | キヤノン株式会社 | 情報処理装置およびデータ入力方法 |
JP2006011641A (ja) * | 2004-06-23 | 2006-01-12 | Fujitsu Ltd | 情報入力方法及びその装置 |
JP4416643B2 (ja) * | 2004-06-29 | 2010-02-17 | キヤノン株式会社 | マルチモーダル入力方法 |
US20060009974A1 (en) * | 2004-07-09 | 2006-01-12 | Matsushita Electric Industrial Co., Ltd. | Hands-free voice dialing for portable and remote devices |
EP1635328B1 (en) * | 2004-09-14 | 2018-05-30 | Swisscom AG | Speech recognition method constrained with a grammar received from a remote system. |
US7739117B2 (en) * | 2004-09-20 | 2010-06-15 | International Business Machines Corporation | Method and system for voice-enabled autofill |
JP4027357B2 (ja) * | 2004-10-08 | 2007-12-26 | キヤノン株式会社 | 文字列入力装置およびその制御方法 |
US7502835B1 (en) * | 2004-11-17 | 2009-03-10 | Juniper Networks, Inc. | Virtual folders for tracking HTTP sessions |
US7461134B2 (en) * | 2004-11-19 | 2008-12-02 | W.A. Krapf, Inc. | Bi-directional communication between a web client and a web server |
US7801925B2 (en) * | 2004-12-22 | 2010-09-21 | United States Postal Service | System and method for electronically processing address information |
TWI269268B (en) * | 2005-01-24 | 2006-12-21 | Delta Electronics Inc | Speech recognizing method and system |
WO2006093092A1 (ja) * | 2005-02-28 | 2006-09-08 | Honda Motor Co., Ltd. | 会話システムおよび会話ソフトウェア |
US8165909B2 (en) * | 2005-05-17 | 2012-04-24 | The United States Postal Service | System and method for automated management of an address database |
US8924212B1 (en) * | 2005-08-26 | 2014-12-30 | At&T Intellectual Property Ii, L.P. | System and method for robust access and entry to large structured data using voice form-filling |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
CN103050117B (zh) * | 2005-10-27 | 2015-10-28 | 纽昂斯奥地利通讯有限公司 | 用于处理口述信息的方法和系统 |
US8510109B2 (en) | 2007-08-22 | 2013-08-13 | Canyon Ip Holdings Llc | Continuous speech transcription performance indication |
US8286071B1 (en) * | 2006-06-29 | 2012-10-09 | Escription, Inc. | Insertion of standard text in transcriptions |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9973450B2 (en) | 2007-09-17 | 2018-05-15 | Amazon Technologies, Inc. | Methods and systems for dynamically updating web service profile information by parsing transcribed message strings |
TWI336048B (en) * | 2007-05-11 | 2011-01-11 | Delta Electronics Inc | Input system for mobile search and method therefor |
KR20090019198A (ko) * | 2007-08-20 | 2009-02-25 | 삼성전자주식회사 | 음성 인식을 이용한 텍스트 입력 자동 완성 방법 및 장치 |
US8024347B2 (en) | 2007-09-27 | 2011-09-20 | International Business Machines Corporation | Method and apparatus for automatically differentiating between types of names stored in a data collection |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9177551B2 (en) * | 2008-01-22 | 2015-11-03 | At&T Intellectual Property I, L.P. | System and method of providing speech processing in user interface |
US8676577B2 (en) * | 2008-03-31 | 2014-03-18 | Canyon IP Holdings, LLC | Use of metadata to post process speech recognition output |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
KR101502003B1 (ko) * | 2008-07-08 | 2015-03-12 | 엘지전자 주식회사 | 이동 단말기 및 그 텍스트 입력 방법 |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US9411877B2 (en) * | 2008-09-03 | 2016-08-09 | International Business Machines Corporation | Entity-driven logic for improved name-searching in mixed-entity lists |
US20100070360A1 (en) * | 2008-09-13 | 2010-03-18 | At&T Intellectual Property I, L.P. | System and method for creating a speech search platform for coupons |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US8886519B2 (en) * | 2008-12-26 | 2014-11-11 | Nec Corporation | Text processing apparatus, text processing method, and computer-readable recording medium |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
JP5407880B2 (ja) * | 2010-01-13 | 2014-02-05 | 株式会社リコー | 光走査装置及び画像形成装置 |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US20110264994A1 (en) * | 2010-04-13 | 2011-10-27 | ForenSight, Inc. | Method of retrieving interactive electronic data and accessing productivity tools for real property valuation and mortgage underwriting software systems |
US8719014B2 (en) * | 2010-09-27 | 2014-05-06 | Apple Inc. | Electronic device with text error correction based on voice recognition data |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US20120280915A1 (en) * | 2011-05-02 | 2012-11-08 | Nokia Corporation | Method and apparatus for facilitating interacting with a multimodal user interface |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9257115B2 (en) | 2012-03-08 | 2016-02-09 | Facebook, Inc. | Device for extracting information from a dialog |
US10198417B2 (en) * | 2012-04-05 | 2019-02-05 | Mitesh L. THAKKER | Systems and methods to input or access data using remote submitting mechanism |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9946699B1 (en) * | 2012-08-29 | 2018-04-17 | Intuit Inc. | Location-based speech recognition for preparation of electronic tax return |
KR102081925B1 (ko) * | 2012-08-29 | 2020-02-26 | 엘지전자 주식회사 | 디스플레이 디바이스 및 스피치 검색 방법 |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US20140096018A1 (en) * | 2012-09-28 | 2014-04-03 | Interactive Memories, Inc. | Methods for Recognizing Digital Images of Persons known to a Customer Creating an Image-Based Project through an Electronic Interface |
CN104969289B (zh) | 2013-02-07 | 2021-05-28 | 苹果公司 | 数字助理的语音触发器 |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
KR101759009B1 (ko) | 2013-03-15 | 2017-07-17 | 애플 인크. | 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것 |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101959188B1 (ko) | 2013-06-09 | 2019-07-02 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
WO2014200731A1 (en) | 2013-06-13 | 2014-12-18 | Apple Inc. | System and method for emergency calls initiated by voice command |
KR101749009B1 (ko) | 2013-08-06 | 2017-06-19 | 애플 인크. | 원격 디바이스로부터의 활동에 기초한 스마트 응답의 자동 활성화 |
US9361084B1 (en) | 2013-11-14 | 2016-06-07 | Google Inc. | Methods and systems for installing and executing applications |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10008208B2 (en) * | 2014-09-18 | 2018-06-26 | Nuance Communications, Inc. | Method and apparatus for performing speaker recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
WO2017201041A1 (en) | 2016-05-17 | 2017-11-23 | Hassel Bruce | Interactive audio validation/assistance system and methodologies |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
CN109410923B (zh) * | 2018-12-26 | 2022-06-10 | 中国联合网络通信集团有限公司 | 语音识别方法、装置、系统及存储介质 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5131045A (en) * | 1990-05-10 | 1992-07-14 | Roth Richard G | Audio-augmented data keying |
GB9314296D0 (en) * | 1993-07-10 | 1993-08-25 | Ibm | Audio data processing |
JPH07210190A (ja) | 1993-12-30 | 1995-08-11 | Internatl Business Mach Corp <Ibm> | 音声認識方法及びシステム |
CA2372671C (en) | 1994-10-25 | 2007-01-02 | British Telecommunications Public Limited Company | Voice-operated services |
US5963666A (en) * | 1995-08-18 | 1999-10-05 | International Business Machines Corporation | Confusion matrix mediated word prediction |
US5855000A (en) * | 1995-09-08 | 1998-12-29 | Carnegie Mellon University | Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input |
US5917890A (en) * | 1995-12-29 | 1999-06-29 | At&T Corp | Disambiguation of alphabetic characters in an automated call processing environment |
US6952799B2 (en) * | 1996-06-17 | 2005-10-04 | British Telecommunications | User interface for network browser including pre-processor for links embedded in hypermedia documents |
US5912949A (en) | 1996-11-05 | 1999-06-15 | Northern Telecom Limited | Voice-dialing system using both spoken names and initials in recognition |
US5960399A (en) * | 1996-12-24 | 1999-09-28 | Gte Internetworking Incorporated | Client/server speech processor/recognizer |
US6078886A (en) * | 1997-04-14 | 2000-06-20 | At&T Corporation | System and method for providing remote automatic speech recognition services via a packet network |
US6044347A (en) * | 1997-08-05 | 2000-03-28 | Lucent Technologies Inc. | Methods and apparatus object-oriented rule-based dialogue management |
EP1057099A1 (en) * | 1998-02-25 | 2000-12-06 | Lernout & Hauspie Speech Products N.V. | Generic run-time engine for interfacing between applications and speech engines |
FI981154A (fi) | 1998-05-25 | 1999-11-26 | Nokia Mobile Phones Ltd | Menetelmä ja laite puheen tunnistamiseksi |
TW501046B (en) * | 1999-06-11 | 2002-09-01 | Ind Tech Res Inst | A portable dialogue manager |
JP2001188781A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 会話処理装置および方法、並びに記録媒体 |
US7143043B1 (en) | 2000-04-26 | 2006-11-28 | Openwave Systems Inc. | Constrained keyboard disambiguation using voice recognition |
WO2002005263A1 (de) | 2000-07-07 | 2002-01-17 | Siemens Aktiengesellschaft | Verfahren zur spracheingabe und -erkennung |
US6728348B2 (en) | 2000-11-30 | 2004-04-27 | Comverse, Inc. | System for storing voice recognizable identifiers using a limited input device such as a telephone key pad |
-
2001
- 2001-12-13 US US10/022,023 patent/US7124085B2/en active Active
-
2002
- 2002-09-16 US US10/245,144 patent/US20030115060A1/en not_active Abandoned
- 2002-11-22 EP EP02258061A patent/EP1326234A3/en not_active Withdrawn
- 2002-12-11 JP JP2002359296A patent/JP2003216181A/ja active Pending
- 2002-12-12 CN CNB021559821A patent/CN1238832C/zh not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196140A (ja) * | 2003-12-30 | 2005-07-21 | Microsoft Corp | テキストを入力するための方法 |
KR101109265B1 (ko) * | 2003-12-30 | 2012-01-30 | 마이크로소프트 코포레이션 | 텍스트 입력 방법 |
WO2005076259A1 (ja) * | 2004-02-10 | 2005-08-18 | Nec Corporation | 音声入力システム、電子機器、音声入力方法、および、音声入力用プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20030115057A1 (en) | 2003-06-19 |
US20030115060A1 (en) | 2003-06-19 |
EP1326234A3 (en) | 2004-12-22 |
CN1424711A (zh) | 2003-06-18 |
EP1326234A2 (en) | 2003-07-09 |
CN1238832C (zh) | 2006-01-25 |
US7124085B2 (en) | 2006-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003216181A (ja) | 制約に基づく音声認識システム及び方法 | |
US7574356B2 (en) | System and method for spelling recognition using speech and non-speech input | |
US6937983B2 (en) | Method and system for semantic speech recognition | |
US7440889B1 (en) | Sentence reconstruction using word ambiguity resolution | |
JP5957269B2 (ja) | 音声認識サーバ統合装置および音声認識サーバ統合方法 | |
US20030191625A1 (en) | Method and system for creating a named entity language model | |
CN101567189A (zh) | 声音识别结果修正装置、方法以及系统 | |
CN100592385C (zh) | 用于对多语言的姓名进行语音识别的方法和系统 | |
US7676364B2 (en) | System and method for speech-to-text conversion using constrained dictation in a speak-and-spell mode | |
JPH10503033A (ja) | 新ワードのモデル化に基づく音声認識方法及びその装置 | |
CA2481080C (en) | Method and system for detecting and extracting named entities from spontaneous communications | |
US6205428B1 (en) | Confusion set-base method and apparatus for pruning a predetermined arrangement of indexed identifiers | |
JP3415585B2 (ja) | 統計的言語モデル生成装置、音声認識装置及び情報検索処理装置 | |
JPS6049932B2 (ja) | 日本語情報処理方式 | |
US10832675B2 (en) | Speech recognition system with interactive spelling function | |
Jan et al. | Automatic construction of unique signatures and confusable sets for natural language directory assistance applications. | |
EP1187431B1 (en) | Portable terminal with voice dialing minimizing memory usage | |
JP3221477B2 (ja) | データベース照合型入力方法及び装置、データベース照合型日本語入力装置、並びに、電話番号案内サービスシステム | |
EP1895748B1 (en) | Method, software and device for uniquely identifying a desired contact in a contacts database based on a single utterance | |
Parthasarathy | Experiments in keypad-aided spelling recognition | |
JPH1195792A (ja) | 音声処理装置および文字入力方法 | |
Georgila et al. | Large Vocabulary Search Space Reduction Employing Directed Acyclic Word Graphs and Phonological Rules | |
JP2010097073A (ja) | 音声認識装置、音声認識システム、盗難車検索システム及び音声認識プログラム | |
KR20050066805A (ko) | 음절 음성인식기의 음성인식결과 전달 방법 | |
JPH0740262B2 (ja) | カナ漢字変換装置 |