JP3335178B2 - 音声サンプルを音声作動データ処理システムに伝送するための方法及び装置 - Google Patents
音声サンプルを音声作動データ処理システムに伝送するための方法及び装置Info
- Publication number
- JP3335178B2 JP3335178B2 JP50490997A JP50490997A JP3335178B2 JP 3335178 B2 JP3335178 B2 JP 3335178B2 JP 50490997 A JP50490997 A JP 50490997A JP 50490997 A JP50490997 A JP 50490997A JP 3335178 B2 JP3335178 B2 JP 3335178B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- transmission device
- user
- wireless transmission
- recognition system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 22
- 230000005540 biological transmission Effects 0.000 claims description 50
- 230000004913 activation Effects 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 11
- MQJKPEGWNLWLTK-UHFFFAOYSA-N Dapsone Chemical compound C1=CC(N)=CC=C1S(=O)(=O)C1=CC=C(N)C=C1 MQJKPEGWNLWLTK-UHFFFAOYSA-N 0.000 description 9
- 230000004044 response Effects 0.000 description 6
- 230000006837 decompression Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 2
- 241000229094 Chordeiles Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/20—Individual registration on entry or exit involving the use of a pass
- G07C9/22—Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
- G07C9/25—Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
- G07C9/257—Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition electronically
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Telephonic Communication Services (AREA)
- Selective Calling Equipment (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
- Machine Translation (AREA)
Description
【発明の詳細な説明】 技術分野 本発明は音声認識システムとのコミュニケーションの
改良に関するものであり、更に詳しく云えば、それに限
定するものではないが、音声サンプルをデータ処理シス
テムにおける話者依存の音声認識システムに伝送するた
めの方法及び装置に関するものである。
改良に関するものであり、更に詳しく云えば、それに限
定するものではないが、音声サンプルをデータ処理シス
テムにおける話者依存の音声認識システムに伝送するた
めの方法及び装置に関するものである。
背景技術 ヒューマン・コミュニケーションにおいて、及びヒュ
ーマン・ツー・マシン及びマシン・ツー・ヒューマン・
コミュニケーションにおいて、話し言葉は重要な役割を
演ずる。例えば、現在のボイス・メール・システム、ヘ
ルプ・システム、及びビデオ会議システムは音声を組み
込んでいる。更に、テクノロジが発展するにつれて、人
の音声はマシン/ヒューマン・コミュニケーションにお
いて更に大きな役割を演ずるであろう。特に、音声認識
システムを組み込んだワイヤレスATMマシン(或いは、
給油所、旅行情報案内所、POS端末のような任意のワイ
ヤレス・マシンのタイプ)を想像して欲しい。その音声
認識システムを組み込むことによって、ユーザは単にそ
のATMマシンに話しかけるだけである。本発明は、その
ようなマシンにカード又は他の如何なるタイプの装置を
挿入することを必要とせずに、ユーザがそのマシンと容
易に且つ効率的に口頭でコミュニケートすることを意図
するものである。しかし、幾つかの付加的な背景情報
を、先ず、検討しなければならない。
ーマン・ツー・マシン及びマシン・ツー・ヒューマン・
コミュニケーションにおいて、話し言葉は重要な役割を
演ずる。例えば、現在のボイス・メール・システム、ヘ
ルプ・システム、及びビデオ会議システムは音声を組み
込んでいる。更に、テクノロジが発展するにつれて、人
の音声はマシン/ヒューマン・コミュニケーションにお
いて更に大きな役割を演ずるであろう。特に、音声認識
システムを組み込んだワイヤレスATMマシン(或いは、
給油所、旅行情報案内所、POS端末のような任意のワイ
ヤレス・マシンのタイプ)を想像して欲しい。その音声
認識システムを組み込むことによって、ユーザは単にそ
のATMマシンに話しかけるだけである。本発明は、その
ようなマシンにカード又は他の如何なるタイプの装置を
挿入することを必要とせずに、ユーザがそのマシンと容
易に且つ効率的に口頭でコミュニケートすることを意図
するものである。しかし、幾つかの付加的な背景情報
を、先ず、検討しなければならない。
通常の音声認識システムは人の音声を聴取し及び理解
する。しかし、受容し得る音声認識精度を持つために、
通常の音声認識システムはユーザの記憶された音声サン
プルを利用する。ユーザは、十分な音声特性を捕捉した
約30個の慎重に構成されたセンテンスを発声することに
よって音声サンプルを生成する。音声特性は、律動、ピ
ッチ、抑揚、及び速度を含むユーザの音声の韻律を含ん
でいる。通常の音声分析器は、音声サンプルを処理して
各ダイフォーン(diphone)セグメントに対するオーデ
ィオ・サンプルを分離し、特徴ある韻律曲線を決定す
る。音声分析器は、隠れマルコフ・モデルのような周知
のディジタル信号処理技法を使用してダイフォーン・セ
グメント及び韻律曲線を生成する。従って、記憶された
音声サンプルによって、通常の音声認識システムは約90
%の正確度を有する。しかし、ユーザがワイヤレス・マ
シンと口頭でコミュニケートすることを望む都度それら
の30個のセンテンスを反復することは極めて不都合なこ
とであろう。
する。しかし、受容し得る音声認識精度を持つために、
通常の音声認識システムはユーザの記憶された音声サン
プルを利用する。ユーザは、十分な音声特性を捕捉した
約30個の慎重に構成されたセンテンスを発声することに
よって音声サンプルを生成する。音声特性は、律動、ピ
ッチ、抑揚、及び速度を含むユーザの音声の韻律を含ん
でいる。通常の音声分析器は、音声サンプルを処理して
各ダイフォーン(diphone)セグメントに対するオーデ
ィオ・サンプルを分離し、特徴ある韻律曲線を決定す
る。音声分析器は、隠れマルコフ・モデルのような周知
のディジタル信号処理技法を使用してダイフォーン・セ
グメント及び韻律曲線を生成する。従って、記憶された
音声サンプルによって、通常の音声認識システムは約90
%の正確度を有する。しかし、ユーザがワイヤレス・マ
シンと口頭でコミュニケートすることを望む都度それら
の30個のセンテンスを反復することは極めて不都合なこ
とであろう。
この背景情報を仮定すると、音声を介してワイヤレス
対話マシンと効率的に、効果的に、及び遠隔的にコミュ
ニケートすることは、多くのユーザにとって極めて望ま
しい且つ有益なことであろう。しかし、ユーザが高い精
度でもってそのマシンと口頭でコミュニケートする前
に、ユーザの分析された音声サンプルをそのマシンに伝
送する技法及び装置が開発されなければならない。
対話マシンと効率的に、効果的に、及び遠隔的にコミュ
ニケートすることは、多くのユーザにとって極めて望ま
しい且つ有益なことであろう。しかし、ユーザが高い精
度でもってそのマシンと口頭でコミュニケートする前
に、ユーザの分析された音声サンプルをそのマシンに伝
送する技法及び装置が開発されなければならない。
発明の開示 第1の局面では、本発明は、音声認識システムを有す
る少なくとも1つのリモート音声作動データ処理システ
ムによる改良された音声コミュニケーションのための方
法を提供する。その方法は、 (a)ユーザの音声特性をワイヤレス伝送装置のメモリ
に記憶するステップと、 (b)音声作動コマンドに応答して、そのワイヤレス伝
送装置及びリモート音声認識システムを音声作動するス
テップと、 (c)そのワイヤレス伝送装置及び音声認識システムの
作動に応答して、メモリからその音声認識システムに音
声特性を伝送し、それによって、ユーザがその音声作動
データ処理システムと直接に口頭でコミュニケートする
ことを可能にするステップと、 を含む。
る少なくとも1つのリモート音声作動データ処理システ
ムによる改良された音声コミュニケーションのための方
法を提供する。その方法は、 (a)ユーザの音声特性をワイヤレス伝送装置のメモリ
に記憶するステップと、 (b)音声作動コマンドに応答して、そのワイヤレス伝
送装置及びリモート音声認識システムを音声作動するス
テップと、 (c)そのワイヤレス伝送装置及び音声認識システムの
作動に応答して、メモリからその音声認識システムに音
声特性を伝送し、それによって、ユーザがその音声作動
データ処理システムと直接に口頭でコミュニケートする
ことを可能にするステップと、 を含む。
第2の局面では、本発明は、リモート・データ処理シ
ステムにあるリモート音声認識システムとの音声コミュ
ニケーションを可能にするための音声伝送システムを提
供する。その音声伝送システムは、 ユーザの音声特性を記憶するためのメモリを有するワ
イヤレス伝送装置と、 そのワイヤレス伝送装置及び音声認識システムはその
ワイヤレス伝送装置による受信した音声作動コマンドに
応答して作動するように適応すること、及び そのワイヤレス伝送装置はその音声認識システム及び
ワイヤレス伝送装置の作動に応答してメモリからその音
声認識システムに音声特性を伝送し、それによって、ユ
ーザが音声認識システムと直接に口頭でコミュニケート
するように適応すること を特徴とする。
ステムにあるリモート音声認識システムとの音声コミュ
ニケーションを可能にするための音声伝送システムを提
供する。その音声伝送システムは、 ユーザの音声特性を記憶するためのメモリを有するワ
イヤレス伝送装置と、 そのワイヤレス伝送装置及び音声認識システムはその
ワイヤレス伝送装置による受信した音声作動コマンドに
応答して作動するように適応すること、及び そのワイヤレス伝送装置はその音声認識システム及び
ワイヤレス伝送装置の作動に応答してメモリからその音
声認識システムに音声特性を伝送し、それによって、ユ
ーザが音声認識システムと直接に口頭でコミュニケート
するように適応すること を特徴とする。
本発明の好適な実施例における装置及びコンピュータ
実施される方法は、分析された音声サンプルを、ユーザ
により携帯されたワイヤレス伝送装置から音声認識シス
テムを有するリモート・データ処理システムに伝送す
る。その方法は、ユーザの音声特性のセットをワイヤレ
ス伝送装置のメモリ(例えば、RAMチップ)に記憶する
第1ステップを含む。第2ステップは、音声コマンドに
応答してその伝送装置及びリモート音声認識システムを
音声作動することを含む。第3ステップは、伝送装置及
び音声認識システムが作動させられた後、メモリから音
声認識システムに音声特性を自動的に且つ遠隔的に伝送
することを含み、それによって、ユーザが音声作動デー
タ処理システムと直接に口頭でコミュニケートすること
を可能にする。
実施される方法は、分析された音声サンプルを、ユーザ
により携帯されたワイヤレス伝送装置から音声認識シス
テムを有するリモート・データ処理システムに伝送す
る。その方法は、ユーザの音声特性のセットをワイヤレ
ス伝送装置のメモリ(例えば、RAMチップ)に記憶する
第1ステップを含む。第2ステップは、音声コマンドに
応答してその伝送装置及びリモート音声認識システムを
音声作動することを含む。第3ステップは、伝送装置及
び音声認識システムが作動させられた後、メモリから音
声認識システムに音声特性を自動的に且つ遠隔的に伝送
することを含み、それによって、ユーザが音声作動デー
タ処理システムと直接に口頭でコミュニケートすること
を可能にする。
本発明は、事前定義された音声コマンドに応答して、
ユーザの音声特性をワイヤレス・データ処理システムに
自動的に伝送する改良された音声伝送システムを提供す
る。
ユーザの音声特性をワイヤレス・データ処理システムに
自動的に伝送する改良された音声伝送システムを提供す
る。
更に、本発明は、ユーザの音声特性を記憶し及びデー
タ処理システムに伝送するための装置(例えば、伝送装
置)と、その音声特性を待ち及び受信するようにそのデ
ータ処理システムを作動させるための装置とを提供す
る。
タ処理システムに伝送するための装置(例えば、伝送装
置)と、その音声特性を待ち及び受信するようにそのデ
ータ処理システムを作動させるための装置とを提供す
る。
次に、添付図面を参照して、本発明を実施例によって
更に詳しく説明することにする。
更に詳しく説明することにする。
図面の簡単な説明 第1図は、本発明を実施するための代表的なハードウ
エア環境のブロック図を示す。
エア環境のブロック図を示す。
第2図は、本発明による改良された音声伝送システム
のブロック図を示す。
のブロック図を示す。
第3図は、リモート・データ処理システムとコミュニ
ケートするためにユーザがワイヤレス伝送装置を携帯し
た状態の図を示す。
ケートするためにユーザがワイヤレス伝送装置を携帯し
た状態の図を示す。
第4図は、ワイヤレス伝送装置からリモート・データ
処理システムに音声特性を伝送するための流れ図を示
す。
処理システムに音声特性を伝送するための流れ図を示
す。
発明を実施するための最良の形態 好適な実施例は、ユーザの音声特性を含む音声サンプ
ルを音声認識システムに遠隔的に及び自動的に伝送する
ための方法及び装置を含む。
ルを音声認識システムに遠隔的に及び自動的に伝送する
ための方法及び装置を含む。
その好適な実施例は、ラップトップ・コンピュータに
おいて、或いは、代替的には、第1図に示されたワーク
ステーションにおいて実施される。ワークステーション
100は、キャッシュ15、ランダム・アクセス・メモリ(R
AM)14、リード・オンリ・メモリ(ROM)16、及び不揮
発性RAM(NVRAM)32を処理するためのIBM(商標)社のP
owerPC(商標)601、又はIntel(商標)社の486マイク
ロプロセッサのような中央処理装置(CPU)10を含む。I
/Oアダプタ18によって制御される1つ又は複数のディス
ク20は長期記憶装置を提供する。テープ、CD−ROM、及
びWORMドライブを含むその他の種々の記憶媒体を使用す
ることが可能である。データ又はコンピュータ・プロセ
ス命令を記憶するために、取外し可能な記憶媒体も使用
可能である。
おいて、或いは、代替的には、第1図に示されたワーク
ステーションにおいて実施される。ワークステーション
100は、キャッシュ15、ランダム・アクセス・メモリ(R
AM)14、リード・オンリ・メモリ(ROM)16、及び不揮
発性RAM(NVRAM)32を処理するためのIBM(商標)社のP
owerPC(商標)601、又はIntel(商標)社の486マイク
ロプロセッサのような中央処理装置(CPU)10を含む。I
/Oアダプタ18によって制御される1つ又は複数のディス
ク20は長期記憶装置を提供する。テープ、CD−ROM、及
びWORMドライブを含むその他の種々の記憶媒体を使用す
ることが可能である。データ又はコンピュータ・プロセ
ス命令を記憶するために、取外し可能な記憶媒体も使用
可能である。
Sun社のSolaris(商標)、Microsoft社のWindowsNT
(商標)、IBM社のOS/2(商標)、又はApple社のMAC O
S(商標)のような適当なオペレーティング・システム
のそのデスクトップからの命令及びデータがRAM14からC
PU10を制御する。しかし、本発明を実施するために、他
のハードウエア・プラットフォーム及びオペレーティン
グ・システムが利用可能であることは、当業者が容易に
認めることである。
(商標)、IBM社のOS/2(商標)、又はApple社のMAC O
S(商標)のような適当なオペレーティング・システム
のそのデスクトップからの命令及びデータがRAM14からC
PU10を制御する。しかし、本発明を実施するために、他
のハードウエア・プラットフォーム及びオペレーティン
グ・システムが利用可能であることは、当業者が容易に
認めることである。
ユーザは、ユーザ・インターフェース22によって制御
されるI/O装置(即ち、ユーザ制御装置)を介してワー
クステーション100とコミュニケートする。ディスプレ
イ38はユーザに情報を表示し、一方、キーボード24、ポ
インティング装置26、マイクロフォン30、及びスピーカ
28は、ユーザがコンピュータ・システムを指示すること
を可能にする。代替方法として、ジョイ・スティック、
タッチ・スクリーン、或いは仮想現実ヘッドセット(図
示されていない)のような別のタイプのユーザ制御装置
も使用可能である。通信アダプタ34は、このコンピュー
タ・システムとネットワーク・アダプタによってネット
ワークに接続された他の処理装置との間の通信を制御す
る。ディスプレイ・アダプタ36はこのコンピュータ・シ
ステムとディスプレイ38との間のコミュニケーションを
制御する。
されるI/O装置(即ち、ユーザ制御装置)を介してワー
クステーション100とコミュニケートする。ディスプレ
イ38はユーザに情報を表示し、一方、キーボード24、ポ
インティング装置26、マイクロフォン30、及びスピーカ
28は、ユーザがコンピュータ・システムを指示すること
を可能にする。代替方法として、ジョイ・スティック、
タッチ・スクリーン、或いは仮想現実ヘッドセット(図
示されていない)のような別のタイプのユーザ制御装置
も使用可能である。通信アダプタ34は、このコンピュー
タ・システムとネットワーク・アダプタによってネット
ワークに接続された他の処理装置との間の通信を制御す
る。ディスプレイ・アダプタ36はこのコンピュータ・シ
ステムとディスプレイ38との間のコミュニケーションを
制御する。
第2図は、好適な実施例に従って、完全な音声伝送シ
ステム200のブロック図を示す。音声伝送システム200は
音声特性抽出装置210、伝送装置(単に装置とも呼ばれ
る)220、及び音声認識システム230を含む。音声特性抽
出装置210はワークステーション100(第1図参照)のよ
うな任意の適当なワークステーション内にあり、A/Dサ
ブシステム204、音声分析器206、及び音声コーディング
回路207を含む。
ステム200のブロック図を示す。音声伝送システム200は
音声特性抽出装置210、伝送装置(単に装置とも呼ばれ
る)220、及び音声認識システム230を含む。音声特性抽
出装置210はワークステーション100(第1図参照)のよ
うな任意の適当なワークステーション内にあり、A/Dサ
ブシステム204、音声分析器206、及び音声コーディング
回路207を含む。
第4図は、ワイヤレス伝送装置からリモート・データ
処理システムに音声特性を伝送するための流れ図を示
す。第2図及び第4図を参照すると、好適な実施例で
は、ユーザは、話し手の十分な音声特性を含む音声サン
プル(例えば、約30個のセンテンス)をマイクロフォン
202に与える(ステップ410)。音声特性は、律動、ピッ
チ、抑揚、及び速度のようなその音声の韻律を含む。こ
のタイプのセンテンスは音声合成分野における当業者に
は周知である。例えば、1つのセンテンスは、「The qu
ick fox jumped over the lazy brown dog(敏捷な狐が
のろまな茶色の犬を飛び越えた)」でもよい。A/Dサブ
システム204(及び222)はその音声サンプルをサンプル
しそしてディジタル化する。それは、IBM MACPA(即
ち、マルチメディア音声捕捉及び再生アダプタ)Creati
ve LabのSound Blaster音声カード、又はシングル・
チップ・ソリューションのような任意の適当なアナログ
・ツー・ディジタル・システムを含む(ステップ41
2)。
処理システムに音声特性を伝送するための流れ図を示
す。第2図及び第4図を参照すると、好適な実施例で
は、ユーザは、話し手の十分な音声特性を含む音声サン
プル(例えば、約30個のセンテンス)をマイクロフォン
202に与える(ステップ410)。音声特性は、律動、ピッ
チ、抑揚、及び速度のようなその音声の韻律を含む。こ
のタイプのセンテンスは音声合成分野における当業者に
は周知である。例えば、1つのセンテンスは、「The qu
ick fox jumped over the lazy brown dog(敏捷な狐が
のろまな茶色の犬を飛び越えた)」でもよい。A/Dサブ
システム204(及び222)はその音声サンプルをサンプル
しそしてディジタル化する。それは、IBM MACPA(即
ち、マルチメディア音声捕捉及び再生アダプタ)Creati
ve LabのSound Blaster音声カード、又はシングル・
チップ・ソリューションのような任意の適当なアナログ
・ツー・ディジタル・システムを含む(ステップ41
2)。
一方、任意の適当な一般的な音声分析器206がそのデ
ィジタル化された音声サンプルを処理して各ダイフォー
ン・セグメントに対する音声サンプルを分離し、特性韻
律曲線を決定する(ステップ414)。音声分析器206は、
隠れマルコフ・モデルのような周知のディジタル信号処
理技法を使用してダイフォーン・セグメント及び韻律曲
線を生成する。米国特許第4,961,229号及び同第3,816,7
22号は適当な音声分析器を開示している。
ィジタル化された音声サンプルを処理して各ダイフォー
ン・セグメントに対する音声サンプルを分離し、特性韻
律曲線を決定する(ステップ414)。音声分析器206は、
隠れマルコフ・モデルのような周知のディジタル信号処
理技法を使用してダイフォーン・セグメント及び韻律曲
線を生成する。米国特許第4,961,229号及び同第3,816,7
22号は適当な音声分析器を開示している。
音声コーディング回路207は、通常のディジタル・コ
ーディング技法を利用してダイフォーン・セグメント及
び韻律曲線を圧縮し、それによって、伝送帯域幅及び記
憶要件を少なくする(ステップ416)。音声コーディン
グ回路207はその結果の圧縮された韻律曲線及びダイフ
ォーン・セグメントを伝送装置220のRAM226(例えば、
メモリ)に記憶する。パイプライン・バースト・メモ
リ、フラッシュ・メモリ、又は縮小サイズDASDのような
任意の適当なタイプのメモリ装置がRAM226の代わりにな
り得ることは当業者の認めるところである。又、伝送装
置220は、音声作動コマンドを受けるための音声作動マ
イクロフォン221、A/Dサブシステム222、音声認識回路2
24、電源(図示されていない)、及び送信装置229も含
む。
ーディング技法を利用してダイフォーン・セグメント及
び韻律曲線を圧縮し、それによって、伝送帯域幅及び記
憶要件を少なくする(ステップ416)。音声コーディン
グ回路207はその結果の圧縮された韻律曲線及びダイフ
ォーン・セグメントを伝送装置220のRAM226(例えば、
メモリ)に記憶する。パイプライン・バースト・メモ
リ、フラッシュ・メモリ、又は縮小サイズDASDのような
任意の適当なタイプのメモリ装置がRAM226の代わりにな
り得ることは当業者の認めるところである。又、伝送装
置220は、音声作動コマンドを受けるための音声作動マ
イクロフォン221、A/Dサブシステム222、音声認識回路2
24、電源(図示されていない)、及び送信装置229も含
む。
第3図は、リモート・データ処理システム310とコミ
ュニケートするために、ユーザがワイヤレス伝送装置22
0を携帯した図を示す。第2図、第3図、及び第4図を
参照すると、好適な実施例では、ユーザはブローチを身
に付けるのと同様に伝送装置220を身に付ける。別の方
法として、ユーザは自分の口に送信装置220を保持する
こともできる。ユーザがリモート・データ処理システム
(例えば、ATMマシン)310にある音声認識システム230
とコミュニケートしたい時、そのユーザ(伝送装置220
を携帯している)はリモート・データ処理システム310
に近づき、音声作動コマンド(例えば、「コンピュー
タ」、「ログオン・コンピュータ」)を伝送装置220の
音声作動マイクロフォン221に対して発声する(ステッ
プ418)。「ワイヤレス」は、データ処理システム310が
伝送装置220に関してワイヤレスであることを意味する
ということに注意することは重要である。音声作動マイ
クロフォン221は音声作動コマンドを検出し、A/Dサブシ
ステム222はその音声作動コマンドをサンプルし、そし
てそれをディジタル化する。A/Dサブシステム222は、そ
のディジタル化された音声作動コマンドを音声認識回路
224に送る。
ュニケートするために、ユーザがワイヤレス伝送装置22
0を携帯した図を示す。第2図、第3図、及び第4図を
参照すると、好適な実施例では、ユーザはブローチを身
に付けるのと同様に伝送装置220を身に付ける。別の方
法として、ユーザは自分の口に送信装置220を保持する
こともできる。ユーザがリモート・データ処理システム
(例えば、ATMマシン)310にある音声認識システム230
とコミュニケートしたい時、そのユーザ(伝送装置220
を携帯している)はリモート・データ処理システム310
に近づき、音声作動コマンド(例えば、「コンピュー
タ」、「ログオン・コンピュータ」)を伝送装置220の
音声作動マイクロフォン221に対して発声する(ステッ
プ418)。「ワイヤレス」は、データ処理システム310が
伝送装置220に関してワイヤレスであることを意味する
ということに注意することは重要である。音声作動マイ
クロフォン221は音声作動コマンドを検出し、A/Dサブシ
ステム222はその音声作動コマンドをサンプルし、そし
てそれをディジタル化する。A/Dサブシステム222は、そ
のディジタル化された音声作動コマンドを音声認識回路
224に送る。
音声認識回路224(及び234)は、IBM Voicetype Di
ctation(商標)という製品、或いは、Dragon音声認識
システムにおける音声認識回路のような任意の適当な音
声認識回路を含む。音声認識回路224が音声作動コマン
ドを認識する場合、それは、そのようなことをプロセッ
サ228に表示する信号を送る。それに応答して、プロセ
ッサ228は送信装置229に信号を送って、音声認識システ
ム230の受信装置232へ音声作動コマンドを伝送させる
(ステップ420)。送信装置229は任意の適当なタイプの
ワイヤレス送信装置(例えば、レーザ、赤外線発生ダイ
オード)であってもよい。しかし、好適な実施例では、
送信装置229はRF送信装置である。プロセッサ228は、短
いタイムアウト信号をRAM226に送り、ユーザが音声認識
システム230と直接に口頭でコミュニケートすることを
可能にさせる(ステップ422)。
ctation(商標)という製品、或いは、Dragon音声認識
システムにおける音声認識回路のような任意の適当な音
声認識回路を含む。音声認識回路224が音声作動コマン
ドを認識する場合、それは、そのようなことをプロセッ
サ228に表示する信号を送る。それに応答して、プロセ
ッサ228は送信装置229に信号を送って、音声認識システ
ム230の受信装置232へ音声作動コマンドを伝送させる
(ステップ420)。送信装置229は任意の適当なタイプの
ワイヤレス送信装置(例えば、レーザ、赤外線発生ダイ
オード)であってもよい。しかし、好適な実施例では、
送信装置229はRF送信装置である。プロセッサ228は、短
いタイムアウト信号をRAM226に送り、ユーザが音声認識
システム230と直接に口頭でコミュニケートすることを
可能にさせる(ステップ422)。
音声認識システム230は、受信装置232、音声圧縮解除
回路233、及び音声認識回路234を含み、ワークステーシ
ョン100のような任意の適当なワークステーションにあ
る。受信装置232は受信した音声作動コマンドを音声圧
縮解除回路233に送る。そこで、それは圧縮解除され
る。音声圧縮解除回路233は音声作動コマンドを音声認
識回路234に送る。音声認識回路234がその音声作動コマ
ンドを認識する場合、伝送装置220から韻律曲線及びダ
イフォーン・セグメントを受信するために待機する。従
って、短いタイムアウトの後、プロセッサ228は、送信
装置229及び受信装置232を介して音声認識回路234に韻
律曲線及びダイフォーン・セグメントを送るようにRAM2
26に指示する(ステップ424及び426)。音声認識回路23
4は、それらの韻律曲線及びダイフォーン・セグメント
を使用してユーザの音声を認識させる。今や、ユーザ
は、音声認識装置230に直接に話しかけることが可能で
ある。
回路233、及び音声認識回路234を含み、ワークステーシ
ョン100のような任意の適当なワークステーションにあ
る。受信装置232は受信した音声作動コマンドを音声圧
縮解除回路233に送る。そこで、それは圧縮解除され
る。音声圧縮解除回路233は音声作動コマンドを音声認
識回路234に送る。音声認識回路234がその音声作動コマ
ンドを認識する場合、伝送装置220から韻律曲線及びダ
イフォーン・セグメントを受信するために待機する。従
って、短いタイムアウトの後、プロセッサ228は、送信
装置229及び受信装置232を介して音声認識回路234に韻
律曲線及びダイフォーン・セグメントを送るようにRAM2
26に指示する(ステップ424及び426)。音声認識回路23
4は、それらの韻律曲線及びダイフォーン・セグメント
を使用してユーザの音声を認識させる。今や、ユーザ
は、音声認識装置230に直接に話しかけることが可能で
ある。
産業上の利用可能性 従って、好適な実施例は、ユーザが音声作動コマンド
を発生すること以外に何もする必要なしに、ユーザの音
声特性をワイヤレス・リモート・マシンに伝送する。カ
ードを挿入する必要もない。従って、ユーザは、複数の
ワイヤレス・リモート・データ処理システムを同時に作
動させることができる。これは、カードを挿入すること
によっても達成されなかったことである。
を発生すること以外に何もする必要なしに、ユーザの音
声特性をワイヤレス・リモート・マシンに伝送する。カ
ードを挿入する必要もない。従って、ユーザは、複数の
ワイヤレス・リモート・データ処理システムを同時に作
動させることができる。これは、カードを挿入すること
によっても達成されなかったことである。
特定の実施例に関連して本発明を示し且つ説明したけ
れども、形式及び詳細における上記及びその他の変更を
本発明の技術的範囲内で行い得ることは当業者には明ら
かであろう。
れども、形式及び詳細における上記及びその他の変更を
本発明の技術的範囲内で行い得ることは当業者には明ら
かであろう。
フロントページの続き (72)発明者 ポストン、リッキー、リー アメリカ合衆国テキサス州オウスチン、 4デイー、ダブリュ.ランドバーグ 2018 (72)発明者 ウエーナー、ジョン、ハロルド アメリカ合衆国カリフォルニア州オーシ ャンサイド、ナイトホーク・ウエイ 5040 審査官 鈴木 匡明 (56)参考文献 特開 平7−36615(JP,A) 特開 平7−191715(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06F 3/16 G10L 15/00 H04Q 9/00 - 9/16
Claims (10)
- 【請求項1】音声認識システムを有する少なくとも1つ
のリモート音声作動データ処理システムによる改良され
た音声コミュニケーションのための方法にして、 (a)ユーザの音声特性をワイヤレス伝送装置のメモリ
に記憶するステップと、 (b)前記ワイヤレス伝送装置によって、ユーザからの
音声作動コマンドを受信して音声認識システムに伝送す
るステップと、 (c)前記音声作動コマンドに応答して、前記メモリか
ら音声認識システムに前記音声特性を伝送し、それによ
って、ユーザが音声作動データ処理システムと直接に口
頭でコミュニケートすることを可能にするステップと、 を含む方法。 - 【請求項2】前記ステップ(a)は、 ユーザの音声のサンプルを捕捉するステップと、 捕捉された音声サンプルをディジタル化し、それによっ
てディジタル化音声を形成するステップと、 音声分析器を使用して前記ディジタル化音声から音声特
性を抽出するステップと、 前記音声特性を前記メモリに記憶するステップと、 を含むことを特徴とする請求の範囲第1項に記載の方
法。 - 【請求項3】前記ステップ(b)は、前記ワイヤレス伝
送装置の音声認識回路が、前記音声作動コマンドを認識
し、認識した旨を前記ワイヤレス伝送装置のプロセッサ
に表示する信号を送るステップと、 前記信号に応答して、前記ワイヤレス伝送装置のプロセ
ッサが、前記ワイヤレス伝送装置の送信装置に、音声作
動コマンドを音声認識システムへ伝送するように指示す
る信号を送るステップと、 前記音声認識システムが、伝送された音声作動コマンド
を認識し、前記伝送装置から前記音声特性を受信するた
めに待機するステップと、 を含むことを特徴とする請求の範囲第1項または第2項
に記載の方法。 - 【請求項4】前記ステップ(b)は、更に、前記音声特
性を伝送する前に、前記プロセッサから前記メモリにタ
イムアウト信号を送るステップ、 を含むことを特徴とする請求の範囲第1項〜第3項のい
ずれか1項に記載の方法。 - 【請求項5】前記ステップ(c)は、前記音声特性を前
記音声認識システムに伝送するための信号を前記プロセ
ッサから前記メモリに送るステップを含むことを特徴と
する請求の範囲第4項に記載の方法。 - 【請求項6】リモート・データ処理システムにあるリモ
ート音声認識システムとの音声コミュニケーションを可
能にするための音声伝送システムにして、 ユーザの音声特性を記憶するためのメモリを有するワイ
ヤレス伝送装置を含み、 前記ワイヤレス伝送装置は、ユーザからの音声作動コマ
ンドを受信し、認識し、及び、音声認識システムに伝送
するように適応し、 前記音声認識システムは、前記ユーザからの音声作動コ
マンドを前記ワイヤレス伝送装置から受信し、認識し、
及び、前記ワイヤレス伝送装置のメモリからユーザの音
声特性が送信されるのを待機するように適応し、及び 前記ワイヤレス伝送装置は前記メモリから前記音声認識
システムに前記音声特性を伝送し、それによって、ユー
ザが前記音声認識システムと直接に口頭でコミュニケー
トするように適応すること を特徴とする音声伝送システム。 - 【請求項7】更に、ユーザの音声サンプルから音声特性
を生成するための音声特性抽出装置を含むことを特徴と
する請求の範囲第6項に記載のシステム。 - 【請求項8】前記ワイヤレス伝送装置は音声作動コマン
ドを受けるためのマイクロフォンと、音声作動コマンド
を認識するための音声認識回路と、受け取った音声作動
コマンドを前記音声認識システムに送信するための送信
装置とを含むことを特徴とする請求の範囲第6項又は第
7項に記載のシステム。 - 【請求項9】前記送信装置はRFトランスミッタを含むこ
とを特徴とする請求の範囲第8項に記載のシステム。 - 【請求項10】前記ワイヤレス伝送装置は、更に、前記
メモリ及び送信装置を制御するためのプロセッサを含む
ことを特徴とする請求の範囲第8項又は第9項に記載の
システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/497,302 | 1995-06-30 | ||
US08/497,302 US5704009A (en) | 1995-06-30 | 1995-06-30 | Method and apparatus for transmitting a voice sample to a voice activated data processing system |
PCT/GB1996/001544 WO1997002526A1 (en) | 1995-06-30 | 1996-06-27 | Method and apparatus for transmitting a voice sample to a voice activated data processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10507559A JPH10507559A (ja) | 1998-07-21 |
JP3335178B2 true JP3335178B2 (ja) | 2002-10-15 |
Family
ID=23976298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP50490997A Expired - Fee Related JP3335178B2 (ja) | 1995-06-30 | 1996-06-27 | 音声サンプルを音声作動データ処理システムに伝送するための方法及び装置 |
Country Status (12)
Country | Link |
---|---|
US (1) | US5704009A (ja) |
EP (1) | EP0836720B1 (ja) |
JP (1) | JP3335178B2 (ja) |
KR (1) | KR100297076B1 (ja) |
CN (1) | CN1095563C (ja) |
CA (1) | CA2220861C (ja) |
CZ (1) | CZ287316B6 (ja) |
DE (1) | DE69606042T2 (ja) |
HU (1) | HUP9801839A3 (ja) |
PL (1) | PL182225B1 (ja) |
TW (1) | TW366483B (ja) |
WO (1) | WO1997002526A1 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3697748B2 (ja) * | 1995-08-21 | 2005-09-21 | セイコーエプソン株式会社 | 端末、音声認識装置 |
JP3674990B2 (ja) * | 1995-08-21 | 2005-07-27 | セイコーエプソン株式会社 | 音声認識対話装置および音声認識対話処理方法 |
US5940476A (en) | 1996-06-28 | 1999-08-17 | Distributed Software Development, Inc. | System and method for identifying an unidentified caller |
US6529881B2 (en) * | 1996-06-28 | 2003-03-04 | Distributed Software Development, Inc. | System and method for identifying an unidentified customer at the point of sale |
US6205204B1 (en) | 1996-06-28 | 2001-03-20 | Distributed Software Development, Inc. | System and method for identifying an unidentified person using an ambiguity-resolution criterion |
US7006605B1 (en) * | 1996-06-28 | 2006-02-28 | Ochopee Big Cypress Llc | Authenticating a caller before providing the caller with access to one or more secured resources |
US5901203A (en) | 1996-06-28 | 1999-05-04 | Distributed Software Development, Inc. | Computer-based system and method for identifying an unidentified caller |
JPH10178490A (ja) * | 1996-10-15 | 1998-06-30 | Casio Comput Co Ltd | 音声記憶システム |
JPH10260692A (ja) * | 1997-03-18 | 1998-09-29 | Toshiba Corp | 音声の認識合成符号化/復号化方法及び音声符号化/復号化システム |
US7383200B1 (en) | 1997-05-05 | 2008-06-03 | Walker Digital, Llc | Method and apparatus for collecting and categorizing data at a terminal |
US6567787B1 (en) * | 1998-08-17 | 2003-05-20 | Walker Digital, Llc | Method and apparatus for determining whether a verbal message was spoken during a transaction at a point-of-sale terminal |
US5987405A (en) * | 1997-06-24 | 1999-11-16 | International Business Machines Corporation | Speech compression by speech recognition |
US6003004A (en) | 1998-01-08 | 1999-12-14 | Advanced Recognition Technologies, Inc. | Speech recognition method and system using compressed speech data |
GB9824762D0 (en) * | 1998-11-11 | 1999-01-06 | Ncr Int Inc | Self-service terminal |
US6260016B1 (en) | 1998-11-25 | 2001-07-10 | Matsushita Electric Industrial Co., Ltd. | Speech synthesis employing prosody templates |
US6195636B1 (en) | 1999-02-19 | 2001-02-27 | Texas Instruments Incorporated | Speech recognition over packet networks |
US6185533B1 (en) | 1999-03-15 | 2001-02-06 | Matsushita Electric Industrial Co., Ltd. | Generation and synthesis of prosody templates |
NL1012860C2 (nl) * | 1999-08-19 | 2001-02-20 | Nedap Nv | Boerderijautomatiseringssysteem. |
EP1120752A1 (de) * | 2000-01-24 | 2001-08-01 | Franke & Co. Verwaltungs KG | System zur Kontrolle von Zugangs- bzw. Zugriffsberechtigungen |
DE10003617A1 (de) * | 2000-01-28 | 2001-08-02 | Volkswagen Ag | Verfahren und Vorrichtung zur Spracheingabe bei Autoradios |
KR20050063765A (ko) * | 2002-08-22 | 2005-06-28 | 마쯔시다덴기산교 가부시키가이샤 | 리듬 패턴을 사용한 제어 시스템, 방법 및 프로그램 |
US20060173681A1 (en) * | 2005-02-01 | 2006-08-03 | Bae Systems Information And Electronic Systems Integration Inc | Semi-covert emergency transmitter |
US20070083367A1 (en) * | 2005-10-11 | 2007-04-12 | Motorola, Inc. | Method and system for bandwidth efficient and enhanced concatenative synthesis based communication |
US10257191B2 (en) | 2008-11-28 | 2019-04-09 | Nottingham Trent University | Biometric identity verification |
US9059991B2 (en) | 2008-12-31 | 2015-06-16 | Bce Inc. | System and method for unlocking a device |
US8346562B2 (en) * | 2010-01-06 | 2013-01-01 | Csr Technology Inc. | Method and apparatus for voice controlled operation of a media player |
KR101262700B1 (ko) * | 2011-08-05 | 2013-05-08 | 삼성전자주식회사 | 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치 |
EP3754997B1 (en) | 2011-08-05 | 2023-08-30 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
CN102436813A (zh) * | 2011-12-21 | 2012-05-02 | 成都众询科技有限公司 | 一种可控语音控制系统 |
KR20130133629A (ko) | 2012-05-29 | 2013-12-09 | 삼성전자주식회사 | 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법 |
US9135915B1 (en) * | 2012-07-26 | 2015-09-15 | Google Inc. | Augmenting speech segmentation and recognition using head-mounted vibration and/or motion sensors |
CN106296867B (zh) * | 2015-06-11 | 2019-09-06 | 杭州萤石网络有限公司 | 影像记录设备及其影像标记方法 |
CN107256707B (zh) * | 2017-05-24 | 2021-04-30 | 深圳市冠旭电子股份有限公司 | 一种语音识别方法、系统及终端设备 |
US10283117B2 (en) * | 2017-06-19 | 2019-05-07 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for identification of response cue at peripheral device |
JP7044633B2 (ja) * | 2017-12-28 | 2022-03-30 | シャープ株式会社 | 操作支援装置、操作支援システム、及び操作支援方法 |
CN109065058B (zh) * | 2018-09-30 | 2024-03-15 | 合肥鑫晟光电科技有限公司 | 语音通信方法、装置及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0633520B1 (en) * | 1993-07-01 | 2000-09-20 | Koninklijke Philips Electronics N.V. | Remote control having voice input |
US5657425A (en) * | 1993-11-15 | 1997-08-12 | International Business Machines Corporation | Location dependent verbal command execution in a computer based control system |
WO1995015663A1 (en) * | 1993-12-01 | 1995-06-08 | Nhc Corporation | Wireless remote switching system |
US5444673A (en) * | 1994-07-12 | 1995-08-22 | Mathurin; Trevor S. | Audio controlled and activated wristwatch memory aid device |
-
1995
- 1995-06-30 US US08/497,302 patent/US5704009A/en not_active Expired - Lifetime
-
1996
- 1996-05-15 TW TW085105742A patent/TW366483B/zh active
- 1996-06-27 CZ CZ19973953A patent/CZ287316B6/cs not_active IP Right Cessation
- 1996-06-27 KR KR1019970708903A patent/KR100297076B1/ko not_active IP Right Cessation
- 1996-06-27 EP EP96920991A patent/EP0836720B1/en not_active Expired - Lifetime
- 1996-06-27 CN CN96195188A patent/CN1095563C/zh not_active Expired - Lifetime
- 1996-06-27 CA CA002220861A patent/CA2220861C/en not_active Expired - Fee Related
- 1996-06-27 JP JP50490997A patent/JP3335178B2/ja not_active Expired - Fee Related
- 1996-06-27 WO PCT/GB1996/001544 patent/WO1997002526A1/en active IP Right Grant
- 1996-06-27 DE DE69606042T patent/DE69606042T2/de not_active Expired - Lifetime
- 1996-06-27 HU HU9801839A patent/HUP9801839A3/hu unknown
- 1996-06-27 PL PL96324025A patent/PL182225B1/pl unknown
Also Published As
Publication number | Publication date |
---|---|
CZ395397A3 (cs) | 1999-01-13 |
PL324025A1 (en) | 1998-05-11 |
HUP9801839A3 (en) | 2002-09-30 |
DE69606042T2 (de) | 2000-10-26 |
PL182225B1 (pl) | 2001-11-30 |
WO1997002526A1 (en) | 1997-01-23 |
CA2220861A1 (en) | 1997-01-23 |
DE69606042D1 (de) | 2000-02-10 |
CN1095563C (zh) | 2002-12-04 |
US5704009A (en) | 1997-12-30 |
JPH10507559A (ja) | 1998-07-21 |
TW366483B (en) | 1999-08-11 |
EP0836720A1 (en) | 1998-04-22 |
HUP9801839A2 (hu) | 1998-11-30 |
CZ287316B6 (en) | 2000-10-11 |
CA2220861C (en) | 2002-11-05 |
KR19990022423A (ko) | 1999-03-25 |
EP0836720B1 (en) | 2000-01-05 |
CN1189900A (zh) | 1998-08-05 |
KR100297076B1 (ko) | 2001-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3335178B2 (ja) | 音声サンプルを音声作動データ処理システムに伝送するための方法及び装置 | |
US10614803B2 (en) | Wake-on-voice method, terminal and storage medium | |
US7684985B2 (en) | Techniques for disambiguating speech input using multimodal interfaces | |
US5696879A (en) | Method and apparatus for improved voice transmission | |
US7624018B2 (en) | Speech recognition using categories and speech prefixing | |
US20030182113A1 (en) | Distributed speech recognition for mobile communication devices | |
WO2020024620A1 (zh) | 语音信息的处理方法以及装置、设备和存储介质 | |
US20020198716A1 (en) | System and method of improved communication | |
JP2011504624A (ja) | 自動同時通訳システム | |
EP1374228A1 (en) | Method and processor system for processing of an audio signal | |
JPH06131108A (ja) | 情報入力装置 | |
EP0472193A2 (en) | Translation device based on voice recognition and voice synthesis | |
Goddeau et al. | Deploying speech applications over the web. | |
KR950014504B1 (ko) | 전자문서를 음성 처리하는 휴대용 컴퓨터 디바이스 | |
Roy et al. | Wearable audio computing: A survey of interaction techniques | |
CN113160782B (zh) | 音频处理的方法、装置、电子设备及可读存储介质 | |
CN110534084B (zh) | 一种基于FreeSWITCH的智能语音控制方法及系统 | |
JPH10133849A (ja) | パーソナルコンピュータおよびエラー通知方法 | |
WO2021171417A1 (ja) | 発話終端検出装置、制御方法、及びプログラム | |
JP2000276188A (ja) | 音声認識装置、音声認識方法、音声認識用制御プログラムを記録した記録媒体、通信端末装置、通信方法、音声認識通信の制御用プログラムを記録した記録媒体、サーバ装置、音声認識用データの送受信方法及び音声認識用データの送受信制御プログラムを記録した記録媒体 | |
CN112954695A (zh) | 一种音箱配网的方法、装置、计算机设备和存储介质 | |
CN116243804A (zh) | 一种语音控制键盘 | |
JP2002259373A (ja) | 辞書装置 | |
Cohen et al. | Making automated speech recognition work | |
JPS5957298A (ja) | 音声入力方式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |