JP2003511924A - ローカルなインターラプト検出に基づく音声認識技術 - Google Patents
ローカルなインターラプト検出に基づく音声認識技術Info
- Publication number
- JP2003511924A JP2003511924A JP2001529228A JP2001529228A JP2003511924A JP 2003511924 A JP2003511924 A JP 2003511924A JP 2001529228 A JP2001529228 A JP 2001529228A JP 2001529228 A JP2001529228 A JP 2001529228A JP 2003511924 A JP2003511924 A JP 2003511924A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- subscriber unit
- speech recognition
- voice recognition
- infrastructure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/08—Access point devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Abstract
Description
より具体的には、音声通信中のインターラプト検出のための新規の技術に関する
。
米国特許4,914,692、5,475,791、5,708,704と、ま
た5,765,130は、音声認識システムを組み込んだ電話網を例示している
。各システムの共通する特徴は、音声認識エレメント(即ち、音声認識を実施す
るデバイス)は、加入者の通信デバイス(即ち、ユーザーの電話)とは逆に、一
般的に、電話網の構成の中心に位置されている。典型的には、音声の合成と音声
認識エレメントとの組み合せは、電話網あるいはインフラストラクチャ内で展開
されている。呼者は、そのシステムにアクセスし、音声合成エレメントを介して
、合成された音声の形での情報のプロンプトあるいはクエリーの提供を受けるこ
とができる。呼者は、一般的に、合成された音声に対して口頭による応答を行い
、音声認識エレメントは、呼者にさらなるサービスを提供するために、呼者の口
頭による応答を処理する。
ント”あるいは“自動アシスタント”と呼ばれる“電子アシスタント”であった
。例えば、米国特許5,652,789(以下“789特許”と称す)は、電子
アシスタントを経由して加入者が、個人通話を管理できるサービスを説明してい
る。音声認識技術を使用して、加入者は、命令を発して、出入りする通話とメッ
セージを管理できる。一般的な、電話をベースとするシステムの中の様に、‘7
89特許の中で説明されている音声認識エレメントは、全て電話インフラ組織の
中にある。‘789特許の中で説明されている特徴の一つは、電子アシスタント
を設けて、加入者が。他の当事者と音声通話中に、バックグラウンド・モードに
入ることができる音声認識エレメントの性能である。このバックグラウンド・モ
ード中に、電子アシスタントは、音声をベースとする、特に電子アシスタントが
、“フォアグラウンド・モード”にさせる“呼び出しコマンド”の様な所定の発
生のセットに対して加入者の音声通話を監視する。フォアグラウンド・モードの
中で、電子アシスタントは、引続き音声をベースとするコマンドの大きなセット
に対して監視する。この方法で、電子台は、文字どおり“通話中”となり、加入
者のニーズに答え、特定の呼び出しあるいは“ウェークアップ”コマンドの検出
を通して呼び出される。
呼び出す機能は、電話網の中に展開されている音声認識エレメントを通して動作
させることができる。同様の電子アシスタントのサービスを実行する種々の他の
システムは、現在一般に入手可能である。同様に、このようなシステムは、ネッ
トワークをベースとする音声認識エレメントを通して動作させることができる。
呼び出し時間あるいは遅延が、大部分の電話網の中で一般的に短いので(約数ミ
リ秒間)、特に電子アシスタントに対する“ウェークアップ”コマンドが応用さ
れたインフラをベースとする音声認識エレメントが実用的であるが、しかし、現
行のシステムは、無線システムに的を絞ることを怠ってきた。例えば、異なるセ
ルラ・システムの中で、無線通信チャンネルの変動する性格(即ち、時間と共に
変化する劣化とスループットの遅延)と、また応用される音声の処理の差、があ
ると仮定して、純粋にインフラをベースとする音声認識エレメントの使用は、問
題を引き起こす可能性がある。現在の解決として、また完全に音声チャンネルと
専用のネットワーク資源を使用して、音声認識機能に“ウェークアップ”を提供
する。この方法では、“空白時間”と、ネットワークをベースとする音声認識を
利用可能とするサービスのためのネットワーク資源の非効率的な使用につながる
。従って、加入者が電子アシスタントサービス、あるいは音声をベースとするサ
ービスを利用して、無線通信の環境の中で“ウェークアップ”音声認識性能を発
揮させることができるより効率的な技術を提供することが有利である。
するための、主として無線通信環境に応用可能な技術を提供する。特に、この発
明は、加入者と他の当事者との間の音声通話の間のインターラプト表示のローカ
ルの検出を組み込んでいる。インターラプト表示に応答して、音声認識エレメン
トの一部が動作して、音声をベースとするコマンドの処理を開始する。一つの実
施例の中では、音声認識エレメントは、インフラの中の少なくとも部分的に実行
され、できれば、加入者ユニットの中で実施される音声認識クライアントと、ま
た無線通信システムのインフラの中で実施される音声認識サーバを備えることが
このましい。他方の実施例の中では、加入者ユニットの一部を形成する入力デバ
イスを使用してインターラプト表示を提供することができる。更にもう一つの実
施例の中では、加入者ユニットの中の音声認識装置を使用して、インターラプト
表示を提供することができる。加入者ユニットの中で表示信号を検出することで
、この発明により、無線通信環境の中でより容易に電子アシスタントあるいは同
様のサービスを利用することができる。
加入者ユニット102、103を備える無線通信100のシステム全体のアーキ
テクチャを示している。加入者の装置102、103は、無線システム110に
対応している無線チャンネル105を経由してインフラストラクチャと通信する
。本発明のインフラストラクチャは、無線システム110に加えて、スモール・
エンティティ・システム120と、コンテンツ・プロバイダ・システム130と
、企業システム140がデータ網150を介して相互に接続されているものとす
ることもできる。
いは車両搭載の無線通信デバイス102のような無線通信デバイスであってもよ
い。図1の中に示されている以外の各種の加入者ユニットを使用することができ
、本発明はこの点で限定されないものと解釈されるものとする。加入者ユニット
102、103を、ハンズフリーで音声通信するためのハンズフリーセルラ電話
と、ローカルの音声認識及び合成システムと、またクライアント−サーバ音声認
識及び合成システムのクライアント部分の構成部品を備えるものとすることがで
きる。これらの構成部品は、図2、図3に関して、更に詳しく説明される。
ム110と無線通信を行う。無線システム110は、当業者であれば、本発明を
、音声通信に対応しているセルラ以外のタイプの無線システムに有利に応用する
ことが分かるが、好ましくは、セルラ・システムを備えるものとすることが好ま
しい。無線チャンネル105は、一般的に、デジタル搬送技術を実施し、また音
声あるいはデータあるいはその双方を、加入者ユニット102、103へ及びユ
ニットから搬送できる無線周波数(RF)搬送波である。アナログ技術のような
他の伝送技術でも、使用できるものと解釈されるものとする。好ましい実施例の
中で、無線チャンネル105は、欧州通信規格協会(ETSI)により規定され
ている一般パケット無線サービス(GPRS)のような無線パケット・データ・
チャンネルである。無線チャンネル105は、データを転送して、クライアント
−サーバ音声認識及び合成システムのクライアント部分と、クライアント−サー
バ音声認識及び合成システムのサーバ部分との間の通信を容易にする。表示、制
御、あるいは状態情報の様な他の情報も、また無線チャンネル105上で転送で
きる。
05により送信されたものを受信するアンテナ112を備える。アンテナ112
は、またチャンネル105を経由して加入者ユニット102、103に送信する
。アンテナ112を経由して受信されたデータは、データ信号に転換されて、無
線網113に転送される。反対に、無線網113からのデータは、転送のために
アンテナ112に送信される。本発明に関連しては、無線網113は、一般的に
公知の基地局や、制御装置や、リソース・アロケータ(資源割当装置)や、イン
ターフェースや、データベース等の様な無線システムを実行するのに必要な諸デ
バイスを備える。当業者であれば分かるとおり、無線網113に組み込まれる特
定のエレメントは、例えば、セルラ・システム、自動車に搭載された地上移動シ
ステムのような無線システム110の特定のタイプに応じて異なる。
認識サーバ115を無線網113に連結して、無線システム110のオペレータ
が、音声を基礎とするサービスを、加入者ユニット102、103に提供するこ
とができるようにすることができる。制御エンティティ116を、無線網113
に連結することができる。音声認識サーバ115により提供された入力に応答し
て、制御エンティティ116を使用して、制御信号を加入者ユニット102、1
03に送って、加入者ユニットあるいは装置に相互接続されているデバイスを制
御することができる。図示されているとおり、適切にプログラムされた全ての汎
用コンピュータを備えるものとすることができるエンティティ116を、無線網
113を経由するかあるいは図の中の破線で示されているように直接に音声認識
サーバ115に接続することができる。
50を経由して互いに接続された種々のシステム110、120、130、14
0を備えるものとすることができる。適切なデータ網150は、公知の通信網技
術を使用したプライベートデータ網やインターネットなどの公衆ネットワークや
、これらの組み合せなどを備えるものとすることができる。無線システム110
内の音声認識サーバ115と選択的に又は付加的に、遠隔音声認識サーバ123
、132、143、145を、各種の方法でデータ網150に接続して、音声を
基礎とするサービスを、加入者ユニット102、103に提供するようにしても
よい。遠隔音声認識サーバが備わっている場合は、同様に、データ網150及び
全ての介在する通信パス(経路)を経由して、制御エンティティ116と通信す
ることができる。
では、デスクトップ・パソコンあるいは他の汎用処理デバイスの様な、コンピュ
ータ122を使用して、音声認識サーバ123を実行することができる。加入者
ユニット102、103を出入りするデータは、無線システム110とデータ網
150を経由して、コンピュータ122に向けられる。保存されたソフトウエア
のアルゴリズム及び処理を実行してから、コンピュータ122は、音声認識サー
バ123の機能を提供する。サーバは、好ましい実施例の中で、音声認識システ
ムと音声合成システムの双方のサーバ部分を備える。場合、例えば、コンピュー
タ122がユーザーのパソコンである場合、コンピュータ上の音声認識サーバの
ソフトウエアを、コンピュータ内のユーザーのEメールや、電話帖や、カレンダ
ーや、他の情報の様なユーザーの個人情報に接続させることができる。この構成
で、加入者ユニットのユーザーは、音声をベースとするインターフェースを利用
して、自分のパソコン上の個人情報にアクセスできる。本発明に基づくクライア
ント−サーバ音声認識と音声合成システムのクライアント部分は、下記の図2と
3に関連させて説明される。本発明に基づくクライアント−サーバ音声認識と音
声合成システムのサーバ部分は、下記の図4と5に関連させて説明される。
・プロバイダ130は、音声認識サーバ132を、データ網に接続させることが
できる。特集あるいは特別のサービスとしての申出に、音声認識サーバ132は
、コンテンツのプロバイダの情報(図示されていない)へのアクセスを希望する
加入者ユニットのユーザーに、音声をベースとするインターフェースを提供する
。
ィなどの企業140内である。イントラネットの様な企業内の通信網146は、
セキュリティ(安全)ゲートウエイ(複数のネット間の接続)142を経由して
データ網150に接続される。セキュリティ・ゲートウエイ142は、加入者ユ
ニットと連動して、企業内通信網146に対する安全なアクセスを提供する。公
知の技術のとおり、この方法で提供される安全なアクセスは、一般的に、認証と
暗号技術に一部依存する。この方法で、安全でないデータ網150を介した、加
入者ユニットと内部通信網146との間の安全な通信が提供される。企業140
内で、音声認識サーバ145を実行するサーバ・ソフトウエアを、所定の従業員
のワークステーションのようなパソコン144上に提供できる。小規模のエンテ
ィティ・システムの中で使用するための前記で説明された構成と同様に、このワ
ークステーションアプローチで、従業員は音声をベースとするインターフェース
を経由して、作業に関連の又は他の情報にアクセスできる。また、コンテンツ・
プロバイダ130モデルと同様に、企業140は、内部で利用できる音声認識サ
ーバ143を提供して、企業のデータベースへのアクセスを提供することができ
る。
して、各種の音声をベースとするサービスを実行することができる。例えば、制
御エンティティ116が設けられている場合、これと連動させて、音声認識サー
バで、加入者ユニット又は、これに接続されているデバイスの操作の制御をする
ことができる。この明細書全体を通じて使用されている音声認識サーバと言う用
語が、音声合成機能をも同時に含むことに留意しなければならない。
た通常の電話システムとの間の相互接続を提供する。機能は、無線網113をP
OTS(旧式の電話システム)網118に接続することで、図1の中に示されて
いる。公知の技術のとおり、POTS網、あるいは同様の電話網は、陸上通信線
あるいは他の無線デバイスのような複数の呼び局への通話アクセスを提供する。
この方法で、音声認識サーバ102、103のユーザーは、他の呼び局119と
の音声通信を続行できる。下記に詳しく説明されているとおり、この発明は、ロ
ーカルで、音声通信中に電子アシスタントに対するウェークアップコマンドの様
なインターラプト表示を検出する技術を提供する。
アのアーキテクチュアを示している。図示されているように、2個の無線トラン
シーバ、即ち無線データ・トランシーバと無線音声トランシーバを使用すること
ができる。公知の技術のように、これらのトランシーバを、データと音声機能の
双方を実行することができる単独のトランシーバに結合させることができる。無
線データ・トランシーバ203と無線音声トランシーバ204の双方ともアンテ
ナ205に接続されている。また、各々のトランシーバに対して、別個のアンテ
ナを使用することができる。無線音声トランシーバ204は、全ての必要な信号
処理や、プロトコル終了や、変調/復調等を実行して、無線音声通信を提供し、
セルラ・トランシーバを備える。同様の方法で、無線データ・トランシーバー2
03はインフラとのデータ接続性を提供する。好ましい実施例の中では、無線デ
ータ・トランシーバ203は、欧州通信規格協会(ETSI)により規定されて
いる一般パケット・データ無線サービス(GPRS)のような無線パケットデー
タに対応している。
きることが見込まれる。車両搭載に利用された場合、この発明に係る加入者ユニ
ットは、また、一般的に車両の一部であり、加入者ユニットの一部ではないと見
なされる処理構成部品を備える。この発明を説明する目的で、処理構成部品を、
加入者ユニットの一部と仮定する。加入者ユニットの実用に当たって、設計面を
斟酌して、処理構成部品を含めたり専用とし含めないこともできるものと解釈さ
れるものとする。好ましい実施例の中で、処理構成部品は、IBM社の“POW
ER PC”のような汎用プロセッサ(CPU)201と、また、Motoro
la社のDSP56300シリーズ・プロセッサのようなデジタル信号処理装置
(DSP)202を備える。CPU201とDSP202は、公知の技術のとお
り、データ・バスとアドレス・バスを介して互いに接続されていることと、また
他の制御接続を示すために、図2の中で隣接して示されている。また、実施例の
中で、CPU201とDSP202の双方の機能を単独のプロセッサに結合させ
たり、あるいは複数のプロセッサに分割することができるようになっている。C
PU201とDSP202の双方は、関連するプロセッサに対するプログラムと
データの保存を提供する個々のメモリー240、241に接続されている。保存
されているソフトウエアのルーチンを使用して、CPU201あるいはDSP2
02あるいはその双方をプログラム化して、この発明の機能の少なくとも一部を
実行することができる。CPU201とDSP202は、下記の図3と6に関連
させて、少なくとも部分的に、下記で説明される。
ている全地球測位衛星(GPS)受信機206を備える。GPS受信機206は
、DSP202に接続されて、受信されたGPS情報を提供している。DSP2
02は、GPS受信機から情報を取り込んでから、無線通信デバイスの場所の座
標を計算する。また、GPS受信機206を、CPU201に直接場所の情報を
提供するものとすることができる。
2の中に示されているとおり、太線は、音声関係情報に対応し、また太い破線は
、制御/データ関連情報に対応する。オプションとしてのエレメントと信号パス
は、点線で示されている。DSP202は、下記で更に詳しく説明されていると
おり、電話(セル電話)の音声に対する音声入力と、ローカルの音声認識装置と
クライアント−サーバ音声認識装置のクライアント側の部分の双方に音声入力を
提供するマイク270から、マイク音声220を受信する。DSP202は、ま
た、電話(セル電話)の音声に対する音声出力と、ローカルの音声合成装置とク
ライアント−サーバ音声合成装置のクライアント側の部分の双方からの音声出力
の双方を提供する少なくとも1個のスピーカー271に向けられている出力音声
211に接続されている。携帯デバイスの中のように、マイク270とスピーカ
ー271の位置を互いに近付けたり、あるいは、サンバイザーに取り付けられて
いるマイクとダッシュボードあるいはドアに取り付けられているスピーカーを有
する自動車での応用のように、互いに引き離すことができることに留意しなけれ
ばならない。
ス230を経由して、車両搭載のデータ・バス208に接続されている。データ
・バス208で、セル電話や、娯楽(ラジオ、カセット・プレーヤー)システム
や、車内環境システムのような車に搭載されている種々のデバイス209a〜n
とCPU201との間で通信される状態情報を制御することができる。適切なデ
ータ・バス208を、自動車技術者協会により現在標準化作業が進行中のITS
データ・バス(IDB)とすることが見込まれる。ブルーツース・シグ(SIG
)(意見交換フォーラム)により定義される近距離無線データ通信システムのよ
うな種々のデバイス間の制御と状態情報を通信するまたの手段を使用することが
できる。データ・バス208で、CPU201は、ローカルの認識装置、あるい
はクライアント−サーバ認識装置の何れかにより認識された音声命令に応答して
、車両搭載のデータ・バス上のデバイス209を制御できる。
経由して無線データ・トランシーバ203に接続されている。接続線231、2
32で、CPU201は、無線システム110から送信された制御情報と音声合
成情報を受信することができる。音声合成情報は、無線データ・チャンネル10
5を経由して、クライアント−サーバ音声合成システムのサーバ部分から受信さ
れる。CPU201は、音声合成情報を復号してから、DSP202に届けられ
る。DSP202は、出力された音声を合成してから、合成されたものを音声出
力211に届けられる。受信データ接続線231を経由して受信された全ての制
御情報を、加入者ユニット自身を操作するために利用したり、1個あるいはそれ
以上のデバイスに送信して、デバイスの動作を制御することができる。更に、C
PU201は、状態情報と、またクライアント−サーバ音声認識システムのクラ
イアント部分からの出力データを、無線システム110に送信することができる
。クライアント−サーバ音声認識システムのクライアント部分は、下記で更に詳
しく説明されているとおり、好ましくは、DSP202とCPU201内のソフ
トウエアの中で実行されることが好ましい。音声認識に対応させるときに、DS
P202は、マイク入力線220を受信してから、音声を処理して、パラメータ
化された音声信号を、CPU201に音声を提供する。CPU201は、パラメ
ータ化された音声信号を符号化して、情報は、接続線232を経由して、無線デ
ータ・トランシーバ203に送信され、更に、無線データ・チャンネル105上
で、インフラストラクチャの中の音声認識サーバに向けて送信される。
U201に接続されている。データ・バスで、音声トランシーバ204を操作し
て、無線音声トランシーバ204からの状態情報を受信することができる。無線
音声トランシーバ204は、音声送信接続線221と、また受信音声接続線21
0を経由して、DSP202に接続されている。電話(セルラ)の通話を活用す
るために無線音声トランシーバ204が使用されているとき、音声は、DSP2
02により、マイクの入力線220から受信される。マイクの音声は、処理(例
えば、フィルター、圧縮等)されてから、無線音声トランシーバ204に提供さ
れて、更にセルラ・インフラに送信される。反対に、無線音声トランシーバ20
4により受信された音声は、受信音声接続線210を経由して、DSP202に
送信され、DSP202で、音声は処理(解凍、フィルター等)されてから、ス
ピーカー出力線211に提供される。DSP202により実行される処理は、図
3を引用して、更に詳しく説明される。
、手動でインターラプト表示線251を使用するための入力デバイス250を備
えるものとすることができる。即ち、音声による通信中に、加入者ユニットのユ
ーザーは、手動で入力デバイスを動作させて、インターラプト表示を提供するこ
とで、音声認識機能をウェークアップさせたいと言うユーザーの意思を伝えるこ
とができる。例えば、音声による通信中に、加入者ユニットのユーザーが、音声
をインターラプトして、音声をベースとするコマンドを電子アシスタントに提供
して、ダイヤルして、通話に第三者を加えたくなることがある。入力デバイス2
50を、実質的に如何なるタイプのユーザーにより動作化される入力機構を備え
るものとすることができる。例として、特に挙げることができるものは、単一あ
るいは多目的ボタンや、多重位置セレクタや、あるいは入力機能を有するメニュ
ーで駆動されるディスプレーである。また、入力デバイス250を、双方向イン
ターフェース230と、また車両搭載データ・バス208を経由して、CPU2
01に接続することができる。入力デバイスが設けられていると否とを問わず、
CPU201は、インターラプト表示があるかないかを識別するための検出装置
としての役割を果たす。CPU201が、入力デバイス250に対する検出装置
としての役割を果たしているときは、CPU201は、参照符号260がふられ
ている信号パスにより示されているとおり、インターラプト表示の存在をDSP
202に指摘する。反対に、インターラプト表示を提供するための検出装置に接
続されているローカルの音声認識装置を使用する他の機能(できれば、DSP2
02あるいはCPU201あるいはその双方により実行されることが好ましい)
を有している。この場合、参照符号260aが振られている信号パスで示されて
いるとおり、CPU201あるいはDSP202の何れかは、インターラプト表
示の存在を指摘する。一旦インターラプト表示の存在が検出されたか否かを問わ
ず、音声認識エレメントの一部(できれば、加入者ユニットに関連してか、ある
いは一部として実行されるクライアント部分であることが好ましい)が動作して
、コマンドをベースとする音声処理を開始する。更に、音声認識エレメントの一
部が動作したと言う表示をユーザーと、また音声認識サーバに提供することがで
きる。好ましい実施例の中で、この表示は、送信データ接続線232を経由して
、無線データ・トランシーバ203に搬送され、更に、音声識別エレメントを提
供するために、音声認識クライアントと協動する音声認識サーバに送信される。
が動作したことを伝える表示器制御線256に応答して加入者ユニットのユーザ
ーに表示を提供する表示器255が装備されていることが好ましい。表示器25
5は、インターラプト表示装置に応答して動作させられ、一定期間のトーンある
いはビープの様な、音声表示を提供するのに使用されるスピーカーを備えるもの
とすることができる(ここでも、入力デバイスをベースとする信号260、ある
いは音声をベースとする信号260aの何れかを使用して、インターラプト表示
装置が、表示を受けることができるようになっている。)他の実施例の中で、音
声をスピーカー出力線211に向ける、DSP202により実行されるソフトウ
エア・プログラムを経由して表示器の機能が設けられている。スピーカーを、別
々のものにするか、あるいは同じスピーカー271を使用して、出力音声線21
1を可聴とすることができる。また、表示器255を、可視表示装置を提供する
LEDあるいはLCD表示装置の様な表示装置を備えるものとすることができる
。表示器255の特定の形態は、設計の選択の問題であり、この発明では、必ず
しもこの事項に限定されないものとする。更に、表示器255を、双方向インタ
ーフェース230と、また車両搭載データ・バス208を経由して、CPU20
1に接続することができる。
で実行される処理部分は、保存された、CPU201あるいはDSP202ある
いはその双方により実行されるマシンにより読み取り可能な命令を使用して実行
される。下記に発表されている解説は、自動車の中に展開されている加入者ユニ
ットの動作を説明しているが、図3の中に一般的に示され、この明細書の中で説
明されている機能は、同様に非車両をベースとする使用に応用できるか、あるい
は音声認識を使用することで利点を発揮させることができる。
環境下では、マイクは、一般的にサンバイサあるいは車両のステアリングコラム
に直接取り付けられているか隣接した所にある通常ハンズフリーマイクである。
できれば、マイクの音声線220が、デジタルの形態で、エコー・キャンセラー
(2個の信号の伝送遅延による反射の取消)と環境処理(ECEP)ブロック3
01の所まで到達することが好ましい。スピーカーの音声211は、全ての必要
な処理を受けてから、ECEPブロック301を経由して、スピーカー(複数を
含む)に届けられる。車両の中では、スピーカーは、ダッシュボードの下に取り
付けられる。また、スピーカー音声線211を、娯楽システムのスピーカー・シ
ステムを経由して演奏される車両の中の娯楽システムを経由させることができる
。スピーカー音声線211は、できれば、デジタル・フォーマットであることが
好ましい。例えば、セルラ通話が進行中であるとき、セルラ電話から受信された
音声は、受信音声接続線210を経由してECEPブロック301に到達する。
同様にして、送信される音声は、送信音声接続線221を経由して、セル電話に
届けられる。
シーバ204に届けられる前に、マイク音声線220からのスピーカー音声線2
11のエコー・キャンセルが提供される。エコー・キャンセルは、音声エコー・
キャンセルとして知られており、また公知の技術である。例えば、Amano他
に交付された、“サブ・バンド音声エコー・キャンセラー”の名称の米国特許5
,136,599と、またGenterに交付された、“サブバンド減衰とノイ
ズ除去制御を有するエコー・キャンセラー”の名称の米国特許5,561,66
8は、音声エコー・キャンセルを実施するのに適切な技術を教示しており、特許
の教示事項は、引用により、この明細書の中に組み込まれている。
ク音声線220に提供して、加入者ユニットにより送信された音声を受信する側
により快適な音声信号を提供する。一般的に普及している一つの技術は、ノイズ
抑圧と呼ばれている。車両の中のハンズフリーマイクは、一般的に、他人に聞き
取られる多数のタイプの音声ノイズを取り込む。他人に聞き取られる知覚される
バックグラウンド・ノイズを減らす技術は、例えば、Vilmur他に交付され
た米国特許4,811,404により説明されており、特許の教示事項は、引用
により、この明細書の中に組み込まれている。
バックエンド304により提供された合成された音声のエコー・キャンセル処理
を提供する。合成された音声は、音声出力線211を経由して、スピーカー(複
数を含む)に届けられる。受信された音声がスピーカー(複数を含む)に向けら
れた場合と同様に、マイクの音声パス220上で到達したスピーカーの音声“エ
コー”は、打ち消される。作用で、音響的にマイクに連結されたスピーカーの音
声を、音声が音声認識のフロント・エンド302に届く前に、マイクの音声から
取り除くことができる。タイプの処理により、公知の技術で“バージイン”とし
て知られている技術を動作させることができる。バージインで、出力音声が同時
にシステムで生成されながら、音声認識システムを、音声に対応させることがで
きる。“バージイン”の実施例は、例えば、米国特許4,914,692と、5
,475,791と、5,708,704また5,765,130の中に見い出
すことができる。
音声パス326を経由して、音声認識フロント・エンド302に供給される。オ
プションとして、ECEPブロック301は、第1データ・パス327を経由し
て、バックグラウンド・ノイズ情報を音声認識フロント・エンド302に提供す
る。バックグラウンド・ノイズ情報を、ノイズが多い環境の中で動作する音声認
識システムに対する認識性能を改善するのに使用できる。処理を実施するのに適
する技術は、Gerson他に交付された米国特許4,918,732の中で説
明されており、特許の教示事項は、この明細書の中で、引用で組み込まれている
。
301から受信されたバックグラウンド・ノイズ情報を基礎として、音声認識フ
ロント・エンド302は、パラメータ化された音声情報を生成する。音声認識フ
ロント・エンド302と、また音声合成バック・エンド304は、共に、音声認
識及び合成システムをベースとするクライアント−サーバのクライアント側の部
分の核となる機能を提供する。パラメータ化された音声情報は、一般的に、特徴
ベクトルの形態であり、この場合、10から20ミリ秒毎に新しいベクトルが計
算される。音声信号のパラメータ化のために普及している一つの技術は、198
0年8月の、音声音声と信号処理に関する、ASSP−28(4)の、頁357
−366IEEE(米国電気電子技術者協会の会報の、“連続的に喋られる文の
単音節の言葉の認識に対するパラメータによる表示の比較”Davi他により説
明されているとおりの、mel cepstraであり、刊行物の教示、引用に
よりこの明細書の中に組み込まれている。
ローカルの音声認識処理のために、第2データ・パス325を経由して、ローカ
ルの音声認識ブロック303に送られる。パラメータのベクトルは、また、オプ
ションとして、第3データ・パス323を経由して、音声アプリケーション・プ
ロトコル・インターフェース(API)(複数)と、またデータ・プロトコル(
複数)を備えるプロトコル処理ブロック306に送られる。公知の技術に従って
、処理ブロック306は、送信データ接続線232を経由して、パラメータ・ベ
クトルを無線データトランシーバ203に送る。反対に、無線データトランシー
バ203は、音声認識装置をベースとするクライアント−サーバの一部として機
能するパラメータ・ベクトルをサーバに送る。(パラメータ・ベクトルを送信す
るよりも、加入者ユニットのほうが、無線データトランシーバ203または無線
音声トランシーバ204のいずれかを用いるサーバに音声情報を代わりに送信す
ることができるということが理解される。このことは、加入者ユニットから電話
ネットワークへの音声伝送を支持するのに用いられる、または、音声信号を生ず
る他の適切な同様の方法で行われてもよい。すなわち音声信号は、生のデジタル
化されたオーディオ、セルラー音声コーダで処理したオーディオ、IP(インタ
ーネットプロトコル)等の特定のプロトコルに準ずる伝送に好適なオーディオデ
ータ等の種々のパラメータ化されていない生成物のいずれかを備えてもよい。次
いでサーバは、パラメータ化されていない音声情報を受信すると、必要とされる
パラメータ化を行うことができる。)単独の音声認識フロント・エンド302が
示されているが、実際的には、ローカルの音声認識装置303と、音声認識装置
をベースとするクライアント−サーバは、種々の音声認識フロントエンドを利用
することができる。
メータ・ベクトル325を受信してから、フロント・エンド上で音声認識分析を
実行し、例えば、パラメータ化された音声の中に認識できる発話があるかどうか
を決定する。一つの実施例の中で、認識された発話(一般的に単語)は、加入者
ユニットの中の音声認識装置303から、第4データ・パス324を経由して、
プロトコル処理ブロック306に送られ、パスは、更に処理を行うために、認識
された発話を種々のアプリケーション307に渡す。CPU201、あるいはD
SP202あるいはその双方を使用して実行することができるアプリケーション
307は、認識された発話をベースとする検出装置アプリケーションを備えるも
のとすることができ、音声をベースとするインターラプト指示表示が受信された
ことを確かめる。例えば、検出装置は、マッチングのための検索を行いながら、
認識された発話を予め設定された発話のリスト(例えば“ウェークアップ”)と
比較する。整合が検出されたときは、検出装置アプリケーションは、信号260
aを発して、インターラプト表示の存在を知らせる。インターラプト表示の存在
は、次に、音声認識エレメントを動作させて、音声をベースとするコマンドの処
理を開始させるのに使用される。作用の概略は、音声認識フロント・エンドに送
られる信号260aにより図3の中で示されている。この作用に応答して、音声
認識フロント・エンド302は、引続き、パラメータ化された音声を、加入者ユ
ニットの中の音声認識装置に向けて送るか、あるいは、できれば、追加の処理の
ために音声認識サーバに送信するために、プロトコル処理ブロック306に送る
ことが好ましい。(また、オプションとして入力デバイス250により提供され
る入力デバイスをベースとする信号260が、同じ役割を果たすことができるこ
とに留意しなければならない)。更に、インターラプト表示の存在を、送信デー
タ接続線232に送信して、音声認識装置のインフラをベースとするエレメント
に表示を与えることができる。
を取り込んでから、パラメータ化された表示を、音声信号に転換し、信号は、そ
れから、第1音声パス316を経由して、ECEPブロック301に届けられる
。使用される特定のパラメータ化された表示は、設計の選択の問題である。一般
的に普及しているパラメータ化された表示は、Klattの“縦続接続/並列接
続フォルマント合成装置のためのソフトウエア”の題名の米国音声協会の協会誌
の、1980年の67卷の頁971−995の中で説明されている、フォルマン
ト(音色を特徴づける周波数成分)である。直線予測パラメータは、1976年
のSpringer書房の、Markel他の、音声の直線予測の中で解説され
ている、もう一つの一般に普及しているパラメータ化された表示である。Kla
ttとMarkel他の関連する教示は、引用で、この明細書の中に組み込まれ
ている。
れた表示は、無線チャンネル105と、無線データ・トランシーバ203と、ま
たプロトコル処理ブロック306を経由する通信網から受信され、それから、音
声のパラメータ化された表示は、第5パス313を経由して、音声合成バック−
エンドに送られる。加入者ユニットの中の音声合成の場合は、アプリケーション
307は、喋られるテキストのストリングを生成する。テキスト・ストリングは
、プロトコル処理ブロック306を通過してから、第6パス314を経由して、
ローカルの音声合成装置305に送られる。音声合成装置305は、テキスト・
ストリングを、音声信号のパラメータ化された表示に転換してから、パラメータ
化された表示を、第7パス315を経由して、音声合成バック−エンド304に
送って、音声信号に転換する。
するのに使用できることに留意しなければならない。例えば、音声合成情報以外
の情報を、インフラから受信されたデータ(表示情報の様な)あるいは制御情報
あるいはその双方と、またシステムにダウンロードされるべきコードを備えるも
のとすることができる。同様に、送信データ接続線232を、音声認識フロント
−エンド302により計算されたパラメータ・ベクトル以外の送信情報を転送す
るのに使用できる。例えば、他の送信情報を、デバイス状態情報と、デバイスの
容量と、またバージインのタイミングに関する情報を備えるものとすることがで
きる。
おり、実施例には、この発明に係るクライアント−サーバ音声認識及び合成シス
テムのサーバ部分が設けられている。図1に関連して前記で説明されているとお
り、サーバを、複数の環境の中で常駐させることができる。インフラあるいは通
信網接続線411を経由して、加入者ユニットあるいは制御エンティティとのデ
ータ通信を行うことができる。図1の中で示されているとおり、接続線411を
、例えば無線システム内に限定して、無線通信網に直接接続させることができる
。また、接続線411を、公衆あるいは専用通信網、あるいは、他のデータ通信
リンクとすることができるが、この発明は、点に限定されない。
性を提供する。通信網インターフェース405は、通信網411からのデータを
、受信パス408を経由して、CPU401に向けて送り、送信パス410を経
由してCPU401から通信網接続線411に向けて送る。クライアント−サー
バ構成の一部として、CPU401は、通信網インターフェースと通信網接続線
411を経由して、1個あるいはそれ以上のクライアントと通信する(できれば
、加入者ユニットの中で実行される)。好ましい実施例の中で、CPU401は
、クライアント−サーバ音声認識及び合成システムのサーバ部分を実行する。図
示されていないが、図4の中のサーバを、加入者ユニットの中のインターフェー
スを備えるものとして、サーバへの装置内のアクセスを行って、例えばサーバの
保守と、状態の点検と他の同様の機能を容易にすることができる。
クライアント−サーバ構成のサーバ部分を実施するのに当たって、CPU401
による実行と使用のためのプログラム・データを保存する。ソフトウエアの動作
と構造は、図5を引用して説明される。
識クライアントと協働して、図5の中に示されている音声認識サーバの機能は、
音声認識エレメントを提供する。加入者ユニットからのデータは、受信パス40
8を経由して、受信機(RX)502の所に到達する。受信機は、データを復号
してから、音声認識データ503を、音声認識クライアントから音声認識分析装
置504に向ける。デバイスの状態情報と、デバイスの容量、とバージイン・コ
ンテキストに関する情報の様な、加入者ユニットからの他の情報506は、受信
機502により、ローカル制御プロセッサ508に向けられる。一つの実施例の
中で、他の情報506は、音声認識エレメント(例えば、音声認識クライアント
)の一部が動作した加入者ユニットからの表示を備える。表示を、音声認識サー
バの中の音声認識処理を開始させるのに使用することができる。
ユニットから音声認識パラメータ・ベクトルを取り込んでから、認識処理を完了
する。認識された単語あるいは発話507は、それから、ローカルの制御プロセ
ッサ508に送られる。パラメータ・ベクトルを認識された発話に転換するのに
必要な処理の説明は、1988年の、“自動音声認識:スフィンクス・システム
”の中で見ることができ、刊行物の教示事項は、引用でこの明細書の中に組み込
まれている。
08から認識された発話507を受信する。一般的に、この発明には、認識され
た発話を受信したら直ちに動作し、認識された発話が、制御信号を提供する制御
プロセッサが必要である。好ましい実施例の中で、諸制御信号が、使用されて、
次の加入者ユニット、あるいは加入者ユニットに接続されている少なくとも1個
のデバイスの動作を制御する。この目的のために、ローカルの制御プロセッサを
、できれば1個あるいはそれ以上の方法で動作するようになっていることが好ま
しい。第1に、ローカルの制御プロセッサ508が、アプリケーション・プログ
ラムを実行することができる。一般的なアプリケーションの一つの例は、米国特
許5,652,789の中で説明されているとおりの電子アシスタントである。
また、アプリケーションを、遠隔操作プロセッサ516上で操作できる。例えば
、図1のシステムの中で、遠隔操作プロセッサは、制御エンティティ116を備
える。前述の場合、ローカルの制御プロセッサ508は、データ通信網接続線5
15を経由して、遠隔操作プロセッサ516と通信することで、データを通過さ
せてから受信するゲートウェーとして動作する。データ通信網接続線515を、
公衆(例えばインターネット)や、専用通信網(例えば、イントラネット)、あ
るいは他の一部のデータ通信リンクとすることができる。事実、ローカルの制御
プロセッサ508は、ユーザーにより使用されるアプリケーション又はサービス
あるいはその双方次第で、データ通信網上に常駐する種々の遠隔操作プロセッサ
と通信できる。
を実行させるアプリケーション・プログラムは、認識された発話507あるいは
他の情報506あるいはその双方に対する応答を決定する。できれば、応答を、
合成されたメッセージあるいは、制御信号あるいはその双方を備えるものとする
ことができることが好ましい。制御信号513は、ローカルの制御プロセッサ5
08から、送信機(TX)510に中継される。一般的にテキスト情報に合成さ
れる情報514は、ローカルの制御プロセッサ508から、テキストから音声へ
の分析装置512に送られる。テキストから音声への分析装置512は、入力テ
キスト・ストリングを、パラメータ化された音声表示に転換する。前記に転換を
実行するのに適切な技術は、1997年の、Sproat(編集者)の“多言語
テキストから音声の合成:ベル社の取り組み”の中に説明されており、刊行物の
教示事項は、引用により、この明細書の中に組み込まれている。テキストから音
声への分析装置512からのパラメータ化された音声表示511は、必要に応じ
て多重化する送信機510に、パラメータ化された音声表示511と制御情報5
13は、送信パス410上で加入者ユニットに提供される。前述で説明されたも
のと同じ方法で操作して、テキストから音声への分析装置512を使用して、合
成されたプロンプトを提供するか、あるいは同様に、加入者ユニットの所での出
力音声信号としての役割を果たさせることができる。
ローチャートが示されている。ステップ601の所で、音声認識サーバは、加入
者ユニットからパラメータ化された音声信号を受信する。実用面では、音声認識
サーバは、単独の加入者ユニットからのパラメータ化された音声信号を処理する
性能を有しており、利用可能な処理と通信資源によってのみ制約される。ステッ
プ602の所で、音声認識サーバは、パラメータ化された音声信号を受信したら
、直ちに音声認識分析を実行する。良好な環境を仮定して、音声認識分析は、パ
ラメータ化された信号の中で検出された認識された発話に関する情報を提供する
。
プ603の所で動作させられる。前記で説明されているとおり、好ましい実施例
の中で、動作により、クライアント−サーバ音声認識及び合成システムのクライ
アント側の部分は、音声をベースとするコマンドの処理が開始される。更に、ス
テップ604の所で、インターラプト表示の存在に応答する表示で、音声認識エ
レメント、とまた特に加入者ユニットの中に常駐している音声認識エレメントの
部分が、動作したことをユーザーに表示することができる。表示を、独特で知覚
できる刺激とすることができる。前述の方法で、加入者ユニットのユーザーは、
音声通信をインターラプトしたい自己の意向が認識されたことを知り、さらに、
音声認識エレメントが動作しているとの認識で継続できること知るのである。更
に、ステップ604の所で、無線送信のために適切に処理された表示を、音声認
識エレメントの一部を形成している音声認識サーバに提供できる。
呼び出すための独特の技術を提供する。前述の技術は、例えばウェークアップコ
マンドの様なインターラプト表示の検出部が、ローカルに加入者ユニットで実行
されるので、無線通信環境に対して容易に応用できる。前記で説明されたことは
、単にこの発明の原理の応用の例示である。当業者であれば、この発明の精神と
範囲を逸脱することなく、他の構成と方法を実行できる。
Claims (29)
- 【請求項1】 インフラと無線通信して、インフラを経由して、加入者ユニ
ットのユーザーと他の者との間で音声通信を提供できる加入者ユニットの中で、
インフラが、音声認識サーバからなるものにおいて、 インフラを経由して、加入者ユニットのユーザーと他の者との間の音声通話を
行うことと、 加入者ユニットの中で、音声通話中に、インターラプト表示を検出することと
、また、 インターラプト表示に応答して、音声認識エレメントを動作させて、音声をベー
スとするコマンドの処理を開始することにおいて、音声認識エレメントが、少な
くとも部分的にインフラの中で実行されることを備えることを特徴とする方法。 - 【請求項2】 加入者ユニットの中で検出する方法が、更に、加入者ユニッ
トの一部を形成している入力デバイスを動作させて、インターラプト表示を提供
する方法からなることを特徴とする、請求項1に記載されている方法。 - 【請求項3】 入力デバイスを動作させる方法が、ボタンと、セレクタと、
メニューで駆動される入力デバイスの何れかを動作させる方法を備えることを特
徴とする、請求項2に記載されている方法。 - 【請求項4】 加入者ユニットの中で検出する方法において、 加入者ユニットの中で実行されるローカルの音声認識装置を経由して、加入者
ユニットの中で音声通信を、少なくとも1個の予め設定された発話に対してモニ
ターすることと、また、 少なくとも1個の予め設定された発話が検出されたら、直ちにインターラプト
表示を提供することを備えることを特徴とする、請求項1に記載されている方法
。 - 【請求項5】 音声認識エレメントの一部を動作させる方法において、加入
者ユニットの中で実行される音声認識クライアントを動作させる、作用の中で、
音声認識クライアントと音声認識サーバが、協働して、音声認識エレメントを提
供することを特徴とする、請求項1に記載されている方法。 - 【請求項6】 音声認識クライアントにより、パラメータ化された音声情報
を音声認識サーバに提供することを特徴とする、請求項5に記載されている方法
。 - 【請求項7】 ユーザーに、音声認識エレメントが動作した部分の表示を提
供することを特徴とする、請求項1に記載されている方法。 - 【請求項8】 音声認識サーバに、音声認識エレメントが動作した部分の表
示を提供することを特徴とする、請求項1に記載されている方法。 - 【請求項9】 無線でインフラと通信する加入者ユニットにおいて、 加入者ユニットとインフラとの間の通信中に、加入者ユニットの中でインター
ラプト表示の存在を検出する検出装置と、また、 入力としてインターラプト表示の存在を取り込んでから、インターラプト表示
の存在により動作させられ、音声をベースとするコマンドの処理を開始する音声
認識エレメントの部分において、音声認識エレメントが、少なくともインフラの
中で実行されるものを備えることを特徴とする加入者ユニット。 - 【請求項10】 更に、動作したときにインターラプト表示を提供する検出
装置に接続されている入力デバイスを備えることを特徴とする、請求項9に記載
されている加入者ユニット。 - 【請求項11】 入力デバイスが、ボタン、セレクタとメニュー駆動入力デ
バイスを備えることを特徴とする、請求項10に記載されている加入者ユニット
。 - 【請求項12】 検出装置が、少なくとも1個の予め設定された発話に対し
て音声通話をモニターし、また少なくとも1個の予め設定された発話検出したら
、直ちにインターラプト表示の存在を検出するローカルの音声認識装置を備える
ことを特徴とする、請求項9に記載されている加入者ユニット。 - 【請求項13】 音声認識エレメントの一部が、音声認識クライアントを備
えるものにおいて音声認識クライアントと音声認識サーバが、インフラの中で協
働して音声認識エレメントを提供することを特徴とする、請求項9に記載されて
いる加入者ユニット。 - 【請求項14】 音声認識エレメント一部が動作したことを示すためのイン
ターラプト表示に対応する表示装置を備えることを特徴とする、請求項9に記載
されている加入者ユニット。 - 【請求項15】 インフラに対して、音声認識エレメント一部により提供さ
れたパラメータ化された音声情報を送信する無線トランシーバことを特徴とする
、請求項9に記載されている加入者ユニット。 - 【請求項16】 無線トランシーバが、インフラに、音声認識エレメント一
部が動作した表示を送信することを特徴とする、請求項15に記載されている加
入者ユニット。 - 【請求項17】 インフラと無線で通信する少なくとも1個の加入者ユニッ
トを備える無線通信システムにおいて、 少なくとも1個の加入者ユニットの中で、 少なくとも1個の加入者装置とインフラとの間の音声通話中に、加入者ユニッ
トの中でインターラプト表示の存在を検出する検出装置と、 入力としてインターラプト表示の存在を取り込んでから、音声をベースとする
コマンドの処理を開始する、インターラプト表示の存在により動作させられる音
声認識クライアントと、また、 インフラの中で、音声認識クライアントと協働して、音声認識エレメントを提
供する音声認識サーバを備えることを特徴とする無線通信システム。 - 【請求項18】 少なくとも1個の加入者ユニットが、無線電話を備えるこ
とを特徴とする、請求項17に記載されている無線通信システム。 - 【請求項19】 少なくとも1個の加入者ユニットが、車両搭載無線通信デ
バイスを備えることを特徴とする、請求項17に記載されている無線通信システ
ム。 - 【請求項20】 インフラの一部と音声認識エレメントの一部を形成する音
声認識サーバで、インフラが、少なくとも1個の加入者ユニットと無線で通信す
ることにおいて、 音声通話中に、少なくとも1個の加入者ユニットの加入者ユニットから、ロー
カルのインターラプト表示の検出に応答して提供された音声情報を受信すること
と、 音声情報をベースとして音声認識処理を実行することを備えることを特徴とす
る方法。 - 【請求項21】 加入者ユニットから、音声認識エレメントが動作させられ
たと言う表示を受信することと、また、 表示をベースとして音声認識処理を開始することを備えることを特徴とする、
請求項20に記載されている方法。 - 【請求項22】 加入者ユニットの所で、入力デバイスを動作させることで
、インターラプト表示が提供されることを特徴とする、請求項20に記載されて
いる方法。 - 【請求項23】 加入者ユニットの中で提供されたインターラプト表示が、
少なくとも1個の予め設定された発話に対して音声通話のモニターすることを特
徴とする、請求項20に記載されている方法。 - 【請求項24】 音声情報を処理して、パラメータ化された音声情報と提供
することにおいて、音声認識の処理がパラメータ化された音声情報をベースとし
ていることを特徴とする、請求項20に記載されている方法。 - 【請求項25】 少なくとも1個の加入者ユニットと無線通信であるインフ
ラの中で使用される音声認識サーバにおいて、 音声通話中に、インターラプト表示のローカルの検出に応答して入力として受
信する受信機と、また、 音声情報をベースとして音声認識処理を実行する音声認識分析装置を備えるこ
とを特徴とする音声認識サーバ。 - 【請求項26】 受信機が、加入者ユニットから、音声認識エレメントが動
作させられたと言う表示を受信するように動作することと、また表示が、音声認
識処理を開始することを特徴とする、請求項25に記載されている音声認識サー
バ。 - 【請求項27】 インターラプト表示が、加入者ユニットの所で、入力デバ
イスを動作させることで提供されることを特徴とする、請求項25に記載されて
いる音声認識サーバ。 - 【請求項28】 インターラプト表示が、加入者ユニットの中で、少なくと
も1個の予め設定された発話に対して音声通話をモニターされることで提供され
ることを特徴とする、請求項25に記載されている音声認識サーバ。 - 【請求項29】 音声認識分析装置が、音声情報を処理して、パラメータ化
された音声情報を提供し、音声認識処理が、パラメータ化された音声情報をベー
スとしていることを特徴とする、請求項25に記載されている音声認識サーバ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/412,699 | 1999-10-05 | ||
US09/412,699 US6963759B1 (en) | 1999-10-05 | 1999-10-05 | Speech recognition technique based on local interrupt detection |
PCT/US2000/041069 WO2001026394A1 (en) | 1999-10-05 | 2000-10-04 | Speech recognition technique based on local interrupt detection |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012048111A Division JP5425945B2 (ja) | 1999-10-05 | 2012-03-05 | ローカルなインターラプト検出に基づく音声認識技術 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003511924A true JP2003511924A (ja) | 2003-03-25 |
Family
ID=23634085
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001529228A Withdrawn JP2003511924A (ja) | 1999-10-05 | 2000-10-04 | ローカルなインターラプト検出に基づく音声認識技術 |
JP2012048111A Expired - Lifetime JP5425945B2 (ja) | 1999-10-05 | 2012-03-05 | ローカルなインターラプト検出に基づく音声認識技術 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012048111A Expired - Lifetime JP5425945B2 (ja) | 1999-10-05 | 2012-03-05 | ローカルなインターラプト検出に基づく音声認識技術 |
Country Status (6)
Country | Link |
---|---|
US (1) | US6963759B1 (ja) |
JP (2) | JP2003511924A (ja) |
KR (1) | KR100742259B1 (ja) |
CN (1) | CN100433840C (ja) |
AU (1) | AU2112601A (ja) |
WO (1) | WO2001026394A1 (ja) |
Families Citing this family (109)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7003463B1 (en) | 1998-10-02 | 2006-02-21 | International Business Machines Corporation | System and method for providing network coordinated conversational services |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US20010054060A1 (en) * | 2000-06-16 | 2001-12-20 | Fillebrown Lisa A. | Personal wireless network |
US8386557B2 (en) * | 2000-06-16 | 2013-02-26 | Enfora, Inc. | Method for supporting a personal wireless network |
US7233903B2 (en) * | 2001-03-26 | 2007-06-19 | International Business Machines Corporation | Systems and methods for marking and later identifying barcoded items using speech |
US7336602B2 (en) * | 2002-01-29 | 2008-02-26 | Intel Corporation | Apparatus and method for wireless/wired communications interface |
US7369532B2 (en) * | 2002-02-26 | 2008-05-06 | Intel Corporation | Apparatus and method for an audio channel switching wireless device |
US7254708B2 (en) * | 2002-03-05 | 2007-08-07 | Intel Corporation | Apparatus and method for wireless device set-up and authentication using audio authentication—information |
US7398209B2 (en) | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7693720B2 (en) * | 2002-07-15 | 2010-04-06 | Voicebox Technologies, Inc. | Mobile systems and methods for responding to natural language speech utterance |
US7197331B2 (en) | 2002-12-30 | 2007-03-27 | Motorola, Inc. | Method and apparatus for selective distributed speech recognition |
US7245951B2 (en) * | 2004-03-23 | 2007-07-17 | General Motors Corporation | Method and system for telematic data transfer |
US7529677B1 (en) * | 2005-01-21 | 2009-05-05 | Itt Manufacturing Enterprises, Inc. | Methods and apparatus for remotely processing locally generated commands to control a local device |
JP2006237735A (ja) * | 2005-02-22 | 2006-09-07 | Denso Corp | 車両用ナビゲーション装置 |
US7640160B2 (en) | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7949529B2 (en) | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) * | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US9305548B2 (en) | 2008-05-27 | 2016-04-05 | Voicebox Technologies Corporation | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
WO2011043072A1 (ja) | 2009-10-09 | 2011-04-14 | パナソニック株式会社 | 車載装置 |
US9171541B2 (en) | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20110184740A1 (en) * | 2010-01-26 | 2011-07-28 | Google Inc. | Integration of Embedded and Network Speech Recognizers |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9253304B2 (en) * | 2010-12-07 | 2016-02-02 | International Business Machines Corporation | Voice communication management |
US8930194B2 (en) * | 2011-01-07 | 2015-01-06 | Nuance Communications, Inc. | Configurable speech recognition system using multiple recognizers |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
CN104769668B (zh) | 2012-10-04 | 2018-10-30 | 纽昂斯通讯公司 | 改进的用于asr的混合控制器 |
CN103914344B (zh) * | 2013-01-07 | 2019-05-03 | 泰为信息科技公司 | 具有多模式互动机构的计算系统及其操作方法 |
US9256269B2 (en) * | 2013-02-20 | 2016-02-09 | Sony Computer Entertainment Inc. | Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state |
EP2784774A1 (en) * | 2013-03-29 | 2014-10-01 | Orange | Telephone voice personnal assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
CN105264524B (zh) | 2013-06-09 | 2019-08-02 | 苹果公司 | 用于实现跨数字助理的两个或更多个实例的会话持续性的设备、方法、和图形用户界面 |
KR102394485B1 (ko) * | 2013-08-26 | 2022-05-06 | 삼성전자주식회사 | 음성 인식을 위한 전자 장치 및 방법 |
EP2851896A1 (en) | 2013-09-19 | 2015-03-25 | Maluuba Inc. | Speech recognition using phoneme matching |
US10134395B2 (en) * | 2013-09-25 | 2018-11-20 | Amazon Technologies, Inc. | In-call virtual assistants |
US9601108B2 (en) | 2014-01-17 | 2017-03-21 | Microsoft Technology Licensing, Llc | Incorporating an exogenous large-vocabulary model into rule-based speech recognition |
US10749989B2 (en) | 2014-04-01 | 2020-08-18 | Microsoft Technology Licensing Llc | Hybrid client/server architecture for parallel processing |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
CN104197299A (zh) * | 2014-08-21 | 2014-12-10 | 浙江生辉照明有限公司 | 照明装置及基于该装置的语音播报系统及方法 |
WO2016032021A1 (ko) * | 2014-08-27 | 2016-03-03 | 삼성전자주식회사 | 음성 명령 인식을 위한 장치 및 방법 |
WO2016044290A1 (en) | 2014-09-16 | 2016-03-24 | Kennewick Michael R | Voice commerce |
US9898459B2 (en) | 2014-09-16 | 2018-02-20 | Voicebox Technologies Corporation | Integration of domain information into state transitions of a finite state transducer for natural language processing |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
CN107003999B (zh) | 2014-10-15 | 2020-08-21 | 声钰科技 | 对用户的在先自然语言输入的后续响应的系统和方法 |
US10614799B2 (en) | 2014-11-26 | 2020-04-07 | Voicebox Technologies Corporation | System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance |
US10431214B2 (en) | 2014-11-26 | 2019-10-01 | Voicebox Technologies Corporation | System and method of determining a domain and/or an action related to a natural language input |
US9911415B2 (en) | 2014-12-19 | 2018-03-06 | Lenovo (Singapore) Pte. Ltd. | Executing a voice command during voice input |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9966073B2 (en) | 2015-05-27 | 2018-05-08 | Google Llc | Context-sensitive dynamic update of voice to text model in a voice-enabled electronic device |
US10083697B2 (en) * | 2015-05-27 | 2018-09-25 | Google Llc | Local persisting of data for selectively offline capable voice action in a voice-enabled electronic device |
US20160349894A1 (en) * | 2015-05-27 | 2016-12-01 | Remote Media, Llc | Touchscreen Method and System for Sharing Multimedia Content |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
WO2018023106A1 (en) | 2016-07-29 | 2018-02-01 | Erik SWART | System and method of disambiguating natural language processing requests |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10971157B2 (en) | 2017-01-11 | 2021-04-06 | Nuance Communications, Inc. | Methods and apparatus for hybrid speech recognition processing |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10504511B2 (en) | 2017-07-24 | 2019-12-10 | Midea Group Co., Ltd. | Customizable wake-up voice commands |
JP2019066702A (ja) | 2017-10-02 | 2019-04-25 | 東芝映像ソリューション株式会社 | 対話型電子装置制御システム、対話型電子装置、対話型電子装置制御方法 |
JP2020052145A (ja) * | 2018-09-25 | 2020-04-02 | トヨタ自動車株式会社 | 音声認識装置、音声認識方法、及び音声認識プログラム |
CN109887490A (zh) * | 2019-03-06 | 2019-06-14 | 百度国际科技(深圳)有限公司 | 用于识别语音的方法和装置 |
CN110910886B (zh) * | 2019-12-17 | 2022-09-20 | 广州三星通信技术研究有限公司 | 人机交互方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02254499A (ja) * | 1989-03-29 | 1990-10-15 | Aisin Seiki Co Ltd | 音声入力装置 |
JPH03159449A (ja) * | 1989-11-17 | 1991-07-09 | Nippon Telegr & Teleph Corp <Ntt> | 番号認識発信端末 |
JPH0823369A (ja) * | 1994-07-08 | 1996-01-23 | Nakayo Telecommun Inc | 音声操作電話装置およびその音声による操作指示受付方法 |
JPH08147310A (ja) * | 1994-11-25 | 1996-06-07 | Nippon Telegr & Teleph Corp <Ntt> | 要求予測型情報提供サービス装置 |
JPH08223309A (ja) * | 1995-02-17 | 1996-08-30 | Nec Corp | 音声入力ネットワークサービスシステム |
JPH096800A (ja) * | 1995-06-19 | 1997-01-10 | Toyota Motor Corp | 電話番号案内を利用した地点データ検索システム |
JPH09222334A (ja) * | 1996-02-16 | 1997-08-26 | Nissan Motor Co Ltd | ナビゲーション装置 |
JPH11252281A (ja) * | 1998-02-27 | 1999-09-17 | Matsushita Electric Ind Co Ltd | 電話端末装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63138841A (ja) * | 1986-12-01 | 1988-06-10 | Hitachi Ltd | 入力装置 |
US4914692A (en) | 1987-12-29 | 1990-04-03 | At&T Bell Laboratories | Automatic speech recognition using echo cancellation |
JPH03108852A (ja) * | 1989-09-21 | 1991-05-09 | Japan Steel Works Ltd:The | 人声認識音声確認携帯電話機 |
US5155760A (en) | 1991-06-26 | 1992-10-13 | At&T Bell Laboratories | Voice messaging system with voice activated prompt interrupt |
US5475791A (en) | 1993-08-13 | 1995-12-12 | Voice Control Systems, Inc. | Method for recognizing a spoken word in the presence of interfering speech |
US5758317A (en) | 1993-10-04 | 1998-05-26 | Motorola, Inc. | Method for voice-based affiliation of an operator identification code to a communication unit |
ZA948426B (en) * | 1993-12-22 | 1995-06-30 | Qualcomm Inc | Distributed voice recognition system |
AU684872B2 (en) * | 1994-03-10 | 1998-01-08 | Cable And Wireless Plc | Communication system |
US5652789A (en) | 1994-09-30 | 1997-07-29 | Wildfire Communications, Inc. | Network based knowledgeable assistant |
US5774859A (en) * | 1995-01-03 | 1998-06-30 | Scientific-Atlanta, Inc. | Information system having a speech interface |
US5708704A (en) | 1995-04-07 | 1998-01-13 | Texas Instruments Incorporated | Speech recognition method and system with improved voice-activated prompt interrupt capability |
US5765130A (en) | 1996-05-21 | 1998-06-09 | Applied Language Technologies, Inc. | Method and apparatus for facilitating speech barge-in in connection with voice recognition systems |
US5960399A (en) * | 1996-12-24 | 1999-09-28 | Gte Internetworking Incorporated | Client/server speech processor/recognizer |
JPH11205430A (ja) * | 1998-01-20 | 1999-07-30 | Kobe Steel Ltd | 音声ダイアル機能付き電話機 |
JPH11261683A (ja) * | 1998-03-10 | 1999-09-24 | Nec Saitama Ltd | 電話装置、プログラムを記録した記録媒体及びデータを記録した記録媒体 |
US6240303B1 (en) * | 1998-04-23 | 2001-05-29 | Motorola Inc. | Voice recognition button for mobile telephones |
US6212408B1 (en) * | 1999-05-03 | 2001-04-03 | Innovative Global Solution, Inc. | Voice command system and method |
US6493670B1 (en) * | 1999-10-14 | 2002-12-10 | Ericsson Inc. | Method and apparatus for transmitting DTMF signals employing local speech recognition |
-
1999
- 1999-10-05 US US09/412,699 patent/US6963759B1/en not_active Expired - Lifetime
-
2000
- 2000-10-04 JP JP2001529228A patent/JP2003511924A/ja not_active Withdrawn
- 2000-10-04 KR KR1020027004407A patent/KR100742259B1/ko active IP Right Grant
- 2000-10-04 AU AU21126/01A patent/AU2112601A/en not_active Abandoned
- 2000-10-04 WO PCT/US2000/041069 patent/WO2001026394A1/en active Application Filing
- 2000-10-04 CN CNB008167281A patent/CN100433840C/zh not_active Expired - Lifetime
-
2012
- 2012-03-05 JP JP2012048111A patent/JP5425945B2/ja not_active Expired - Lifetime
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02254499A (ja) * | 1989-03-29 | 1990-10-15 | Aisin Seiki Co Ltd | 音声入力装置 |
JPH03159449A (ja) * | 1989-11-17 | 1991-07-09 | Nippon Telegr & Teleph Corp <Ntt> | 番号認識発信端末 |
JPH0823369A (ja) * | 1994-07-08 | 1996-01-23 | Nakayo Telecommun Inc | 音声操作電話装置およびその音声による操作指示受付方法 |
JPH08147310A (ja) * | 1994-11-25 | 1996-06-07 | Nippon Telegr & Teleph Corp <Ntt> | 要求予測型情報提供サービス装置 |
JPH08223309A (ja) * | 1995-02-17 | 1996-08-30 | Nec Corp | 音声入力ネットワークサービスシステム |
JPH096800A (ja) * | 1995-06-19 | 1997-01-10 | Toyota Motor Corp | 電話番号案内を利用した地点データ検索システム |
JPH09222334A (ja) * | 1996-02-16 | 1997-08-26 | Nissan Motor Co Ltd | ナビゲーション装置 |
JPH11252281A (ja) * | 1998-02-27 | 1999-09-17 | Matsushita Electric Ind Co Ltd | 電話端末装置 |
Also Published As
Publication number | Publication date |
---|---|
US6963759B1 (en) | 2005-11-08 |
CN100433840C (zh) | 2008-11-12 |
CN1408182A (zh) | 2003-04-02 |
KR20020071851A (ko) | 2002-09-13 |
WO2001026394A9 (en) | 2002-08-01 |
JP2012108557A (ja) | 2012-06-07 |
JP5425945B2 (ja) | 2014-02-26 |
KR100742259B1 (ko) | 2007-07-26 |
AU2112601A (en) | 2001-05-10 |
WO2001026394A1 (en) | 2001-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5425945B2 (ja) | ローカルなインターラプト検出に基づく音声認識技術 | |
JP4212809B2 (ja) | 音声認識に基づく情報信号の供給する方法および装置 | |
JP5306503B2 (ja) | 出力オーディオ信号が生ずる間に入力音声信号を処理する方法および装置 | |
US20050180464A1 (en) | Audio communication with a computer | |
US20020173333A1 (en) | Method and apparatus for processing barge-in requests | |
WO2009091944A1 (en) | Headset and audio gateway system for execution of voice input driven applications | |
US20050272415A1 (en) | System and method for wireless audio communication with a computer | |
US11924717B2 (en) | System and method for data analytics for communications in walkie-talkie network | |
GB2368441A (en) | Voice to voice data handling system | |
JP2002237877A (ja) | ハンズフリーシステム、携帯電話およびハンズフリー装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20060502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060524 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070919 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20091013 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101027 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110127 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110719 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120305 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120312 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20120608 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20121026 |