JP4109414B2 - 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体 - Google Patents
音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体 Download PDFInfo
- Publication number
- JP4109414B2 JP4109414B2 JP2000383808A JP2000383808A JP4109414B2 JP 4109414 B2 JP4109414 B2 JP 4109414B2 JP 2000383808 A JP2000383808 A JP 2000383808A JP 2000383808 A JP2000383808 A JP 2000383808A JP 4109414 B2 JP4109414 B2 JP 4109414B2
- Authority
- JP
- Japan
- Prior art keywords
- devices
- voice
- information
- recognition
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【発明の属する技術分野】
本発明は、音声認識機能を持つ家庭電化製品などの機器が限られた空間内に複数存在し、それらの機器が音声コマンドを認識して動作制御を行う音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
近年、半導体製品の高性能化や低価格化により、広い分野にマイクロコンピュータ(マイコンという)が使用されている。特に、家庭電化製品(家電製品という)には多くの製品にマイコンが使用され、ますます多機能・高性能化が進んでいる。
【0003】
このように家電製品などにもマイコンが気軽に搭載できることから、この種の機器にも、従来ではあまり考えられなかった多様な機能を持たせることが容易になってきている。たとえば、音声認識機能や音声合成機能などがその一例であって、これら音声認識機能や音声合成機能を持たせることで、音声対話型のユーザインタフェース機能を持った機器が種々考えられてきている。これは、家電製品以外においても同様のことが言える。
【0004】
【発明が解決しようとする課題】
このような音声対話型のユーザインタフェース機能を持った機器が、ある限られた空間内に複数存在している状況を考える。図5は1つの限られた空間としてのある1つの部屋1内に、音声対話型のユーザインタフェース機能を持った機器として、エアコンディショナ(エアコンという)2とテレビジョン(TVという)3とステレオなどの音響機器4が存在している様子を示すものである。
【0005】
このように、1つの部屋1に、複数の音声対話型のユーザインタフェース機能を持った機器が存在する場合、ユーザがたとえばエアコン2に対して何らかの動作を行わせるための音声コマンドを与えると、エアコン2がその音声コマンドを認識し、その認識結果に応じた動作をなすが、このとき、他の機器もその音声コマンドに対して音声認識動作を行い、誤動作を行うことがある。
【0006】
仮りに、ユーザの発した音声コマンドが、エアコンだけが認識可能な内容であって、TV3や音響機器4にとっては認識可能な内容ではなくても、TV3や音響機器4もその音声コマンドを認識しようとして音声認識動作を開始する場合があり、これによって、誤った認識を行って誤動作を行うことがある。特に、ユーザの与えた音声コマンドに対して、機器側から音声によって何らかの応答を行う音声対話機能を有する機器は、ユーザの与えた音声コマンドに対して全く関係のない応答がなされるなど色々な不具合が生じがちである。
【0007】
そこで本発明は、音声認識機能を持つ家電製品などの機器が限られた空間内に複数存在する場合、それぞれの機器がその機器としての独立した動作を行いながらも、ユーザからの音声コマンドに対しては相互に情報交換を行いながら音声認識が行えるようにすることで、誤認識やそれによる誤動作を回避でき、さらに、雑音除去などを機能的に行えるようにして適切な機器制御を可能とすることを目的としている。
【0008】
【課題を解決するための手段】
上述の目的を達成するために、本発明の音声認識を用いた機器制御方法は、 限られた空間内に音声認識機能を有する複数の機器が存在し、これらの機器のいずれかに対し音声コマンドを与えることで、その音声コマンドの与えられた機器がその音声コマンドを認識してその認識結果に応じて所定の動作制御をなす音声認識を用いた機器制御方法において、前記複数の機器をネットワークに接続し、それぞれの機器が個々に有する情報を当該ネットワークを介して相互に交換し合い、前記ユーザの発話する音声コマンドに対し、自己機器の有する情報に加えて前記ネットワークを介して送られてくる他の機器の情報を参照して音声認識を行って、その認識結果に応じた機器の動作制御を行うようにしている。
【0009】
また、本発明の音声認識を用いた機器制御システムは、限られた空間内に音声認識機能を有する複数の機器が存在し、これらの機器のいずれかに対し音声コマンドを与えることで、その音声コマンドの与えられた機器がその音声コマンドを認識してその認識結果に応じて所定の動作制御をなす音声認識を用いた機器制御システムにおいて、前記複数の機器は、それぞれの機器が相互に情報交換可能となるようにネットワークに接続され、そのネットワークに接続された前記複数の機器それぞれが、その機器がもともと有する機器動作部とこの機器動作部の動作状態の設定を行うユーザ操作部を有するとともに、少なくとも、音声コマンドを受け付けてその音声コマンドを認識し、その認識結果に基づいて前記機器動作部を制御する音声認識を用いた機器動作制御部と、ネットワークに自己の機器を接続するためのネットワーク接続部とを有してなり、前記複数の機器それぞれが個々に有する情報を当該ネットワークを介して相互に交換し合い、前記ユーザの発話する音声コマンドに対し、自己の有する情報に加えて前記ネットワークを介して送られてくる他の機器の情報を参照して音声認識を行って、その認識結果に応じた機器の動作制御を行うようにしている。
【0010】
これら各発明において、前記相互に交換し合う情報は、少なくとも、それぞれの機器を識別するための機器識別情報、それぞれの機器が収集した雑音情報を含むものである。
【0011】
そして、前記認識結果に応じた機器の動作制御を行うまでの処理手順は、前記それぞれの機器を識別するための機器識別情報を前記ネットワークを介して取得して、当該ネットワーク上に存在する情報交換すべき機器を認知するとともに、それぞれ機器の位置関係の測定を行い、その後、音声コマンドが入力されると、上記それぞれの機器の位置関係に基づき、ユーザの発話する音声コマンドが自己機器に対して発せられたか否かを判定し、当該音声コマンドが自己機器に対して発せられたものであると判定された場合には、その音声コマンドに対する認識処理を行ってその認識結果に基づく機器の動作制御を行う。
【0012】
そして、前記音声認識を行う際、前記それぞれの機器が収集した雑音情報を相互に交換し合い、その雑音情報を用いて、音声コマンドに重畳する雑音の除去を行って音声認識を行うようにしている。
【0013】
このとき、前記音声コマンドに重畳する雑音は、機器の定常的な運転音や環境上に定常的に存在する定常音と、ネットワークに接続されている機器が動作することによって発する音声や音楽などの音であり、前記定常音については、それぞれの機器が定常的雑音情報として取得するとともに、取得した定常的雑音情報をネットワークを通じて他の機器との間で相互に交換しあってそれぞれの機器で保存し、音声認識を行う際は、その定常的雑音情報を音声コマンドから除去して音声認識を行う。
【0014】
また、前記音声や音楽などの音については、それを発する機器がリアルタイムでその音を雑音情報として取得するとともに、ネットワークに接続されている他の機器もその雑音情報をネットワークを通じてリアルタイムで取得し、音声認識を行う際は、その雑音情報を音声コマンドから除去して音声認識を行うようにする。
【0015】
また、前記それぞれの機器が行う音声コマンドに対する音声認識は、それぞれの機器同志が相互に情報交換し合うことによって、ある機器における認識可能単語を他の機器も認識可能としている。
【0016】
また、本発明の音声認識を用いた機器制御プログラムを記録した記録媒体は、限られた空間内に存在する音声認識機能を有した複数の機器をネットワークに接続し、それぞれの機器が個々に有する情報として、少なくとも、それぞれの機器を識別するための機器識別情報、それぞれの機器が収集した雑音情報を当該ネットワークを介して相互に交換することを可能とし、ユーザの発話する音声コマンドに対し、自己機器の有する情報に加えて前記ネットワークを介して送られてくる他の機器の情報を参照して音声認識を行って、その認識結果に応じた機器の動作制御を行う音声認識を用いた機器制御プログラムを記録した記録媒体であって、その機器制御プログラムは、それぞれの機器を識別するための機器識別情報を前記ネットワークを介して取得して、当該ネットワーク上に存在する情報交換すべき機器を認知するとともに、それぞれ機器の位置関係の測定を行う手順と、この位置関係の測定後、ユーザからの音声コマンドを待つ状態とし、音声コマンドが入力されると、上記それぞれの機器の位置関係に基づき、ユーザの発話する音声コマンドが自己機器に対して発せられたか否かを判定する手順と、当該音声コマンドが自己機器に対して発せられたものであると判定された場合には、その音声コマンドに対する認識処理を行って、その認識結果に応じた機器の動作制御を行う手順とを含むものである。
【0017】
この音声認識を用いた機器制御プログラムを記録した記録媒体の発明において、前記音声認識を行う際、前記それぞれの機器が収集した雑音情報を相互に交換し合い、その雑音情報を用いて、音声コマンドに重畳する雑音の除去を行って音声認識を行うようにしている。
【0018】
このとき、前記音声コマンドに重畳する雑音は、機器の定常的な運転音や環境上に定常的に存在する定常音と、ネットワークに接続されている機器が動作することによって発する音声や音楽などの音であり、前記定常音については、それぞれの機器が定常的雑音情報として取得するとともに、取得した定常的雑音情報をネットワークを通じて他の機器との間で相互に交換しあってそれぞれの機器で保存し、音声認識を行う際は、その定常的雑音情報を音声コマンドから除去して音声認識を行う。
【0019】
また、前記音声や音楽などの音については、それを発する機器がリアルタイムでその音を雑音情報として取得するとともに、ネットワークに接続されている他の機器もその雑音情報をネットワークを通じてリアルタイムで取得し、音声認識を行う際は、その雑音情報を音声コマンドから除去して音声認識を行うようにする。
【0020】
また、前記それぞれの機器が行う音声コマンドに対する音声認識は、それぞれの機器同志が相互に情報交換し合うことによって、ある機器における認識可能単語を他の機器も認識可能としている。
【0021】
このように本発明は、音声認識機能を有する複数の機器をネットワークに接続し、それぞれの機器が個々に有する情報を当該ネットワークを介して相互に情報交換し合いながら、音声認識を行って、その認識結果に応じた機器の動作制御を行うようにしているので、従来のように、ユーザがある機器に対して発話した音声コマンドに対し、他の機器もその音声コマンドを認識する動作を行って、誤動作するといった不具合を未然に防止することができ、ユーザの意図した機器の動作制御を的確に行うことができる。
【0022】
なお、上述したそれぞれの機器が個々に有する情報というのは、少なくとも、それぞれの機器を識別するための機器識別情報、それぞれの機器が収集した雑音情報であり、この機器識別情報によって、ネットワーク上にどのような機器が存在するかを知ることができ、ネットワーク上に存在する情報交換すべき機器の存在を知った上で、機器間で音の送受信を行うなどして音の到達時間などから、それぞれの機器間の距離を求め、それに基づいて、それぞれの機器の位置関係を推定することもできる。
【0023】
また、ある機器が収集した雑音情報を他の機器も共有することによって、音声コマンドを認識する際、音声コマンドに重畳した雑音情報を除去した上で音声認識処理することができるので、高い認識率を得ることができる。
【0024】
また、本発明の処理手順は、それぞれの機器を識別するための機器識別情報を前記ネットワークを介して取得することによって、ネットワーク上にどのような機器が存在するかを認知するとともに、それぞれの機器の位置関係の測定を行うことによって機器の配置を推定し、その後、入力された音声コマンドに対し、機器相互間で情報交換を行いながら音声認識処理を行うようにしている。これによって、ユーザの音声コマンドがどの機器に対して発せられたかを的確に判定することができ、当該音声コマンドが自己の機器に対するものであると判定された場合は、その音声コマンドに対する認識処理を行ってその認識結果に基づく機器の動作制御を行うようにしているので、ユーザの意図しない機器が誤動作するのを防止できる。
【0025】
また、ある機器が収集した雑音情報を相互に交換し合い、その雑音情報を用いて、音声コマンドに重畳する雑音の除去を行って音声認識を行うようにしている。
【0026】
このように、ネットワークに接続されたすべての機器が雑音情報を共有できるので、どの機器に音声コマンドが与えられても、その音声コマンドに重畳された雑音を適切に除去した上で音声認識することができ、高い認識率を得ることができる。
【0027】
なお、前記音声コマンドに重畳する雑音が環境上に定常的に存在する定常音(エアコンの運転音など)である場合には、予めその定常音を定常的雑音情報としてそれぞれの機器で保存しておくことができる。
【0028】
したがって、音声コマンドを認識する際、音声コマンドにその定常的雑音情報が重畳されていても、保存されている定常的雑音情報を読み出すことによって、音声コマンドからその定常的雑音情報を除去して音声認識を行うことができる。このように、定常的雑音情報が重畳された音声コマンドに対し、適切な雑音除去が行えるので、高い認識率を得ることができる。
【0029】
また、前記音声コマンドに重畳する雑音がTVや音響機器の発する音声や音楽などである場合には、それを発する機器がリアルタイムでその音情報を雑音情報として取得するとともに、ネットワークに接続されている他の機器もその雑音情報をネットワークを通じてリアルタイムで取得できるようにしている。
【0030】
これによって、音声コマンドを認識する際は、その雑音情報を音声コマンドから除去して音声認識を行うようにする。このように、 TVや音響機器などの音が雑音として重畳された音声コマンドに対し、適切な雑音除去が行えるので、高い認識率を得ることができる。
【0031】
さらに、情報を共有することによって、ある機器における認識可能単語を他の機器も認識可能とすることもでき、これによって、誤認識による誤動作を防止できる効果がある。すなわち、個々の機器が独自に認識する従来のシステムでは、それぞれの機器は、自分の認識可能な単語のみしか認識できないことはいうまでもない。これに対して、本発明のように、それぞれの機器がネットワークにつながれてそれぞれの情報を共有できるようにすれば、それぞれの機器が認識可能な単語をすべての機器が認識可能単語とすることができる。これによって、きめ細かい高精度な認識処理がなされるので、紛らわしい単語などを的確に認識処理することができるので、誤認識による誤動作を防止できるようになる。
【0032】
【発明の実施の形態】
以下、本発明の実施の形態について説明する。なお、この実施の形態で説明する内容は、本発明の音声認識を用いた機器制御方法および音声認識を用いた機器制御システムについての説明であるとともに、本発明の音声認識を用いた機器制御プログラムを記録した記録媒体における機器制御プログラムの具体的な処理内容をも含むものである。
【0033】
この実施の形態では、図5で説明したように、1つの居住空間1内に、音声対話型のユーザインタフェース機能を持った機器として、エアコン2とTV3とステレオなどの音響機器4が存在している状況を考えるが、本発明では、図1に示すように、これら各機器がネットワーク10に接続されていて、それぞれの機器は独立した動作が可能でありながら、それぞれの機器同志が相互に情報交換を行いながら音声認識を行うことができるようになっている。
【0034】
なお、このネットワーク10は、この図1では便宜上、有線通信路によるネットワークとしているが、近距離無線(Blue Toothなど)などによる無線通信によるネットワークでもよい。また、有線通信路によるネットワークは建物内の電気配線を用いるなどの方法もあり、ネットワークを構築する手段は本発明では限定されるものではない。また、この実施の形態では、音声対話型のインターフェース機能を有した機器を考えているが、本発明は、音声コマンドを認識してその認識結果に応じた動作をなす機器であればよく、ユーザに対して音声による応答を行う機能は必ずしも必要ではない。
【0035】
図2および図3は図1で示した音声対話型のユーザインタフェース機能を持った機器の構成をそれぞれ示すブロック図であるが、ここでは、エアコン2(図2参照)とTV3(図3参照)について説明する。なお、これらの機器は、音声対話型のユーザインタフェース機能を持った機器であるので、音声認識機能や音声合成機能を有し、また、それらの機能に伴って、音声入力部や音声出力部を有する。以下、詳細に説明する。
【0036】
図2はエアコン2の構成を示すもので、従来から普通に用いられている通常のエアコンとしての動作をなす機器動作部21やエアコンの運転の開始/停止やタイマ設定など通常のエアコンでなされる様々な設定がユーザによって可能なユーザ操作部22の他に、音声対話型のユーザインタフェース機能を実現する音声認識を用いた機器制御部23、エアコン2をネットワーク10に接続するためのネットワーク接続部24が設けられる。
【0037】
また、図3はTV3の構成を示すもので、図2に示したエアコン2と基本的には殆ど同じ構成であり、従来から普通に用いられている通常のTVとしての動作をなす機器動作部31やTVの動作の開始/停止やチャンネル設定など通常のTVでなされる様々な設定がユーザによって可能なユーザ操作部32の他に、図2のエアコン2と同様に、音声対話型のユーザインタフェース機能を実現する音声認識を用いた機器制御部33、TV3をネットワーク10に接続するためのネットワーク接続部34が設けられる。
【0038】
これらエアコン2あるいはTV3における音声認識を用いた機器制御部23,33は、それぞれ同じ構成となっているので、ここでは、同一部分には同一符号を付して説明する。この実施の形態では、音声対話型のユーザインタフェース機能を有しているので、音声コマンド入力用のマイクロホン41、このマイクロホン41に入力された音声の増幅などを行う増幅器42、音声をディジタル変換するA/D変換部43、ユーザに対する応答用の音声データをアナログ変換するD/A変換部44、それを増幅する増幅器45、それを出力するスピーカ46が設けられるとともに、入力された音声コマンドを認識してそれに対する応答用の音声データを生成したり、認識結果に対応した機器制御信号を生成したり、さらには、自己機器が有する自己機器情報(たとえば、自己機器に割り当てられた機器識別情報や自己機器が収集した雑音情報など)をネットワーク接続部24(TV3の場合はネットワーク接続部34)を介してネットワーク10上に送出したり、ネットワーク10上に存在する他の機器からの情報(たとえば、それぞれの機器に割り当てられた機器識別情報やそれぞれの機器が収集した雑音情報など)をネットワーク接続部24(TV3の場合はネットワーク接続部34)を介して受け取ってそれを処理する情報処理部47と、この情報処理部47が実行する動作処理プログラムなどが保存されたROMや上述の自己機器情報や他の機器からの情報など、情報処理部47が行う処理に必要な様々な情報を保存するRAMからなる情報記録部48とを有している。
【0039】
なお、情報処理部47は、ユーザ操作部22(TV3の場合はユーザ操作部32)にも接続されていて、このユーザ操作部22(TV3の場合はユーザ操作部32)によって、出力音声の音量などの制御や機器動作部21(TV3の場合は機器動作部31)に対する制御内容など様々な項目をユーザが設定できるようになっている。
【0040】
また、TV3の場合は、もともと、音声を発する機能を有しているので、TVとしての音声出力用の増幅器やスピーカと、ユーザ応答用の増幅器やスピーカなどは共用することができる。したがって、図3では、TV3としての機器動作部31からの音声出力とユーザに対する応答出力は、ともに増幅器45で増幅されたのちに、スピーカ46から出力されるようになっている。
【0041】
また、エアコン2はその運転中に運転音が定常的な雑音として常に発生するのが普通であるが、その運転音が音声コマンドに重畳されて、認識性能に悪影響を与えることがある。
【0042】
これに対処するために、その運転音をそれぞれの機器が自己のマイクロホン41で収集して、情報処理部47で解析を行って雑音情報として出力し、その雑音情報を情報記憶部48に保存するとともに、ネットワーク10にも送出してそれぞれの機器がその雑音情報を共有し合うことができるようにしている。そして、音声コマンドを認識する際、その雑音情報を用いて音声コマンドに重畳された運転音を雑音として除去した上で音声認識する。
【0043】
なお、このような定常的な雑音は、ネットワーク10に接続されている機器が発する雑音だけではなく、ネットワーク10に接続されていない機器が発する場合もあり、また、環境上に定常的に存在する雑音の場合もある。これらの定常的な雑音も、ネットワーク10に接続されているそれぞれの機器が、自己のマイクロホン41で収集して、情報処理部47で解析を行って雑音情報として出力し、その雑音情報を情報記憶部48に保存するとともに、ネットワーク10にも送出してそれぞれの機器がその雑音情報を共有し合うようにする。
【0044】
一方、TV3の場合は、そのTV3の音声(増幅器45の出力側音声)をA/D変換器43を介して情報処理部47にリアルタイムで入力させ、情報処理部47で解析して雑音情報として出力し、、その雑音情報を用いて、音声コマンドを音声認識する際、音声コマンドに重畳されたTVの音声を雑音として除去しながら音声認識する。さらに、情報処理部47で解析されて得られた雑音情報は、ネットワーク10を介して他の機器にもリアルタイムで与えることができ、それによって、他の機器においても、ユーザからのコマンドに対し音声認識を行う際、音声コマンドに重畳されたTVの音声を雑音として除去しながら音声認識する。
【0045】
また、図1においては、これらエアコン2やTV3の他に音響機器4が存在するが、この音響機器4もこの図2や図3と同様に考えることができ。なお、音響機器4はTV3と同様に、もともと、音を出力する機能を有しているので、図3で示したTV3と同様に、 音響機器4としての音声出力用の増幅器やスピーカと、ユーザ応答用の増幅器やスピーカなどは共用することができる。
【0046】
さらに、TV3と同様、その音響機器4から発せられる音を増幅器45の出力側から取り出して情報処理部47にリアルタイムで入力させ、情報処理部47で解析して雑音情報を得て、その雑音情報を用いて、音声コマンドを音声認識する際、音声コマンドに重畳されたTVの音声を雑音として除去するようにしている。そして、この雑音情報はネットワーク10を介して他の機器にもリアルタイムで与えることができる。
【0047】
このように本発明では、ある限られた空間として1つの部屋1内に、音声対話型のユーザインタフェース機能を持った機器が複数存在している状況を考えている。そして、それぞれの機器(ここではエアコン2、TV3、音響機器4)は、それぞれの機器としての動作は独立して並列に行いながら、自己の情報処理部47から自己機器情報をネットワーク10に送出するとともに、ネットワーク10上に存在する他の機器からの情報(他機器情報)を受け取って、それぞれが相互に情報を交換しながら音声認識を用いた機器制御を行うようにしている。以下、その動作について図4のフローチャートを参照しながら説明する。
【0048】
この図4のフローチャートは、個々の機器における情報処理部47が行う処理を示すものであり、個々の機器の動作が開始された状態(たとえば、電源スイッチなどがオンして、その機器の動作が開始した状態)で、この図4に示す処理がそれぞれの機器において並列的になされる。
【0049】
その処理手順としては、個々の機器がネットワーク10に接続されると(ステップs1)、それによって、それぞれの機器が相互に自己機器情報の交換を行う(ステップs2)。これによって、自己機器からみてどの機器がネットワーク10に接続されているかを知ることができる。これは、機器がネットワーク10に接続されると、個々の機器の機器識別情報(機器IDという)がネットワーク10上に送出され、その機器IDを他の機器が取得することによって、現在、どの機器がネットワーク10に接続されているかを知ることができる。
【0050】
そして、個々の機器ごとに個々の機器の位置関係の測定を行うか否かを判断する(ステップs3)。これは、自己機器からみて、現在、ネットワーク10に接続されている複数の機器がどのような位置関係にあるか否かを調べるもので、その位置関係の測定は、ある機器が出す音を他の機器のマイクロホンが取得(たとえば、TV3のスピーカ46から出される音をエアコン2のマイクロホン41が取得)し、その音の到達時間の遅れなどによって2つの機器間の距離を測定し、その距離によって位置関係を調べる。たとえば、この実施の形態のように、3つの機器(エアコン2、TV3、音響機器4)について考えている場合には、3つの機器の間の距離がわかればそれによって、図1に示す部屋1内における3つの機器の位置関係を推定することができる。
【0051】
なお、この位置関係の測定は、位置関係測定モードとなっている場合にのみ行われる。その位置関係測定モードとなる条件としては、たとえば、自己機器が新たにネットワーク10に加わった場合、他の機器が新たにネットワーク10に加わった場合、前回の位置関係測定から所定の時間が経過している場合などである。
【0052】
上述の位置関係測定モードとなる条件として、自己機器が新たにネットワーク10に加わった場合、あるいは、他の機器が新たにネットワーク10に加わった場合の例としては、たとえば、エアコン2とTV3がすでに動作中で、これら2つの機器がすでにネットワーク10に接続されている状態にあって、そこに新たに、音響機器4の電源スイッチがオンとなってネットワーク10に接続された場合などがある。
【0053】
この場合、音響機器4から見れば、自己機器が新たにネットワーク10に加わったので、音響機器4においては、位置関係測定モードとなる。一方、すでにネットワーク10に接続状態となっているエアコン2やTV3にとっては、音響機器4が新たにネットワーク10に接続されたので、それを検知すると、その時点で位置測定モードとなる。
【0054】
このように、位置測定モードとなった場合には、前述したような手法によって位置測定を行い(ステップs4)、それぞれの機器の位置関係を取得し、自己の機器から見て他の機器がどのような位置関係となっているかを推定する。
【0055】
そして次に、雑音解析を行うか否かを調べ(ステップs5)、雑音解析を行う必要がある場合には、雑音解析を行う(ステップs6)。ここでの雑音というのは、前述したように、エアコン2の運転音やその他の機器の運転音など、さらには、環境下に存在する定常的な雑音である。これらの定常的な雑音は、ネットワーク10に接続されているそれぞれの機器がそれぞれ自分のマイクロホンで入力し、それぞれの機器において雑音解析する。そして、その解析結果を、定常的な雑音情報として自己の情報記憶部48に保存しておくとともに、ネットワーク10を介して他の機器にも送り、それぞれの機器がその定常的な雑音情報を共有する。
【0056】
なお、定常的な雑音が存在しない場合には、ステップs6の処理は不要であり、また、定常的な雑音があっても、一度、その定常的な雑音情報が得られれば、それ以降は特には雑音解析処理は行う必要はないが、その定常的な雑音に大きな変化があったときには、再度、雑音解析処理を行ったほうが望ましい。この定常的な雑音に大きな変化があったときの例として、たとえば、定常的な雑音の発生源がエアコンであった場合、ユーザによって運転内容の設定変更がなされた場合など(たとえば、送風を「弱」から「強」に変更した場合など)がある。
【0057】
このようにして、位置関係の測定が終了し、さらに、定常的な雑音などに対する雑音解析がなされたあと、それぞれの機器は、ユーザからの音声コマンドの入力待ち状態となる(ステップs7)。ここで、音声コマンドが発せられ、それがそれぞれの機器のマイクロホンに入力されると、それぞれの機器は、音声認識処理モードに入る(ステップs8)。この音声認識処理モードは、それぞれの機器がネットワーク10を介して相互に情報交換を行い、ユーザがどの機器に対して音声コマンドを与えたかを判定して、その音声コマンドの与えられた機器が音声コマンドに対する音声認識を行う。
【0058】
その処理としては、それぞれの機器の位置関係に基づき、ユーザがどの機器に対して音声コマンドを発話したのかを特定する。たとえば、ユーザの音声コマンドがエアコン2に対してなされたものであることがわかったとすれば、エアコン2がユーザの音声コマンドの認識結果に対する動作を行う。そして、この音声コマンドに対する認識処理を行う際、音声コマンドに重畳されている雑音を除去した上で音声認識処理を行う。
【0059】
ここでの雑音情報とは、上述したエアコン2などが発する定常的な運転音を解析して得られた雑音情報や、TV3や音響機器4などが発する音声あるいは音楽などの音を解析して得られた雑音情報である。そして、これら音源既知の雑音情報は、その雑音の発生源となる機器が収集し、それを解析して雑音情報としてネットワーク10にも送出する。それによって、ネットワーク10に接続されている他の機器もそれらの雑音情報を取得することができ、ネットワーク10に接続されたすべての機器がその雑音情報を共有する。
【0060】
これによって、音声コマンドを認識する際、音声コマンドに重畳されたそれらの雑音を除去した上で、音声コマンドを認識することができる。
【0061】
なお、エアコン2などが発する定常的な運転音は、前述したように、収集した雑音を予め解析して、それをそれぞれの機器の情報記憶部48などに保存しておくことができる。したがって、音声認識する際、情報記憶部48からその雑音情報を読み出して、音声コマンドに重畳されているエアコン2の運転音を除去して音声認識するということができる。
【0062】
一方、 音声コマンドに重畳されたTV3や音響機器4が発する音は、リアルタイムで雑音情報を解析しながら雑音を除去して音声認識する必要がある。したがって、これらTV3や音響機器4からの音情報は、それをアルタイムで取得して、取得した音を他の機器にもリアルタイムで送る必要がある。なお、この場合、実際の音声認識処理は、ユーザからの音声コマンドやTV3や音響機器4からの音情報をバッファリングして両者の同期をとりながら多少の時間遅れを持った状態で行うことができる。
【0063】
以上のように、ユーザによって音声コマンドが与えられると、機器の位置関係に基づき、ユーザがどの機器に対して音声コマンドを発話したのかを特定する。たとえば、ユーザの発話した音声を各機器が入力したときの時刻のタイミングや入力音声のパワーなどを用いて、さらに、各機器の位置関係から、ユーザがどの機器に向かって発話したかを解析することが可能となる。
【0064】
そして、ユーザからの音声コマンドが与えられた機器(ここでは、エアコン2としている)が、ユーザの音声コマンドを雑音除去しながら音声認識処理して、その認識結果に対する動作を行う。なお、この音声認識処理を行っているときにも常に他の機器との間で情報交換が行われている。
【0065】
上述の音声認識結果に対する動作手順は、まず、音声による応答を行うか否かの判定を行(ステップs9)。つまり、そのエアコン2が音声対話型であって音声による応答を行う必要のある場合には、ユーザの音声コマンドに対し音声による応答を行い(ステップs10)、次に、その認識結果に応じた機器の制御を行うか否かを判定し(ステップs11)、機器の制御を行うのであれば、その認識結果に応じた機器の制御を行う(ステップs12)。
【0066】
たとえば、ユーザの音声コマンドが「スイッチオフ」であったとすれば、それを音声認識し、その認識結果に基づいて、たとえば、機器側からユーザに対して「スイッチオフですね」といった応答を行ったのちに、スイッチをオフすることによって機器(この場合、エアコン2)の運転を停止するといった制御がなされる。
【0067】
一方、ステップs9における判定が、音声による応答は行わないとの判定であれば、直接、その認識結果に基づいた機器の制御を行うか否かを判定し(ステップs11)、機器の制御を行うのであれば、そのまま、認識結果に基づいた機器の制御を行う(ステップs12)。たとえば、ユーザの音声コマンドが「スイッチオフ」であったとすれば、それを音声認識し、その認識結果に基づいて、スイッチをオフして機器(この場合、エアコン2)の運転を停止するといった制御がなされる。
【0068】
また、ステップs9における判定が、音声による応答は行わないとの判定であり、かつ、ステップs11の判定が、機器の制御を行うのではない場合には、再び、ステップs2に処理が戻り、ステップs2〜s6を経て、ステップs7における次の音声コマンド入力を待つ処理に入る。なお、このとき、位置関係の測定や定常雑音の計測などを行う必要がなければ、ステップs2〜s6を省略して、直接、ステップs7に処理が飛んでもよい。
【0069】
以上説明したように、この実施の形態では、ある限られた空間としての1つの部屋1内に、音声対話型のユーザインタフェースを持った機器として、エアコン2とTV3と音響機器4が存在し、それらがネットワーク10に接続され、それぞれの機器は機器としての動作を独立して並列に行いながらも、相互に情報交換を行うことができるようにしている。
【0070】
これによって、それぞれの機器は、現在、ネットワーク10上にどのような機器が存在するかを認知することができるとともに、それぞれの機器がどのような位置関係にあるかを推定することができ、それに基づいて、ユーザがどの機器に対して音声コマンドを発しているかを判定することができる。さらに、他の機器から出されている雑音情報をそれぞれの機器が共有することもできる。
【0071】
このように、それぞれの機器がネットワーク10に接続され、相互に情報交換することによって、ユーザがどの機器に対して音声コマンドを発しているかを個々の機器において判定することができることから、ユーザの意図しない機器が誤動作するのを未然に防止することができる。
【0072】
また、ある機器から発せられる音声や音楽、あるいは、前述した定常的な雑音情報を機器が収集すると、その収集した雑音は、ネットワーク10を通じて他の機器にも与えることができるので、音声認識する際、それらの雑音が音声コマンドに重畳されていても、その雑音を除去した上で音声認識処理することが可能となり、機器が動作している環境下での音声認識率を向上させることができる。
【0073】
また、情報を共有できるということは、それぞれの機器が独自に認識可能な単語を他の機器も認識できるようにすることも可能であり、誤認識による誤動作を防止できる効果もある。すなわち、個々の機器が独自に認識する従来のシステムでは、たとえば、エアコン2の認識可能な単語が20単語、TV3が認識可能な単語が30単語、音響機器4の認識可能な単語が10単語であるとすれば、それぞれの機器は、自分の認識可能な単語のみしか認識できないことはいうまでもない。
【0074】
したがって、これらの機器が1つの限られた空間内に存在し、ユーザの発話する音声コマンドによって動作制御を行う場合、ユーザがたとえばエアコン2に対して、そのエアコン2のみが認識可能な音声コマンドを発話したとすると、その音声コマンドはエアコン2以外の機器にも入力され、エアコン2以外の機器も無理に認識を行おうとする。そして、エアコン2以外の機器は、その音声コマンドに比較的近いコマンドとして認識を行って、その認識結果に応じた動作制御を行ってしまうという不具合が生じる可能性がある。
【0075】
これに対して、本発明のように、それぞれの機器がネットワークにつながれてそれぞれの情報を共有できるようにすれば、エアコン2の認識可能な20単語、TV3が認識可能な30単語、音響機器4の認識可能な10単語をすべて認識可能単語とすることができる。
【0076】
たとえば、ユーザがエアコン2に対して「スイッチオフ」という音声コマンドを発生した場合を考える。この「スイッチオフ」という音声コマンドは、どの機器にも共通のコマンドであり、どの機器においても認識可能であるとする。そこで、ある1つの機器がユーザに対し「どの機器ですか」といった応答を行い、それに対して、ユーザが「エアコン」と発話したとすると、ユーザの発話した「エアコン」が、すべての機器で相互に情報交換しながら音声認識され、その結果、エアコン2だけがユーザの「スイッチオフ」の音声コマンドに対する動作を行うというようなことが可能となる。
【0077】
これは、それぞれの機器がネットワーク10に接続され、認識可能単語をも共有できることによって可能となるものである。つまり、エアコン2は「エアコン」という単語を認識可能単語として持っていても、TV3、音響機器4はそれぞれ単独では、「エアコン」は認識可能単語として持っていないのが普通であるが、上述したように、認識可能単語を共有することによって、本来、認識できない単語をも認識することができるようになる。
【0078】
これによって、きめ細かい高精度な認識処理がなされるので、紛らわしい単語などを的確に認識処理することができるので、誤認識による誤動作を防止できるようになる。
【0079】
なお、本発明は以上説明した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々変形実施可能となるものである。たとえば、前述の実施の形態では、音声対話型のインターフェース機能を有した機器、つまり、ユーザの音声コマンドを認識して、その応答を音声により行うとともに、その認識結果に応じた機器制御を行う機能を有した機器について説明したが、本発明は、ユーザに対して音声による応答を行う機能は必ずしも必要ではない。
【0080】
また、ネットワーク10つながる機器は全てが音声認識を行ってその認識結果に応じた機器の動作制御をなす機能を有するものでなくてもよい。たとえば、TV3や音響機器4など、音声や音楽などの音を発する機器は、たとえ、音声認識機能を持たず、音声コマンドによる制御対象の機器でないとしても、それらの機器をネットワーク10に接続しておき、それらの機器が発する音声や音楽などの音を雑音情報として、ネットワーク10に接続された音声認識機能を有する他の機器に提供できるようにすることも可能である。
【0081】
これによって、それらTV3や音響機器4などが動作しているときに、ユーザからの音声コマンドが、音声認識機能を有する機器に対して与えられた場合、その音声コマンドに重畳されるTV3や音響機器4などの音を除去した上で音声認識することができる。
【0082】
また、前述の実施の形態では、制御対象の機器としては主に家庭電化製品を想定したが、本発明は家電製品に限られるものではなく、音声コマンドを認識してその認識結果に応じた動作をなす音声認識機能を有する機器が、限られた空間内に複数存在するような場合には広く適用することができるものである。
【0083】
また、本発明は、以上説明した本発明を実現するための処理手順が記述された処理プログラムを作成し、その処理プログラムをフロッピィディスク、光ディスク、ハードディスクなどの記録媒体に記録させておくことができ、本発明はその処理プログラムが記録された記録媒体をも含むものである。また、ネットワークから当該処理プログラムを得るようにしてもよい。
【0084】
【発明の効果】
以上説明したように本発明によれば、音声認識機能を有した複数の機器をネットワークに接続し、それぞれの機器が個々に有する情報を当該ネットワークを介して相互に情報交換し合いながら、音声認識を行って、その認識結果に応じた機器の動作制御を行うようにしているので、ユーザの音声コマンドがどの機器に対して発せられたかを的確に判定することができ、ユーザの意図しない機器が誤動作するのを防止できる。
【0085】
また、それぞれの機器同志で情報交換が可能となることによって、ある機器が収集した雑音情報を、ネットワークに接続されたすべての機器が共有できるので、どの機器に音声コマンドが与えられても、その音声コマンドに重畳された雑音を適切に除去した上で音声認識することができ、高い認識率を得ることができる。
【0086】
さらに、情報を共有することによって、ある機器における認識可能単語を他の機器も認識可能とすることもでき、これによって、誤認識による誤動作を防止できる効果がある。すなわち、個々の機器が独自に認識する従来のシステムでは、それぞれの機器は、自分の認識可能な単語のみしか認識できないことはいうまでもない。これに対して、本発明のように、それぞれの機器がネットワークにつながれてそれぞれの情報を共有できるようにすれば、それぞれの機器が認識可能な単語をすべての機器が認識可能単語とすることができる。
【0087】
これによって、きめ細かい高精度な認識処理がなされるので、紛らわしい単語などを的確に認識処理することができるので、誤認識による誤動作を防止できるようになる。
【図面の簡単な説明】
【図1】本発明の実施の形態を説明する機器配置例を示す図であり、限られた空間内に複数の音声認識機能を有した機器がネットワークに接続された様子を概略的に示す図である。
【図2】図1で示された機器としてエアコンの構成図を示すブロック図である。
【図3】図1で示された機器としてTVの構成図を示すブロック図である。
【図4】本発明の実施の形態の処理手順を説明するフローチャートである。
【図5】限られた空間内に複数の音声認識機能を有した機器が存在する場合の従来技術を説明する図である。
【符号の説明】
1 限られた空間としての部屋
2 エアコン
3 TV
4 音響機器
10 ネットワーク
21 エアコンにおける機器動作部
22 エアコンにおけるユーザ制御部
23 エアコンにおける音声認識を用いた機器制御部
24 エアコンにおけるネットワーク接続部
31 TVにおける機器動作部
32 TVにおけるユーザ制御部
33 TVにおける音声認識を用いた機器制御部
34 TVにおけるネットワーク接続部
41 マイクロホン
42 増幅器
43 A/D変換器
44 D/A変換器
45 増幅器
46 スピーカ
47 情報処理部
48 情報記憶部
Claims (6)
- かぎられた空間内に音声認識機能を有する複数の機器が存在し、複数の前記機器に対し音声コマンドを与えることで、前記音声コマンドの与えられた機器が前記音声コマンドを認識し、前記音声コマンドの認識結果に応じて所定の動作制御をなす音声認識を用いた機器制御方法であって、複数の前記機器をネットワークに接続し、複数の前記機器が個々に有する情報を前記ネットワークを介して相互に交換し合い、前記音声コマンドに対し、自己機器の有する情報に加えて前記ネットワークを介して送られてくる他の機器の情報を参照して前記音声認識を行って、前記音声認識の結果に応じた機器の動作制御を行い、複数の前記機器が行う音声コマンドに対する音声認識は、複数の前記機器同士が相互に情報交換し合うことによって、前記自己機器における認識可能単語を前記他の機器も認識可能とし、前記相互に交換し合う情報は、少なくとも、複数の前記機器同士を識別するための機器識別情報、複数の前記機器が収集した雑音情報を含み、前記音声認識は、音声認識を行う際、前記雑音情報を相互に交換し合い、前記雑音情報を用いて、前記音声コマンドに重畳する雑音の除去を行って音声認識を行うものであり、前記音声認識の結果に応じた機器の動作制御を行うまでの処理手順は、前記機器識別情報を前記ネットワークを介して取得して、前記ネットワーク上に存在する情報交換すべき機器を認知するとともに、複数の前記機器の位置関係の測定を行い、その後、前記音声コマンドが入力されると、前記位置関係に基づき、前記音声コマンドが前記自己機器に対して発せられたか否かを判定し、前記音声コマンドが前記自己機器に対して発せられたものであると判定された場合には、前記音声コマンドに対する認識処理を行って、前記音声コマンドに対する認識結果に基づく機器の動作制御を行い、かつ前記音声認識は前記機器の各々において並列に行なわれることを特徴とする音声認識を用いた機器制御方法。
- 前記重畳する雑音は、機器の定常的な運転音や環境上に定常的に存在する定常音と、ネットワークに接続されている機器が動作することによって発する音声や音楽などの音であり、前記定常音については、複数の前記機器が定常的雑音情報として取得するとともに、取得した定常的雑音情報をネットワークを通じて他の機器との間で相互に交換しあって複数の前記機器で保存し、前記音声認識を行う際は、前記定常的雑音情報を前記音声コマンドから除去して音声認識を行い、前記音声や音楽などの音については、前記音楽などの音を発する機器がリアルタイムで前記音楽などの音を雑音情報として取得するとともに、前記ネットワークに接続されている他の機器も前記雑音情報をネットワークを通じてリアルタイムで取得し、前記音声認識を行う際は、前記雑音情報を音声コマンドから除去して音声認識を行う、ことを特徴とする請求項1記載の音声認識を用いた機器制御方法。
- 限られた空間内に音声認識機能を有する複数の機器が存在し、これらの機器のいずれかに対し音声コマンドを与えることで、その音声コマンドの与えられた機器がその音声コマンドを認識してその認識結果に応じて所定の動作制御をなす音声認識を用いた機器制御システムであって、複数の前記機器は、複数の前記機器が相互に情報交換可能となるようにネットワークに接続され、前記ネットワークに接続された複数の前記機器それぞれが、その機器がもともと有する機器動作部と前記機器動作部の動作状態の設定を行うユーザ操作部を有するとともに、少なくとも、前記音声コマンドを受け付けて前記音声コマンドを認識し、前記音声コマンドの認識結果に基づいて前記機器動作部を制御する音声認識を用いた機器動作制御部と、前記ネットワークに自己の機器を接続するためのネットワーク接続部とを有してなり、複数の前記機器それぞれが個々に有する情報を当該ネットワークを介して相互に交換し合い、前記音声コマンドに対し、自己機器の有する情報に加えて前記ネットワークを介して送られてくる他の機器の情報を参照して前記音声認識を行って、前記音声認識の結果に応じた機器の動作制御を行ない、複数の前記機器が行う音声コマンドに対する音声認識は、複数の前記機器同士が相互に情報交換し合うことによって、ある機器における認識可能単語を他の機器も認識可能とし、前記相互に交換し合う情報は、少なくとも、複数の前記機器同士を識別するための機器識別情報、複数の前記機器が収集した雑音情報を含み、前記音声認識は、音声認識を行う際、前記雑音情報を相互に交換し合い、前記雑音情報を用いて、前記音声コマンドに重畳する雑音の除去を行って音声認識を行うものであり、前記音声認識の結果に応じた機器の動作制御を行うまでの処理手順は、前記機器識別情報を前記ネットワークを介して取得して、前記ネットワーク上に存在する情報交換すべき機器を認知するとともに、複数の前記機器の位置関係の測定を行い、その後、前記音声コマンドが入力されると、前記位置関係に基づき、前記音声コマンドが前記自己機器に対して発せられたか否かを判定し、前記音声コマンドが前記自己機器に対して発せられたものであると判定された場合には、前記音声コマンドに対する認識処理を行って、前記音声コマンドに対する認識結果に基づく機器の動作制御を行い、かつ前記音声認識は前記機器の各々において並列に行なわれることを特徴とする音声認識を用いた機器制御システム。
- 前記重畳する雑音は、機器の定常的な運転音や環境上に定常的に存在する定常音と、ネットワークに接続されている機器が動作することによって発する音声や音楽などの音であり、前記定常音については、複数の前記機器が定常的雑音情報として取得するとともに、取得した定常的雑音情報をネットワークを通じて他の機器との間で相互に交換しあって複数の前記機器で保存し、前記音声認識を行う際は、前記定常的雑音情報を前記音声コマンドから除去して音声認識を行い、前記音声や音楽などの音については、前記音楽などの音を発する機器がリアルタイムで前記音楽などの音を雑音情報として取得するとともに、前記ネットワークに接続されている他の機器も前記雑音情報をネットワークを通じてリアルタイムで取得し、前記音声認識を行う際は、前記雑音情報を音声コマンドから除去して音声認識を行う、ことを特徴とする請求項3記載の音声認識を用いた機器制御システム。
- 限られた空間内に存在する音声認識機能を有した複数の機器をネットワークに接続し、複数の前記機器が個々に有する情報として、少なくとも、複数の前記機器を識別するための機器識別情報、複数の前記機器が収集した雑音情報を当該ネットワークを介して相互に交換することを可能とし、ユーザの発話する音声コマンドに対し、自己機器の有する情報に加えて前記ネットワークを介して送られてくる他の機器の情報を参照して音声認識を行って、前記音声認識の結果に応じた機器の動作制御を行う音声認識を用いた機器制御プログラムを記録した記録媒体であって、前記機器制御プログラムはコンピュータに、複数の前記機器を識別するための機器識別情報を前記ネットワークを介して取得して、前記ネットワーク上に存在する情報交換すべき機器を認知するとともに、複数の前記機器の位置関係の測定を行う手順と、前記位置関係の測定後、前記音声コマンドを待つ状態とし、前記音声コマンドが入力されると、前記位置関係に基づき、前記音声コマンドが自己機器に対して発せられたか否かを判定する手順と、当該音声コマンドが自己機器に対して発せられたものであると判定された場合には、前記音声コマンドに対する認識処理を行って、前記音声コマンドに対する認識結果に応じた機器の動作制御を行う手順と、を実行させることを含み、複数の前記機器が行う音声コマンドに対する音声認識は、前記音声認識を行う際、複数の前記機器が収集した雑音情報を相互に交換し合い、前記雑音情報を用いて、前記音声コマンドに重畳する雑音の除去を行って音声認識を行うものであり、また、複数の前記機器同士が相互に情報交換し合うことによって、ある機器における認識可能単語を他の機器も認識可能とし、かつ前記音声認識は前記機器の各々において並列に行なわれることを特徴とする音声認識を用いた機器制御プログラムを記録した記録媒体。
- 前記重畳する雑音は、機器の定常的な運転音や環境上に定常的に存在する定常音と、ネットワークに接続されている機器が動作することによって発する音声や音楽などの音であり、前記定常音については、複数の前記機器が定常的雑音情報として取得するとともに、取得した定常的雑音情報をネットワークを通じて他の機器との間で相互に交換しあって複数の前記機器で保存し、前記音声認識を行う際は、前記定常的雑音情報を前記音声コマンドから除去して音声認識を行い、前記音声や音楽などの音については、前記音楽などの音を発する機器がリアルタイムで前記音楽などの音を雑音情報として取得するとともに、前記ネットワークに接続されている他の機器も前記雑音情報をネットワークを通じてリアルタイムで取得し、前記音声認識を行う際は、前記雑音情報を音声コマンドから除去して音声認識を行う、ことを特徴とする請求項5記載の音声認識を用いた機器制御プログラムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000383808A JP4109414B2 (ja) | 2000-12-18 | 2000-12-18 | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000383808A JP4109414B2 (ja) | 2000-12-18 | 2000-12-18 | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006090652A Division JP2006227634A (ja) | 2006-03-29 | 2006-03-29 | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002182679A JP2002182679A (ja) | 2002-06-26 |
JP4109414B2 true JP4109414B2 (ja) | 2008-07-02 |
Family
ID=18851394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000383808A Expired - Fee Related JP4109414B2 (ja) | 2000-12-18 | 2000-12-18 | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4109414B2 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004212641A (ja) * | 2002-12-27 | 2004-07-29 | Toshiba Corp | 音声入力システム及び音声入力システムを備えた端末装置 |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
JP4829184B2 (ja) * | 2007-07-23 | 2011-12-07 | クラリオン株式会社 | 車載装置および音声認識方法 |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
JP6155592B2 (ja) | 2012-10-02 | 2017-07-05 | 株式会社デンソー | 音声認識システム |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2015029362A1 (ja) | 2013-08-29 | 2015-03-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 機器制御方法及び機器制御システム |
WO2015029379A1 (ja) | 2013-08-29 | 2015-03-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 機器制御方法、表示制御方法及び購入決済方法 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
WO2018063155A1 (en) | 2016-09-27 | 2018-04-05 | Hewlett-Packard Development Company, L.P. | Communication apparatuses |
JP6659514B2 (ja) | 2016-10-12 | 2020-03-04 | 東芝映像ソリューション株式会社 | 電子機器及びその制御方法 |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
KR101972545B1 (ko) * | 2018-02-12 | 2019-04-26 | 주식회사 럭스로보 | 음성 명령을 통한 위치 기반 음성 인식 시스템 |
JP2021103191A (ja) * | 2018-03-30 | 2021-07-15 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
WO2019235134A1 (ja) * | 2018-06-07 | 2019-12-12 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59148097A (ja) * | 1983-02-14 | 1984-08-24 | 富士通株式会社 | 音声認識方式 |
JPH0566793A (ja) * | 1991-09-09 | 1993-03-19 | Matsushita Electric Ind Co Ltd | 音声入力装置 |
JP2002116797A (ja) * | 2000-10-11 | 2002-04-19 | Canon Inc | 音声処理装置、音声処理方法及び記憶媒体 |
EP0980574B1 (en) * | 1997-10-20 | 2004-03-10 | Koninklijke Philips Electronics N.V. | Pattern recognition enrolment in a distributed system |
EP0911808B1 (en) * | 1997-10-23 | 2002-05-08 | Sony International (Europe) GmbH | Speech interface in a home network environment |
US6195641B1 (en) * | 1998-03-27 | 2001-02-27 | International Business Machines Corp. | Network universal spoken language vocabulary |
EP1181684B1 (en) * | 1999-03-26 | 2004-11-03 | Scansoft, Inc. | Client-server speech recognition |
JP3357629B2 (ja) * | 1999-04-26 | 2002-12-16 | 旭化成株式会社 | 設備制御システム |
-
2000
- 2000-12-18 JP JP2000383808A patent/JP4109414B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002182679A (ja) | 2002-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4109414B2 (ja) | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体 | |
JP2006227634A (ja) | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体 | |
JP3838029B2 (ja) | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム | |
JP4086280B2 (ja) | 音声入力システム、音声入力方法及び音声入力プログラム | |
EP3428899B1 (en) | Apparatus, system and method for directing voice input in a controlling device | |
US11631403B2 (en) | Apparatus, system and method for directing voice input in a controlling device | |
US20240117984A1 (en) | Air conditioner, air-conditioning system, communication system, and device management system | |
JP6282516B2 (ja) | 複数機器の音声操作システム、音声操作方法及び、プログラム | |
JP2019159306A (ja) | ファーフィールド音声制御デバイス及びファーフィールド音声制御システム | |
US20200126549A1 (en) | Device control system | |
EP3853848A1 (en) | Voice detection optimization using sound metadata | |
CN111667825A (zh) | 语音控制方法、云平台及语音设备 | |
JP7456387B2 (ja) | 情報処理装置、及び情報処理方法 | |
JP7335979B2 (ja) | 音声認識を用いて装置を制御する方法、及びこれを具現する装置 | |
US11102571B2 (en) | Speaker position determination method, speaker position determination system, and audio apparatus | |
JP2016206646A (ja) | 音声再生方法、音声対話装置及び音声対話プログラム | |
CN111183416B (zh) | 家电系统 | |
EP3735687A1 (en) | Apparatus, system and method for directing voice input in a controlling device | |
JP6921311B2 (ja) | 機器制御システム、機器、機器制御方法及びプログラム | |
JP5489537B2 (ja) | 音響再生システム、音響再生装置、及びそれらの制御方法 | |
KR100549214B1 (ko) | 유비쿼터스 홈네트워크 시스템 및 그 제어 방법 | |
CN111183478B (zh) | 家电系统 | |
WO2018100742A1 (ja) | コンテンツ再生機器、コンテンツ再生システム、及びコンテンツ再生機器の制御方法 | |
WO2021140816A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
WO2023056280A1 (en) | Noise reduction using synthetic audio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060329 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060517 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20060707 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080404 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110411 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110411 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120411 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130411 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130411 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140411 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |