JP4624577B2 - 複数のセンサによるヒューマンインタフェースシステム - Google Patents

複数のセンサによるヒューマンインタフェースシステム Download PDF

Info

Publication number
JP4624577B2
JP4624577B2 JP2001048656A JP2001048656A JP4624577B2 JP 4624577 B2 JP4624577 B2 JP 4624577B2 JP 2001048656 A JP2001048656 A JP 2001048656A JP 2001048656 A JP2001048656 A JP 2001048656A JP 4624577 B2 JP4624577 B2 JP 4624577B2
Authority
JP
Japan
Prior art keywords
sensor
information
person
voice
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001048656A
Other languages
English (en)
Other versions
JP2002251234A (ja
Inventor
正規 渡辺
健太郎 村瀬
拓也 野田
一宏 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001048656A priority Critical patent/JP4624577B2/ja
Priority to US09/940,661 priority patent/US6583723B2/en
Publication of JP2002251234A publication Critical patent/JP2002251234A/ja
Priority to US10/337,818 priority patent/US6686844B2/en
Application granted granted Critical
Publication of JP4624577B2 publication Critical patent/JP4624577B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition

Description

【0001】
【発明の属する技術分野】
本発明は、マンマシンインタフェースの技術分野に関し、特にテレビジョンやビデオをはじめとした家電製品、コンピュータなどの操作を、リモートコントローラ、マウス、キーボードなどのボタン操作による入力装置を使わず、声や身振り、手振りで行う装置に関する。
【0002】
【従来の技術】
現在、テレビジョンやビデオをはじめとした家電製品、コンピュータなどの操作は、リモートコントローラ、マウス、キーボードなどのボタン操作による入力装置が広く用いられている。ボタン操作による入力装置を使わず、声や身振り、手振りで行う装置も開発されつつある。マンマシンインタフェースにおける人物識別やコマンド入力を、利用者の声や身振り、手振りで行う技術として特開2000-326274号公報に記載の技術が知られている。
【0003】
特開2000-326274号公報に記載の技術では、人物を識別するための視覚情報を複数のカメラの撮影による得るが、被写体位置の探索制御などの撮影制御は、もっぱら当該カメラから得られる情報のみを用いてその制御を行っていた。また、音声認識に用いる音声情報も複数のマイクロフォンから得るが、音声方向の探索制御など音声入力制御は、もっぱらロボットの前後左右に設置された複数のマイクから得られる情報のみを用いてその制御を行っていた。
【0004】
音声入力制御については、特開平1-195499号公報に記載の技術も知られている。特開平1-195499号公報記載の技術は、セキュリティドアのように、超音波センサによる物体検出結果とカメラから取り込んだ画像データに基づいて入室者の口の位置を見つけ、その口の方向にマイクロフォンの指向性を合わせる技術である。
【0005】
【発明が解決しようとする課題】
しかし、上記従来技術には以下の問題があった。
【0006】
従来の特開2000-32674号公報に記載の技術においては、装置またはロボットの目にあたるカメラからの撮影情報、耳にあたるマイクロフォンから得られる音声情報は利用されるものの、両者は独立して扱われている。図10に示した特開2000-32674号公報において開示されているブロック図においても、画像情報処理、音声情報処理相互に情報がやりとりされることは何ら示されていない。そのため、特開2000-32674号公報に記載の技術では、人間ではない人の顔を映した写真やマネキン人形を人間として認識してしまったり、人間ではない音響機器のスピーカーから流れ出た音声情報を認識してしまうという問題が起こる。このようなことはマンマシンインタフェースの意図としないどころか、人の写真、マネキン人形、人間の声以外の雑音は画像認識、音声認識にとってはノイズとなり、認識率の低下を招いたり、また、不要な対象物から得られる画像情報や音声情報を入力するため余計な情報処理が行われ、処理速度の低下を引き起こす。
【0007】
次に、特開平1-195499号公報に記載の技術においては、図11のように、マイクロフォンの指向性制御において超音波センサとカメラによる被探索物の位置情報が利用されるが、音声情報の処理結果を利用することはない。また、超音波センサとカメラによる被探索物の位置検出制御においてマイクロフォンの音声情報の処理結果が利用されることもない。特開平1-195499号公報に記載の技術では、超音波センサやカメラが物体検出のためにセンスや撮影を行っているエリア(例えば、入退室のドア位置)に人物が入った場合には、マイクロフォンの指向性を合わせて音声を効率よく得ることができるが、入退室管理のドア位置のようにあらかじめ狭い探索エリアが設定されている場合のみに有効な技術であって、一般にそのような限定された探索エリアがない場合では、人物が超音波センサやカメラから外れたところに立ち、音声によるコマンド入力を行う場合も多く想定され、特開平1-195499号公報に記載の技術では柔軟に対処できない。
【0008】
本発明は、以上の状況を考慮し、マンマシンインタフェースの入力情報として適切な情報を取捨選択し、マンマシンインタフェースの誤動作を防止したり、認識率、処理速度の向上を図ることを目的とする。
【0009】
【課題を解決するための手段】
上記課題を解決するために、本発明の複数のセンサによるヒューマンマシンインタフェースシステムは、検出対象の範囲と検出精度を決定し、当該検出精度により当該検出対象から特定の検出信号を獲得するセンサとして、検出信号が異なる少なくとも2種類以上のセンサと、前記各センサで検出された結果間に相互に矛盾がないか否かを調べ、各センサに対する制御情報を生成する総合解析部と、前記各センサによる検出結果を利用するアプリケーションと、前記各センサ相互間、前記各センサと前記総合解析部間、前記総合解析部と前記アプリケーション間においてデータと制御情報を通信し合う通信手段を備え、前記各センサが、他のセンサから得た前記信号検出結果または制御情報、前記総合解析部から得た前記制御情報のいずれかまたはその組み合わせを利用して、次回の信号獲得時における検出対象の範囲と検出精度を決定し、前記各センサが、前記通信手段を介して、他のセンサに対して、自身の信号検出結果と、他のセンサが次回の信号獲得時における検出対象の範囲と検出精度の決定に利用する制御情報を出力し、前記総合解析部が、前記通信手段を介して、前記各センサが次回の信号獲得時における検出対象の範囲と検出精度の決定に利用する制御情報を出力することを特徴とする。
【0010】
上記構成により、複数異種のセンサの認識結果を相互参照し合い、相互に矛盾の生じないような信号獲得制御を行うことができ、より正確な利用者のコマンド入力の認識が可能であり、優れたヒューマンインタフェースシステムを提供することができる。
【0011】
また、上記構成において、前記検出対象が人であり、前記センサが少なくとも画像センサと音声センサと補助センサを含み、前記画像センサの検出信号が人の画像認識情報であり、前記画像センサが、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識部を備え、前記音声センサの検出信号が人の音声認識情報であり、前記音声センサが、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識部を備え、前記補助センサの検出信号が人の位置情報を検出するに有効な情報であることが好ましい。
【0012】
上記構成により、画像センサによる動作認識結果と、音声センサによる音声認識結果と、他のセンサ(補助センサ)により検出した人物位置情報の結果とを参考にし、相互に矛盾のない、より正確な利用者のコマンド入力の認識が可能であり、優れたヒューマンインタフェースシステムを提供することができる。
【0013】
なお、上記のように、画像センサを用いた動作認識、音声センサを用いた音声認識、他のセンサを用いた人物位置情報のすべてを組み合わせた構成のみならず、
センサおよび認識結果の組み合わせとして、画像センサを用いた動作認識結果と音声センサを用いた音声認識結果の組み合わせ、画像センサを用いた動作認識結果と他のセンサを用いた人物位置検出結果の組み合わせ、音声センサを用いた音声認識結果と他のセンサを用いた人物位置検出結果の組み合わせなど多様な組み合わせが可能である。
【0014】
【発明の実施の形態】
(実施形態1)
本発明の実施形態1にかかる複数のセンサによるヒューマンインタフェースシステムを述べる。
【0015】
本発明の実施形態1の複数のセンサによるヒューマンインタフェースシステムは、カメラによる画像の撮影過程およびその認識過程、また、マイクによる音声情報の録音過程およびその認識過程において、それぞれ、それぞれが処理した過去の結果を参考するほか、互いの結果を参考する。さらに、必要に応じて、超音波センサ、赤外センサ、レンジセンサなどの補助センサを用いて得られた情報とその処理結果、また、アプリケーションの実行結果も参考する。各センサは、相互に解析結果や信号獲得制御に関する指示のやり取りを行い、さらに、総合解析部による解析結果や、各センサにおける信号獲得の制御に関する指示のやり取りを行い、センサ間の矛盾を調べつつフィードバック処理を実行し、信号を獲得する範囲および精度を確実に決定し、複数のセンサ全体で整合性のとれた出力を生成するものである。
【0016】
例えば、認識処理開始当初は、各センサが環境全体から信号を獲得し、各センサにおける獲得信号を解析し、その結果を他のセンサに渡し、次の信号獲得ステップでは、前ステップにおける自らの獲得信号の解析結果、他のセンサからの解析結果、総合解析部による各センサ間で矛盾が生じないように処理した解析結果を考慮し、環境中において、信号を獲得すべき対象の範囲と精度を決定し、信号を獲得するものである。
【0017】
まず、実施形態1にかかる複数のセンサによるヒューマンインタフェースシステムの装置構成概略を示す。
【0018】
図1は、本発明の実施形態1にかかる複数のセンサによるヒューマンインタフェースシステムの装置構成概略を示す図である。10はセンサ部で画像センサ20、音声センサ30を備えている。40は補助センサ部、50は総合解析部、60はアプリケーションである。ここで、補助センサ部40は、本発明のヒューマンインタフェースシステムが用いられる対象に応じて、画像センサ20、音声センサ30以外に有用な信号を得ることができる一又は複数のセンサを備えたものである。
【0019】
図1に示すように、本発明の実施形態1にかかる複数のセンサによるヒューマンインタフェースシステムでは、センサ部10の画像センサ20、音声センサ30、補助センサ部40は、各センサの信号処理において他のセンサで得られた信号処理結果を相互に利用し合い、かつ、他のセンサの制御を指示するものとなっている。図1に示すように、センサ部10の画像センサ20と音声センサ30間には、双方向に信号処理結果や制御データをやりとりするデータ/制御信号通信手段71が設けられている。また、センサ部10と補助センサ部40間にも双方向に信号処理結果や制御データをやりとりするデータ/制御信号通信手段72が設けられている。さらに、センサ部10と補助センサ部40と総合解析部50の間にも双方向に信号処理結果や制御データをやりとりするデータ/制御信号通信手段73、74が設けられている。総合解析部50とアプリケーション60の間にも双方向に信号処理結果や制御データをやりとりするデータ/制御信号通信手段75が設けられている構成となっている。
【0020】
従来技術で説明した図10の構成では、各センサにおける信号処理は個別に実行され、それぞれ独立した情報としてアプリケーションに至るものであり、図11の構成では、音声センサの処理において超音波センサと画像センサの処理結果を利用するものの、情報や制御の流れが一方的であった。それに対し、本発明の構成は、センサ部10や補助センサ部40の各センサが、データ/制御信号通信手段71および72を通じて、互いに他のセンサの処理結果を利用し、また、他のセンサに対する制御を指示する。さらに、データ/制御信号通信手段73および74を通じて、総合解析部50の処理結果をフィードバックして利用したり、総合解析部50から各センサに対する制御の指示を受ける構成となっている。総合解析部50はセンサ部10、補助センサ部40にあるすべてのセンサの処理結果を入力とし、各センサ間の矛盾を調べつつフィードバック処理を実行し、装置のセンサ全体で整合性のとれた出力を生成するものとなっている。さらに、総合解析部50は状況に応じて、データ/制御信号通信手段75を通じて、アプリケーション60の実行結果を参考したり、アプリケーション60から信号処理に関する指示を受け、それをもとに各センサを制御する構成となっている。
【0021】
図1の基本構成を適用し、図1の画像センサ20、音声センサ30、補助センサ40構成例を詳しく示した図を図2に示す。
【0022】
センサ部10は、画像センサ20、音声センサ30を備え、画像センサ20、音声センサ30は、以下のように、それぞれ、センサ制御部、センサ装置、センサ信号解析部、通信部の4つの部分を備えている。
【0023】
画像センサ20は、撮影装置21、撮影装置制御部22、画像解析部23、通信部24の4つの部分から成る。
【0024】
音声センサ30は、録音装置31、録音装置制御部32、音声解析部33、通信部34の4つの部分を備えている。
【0025】
補助センサ部40は、本発明のヒューマンインタフェースシステムが用いられる対象に応じて、画像センサ、音声センサ以外に有用な信号を得ることができる一又は異種複数の各種センサを備えたものである。例えば、超音波センサ、赤外線センサ、レンジセンサなどが挙げられる。補助センサ部40に含まれる各補助センサは、それぞれ、補助センサ装置41、補助センサ装置制御部42、信号解析部43、通信部44の4つの部分を備えている。
【0026】
撮影装置21、録音装置31、補助センサ装置41は、環境中から信号を獲得する装置である。撮影装置21は、環境を撮影し、画像情報を生成する部分である。録音装置31は、録音装置環境の音響を録音し、音声情報を生成する部分である。補助センサ装置41は、環境の状態を表す信号を獲得する部分である。
【0027】
通信部24、34、44は、データ/制御信号通信手段71〜74を通じて、他のセンサまたは総合解析部50との通信インタフェースを制御する部分である。相互に解析結果や信号獲得制御に関する指示のやり取りを制御する。
【0028】
撮影制御部22および画像解析部23、録音装置制御部32、音声解析部33、補助センサ装置制御部42および信号解析部43は、それぞれ連動してセンサ信号獲得制御および信号解析を行う。センサ信号獲得制御および信号解析には、以下の、第1のセンサ信号獲得制御および信号解析、第2のセンサ信号獲得制御および信号解析、第3のセンサ信号獲得制御および信号解析がある。
【0029】
第1のセンサ信号獲得制御および信号解析は、センサ信号獲得制御として、環境中において、信号を獲得する対象の範囲および獲得する精度を決定し、センサ装置(画像センサ装置21、音声センサ装置31、補助センサ装置41)を制御する。その際、必要に応じて、データ/制御信号通信手段71〜74を通じて、他のセンサ(画像センサ20、音声センサ30、補助センサ部40に含まれる他のセンサ)の解析結果、総合解析部50の結果、当該センサ自身のそれまでの解析結果を得て、それらを参考にしてセンサ装置を制御する。信号解析として、獲得した信号の処理にあたり、必要に応じて、他のセンサの解析結果、総合解析部50の結果、当該センサ自身のそれまでの解析結果を得て、それらを参考して信号を解析する。
【0030】
第2のセンサ信号獲得制御および信号解析は、第1のセンサ信号獲得制御および信号解析よりさらに、他のセンサや総合解析部50との間の解析結果や制御指示のフィードバックを重視するものである。まず、センサ信号獲得制御として、データ/制御信号通信手段71〜74を通じて、他のセンサまたは総合解析部50から受けた、環境中において、信号を獲得する対象の範囲および獲得する精度に関する指示を得て、その指示にしたがってセンサ装置を制御する。制御開始当初においてかかる指示が得られていない場合、環境中、信号を獲得する対象の範囲および獲得する精度の決定にあたり、必要に応じて、データ/制御信号通信手段71〜74を通じて、他のセンサの解析結果、総合解析部50の結果、当該センサ装置自身のそれまでの解析結果を得て、それらを参考にして決定し、センサ装置を制御する。信号解析として、獲得した信号の処理にあたり、必要があれば、データ/制御信号通信手段71〜74を通じて、他のセンサの解析結果、総合解析部50の結果、当該センサ自身のそれまでの解析結果を得て、それらを参考にして信号を解析する。また、解析結果に基づき、必要に応じて、データ/制御信号通信手段71〜74を通じて、他のセンサに対して、環境中において、信号を獲得する対象の範囲および獲得する精度に関して指示データを与える。
【0031】
第3のセンサ信号獲得制御および信号解析は、第2のセンサ信号獲得制御および信号解析と同様、他のセンサや総合解析部50との間の解析結果や制御指示のフィードバックを重視しつつ、かつ、フィードバックを受動的に受けるのみでなく、フィードバック情報を採用するか否かを自律的に判断するものである。まず、センサ信号獲得制御として、データ/制御信号通信手段71〜74を通じて、他のセンサまたは総合解析部50から受けた、環境中、信号を獲得する範囲および精度に関するフィードバックされた指示を得て、その指示に従うか否かを他のセンサの解析結果、総合解析部50の結果、センサ自身のそれまでの解析結果を参考にして判断し、従う場合は、同指示に従ってセンサ装置を制御する。従わないと判断した場合、または、他のセンサ、総合解析部50から信号を獲得する範囲および精度に関する指示のフィードバックがない場合は、それまでに得られている他のセンサの解析結果、総合解析部50の結果、センサ自身の解析結果を参考にして信号を獲得する範囲および精度を判断し、センサ装置を制御する。なお、信号解析については第2のセンサ信号獲得制御および信号解析で述べた信号解析と同様で良い。
【0032】
次に、総合解析部50を説明する。
【0033】
総合解析部50は、センサ部10、補助センサ部40の解析結果、アプリケーションの実行結果を参考して、複数のセンサ間で最も矛盾の少ない結果を解析して求め、当該解析結果に基づき、必要に応じて各センサ部10、補助センサ部40に環境中、信号を獲得する対象の範囲および獲得する精度に関して指示する部分である。
【0034】
総合解析部50は、データ/制御信号通信手段73、74を通じて、センサ部10、補助センサ部40の解析結果を獲得し、さらに、データ/制御信号通信手段75を通じて、アプリケーション60からセンサ制御に関する指示を得る。信号処理結果を、データ/制御信号通信手段75を通じて、アプリケーション60に提供する。さらに、必要に応じてアプリケーション60から実行結果のフィードバックを獲得する。それら得た情報をもとに、複数のセンサ間で最も矛盾の少ない結果を求める。当該解析結果に基づき、必要があれば、データ/制御信号通信手段73、74を通じて、センサ部10、補助センサ部40に対して、環境中、信号を獲得する対象の範囲および獲得する精度に関する指示を与える。
【0035】
次に、本発明の実施形態1の複数のセンサによるヒューマンインタフェースシステムの信号処理の流れを図3のフローチャートを参照しつつ説明する。
【0036】
まず、センサ部10、補助センサ部40の各センサと、総合解析部50を並行して起動する(ステップS301)。
【0037】
センサ部10、補助センサ部40の各センサは、撮影装置21、録音装置31、補助センサ装置41を用いて、まず、環境全体から信号を獲得する(ステップS302)。
【0038】
センサ部10、補助センサ部40の各センサは、画像解析部23、音声解析部33、信号解析部43を用いて、ステップS302で得た信号を解析する(ステップS303)。
【0039】
データ/制御信号通信手段71〜74を通じて、解析結果を出力し(ステップS304)、さらに、解析結果に応じて、他のセンサに対し、信号の獲得の制御に関する指示を出す(ステップS305)。
【0040】
センサ部10、補助センサ部40の各センサは、データ/制御信号通信手段71〜74を通じて、センサ部10、補助センサ部40のうちの他のセンサと、総合解析部50の解析結果、および他のセンサから受けた信号の獲得制御に関する指示を獲得する(ステップS306)。
【0041】
次に、データ/制御信号通信手段71〜74を通じて、他のセンサ、総合解析部50から信号の獲得の制御に関する指示の有無を調べる(ステップS307)。
【0042】
信号の獲得の制御に関する指示があれば(ステップS307:Y)、他のセンサ、総合解析部50および過去の解析結果を参考した場合、当該指示に従って良いかを判断し(ステップS308)、当該指示に従って良いと判断した場合は(ステップS308:Y)、各センサにおいて撮影装置21、録音装置31、補助センサ装置41を用いて、当該指示に従って環境の信号を獲得する(ステップS309)。
【0043】
ステップS308において当該指示に従って良いと判断しなかった場合は(ステップS308:N)、または、ステップS307において信号の獲得の制御に関する指示がない場合(ステップS307:N)、他のセンサの解析結果、総合解析部50の結果、自分のこれまでの解析結果をもとに、環境中において、次に信号を獲得する対象の範囲および獲得する精度を決定し、その決定に従って環境の信号を獲得する(ステップS310)。
【0044】
次に、獲得した信号を、他のセンサ、総合解析部50の解析結果、過去の解析結果を参考に解析する(ステップS311)。
【0045】
データ/制御信号通信手段71〜74を通じて、解析結果を出力し(ステップS312)、さらに、解析結果に応じて、他のセンサに対し、信号の獲得の制御に関する指示を出す(ステップS313)。
【0046】
ステップS305からステップS313を繰り返す。
【0047】
総合解析部50は、次の図4のフローチャートに示した流れにより処理を実行する。
【0048】
総合解析部50は、データ/制御信号通信手段75を通じて、アプリケーション60からセンサ部10、補助センサ部40の各センサにおける、信号の獲得の制御に関する指示の有無を調べ(ステップS401)、指示があれば(ステップS401:Y)、その指示を各センサに与える(ステップS402)。指示がない場合は、S403にすすむ。
【0049】
総合解析部50は、データ/制御信号通信手段71〜74を通じて、各センサから信号処理結果を得て、さらに、データ/制御信号通信手段75を通じて、アプリケーション60から実行結果を獲得する(ステップS403)。
【0050】
総合解析部50は、すべての結果のうち、複数の間で最も矛盾の少ない結果を求める(ステップS404)。
【0051】
総合解析部50は、データ/制御信号通信手段75を通じて、解析結果をアプリケーション60に提供する(ステップS405)。また、解析結果に応じて、データ/制御信号通信手段71〜74を通じて、各センサに信号の獲得制御に関する指示を出す(ステップS406)。
【0052】
ステップS401からステップS406を繰り返す。
【0053】
以上、本発明の複数のセンサによるヒューマンインタフェースシステムによれば、センサ部10、補助センサ部40の各センサは、相互に解析結果や信号獲得制御に関する指示のやり取りを行い、さらに、総合解析部50による解析結果や信号獲得制御に関する指示のやり取りを行い、センサ間の矛盾を調べつつフィードバック処理を実行し、信号を得る範囲および精度を確実に決定し、複数のセンサ全体で整合性のとれた出力を生成することができる。
【0054】
(実施形態2)
本発明の実施形態2の複数のセンサによるヒューマンインタフェースシステムは、実施形態1に示した構成を変形した構成としたものである。実施形態1で示した図1の構成は、センサとして、センサ部10の画像センサ20、音声センサ30、補助センサ部40を備えた構成であったが、そのバリエーションとして、図5(a)〜(c)の構成がある。図5(a)は、図1の構成から補助センサ部40を省略したもの、図5(b)は、図1の構成から音声センサ30を省略したもの、図5(c)は、図1の構成から画像センサ20を省略したものとなっている。
【0055】
図5(a)は、補助センサ部40を必要としない場合、画像センサ20と音声センサ30の間で、データ/制御信号通信手段71を通じて、相互に信号処理結果を得て、さらに、データ/制御信号通信手段73を通じて、総合解析部50から解析結果を獲得し、また、データ/制御信号通信手段75を通じてアプリケーション50から得た制御指示内容を総合解析部50を介して得て、すべての結果のうち、複数の間で最も矛盾の少ない結果を求めるものである。
【0056】
図5(b)は、画像情報だけでアプリケーションを操作する場合、音声センサ30を省略した構成とし、画像センサ20と補助センサ部40の間で、データ/制御信号通信手段72を通じて、相互に信号処理結果を得て、さらに、データ/制御信号通信手段73、74を通じて、総合解析部50から実行結果を獲得し、また、データ/制御信号通信手段75を通じてアプリケーション60から得た制御指示内容を総合解析部50を介して得て、すべての結果のうち、複数の間で最も矛盾の少ない結果を求めるものである。
【0057】
図5(c)は、音声情報だけでアプリケーションを操作する場合、画像センサ20を省略した構成とし、音声センサ30と補助センサ部40の間で、データ/制御信号通信手段72を通じて、相互に信号処理結果を得て、さらに、データ/制御信号通信手段73、74を通じて、総合解析部50から実行結果を獲得し、また、データ/制御信号通信手段75を通じてアプリケーション60から得た制御指示内容を総合解析部50を介して得て、すべての結果のうち、複数の間で最も矛盾の少ない結果を求めるものである。
【0058】
何れの場合でも、実施形態1と同じく、センサ間で処理結果と制御が行き交い、それらの結果を総合して解析することにより、出力を生成し、次のステップで環境中から獲得する信号の範囲と精度を決定する。
【0059】
(実施形態3)
本発明の実施形態3の複数のセンサによるヒューマンインタフェースシステムは、実施形態1に示した基本構成を、人の音声入力による操作指示、身振りによる操作指示を受け付けるヒューマンインタフェースシステムに適用したものであって、解析結果や信号獲得制御に関する指示のやり取りを行い、センサ間の矛盾を調べつつ複数のセンサ全体で整合性のとれた出力を生成するとともに、検出対象である人の音声入力による操作指示内容、身振りによる操作指示内容を解析して受け付けるシステムである。
【0060】
図6は、本発明の実施形態3にかかる複数のセンサによるヒューマンインタフェースシステムの装置構成概略を示すブロック図である。図6に示すように、本発明の実施形態3の構成は、センサ部10a、補助センサ部40a、総合解析部50a、アプリケーション60を備えている。センサ部10aは、画像センサ20a、音声センサ30aを備えている。なお、検出対象は人、人の声、人の身振りである。
【0061】
ここで、画像センサ20aは、人の画像データを得る機能に加え、人の動きから身振りによる操作指示内容を解析するジェスチャ解析機能を備えている。また、音声センサ30aは、人の音声データを得る機能に加え、人の音声による操作指示内容を解析する音声解析機能を備えている。また、補助センサ部40aは、画像センサ20a、音声センサ30aの処理に対する有用な信号を得るものであり、例えば、人の位置および人がマネキンやラジオなどの静止物でなく、動いているかものであるかを検出するために有用なセンサとして、超音波センサが挙げられ、人がマネキンやラジオなどの無生物ではなく、生物であることを検出するために有用なセンサとして、赤外線センサ(サーモグラフィを生成するセンサ)などが挙げられる。
【0062】
また、この構成例では、各データ/制御信号通信手段71〜74、75は、1つの通信路76を共用する形で形成されている。
【0063】
各センサの構成と処理内容をさらに詳しく説明する。
【0064】
画像センサ20aは、撮影装置21、撮影装置制御部22、画像解析部23a、通信部24を備えている。画像解析部23aは、人物検出部231、人物映像記憶部232、動作認識部233、動作パターン記憶部234を備えている。
【0065】
撮影装置21は、カメラ等、映像を獲得する一又は複数の装置であって、撮影範囲の情景を画像として獲得する。動的に撮影方向を変えられるものとする。
【0066】
撮影制御部22は、画像解析部23aの画像解析による人物検出結果、音声センサ30aの音声による音源検出結果、補助センサ40aによる人物位置検出結果に基づき、画像情報の獲得を指向する方向、位置、光学パラメータを決定した上で、撮影装置21を制御する。なお、総合解析部50aやアプリケーション60によって撮影制御の指示を受ける場合もある。
【0067】
画像解析部23aは、画像を解析する部分であるが、本実施形態3では、画像解析により人物検出とジェスチャ入力によるコマンド認識を行う。
【0068】
人物検出部231は、画像情報から人物に相当する映像パターンを探索する部分である。撮影装置21により獲得された画像情報から、人物映像記憶部232に蓄積された画像パターンを参考にして人物画像パターンを探索し、当該人物画像パターンの画像上での位置と撮影装置21の位置から人物位置を決定し、画像上での見え方に応じて人物の向きを決定する。
【0069】
人物映像記憶部232は、探索対象となる画像パターンを蓄積する部分であり、ここでは人間だと認識できる映像パターンを記憶している。
【0070】
動作認識部233は、人物検出部231で検出された人物画像データの動き(ジェスチャ)を解析して、身振り(ジェスチャ)によるコマンドを認識する部分である。動作認識にあたり、動作パターン記憶部234のデータとのマッチングを行って、その人物がジェスチャにより入力したコマンドを認識する。
【0071】
動作パターン記憶部234は、コマンドとそのときの人間の動作パターンの映像を対応づけて記憶する部分である。
【0072】
次に、画像センサ20aにおける、音声センサ30a、補助センサ40a、総合解析部50aからのデータ、制御指示のフィードバックを受けた動作認識処理について説明する。
【0073】
画像情報と音声情報に基づく動作認識は、音声センサ30aにより検出された人物音声を発する音源位置情報をもとに、当該人物の所定時間の画像情報の変化に基づき人間の動作を認識する。その際、動作パターン記憶部234の情報を参考する。
【0074】
次に、画像情報と音声情報と補助センサ40aによる人物検出情報に基づく動作認識は、音声センサ30aにより検出された人物音声を発する音源位置情報と、補助センサ40aにより検出された人物位置情報をもとに、当該人物の所定時間の画像情報の変化に基づき人間の動作を認識する。その際、動作パターン記憶部234の情報を参考する。
【0075】
画像情報と音声情報と補助センサ40aによる人物検出情報と総合解析部50aの解析結果とアプリケーション60の制御指示に基づく動作認識は、音声センサ30aにより検出された人物音声を発する音源位置情報と、補助センサ40aにより検出された人物位置情報と、総合解析部50aによる各センサ間で最も矛盾の少ない解析情報と、アプリケーション60からの制御指示内容をもとに、当該人物の所定時間の画像情報の変化に基づき人間の動作を認識する。その際、動作パターン記憶部234の情報を参考する。
【0076】
次に、音声センサ30aは、録音装置31、録音装置制御部32、音声解析部33a、通信部24を備えている。音声解析部33aは、音源検出部331、人物音声記憶部332、音声認識部333、音声パターン記憶部334を備えている。
【0077】
録音装置31は、マイク等、音声を獲得する一又は複数の装置であり、音声を音声情報として獲得する。動的に指向性を設定できるものとする。
【0078】
録音装置制御部32は、画像センサ20aによる人物検出結果、音声解析部33aによる音源検出結果、補助センサ40aによる人物位置検出結果に基づき、音声情報を獲得する方向、位置、音響パラメータを決定した上で、録音装置31を制御する。なお、総合解析部50aやアプリケーション60によって撮影制御の指示を受ける場合もある。
【0079】
音声解析部33aは、音声を解析する部分であるが、本実施形態3では、音声解析により人物検出と音声入力によるコマンド認識を行う。
【0080】
音源検出部331は、音声情報から人物に相当する音声パターンを探索する部分である。音声情報と人物音声記憶部332に記憶された人物に相当する音響パターンとを比較して人物音声パターンを持つ音源を探し出し、録音装置31の位置と人物に相当する音響パターンの強度に基づき、人間の発声に相当する音源方向を決定する。
【0081】
人物音声記憶部332は、探索対象となる音声パターンを蓄積する部分であり、ここでは人間が発声する音響パターンを記憶している。
【0082】
音声認識部333は、音源検出部331で検出された音声入力を解析して、音声入力によるコマンドを認識する部分である。音声認識にあたり、音声パターン記憶部334のデータとのマッチングを行って、その人物が音声により入力したコマンドを認識する。
【0083】
音声パターン記憶部334は、コマンドとそのときの人間の動作パターンの音声データを対応づけて記憶する部分である。
【0084】
次に、音声センサ30aにおける、画像センサ20a、補助センサ40a、総合解析部50aからのデータ、制御指示のフィードバックを受けた音声認識処理について説明する。
【0085】
画像情報と音声情報に基づく音声認識は、画像センサ20aにより検出された人物の映像を有する物体位置情報をもとに、当該人物の所定時間の音声情報に基づき人間の音声を認識する。その際、音声パターン記憶部334の情報を参考する。
【0086】
次に、画像情報と音声情報と補助センサ40aによる人物検出情報に基づく音声認識は、画像センサ20aにより検出された人物映像を有する物体位置情報と、補助センサ40aにより検出された人物位置情報をもとに、当該人物の所定時間の音声情報に基づき人間の音声を認識する。その際、音声パターン記憶部334の情報を参考する。
【0087】
画像情報と音声情報と補助センサ40aによる人物検出情報と総合解析部50aの解析結果とアプリケーション60の制御指示に基づく音声認識は、画像センサ20aにより検出された人物映像を有する物体位置情報と、補助センサ40aにより検出された人物位置情報と、総合解析部50aによる各センサ間で最も矛盾の少ない解析情報と、アプリケーション60からの制御指示内容をもとに、当該人物の所定時間の音声情報に基づき人間の音声を認識する。その際、音声パターン記憶部334の情報を参考する。
【0088】
次に、補助センサ40aは、補助センサ装置41、補助センサ装置制御部42、人物位置検出部43a、通信部44を備えている。
【0089】
補助センサ装置41は、超音波センサ、赤外センサ、レンジセンサなど、画像、音声以外の情報のセンサであり、環境の動きの変化を観測する一又は複数のセンサを備え、人物位置を検出するに有効な情報を獲得する。動的にその探索範囲・精度を設定できるものとする。
【0090】
補助センサ装置制御部42は、画像センサ20aによる人物検出結果、音声解析部33aによる音源検出結果、補助センサ部40aによる人物位置検出結果に基づき、補助センサ部により信号を獲得する方向、位置、特徴パラメータを決定した上で、補助センサ装置41を制御する。なお、総合解析部50aやアプリケーション60によって撮影制御の指示を受ける場合もある。
【0091】
人物位置検出部43aは、信号解析部43の一形態であり、補助センサ部40aの出力に基づき、人物の位置を検出する部分である。例えば、補助センサ装置41が超音波センサであれば、反射波の解析により、物体位置を検出し、赤外線センサであれば、人の体温程度の熱放射を持つ物体位置を検出する。
【0092】
次に、補助センサ部40aにおける、画像センサ20a、音声センサ30a、総合解析部50aからのデータ、制御指示のフィードバックを受けた人物位置検出処理について説明する。
【0093】
画像情報と音声情報に基づく人物位置検出は、画像センサ20aにより検出された人物の映像を有する物体位置情報と音声センサ30aにより検出された音源位置情報をもとに、当該人物の所定時間の補助センサ部40a自身により検出された信号に基づき人間の位置を検出する。
【0094】
画像情報と音声情報と補助センサ部40aによる人物検出情報と総合解析部50aの解析結果とアプリケーション60の制御指示に基づく音声認識は、画像センサ20aにより検出された人物映像を有する物体位置情報と、音声センサ30aにより検出された音源位置情報と、補助センサ部40a自身により検出された人物位置情報と、総合解析部50aによる各センサ間で矛盾のない解析情報と、アプリケーション60からの制御指示内容をもとに、当該人物の所定時間の補助センサ部40a自身により検出された信号に基づき人間の位置を検出する。
【0095】
総合解析部50aは、人物情報記憶部51、人物識別部52、人物状態認識部53、コマンド辞書記憶部54、コマンド理解部55、出力部56、通信部57を備えている。
【0096】
人物情報記憶部51は、検出対象となる特定の人物の映像パターンと音声パターンを含む各種情報を記憶する部分である。
【0097】
人物識別部52は、画像センサ20a、音声センサ30a、補助センサ部40aが検出した人物が誰であるかを識別する部分である。この人物識別部52の識別処理において、画像センサ20aの識別結果、音声センサ30aの識別結果、補助センサ部40aの識別結果と、人物情報記憶部51の情報を総合的に判断して、相互に矛盾した結果が得られている場合は、各センサにおける識別結果の何れかまたは全てが正しくないと判断できる。
【0098】
人物状態認識部53は、補助センサ部40aの情報を用いて算出した人物位置と、画像情報に基づく人物検出結果と、音声情報に基づく音源検出結果に基づき、人物の位置、向き、姿勢を決定する。
【0099】
コマンド辞書記憶部54は、このコマンド辞書記憶部54は2種類の情報を記憶する。一つは、アプリケーションが受け付ける各コマンドと、動作パターン記憶部234および音声パターン記憶部334中のコマンドの関連を表すリンクであり、もう一つは、アプリケーションがそのときどきで受理可能なコマンドのリスト(一覧)である。後者は、アプリケーション60の実行中、アプリケーション60によって刻々と書き換えられる。
【0100】
コマンド理解部55は、人物識別部52で人物を識別できた場合、画像センサの動作認識部233の動作認識結果と音声認識部333の音声認識結果に基づき、その人物が発信したコマンドを理解する。その際、アプリケーションから提供されるコマンド辞書記憶部54の情報を参考にする。
【0101】
出力部56は、人物識別結果と人物状態認識結果とコマンド理解の結果をアプリケーション60に提供する。
【0102】
次に、処理の流れを示す。
【0103】
図7は、本実施形態3のヒューマンインタフェースシステム全体の処理の流れを示すフローチャートである。なお、各ステップの詳細は追って説明する。
【0104】
まず、画像センサ20a、音声センサ30a、補助センサ部40aの各センサと、総合解析部50を並行して起動する(ステップS701)。
【0105】
各センサは、撮影装置21、録音装置31、補助センサ装置41を用いて、まず、環境全体から信号を獲得する(ステップS702)。
【0106】
画像センサ20a、音声センサ30a、補助センサ部40aの各センサは、画像解析部23a、音声解析部33a、信号解析部43を用いて、ステップS702で得た信号を解析し、解析結果を出力する(ステップS703)。
【0107】
画像センサ20a、音声センサ30a、補助センサ部40aの各センサは、データ/制御信号通信手段71〜74を通じて、画像センサ20a、音声センサ30a、補助センサ部40aのうちの他のセンサと、総合解析部50の解析結果を獲得する(ステップS704)。
【0108】
次に、得られた解析結果を参考に、補助センサ部40aを制御して情報を獲得し、補助センサ部40aにおいてその情報に基づき人物位置検出処理を実行する。まず、現在得られている信号で人物位置検出処理を実行できるかを調べ(ステップS705)、実行できる場合(ステップS705:Y)、現在得られている信号を用いて、人物位置検出処理を実行し、当該結果を出力する(ステップS706)。
【0109】
ステップS705で現在得られている信号で人物位置検出処理を実行できないと判断した場合(ステップS706:N)、および、実行できると判断してステップS706で人物位置検出処理を実行した場合ともに、現在得られている信号に人物位置検出処理に必要な情報が十分にあったか否かを調べ(ステップS707)、不足している場合(ステップS707:N)、不足している情報を獲得できるように、補助センサ装置41、撮影装置21、録音装置31の次回の信号獲得の制御を、補助センサ装置制御部42、撮影装置制御部22、録音装置制御部32に与える(ステップS708)。
【0110】
次に、補助センサ部40aの出力結果と、音声センサ30aの音声処理結果と、それまでの画像処理結果を参考に、画像センサ20aは、撮影装置21を制御して画像を獲得し、その色情報を調べ人物位置の決定、および、人間の動作の認識を行う。まず、現在得られている信号で人物動作認識処理を実行できるかを調べ(ステップS709)、実行できる場合(ステップS709:Y)、現在得られている信号を用いて、人物動作認識処理を実行し、当該結果を出力する(ステップS710)。その際、あらかじめ登録しておいた人物映像記憶部232の映像データや動作パターン記憶部234の動作パターンの情報を参考する。
【0111】
ステップS709で現在得られている信号で人物動作認識処理を実行できないと判断した場合(ステップS709:N)、および、実行できると判断してステップS710で人物動作認識処理を実行した場合ともに、現在得られている信号に人物動作認識処理に必要な情報が十分にあったか否かを調べ(ステップS711)、不足している場合(ステップS711:N)、不足している情報を獲得できるように、補助センサ装置41、撮影装置21、録音装置31の次回の信号獲得の制御を、補助センサ装置制御部42、撮影装置制御部22、録音装置制御部32に与える(ステップS712)。
【0112】
次に、補助センサ部40aの出力結果と、画像センサ20aの画像処理結果と、それまでの音声処理結果を参考に、音声センサ30aは、録音装置31を制御して音声を獲得し、その波長情報を調べ音源方向の決定、および、人間の音声の認識を行う。まず、現在得られている信号で人物音声認識処理を実行できるかを調べ(ステップS713)、実行できる場合(ステップS713:Y)、現在得られている信号を用いて、人物音声認識処理を実行し、当該結果を出力する(ステップS714)。その際、あらかじめ登録しておいた人物音声記憶部332の音声データや音声パターン記憶部334の音声パターンの情報を参考する。
【0113】
ステップS713で現在得られている信号で人物動作認識処理を実行できないと判断した場合(ステップS713:N)、および、実行できると判断してステップS714で人物音声認識処理を実行した場合ともに、現在得られている信号に人物音声認識処理に必要な情報が十分にあったか否かを調べ(ステップS715)、不足している場合(ステップS715:N)、不足している情報を獲得できるように、補助センサ装置41、撮影装置21、録音装置31の次回の信号獲得の制御を、補助センサ装置制御部42、撮影装置制御部22、録音装置制御部32に与える(ステップS716)。
【0114】
次に、総合解析部50aにおいて、画像情報、音声情報、補助センサの情報に基づき、人物の状態認識、人物識別、コマンド理解を行う(ステップS717)。人物識別においては人物識別部52は、あらかじめ人物情報記憶部51に登録しておいた特定の人物の映像情報や音声情報を参考にして人物を識別し、コマンド理解においてはコマンド理解部55は、コマンド辞書記憶部54の情報を参考する。
【0115】
ステップS717で得たコマンド理解の結果は、出力部56を通してアプリケーション60に出力される(ステップS718)。なお、アプリケーション60に対して、画像情報、音声情報、補助センサの解析結果も併せて出力しても良い。
【0116】
信号処理を続行する場合(ステップS719:Y)、ステップS705へ戻り、信号処理を繰り返す。
【0117】
以上が、本実施形態3による処理全体の流れである。
【0118】
次に、各センサにおける処理や、各センサが相互に連動し合い、結果を参照し合う処理についてさらに詳しく説明する。
【0119】
まず、補助センサ部40aにおける処理を詳しく述べる。
【0120】
補助センサ装置41として、超音波センサを用いる場合は、少なくとも1つ以上の超音波発信素子と受信素子を用意し、人間からの反射波を受信した際の受信信号の振幅情報や位相情報に基づき3次元空間内の物体配置情報を計算する。
【0121】
超音波センサの振幅情報と位相情報を用いると静止物体以外の動物体を感知することができる。したがって、環境空間中の動物体を検出することにより人間の位置を検出する。
【0122】
補助センサ装置41として赤外センサを用いる場合は、環境の温度分布を画像の形態にて獲得する。人間の体温の部分に相当し、かつ、人間の大きさに相当する領域を見つけることにより、人間がいる場所を特定する。
【0123】
補助センサ装置41としてレンジセンサを用いた場合、ある時点とその次の時点の3次元情報の差を求めることにより動く物体がわかり、その大きさが通常の人間に相当するものを見つけることで人間がいる場所を特定する。
【0124】
補助センサ部40aの情報を、撮影装置、録音装置が利用する一例を挙げる。
超音波センサを用いた場合、空間内の動きのある物体の位置情報を撮影装置および録音装置に提供することができる。位置情報が既知となることで、撮影装置は広い空間内のごく限られた領域のみで人物検出を行えば良く、かかる処理時間を大幅に減らすことが可能となる。また、位置情報が既知となることで、録音装置自身が音源位置を検出しなくとも良くなる。
【0125】
次に、補助センサ部40aが、撮影装置、録音装置からの情報を利用する一例を挙げる。撮影装置21および録音装置31は、超音波センサからの位置情報に関わらず、各装置の機能によって人物位置や音源位置を検出した場合、超音波センサはその位置情報をもとに位置近傍に走査し、実際に動きのある物体(人物)の有無を検知する。画像装置は人物以外の部分を人物位置と認識したり、録音装置はTVやオーディオといった人物でない音源からの音を検出する可能性があり、こうした誤検出を防止する効果がある。
【0126】
また、補助センサ部40aが、自身で検出する空間内の動きのある物体の位置情報を利用する一例を挙げる。補助センサ部40aは、既知となった動きのある物体の位置情報を利用することで、その物体近傍のみに限定して走査することで高速化し、物体の移動に追従するように走査位置をダイナミックに変更することが可能で、リアルタイム性の高いアクティブな物体追跡センサとしての効果がある。
【0127】
次に、画像センサ20aを中心とした処理について詳しく述べる。
【0128】
画像センサ20aは、2台以上の複数の撮影装置、または、1台の撮影装置であっても撮影方向および撮影位置およびピント、ズーム、絞りを始めとした光学パラメータの制御のすべてまたは一部を変更できるものまたはどれも変更できないものを用いる。
【0129】
画像情報に基づく人物検出をする際、撮影装置21から人間がいる場所への方向のほか、距離も求めたい場合は、2台以上の複数の撮影装置を用いるか、1台の撮影装置であっても撮影位置を変更できるか、撮影位置を変更できなかったとしてもピント、ズーム、絞りを始めとした光学パラメータを変更できるものを使用する。その場合、何れの装置設定であってもアプリケーションがコマンドを受けつけたい範囲の人間に対しては、異なる撮影位置、または、異なる光学パラメータによって2枚以上の画像を獲得できるように配置する。以上の条件が満たされれば、魚眼レンズを用いた撮影装置、CMOS形式によって画像の任意の画素を取り出せる撮影装置、可視光以外の色を獲得できる撮影装置を用いることもできる。
【0130】
撮影する方向は、補助センサ部40aを用いて人物を検出した結果と、音声センサ30aの音声情報を用いて音源方向を検出した結果と、画像情報に基づき人物位置を検出したそれまでの結果を参考する。すなわち、ある時点の前で人物位置を検出できていて、かつ、それが音源方向と一致し、実際に人間であったと判断した場合は、その付近を観察できるように撮影方向を定める。しかし、直前に人間の存在を判断した方向と、補助センサ部40aが示した人間が存在する方向が異なっていた場合、また、直前に人間の確認ができなかった場合は、補助センサ部40aによる人物検出結果の付近を観察できように撮影方向を定める。
【0131】
ただし、人間が移動できる速さを越えて、撮影方向を変更することはしない。
例えば、0.1秒後に5m離れた地点に撮影の向きを変更することはしない。直前の結果と補助センサ部40aの結果が異なる場合は、直前の結果に従った方向を再度、撮影する。また、人間の存在を確認できなかった場合も、人間の存在を確認できた最後の撮影方向と補助センサ部40aが指し示す方向を比較し、人間の移動速度を超えて撮影方向が変化しているならば、最後に撮影した方向を維持する。
【0132】
撮影におけるピント、ズーム、絞りを始めとした光学パラメータは、直前に検出した人間の位置の近辺を撮影するように調整する。補助センサ部40aが人物までの距離などを出力できる場合は、方向の制御と同様の仕組みで参考にする。
【0133】
画像による人物検出、音声による音源検出、補助センサ40aによる人物位置検出で、遮断物などの影響により人物や音源の検出をするに至らなかった場合は、各検出過程から撮影すべき方向や位置が指定されるので、指定された方向や位置を観察できるように撮影装置21を制御する。
【0134】
次に、人物映像記憶部232における人物映像パターン情報の登録と、動作パターン記憶部234における動作パターンの登録について説明する。
【0135】
人物検出部231の人物検出処理や動作認識部233の動作認識処理に先立ち、人物映像記憶部232に対する人物映像パターン情報の登録と、動作パターン記憶部234に対する動作パターン登録を行う。
【0136】
人物映像記憶部232には、人間と認識でき、さらに、その人間の位置、向きを特定できる人物映像パターン情報を記憶する。人間を撮影する方向は、人間の向きの特定に必要な画像を獲得できる方向とする。これは、あらかじめ配置する撮影装置21の位置、アプリケーション60の出力を表示する表示装置およびアプリケーションが操作を許可する表示装置に対する人間の向きの範囲に基づく。人間を撮影する際の画像の解像度(「大きさ」と読み替えてもよい。画素数で換算する面積に相当する。)は、人間の向きを特定するのに必要な解像度とする。人間の向きを顔の向きによって定める場合は、顔の輪郭、目、鼻、口などの位置を判別できる解像度の画像を記憶する。人間の向きを目の向きによって定める場合は、目を判別でき、かつ、視線を判別できるように白目、黒目の位置を判別できるように撮影する。
【0137】
以上のように、事前に人間を撮影しておく画像は、撮影装置と人間の向き、距離に応じて複数の画像を撮影する場合がある。また、アプリケーションの要求項目に応じて、表情(笑い、泣きなど)の異なる画像、化粧、ヒゲ、メガネの有無の画像などを撮影する場合もありうる。
【0138】
以上の情報を復元できるのであれば、記憶する画像のデータ量を圧縮しておいてもよい。また、人間の向き、位置を特定できるのであれば、人間の姿全体ではなく、顔、目等の部分のみを記憶しておいてもよい。人間の姿全体を圧縮した情報と、特徴のある部分の圧縮していない情報を合わせるなど、以上の情報を組み合わせて記憶することもできる。
【0139】
動作パターン記憶部234には、アプリケーション60がコマンドと認知するのに必要な人間の動作を記憶する。また、手、足、頭、ひじなど、人間の主要な関節部分の肌の座標変化を動作パターンとして記憶することもできる。
【0140】
次に、画像センサ20aにおける画像情報に基づく人物検出処理について述べる。人物検出処理は以下のように行う。
【0141】
人物検出で用いる画像センサ20aで取り込まれる画像情報は、補助センサ部40aの出力、音声センサ30aによる音源検出結果、および、直前の画像センサ20aによる人物検出結果を参考にして撮影されたものとする。入力された画像中、顔に相当する部分領域の探索には画素の色情報と位置情報を用いる。そして、ピンホールカメラなどのカメラモデルにしたがって撮影装置の位置と画像上の検出位置から人間が存在する方向を計算する。撮影装置が複数あり、複数の画像上で検出できた場合は、三角測量の原理に基づき、人間が存在する方向のみならず位置も計算する。
【0142】
人間の顔をあらわす画像情報は、人物映像記憶部232に登録されたものを用いる。後述するように人間の顔は、アプリケーションの仕様にしたがって正面から撮影した映像のほか、横から撮影した画像を含む。その場合は、登録されているすべての向きから撮影した見え方の顔を検出する。
【0143】
なお、直前まで人間の存在を確認できていたにも関わらずできなくなった場合は、各センサに感度や精度を上げて情報の確認を行うように指示する。すなわち、録音装置にはボリュームやサンプリング間隔を上げるように、補助センサ部40aには環境のスキャンニングの間隔を狭めるように、撮影装置にはズームなどにより解像度を上げて撮影するように指示する。それでも、人物を検出できないと判断した場合は、撮影した方向に人間がいなかったと判断する。
【0144】
次に、画像センサ20aにおける画像情報と音声情報に基づく動作認識は以下のように行われる。動作認識で用いる画像情報は、補助センサ部40aの出力、音声センサ20aによる音源検出結果、および、画像センサ20aの直前の人物検出結果を参考にして撮影されたものとする。前述の動作パターン記憶部234に記憶された情報と同様に、入力画像から情報を抽出し、その変化を、動作パターン記憶部234に記憶されている動作パターンと照合する。入力画像中における動作と動作パターン中の動作の一致は、動画像の連続する各画像における情報を記憶した動作パターンにおけるそれらとの差をとり、動画像全体を通した累積値により判断する。もしくは、入力画像における変化を、離散コサイン変換、フーリエ変換などによって近似し、同じく近似した動作パターン中の動作と、変換された係数の比較によって一致を判断する。
【0145】
なお、人間の存在を確認できたにも関わらず動作によるコマンド理解ができなかった場合は、各センサに感度や精度を上げて情報の確認を行うように指示する。すなわち、録音装置にはボリュームやサンプリング間隔を上げるように、補助センサ40aには環境のスキャンニングの間隔を狭めるように、撮影装置にはズームなどにより解像度を上げて撮影するように指示する。
【0146】
次に、音声センサ30aを中心とした処理について詳しく説明する。
【0147】
音声センサ30aは、2台以上の複数の録音装置、または、1台の録音装置をアプリケーションがコマンドを受け付けようとする範囲の人間の音声を獲得できるように配置する。
【0148】
録音装置の出力は、補助センサ部40aを用いて人物を検出した結果と、画像情報を用いて人物位置を検出した結果と、音声情報に基づき音源方向を検出したそれまでの結果を参考にした、特定の方向の音声に関する信号とする。すなわち、ある時点の前で人物の発声に相当する音声を検出できていて、かつ、それが画像から判断した人間が存在する方向と一致し、実際に人間であったと判断した場合は、その付近を指向した音声信号に関する情報を出力する。しかし、直前に人間の存在を判断した方向と、補助センサ40aが示した人間が存在する方向が異なっていた場合、また、直前に人間の確認ができなかった場合は、補助センサ部40aによる人物検出結果の付近を指向した音声信号に関する情報を出力する。
【0149】
なお、画像による人物検出、音声による音源検出、補助センサ40aによる人物位置検出で、遮断物などの影響により人物や音源の検出をするに至らなかった場合は、各検出過程から録音装置31が録音すべき指向方向が指定されるので、その方向を指向した音声情報を出力する。
【0150】
次に、音源検出処理を述べる。音源検出で用いる音声情報は、補助センサ部40aの出力、画像センサ20aによる人物検出結果、および、直前の音源検出結果を参考にして特定の方向を指向して出力された音声情報とする。音声情報の周波数特性を調べ、後述する人物音声として記憶された情報の特徴との一致を判断することにより人物音声の有無を判断する。人物音声がないと判断した場合は、音声情報の獲得を指向した方向に人間がいなかったと判断する。
【0151】
複数の録音装置31をある程度離して配置した場合は、音声が録音された時間の差に基づき、音源位置を特定する。また、複数箇所にそれぞれ複数の録音装置を配置した場合は、それぞれの箇所において音源方向を特定し、それぞれの箇所の録音装置群から計算された音源方向の重なるところを求めることにより、音源位置を求める。直前まで人間の音声を確認できていたにも関わらず音源を検出できなくなった場合は、各センサに感度や精度を上げて情報の確認を行うように指示する。すなわち、録音装置にはボリュームやサンプリング間隔を上げるように、補助センサ40aには環境のスキャンニングの間隔を狭めるように、撮影装置にはズームなどにより解像度を上げて撮影するように指示する
音声情報と画像情報に基づく音声認識において、当該音声認識で用いる画像情報は、補助センサ部40aの出力、音源検出結果、および、直前の人物検出結果を参考にして撮影されたものとする。なお、人間の音声を検出できたにも関わらず音声によるコマンド理解ができなかった場合は、各センサに感度や精度を上げて情報の確認を行うように指示する。すなわち、録音装置にはボリュームやサンプリング間隔を上げるように、補助センサ40aには環境のスキャンニングの間隔を狭めるように、撮影装置にはズームなどにより解像度を上げて撮影するように指示する。
【0152】
次に、総合解析部50aを中心にした処理について詳しく説明する。
【0153】
人物識別部52による人物識別処理や、人物状態認識部53における人物状態認識処理に先立ち、人物情報記憶部51の登録情報やコマンド辞書記憶部54の登録情報を更新する。
【0154】
人物情報記憶部51には、映像情報、音声情報とも、アプリケーションが操作を許可する特定の個人名または複数名を識別するのに必要な情報を記憶する。映像情報は、人物を特定するのに必要な、各人を撮影した映像を記憶する。事前に人間を撮影しておく画像は、撮影装置と人間の向き、距離に応じて複数の画像を撮影する場合がある。また、アプリケーションの要求項目に応じて、表情(笑い、泣きなど)の異なる画像、化粧、ヒゲ、メガネの有無の画像などを撮影する場合もありうる。人物の特定に必要な画像を復元できるのであれば、記憶する画像のデータ量を圧縮しておいてもよい。また、個人差を確認できるのに必要な、顔のみ、または、さらに分解して目、口、鼻などの部分だけを記憶してもよい。また、以上の情報を組み合わせたり、または、復元可能であれば圧縮の上、組み合わせて記憶することもできる。
【0155】
音声情報は、人物を特定するのに必要な、各人が発生した音響を記憶する。各人の発声は個別に記憶する。アプリケーションが受け付けるコマンドを記憶するか、または、アプリケーションが受け付けるコマンドを復元するのに必要な発声を記憶する。後者の場合は、コマンドを分解した音素や単語を録音することになる。記憶の際、録音された音声をそのまま記憶するのではなくコマンドまたは音素または単語ごとの周波数特性または周波数特性の変化を記憶することもできる。以上の情報を組み合わせたり、または、復元可能であれば圧縮の上、組み合わせて記憶することもできる。
【0156】
コマンド辞書記憶部54には2種類の情報を記憶する。一つは、アプリケーションが受け付ける各コマンドと、動作パターン記憶部234および音声パターン記憶部334中のコマンドの関連を表すリンクであり、もう一つは、アプリケーションがそのときどきで受理可能なコマンドのリスト(一覧)である。後者のコマンド辞書は、アプリケーションの進行にしたがって逐次、アプリケーションが書き換える、したがって、動作認識結果と音声認識結果に基づくコマンド理解処理は、そのときどきの処理において、絶えずコマンド辞書を参照する。
【0157】
次に、総合解析部50aの人物識別部52による人物識別について述べる。人物識別部52は、画像センサ20aの人物検出と音声センサ30aの音源検出において、それぞれ、人物映像の確認、人物音声の検出ができ、かつ、人物検出結果と音源検出結果でそれぞれ検出した位置が重なる場合のみ、人物を観察できたと判断する。後述の人物識別、コマンド理解においては、人物を確認できた場合の画像情報、音声情報のみ有効とする。人物識別部52が人物を観察できたと判断した場合、人間の位置、方向を、補助センサ40aによる人物位置検出結果、画像情報による人物検出結果、および、音声情報による音源検出結果の重なる位置、方向として出力する。姿勢は、画像情報による人物検出結果に従う。
【0158】
人物識別部52は、画像情報および音声情報を、人物情報記憶部51にあらかじめ登録された特定の人物の画像情報および音声情報と照合することにより判断する。照合に先立ち、撮影装置21で獲得した画像情報や録音装置31で獲得した音声情報は、特定の人物を撮影した映像情報や特定の人物の発声を録音した音声情報を、人物情報記憶部51に格納する際に行う方法と同じ方法で加工する。
【0159】
例えば、画像情報と音声情報が有効で、かつ、画像情報から判断した人物と音声情報から判断した人物が一致していた場合は、その人物を人物識別結果とし、そうでない場合は、画像情報から判断した結果に付けた得点と、音声情報から判断した結果に付けた得点の大きい方の結果を人物識別結果とする。両者の得点を比較する際、画像情報と音声情報間のバランスを定める重み係数を用意し、その重みを加味した上で判断してもよい。
【0160】
さらに、画像情報から判断した人物と音声情報から判断した人物の履歴を参考にしてもよい。画像情報および音声情報から人物を判断した際、それぞれ得点を付けて複数の候補を選出する。それを先の方法にしたがい組合せ、画像情報および音声情報の両方を参考した得点付きの複数の候補を求める。これらの得点を人物候補ごとに累積し、累積値があらかじめ定めたある値を超えた時点で、その人物を認識したと判断する。いったん人物が確定すると、人物検出、音声検出が一定時間途絶えるまではこれを保持する。人物検出、音声検出が一定時間途絶えた場合は、この履歴を抹消し、再度、特定の累積を開始する。人物の履歴を参考する場合で、人物状態認識部53では人間の存在が確認できなかったが画像情報もしくは音声情報のどちらか一方が得られた場合、その画像もしくは音声情報に対して人物の識別を行い、得られた得点を低めた上でその得点を累積する。ただし、人物の特定の判断、すなわち、累積値があらかじめ定めたある値を超えたかの判断は、人物状態認識部53で人物の存在が確認された場合のみ行う。
【0161】
次に、人物状態認識部53における人物状態認識処理を説明する。ここで、人物の状態とは、人物の位置、方向、姿勢のことである。補助センサ部40aからは人間がいる方向と補助センサ40aの機能により距離がわかる。画像センサ20aの画像情報からは、人間の存在を確認できた場合に限り方向と距離もわかり、さらに顔の向きに関する情報が登録されている場合は姿勢(顔の向き)もわかる。音声センサ30aの音声情報からは、人間の音声を確認できた場合に限り人間の音声が聞こえてくる方向がわかり、環境の複数箇所にそれぞれ複数の録音装置を配置した場合は、環境内での人間の位置がわかる。
【0162】
次に、動作認識結果と音声認識結果に基づくコマンド理解について説明する。
【0163】
人物識別で人物を識別できていると判断されている間の動作認識結果と音声認識結果のそれぞれに対し、それぞれの結果から得られたコマンドについて、コマンド辞書記億部54に格納されたアプリケーション60のコマンドとの対応を調べ、動作から判断したコマンドと音声から判断したコマンドが同じアプリケーションのコマンドに対応していて、かつ、そのコマンドが現在のアプリケーション60が受け付けることのできるコマンドのリストに入っていた場合は、同コマンドを理解したと判断する。なお、人物識別で人物を識別できていると判断されている状態で、動作認識による結果と音声認識による結果のどちらか一方しか得られていない場合であれば、その結果から得られたコマンドが現在のアプリケーション60が受け付けることのできるコマンドのリストに入っている場合は、同コマンドを理解したと判断する。
【0164】
以上のように理解したコマンド内容をアプリケーションヘ提供する。人物状態認識部53によって認識した人物の位置、方向、姿勢に関する情報と、人物識別部52で特定した人物を指し示す情報と、コマンド理解部55にて理解したコマンドに関する情報を、アプリケーション60から問い合わせがあった場合に返答する。他の扱いとしては、アプリケーション60からの問い合わせを待たず、これらの情報が得られたら即座にアプリケーション60に通信部57などを用いてアプリケーション60に通知する処理でも良く、必要な情報が揃った時点でアプリケーション60に通知するものでも良い。
【0165】
次に、総合解析部50aにおけるコマンド辞書の生成処理について説明する。
アプリケーション60の開始に先立ち、コマンド辞書記憶部54中、アプリケーション60が受け付ける各コマンドと、動作パターン記憶部234および音声パターン記憶部334中のコマンドの関連を表すリンクをコマンド辞書記憶部54に格納する。また、コマンド辞書記憶部54のアプリケーション60が受理可能なコマンドのリストは、アプリケーション60が開始した後、アプリケーション60が状況に応じて設定する。このリストを空にすることにより、コマンドを受け付けないようにすることもできる。
【0166】
(実施形態4)
実施形態4の構成例を図8に示す。
【0167】
実施形態4にかかる図8の構成例では、不特定人物の動作コマンド、音声コマンドおよび人物の状態を理解する。実施形態3で説明した図6の構成例に比べて総合解析部50bの構成が異なるものとなっている。この構成は総合解析部50bが、人物情報記憶部51、人物識別部52を持っていない。また、コマンド理解部55は、人物状態認識部53の結果を、人物識別部52を介さず直接受け取る構成となっている。
【0168】
この構成によれば、人物の識別処理を特に行わず、入力されたすべての人物に関する情報を処理し、不特定人物の動作コマンド、音声コマンドおよび人物の状態を理解する。
【0169】
(実施形態5)
本発明の複数のセンサによるヒューマンインタフェースシステムは、上記に説明した構成を実現する処理ステップを記述したプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することにより、各種コンピュータを用いて構築することができる。本発明の複数のセンサによるヒューマンインタフェースシステムを実現する処理ステップを備えたプログラムを記録した記録媒体は、図9に図示した記録媒体の例に示すように、CD−ROM1002やフレキシブルディスク1003等の可搬型記録媒体1001だけでなく、ネットワーク上にある記録装置内の記録媒体1000や、コンピュータのハードディスクやRAM等の記録媒体1005のいずれであっても良く、プログラム実行時には、プログラムはコンピュータ1004上にローディングされ、主メモリ上で実行される。
【0170】
本発明の複数のセンサによるヒューマンインタフェースシステムについてさらに以下の項を開示する。
【0171】
(付記1) 検出対象の範囲と検出精度を決定し、当該検出精度により当該検出対象から特定の検出信号を獲得するセンサとして、検出信号が異なる少なくとも2種類以上のセンサと、
前記各センサで検出された結果間に相互に矛盾がないか否かを調べ、各センサに対する制御情報を生成する総合解析部と、
前記各センサによる検出結果を利用するアプリケーションと、
前記各センサ相互間、前記各センサと前記総合解析部間、前記総合解析部と前記アプリケーション間においてデータと制御情報を通信し合う通信手段を備え、
前記各センサが、他のセンサから得た前記信号検出結果または制御情報、前記総合解析部から得た前記制御情報のいずれかまたはその組み合わせを利用して、次回の信号獲得時における検出対象の範囲と検出精度を決定し、
前記各センサが、前記通信手段を介して、他のセンサに対して、自身の信号検出結果と、他のセンサが次回の信号獲得時における検出対象の範囲と検出精度の決定に利用する制御情報を出力し、
前記総合解析部が、前記通信手段を介して、前記各センサが次回の信号獲得時における検出対象の範囲と検出精度の決定に利用する制御情報を出力することを特徴とする複数のセンサによるヒューマンインタフェースシステム(1)。
【0172】
(付記2) 前記検出対象が人であり、前記センサが少なくとも画像センサと音声センサを含み、
前記画像センサの検出信号が人の画像認識情報であり、
前記画像センサが、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識部を備え、
前記音声センサの検出信号が人の音声認識情報であり、
前記音声センサが、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識部を備えた付記1に記載の複数のセンサによるヒューマンインタフェースシステム(2)。
【0173】
(付記3) 前記検出対象が人であり、前記センサが少なくとも画像センサと補助センサを含み、
前記画像センサの検出信号が人の画像認識情報であり、
前記画像センサが、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識部を備え、
前記補助センサの検出信号が人の位置情報を検出するために有効な情報である付記1に記載の複数のセンサによるヒューマンインタフェースシステム(3)。
【0174】
(付記4) 前記検出対象が人であり、前記センサが少なくとも音声センサと補助センサを含み、
前記音声センサの検出信号が人の音声認識情報であり、
前記音声センサが、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識部を備え、
前記補助センサの検出信号が人の位置情報を検出するために有効な情報である付記1に記載の複数のセンサによるヒューマンインタフェースシステム(4)。
【0175】
(付記5) 前記検出対象が人であり、前記センサが少なくとも画像センサと音声センサと補助センサを含み、
前記画像センサの検出信号が人の画像認識情報であり、
前記画像センサが、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識部を備え、
前記音声センサの検出信号が人の音声認識情報であり、
前記音声センサが、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識部を備え、
前記補助センサの検出信号が人の位置情報を検出するために有効な情報である付記1に記載の複数のセンサによるヒューマンインタフェースシステム(5)。
【0176】
(付記6) 前記補助センサとして、超音波センサ、赤外センサ、レンジセンサのいずれかまたはそれらの組み合わせを用いた付記3〜5のいずれかに記載の複数のセンサによるヒューマンインタフェースシステム。
【0177】
(付記7) 検出対象の範囲と検出精度を決定し、当該検出精度により当該検出対象から特定の検出信号を獲得するセンサの処理として、検出信号が異なる少なくとも2種類以上のセンサの処理と、
前記各センサで検出された結果間に相互に矛盾がないか否かを調べ、各センサの処理に対する制御情報を生成する総合解析処理と、
前記各センサ処理による検出結果を利用するアプリケーション処理と、
前記各センサ処理相互間、前記各センサ処理と前記総合解析処理間、前記総合解析処理と前記アプリケーション処理間においてデータと制御情報を通信し合う通信処理を備え、
前記各センサ処理が、他のセンサ処理から得た前記信号検出結果または制御情報、前記総合解析処理から得た前記制御情報のいずれかまたはその組み合わせを利用して、次回の信号獲得時における検出対象の範囲と検出精度を決定し、
前記各センサ処理が、前記通信手段を介して、他のセンサ処理に対して、自身の信号検出結果と、他のセンサ処理が次回の信号獲得時における検出対象の範囲と検出精度の決定に利用する制御情報を出力し、
前記総合解析処理が、前記通信手段を介して、前記各センサ処理が次回の信号獲得時における検出対象の範囲と検出精度の決定に利用する制御情報を出力することを特徴とする複数のセンサによるヒューマンインタフェース方法。
【0178】
(付記8) 前記検出対象が人であり、前記センサ処理が少なくとも画像センサ処理と音声センサ処理を含み、
前記画像センサ処理の検出信号が人の画像認識情報であり、
前記画像センサ処理が、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識処理を備え、
前記音声センサ処理の検出信号が人の音声認識情報であり、
前記音声センサ処理が、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識処理を備えた付記7に記載の複数のセンサによるヒューマンインタフェース処理方法。
【0179】
(付記9) 前記検出対象が人であり、前記センサ処理が少なくとも画像センサ処理と補助センサ処理を含み、
前記画像センサ処理の検出信号が人の画像認識情報であり、
前記画像センサ処理が、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識処理を備え、
前記補助センサ処理の検出信号が人の位置情報を検出するために有効な情報である付記7に記載の複数のセンサによるヒューマンインタフェース処理方法。
【0180】
(付記10) 前記検出対象が人であり、前記センサ処理が少なくとも音声センサ処理と補助センサ処理を含み、
前記音声センサ処理の検出信号が人の音声認識情報であり、
前記音声センサ処理が、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識処理を備え、
前記補助センサ処理の検出信号が人の位置情報を検出するために有効な情報である付記7に記載の複数のセンサによるヒューマンインタフェース処理方法。
【0181】
(付記11) 前記検出対象が人であり、前記センサ処理が少なくとも画像センサ処理と音声センサ処理と補助センサ処理を含み、
前記画像センサ処理の検出信号が人の画像認識情報であり、
前記画像センサ処理が、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識処理を備え、
前記音声センサ処理の検出信号が人の音声認識情報であり、
前記音声センサ処理が、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識処理を備え、
前記補助センサ処理の検出信号が人の位置情報を検出するために有効な情報である付記7に記載の複数のセンサによるヒューマンインタフェース処理方法。
【0182】
(付記12) 前記補助センサ処理として、超音波センサ処理、赤外センサ処理、レンジセンサ処理のいずれかまたはそれらの組み合わせを用いた付記9〜11のいずれかに記載の複数のセンサによるヒューマンインタフェース処理方法。
【0183】
【発明の効果】
本発明の複数のセンサによるヒューマンインタフェースシステムによれば、画像情報と音声情報を同時に扱うことによって、実際には声がしない人の顔を映した写真やマネキン人形を人間として認識してしまうことや、人間ではない音響機器のスピーカーから流れ出た音声情報を認識してしまうことがなくなり、マンマシンインタフェースの誤動作が減る。同様に、画像情報と音声情報が処理結果を互いに利用することで、声がしないところの映像を処理対象にしたり、人間がいないところの音声を処理対象することがなくなり、処理を誤る確率が減る。また、処理対象データが減ることから、処理速度が向上する。
【0184】
本発明の複数のセンサによるヒューマンインタフェースシステムによれば、補助センサを用いて、画像情報と音声情報では扱えない情報を獲得することにより、画像や音声を処理における探索範囲を狭め、処理速度を向上できる。また、補助センサの情報を利用することにより、撮影装置や録音装置の配置数を減らすことができる。
【図面の簡単な説明】
【図1】 本発明の実施形態1にかかる複数のセンサによるヒューマンインタフェースシステムの装置構成概略を示す図
【図2】 図1の基本構成を適用し、図1の画像センサ20、音声センサ30、補助センサ40構成例を詳しく示した図
【図3】 本発明の実施形態1の複数のセンサによるヒューマンインタフェースシステムの信号処理の流れを示したフローチャート
【図4】 本発明の実施形態1にかかる総合解析部50の信号処理の流れを示したフローチャート
【図5】 本発明の実施形態2にかかる、実施形態1に示した構成を変形した構成例を示す図
【図6】 本発明の実施形態3にかかる複数のセンサによるヒューマンインタフェースシステムの装置構成概略を示すブロック図
【図7】 本発明の実施形態3のヒューマンインタフェースシステム全体の処理の流れを示すフローチャート
【図8】 本発明の実施形態4にかかる複数のセンサによるヒューマンインタフェースシステムの装置構成概略を示すブロック図
【図9】 本発明の実施形態5にかかる複数のセンサによるヒューマンインタフェースシステムを実現する処理プログラムを記録した記録媒体を示した図
【図10】 従来におけるセンサを用いたインタフェースの例を示す図
【図11】 従来におけるセンサを用いたインタフェースの他の例を示す図
【符号の説明】
10 センサ部
20,20a 画像センサ
21 撮影装置
22 撮影装置制御部
23,23a 画像解析部
24 通信部
30,30a 音声センサ
31 録音装置
32 録音装置制御部
33,33a 音声解析部
34 通信部
40,40a 補助センサ部
41 補助センサ装置
42 補助センサ装置制御部
43 信号解析部
43a 人物位置検出部
44 通信部
50,50a,50b 総合解析部
51 人物情報記憶部
52 人物識別部
53 人物状態認識部
54 コマンド辞書記憶部
55 コマンド理解部
56 出力部
57 通信部
60,60a アプリケーション
61 通信部
71,72,73,74,75 データ/制御信号通信手段
76 通信路
231 人物検出部
232 人物映像記憶部
233 動作認識部
234 動作パターン記憶部
331 音源検出部
332 人物音声記憶部
333 音声認識部
334 音声パターン記憶部

Claims (7)

  1. 検出対象の範囲と検出精度を決定し、当該検出精度により当該検出対象から特定の検出信号を獲得するセンサとして、検出信号が異なる少なくとも2種類以上のセンサと、
    前記各センサにより検出された検出対象物の位置、方向または認識結果を含む検出結果を前記各センサから取得して解析し、当該解析結果に基づいて、前記各センサが獲得すべき検出対象の位置、方向または認識精度を決定するための制御情報を生成する総合解析部と、
    前記各センサによる検出結果を利用するアプリケーションと、
    前記各センサ相互間、前記各センサと前記総合解析部間、前記総合解析部と前記アプリケーション間においてデータと制御情報を通信し合う通信手段を備え、
    前記各センサが、他のセンサから得た前記検出結果及び前記総合解析部の前記解析結果の少なくとも一つ、または、前記他のセンサから得た制御情報及び前記総合解析部から得た前記制御情報の少なくとも一つを利用して前記検出対象の範囲と検出精度を決定し、前記検出対象から検出信号を獲得することによって前記検出結果を生成して他のセンサに対して出力し、
    前記各センサが、前記検出結果を得るための情報が不足している場合に、前記通信手段を介して、他のセンサに対して、他のセンサが次回の信号獲得時において獲得すべき検出対象の位置、方向または認識精度を決定するための制御情報を出力し、
    前記総合解析部が、前記通信手段を介して、前記各センサが次回の信号獲得時における検出対象の範囲と検出精度の決定に利用する前記制御情報を生成して各センサに対して出力し、前記各センサから取得した前記検出結果に基づく前記解析結果を前記アプリケーションへ出力することを特徴とする複数のセンサによるヒューマンインタフェースシステム。
  2. 前記検出対象が人であり、前記センサが少なくとも画像センサと音声センサを含み、
    前記画像センサの検出信号が人の画像認識情報であり、
    前記画像センサが、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識部を備え、
    前記音声センサの検出信号が人の音声認識情報であり、
    前記音声センサが、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識部を備えた請求項1に記載の複数のセンサによるヒューマンインタフェースシステム。
  3. 前記検出対象が人であり、前記センサが少なくとも画像センサと補助センサを含み、
    前記画像センサの検出信号が人の画像認識情報であり、
    前記画像センサが、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識部を備え、
    前記補助センサの検出信号が人の位置情報を検出するために有効な情報である請求項1に記載の複数のセンサによるヒューマンインタフェースシステム。
  4. 前記検出対象が人であり、前記センサが少なくとも音声センサと補助センサを含み、
    前記音声センサの検出信号が人の音声認識情報であり、
    前記音声センサが、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識部を備え、
    前記補助センサの検出信号が人の位置情報を検出するために有効な情報である請求項1に記載の複数のセンサによるヒューマンインタフェースシステム。
  5. 前記検出対象が人であり、前記センサが少なくとも画像センサと音声センサと補助センサを含み、
    前記画像センサの検出信号が人の画像認識情報であり、
    前記画像センサが、画像認識結果に基づいて検出対象の動作を解釈し、ジェスチャ入力によるコマンド入力を認識する動作認識部を備え、
    前記音声センサの検出信号が人の音声認識情報であり、
    前記音声センサが、音声認識結果に基づいて検出対象の音声を解釈し、音声入力によるコマンド入力を認識する音声認識部を備え、
    前記補助センサの検出信号が人の位置情報を検出するために有効な情報である請求項1に記載の複数のセンサによるヒューマンインタフェースシステム。
  6. 前記補助センサとして、超音波センサ、赤外センサ、レンジセンサのいずれかまたはそれらの組み合わせを用いた請求項3〜5のいずれか1項に記載の複数のセンサによるヒューマンインタフェースシステム。
  7. 前記総合解析部は、前記各センサの検出結果から得られる検出対象物の位置、方向または認識結果がセンサ間で一致しているか否かを解析し、当該解析結果に基づいて、前記各センサが獲得するべき検出対象の位置、方向または認識精度を決定するための制御情報を生成し、前記各センサに対して出力する、請求項1〜6のいずれか1項に記載の複数のセンサによるヒューマンインタフェースシステム。
JP2001048656A 2001-02-23 2001-02-23 複数のセンサによるヒューマンインタフェースシステム Expired - Fee Related JP4624577B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001048656A JP4624577B2 (ja) 2001-02-23 2001-02-23 複数のセンサによるヒューマンインタフェースシステム
US09/940,661 US6583723B2 (en) 2001-02-23 2001-08-29 Human interface system using a plurality of sensors
US10/337,818 US6686844B2 (en) 2001-02-23 2003-01-08 Human interface system using a plurality of sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001048656A JP4624577B2 (ja) 2001-02-23 2001-02-23 複数のセンサによるヒューマンインタフェースシステム

Publications (2)

Publication Number Publication Date
JP2002251234A JP2002251234A (ja) 2002-09-06
JP4624577B2 true JP4624577B2 (ja) 2011-02-02

Family

ID=18909889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001048656A Expired - Fee Related JP4624577B2 (ja) 2001-02-23 2001-02-23 複数のセンサによるヒューマンインタフェースシステム

Country Status (2)

Country Link
US (2) US6583723B2 (ja)
JP (1) JP4624577B2 (ja)

Families Citing this family (257)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
JP4552308B2 (ja) * 2000-10-24 2010-09-29 パナソニック株式会社 超音波座標入力装置およびインタラクティブボード
JP3868896B2 (ja) * 2002-01-23 2007-01-17 本田技研工業株式会社 自律移動体用撮像装置、撮像装置較正方法及び撮像装置較正プログラム
JP2004240154A (ja) * 2003-02-06 2004-08-26 Hitachi Ltd 情報認識装置
JP4306397B2 (ja) * 2003-10-08 2009-07-29 株式会社日立製作所 認識処理システム
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US20060053097A1 (en) * 2004-04-01 2006-03-09 King Martin T Searching and accessing documents on private networks for use with captures from rendered documents
US7812860B2 (en) * 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US20060122983A1 (en) * 2004-12-03 2006-06-08 King Martin T Locating electronic instances of documents based on rendered instances, document fragment digest generation, and digest based document fragment determination
US20060041484A1 (en) * 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US20060041605A1 (en) * 2004-04-01 2006-02-23 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
CN100538742C (zh) * 2004-03-17 2009-09-09 松下电器产业株式会社 食品材料烹调操作识别系统及食品材料烹调操作识别方法
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20080313172A1 (en) * 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US7990556B2 (en) * 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US20070300142A1 (en) * 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
WO2008028674A2 (en) 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US8081849B2 (en) * 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US20060098900A1 (en) * 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8489624B2 (en) * 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US20050258976A1 (en) * 2004-05-20 2005-11-24 Yin-Shang Zteng Household digital automation control system
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
EP1811362A4 (en) * 2004-10-27 2011-07-27 Fujitsu Ten Ltd DISPLAY
JP4847022B2 (ja) * 2005-01-28 2011-12-28 京セラ株式会社 発声内容認識装置
JP4696609B2 (ja) * 2005-03-15 2011-06-08 オムロン株式会社 被写体認証装置、携帯電話、被写体認証方法、及び被写体認証プログラム
US7664571B2 (en) * 2005-04-18 2010-02-16 Honda Motor Co., Ltd. Controlling a robot using pose
JP4485991B2 (ja) * 2005-05-13 2010-06-23 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法及びプログラム
DE102005038717A1 (de) * 2005-08-15 2007-03-01 Micronas Gmbh Verfahren zum Verarbeiten audio-visueller Daten und audio-visuelles Kommunikationssystem
JP2007078270A (ja) * 2005-09-14 2007-03-29 Daikin Ind Ltd 空調システム
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP5060798B2 (ja) * 2007-02-23 2012-10-31 任天堂株式会社 情報処理プログラムおよび情報処理装置
ATE509308T1 (de) * 2007-12-05 2011-05-15 Almeva Ag Interaktionsanordnung zur interaktion zwischen einem bildschirm und einem zeigerobjekt
CN102016878B (zh) * 2008-05-08 2015-03-18 纽昂斯通讯公司 定位声音信号源的位置
CN105930311B (zh) 2009-02-18 2018-10-09 谷歌有限责任公司 执行与再现文档关联的动作的方法、移动设备和可读介质
WO2010105245A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Automatically providing content associated with captured information, such as information captured in real-time
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
JP2010231256A (ja) * 2009-03-25 2010-10-14 Hitachi Ltd データ認識装置、データ認識方法及びプログラム
KR101581883B1 (ko) * 2009-04-30 2016-01-11 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
JP4811507B2 (ja) * 2009-08-25 2011-11-09 コニカミノルタビジネステクノロジーズ株式会社 画像処理システム、画像処理装置及び情報処理装置
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
US20110246026A1 (en) * 2010-04-02 2011-10-06 Gary Stephen Shuster Vehicle console control system
JP5323770B2 (ja) * 2010-06-30 2013-10-23 日本放送協会 ユーザ指示取得装置、ユーザ指示取得プログラムおよびテレビ受像機
US9563278B2 (en) 2011-12-19 2017-02-07 Qualcomm Incorporated Gesture controlled audio user interface
US9389690B2 (en) * 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
US9538880B2 (en) * 2012-05-09 2017-01-10 Convotherm Elektrogeraete Gmbh Optical quality control system
JP6044819B2 (ja) * 2012-05-30 2016-12-14 日本電気株式会社 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム
US9124125B2 (en) 2013-05-10 2015-09-01 Energous Corporation Wireless power transmission with selective range
US9887739B2 (en) 2012-07-06 2018-02-06 Energous Corporation Systems and methods for wireless power transmission by comparing voltage levels associated with power waves transmitted by antennas of a plurality of antennas of a transmitter to determine appropriate phase adjustments for the power waves
US10223717B1 (en) 2014-05-23 2019-03-05 Energous Corporation Systems and methods for payment-based authorization of wireless power transmission service
US9871398B1 (en) 2013-07-01 2018-01-16 Energous Corporation Hybrid charging method for wireless power transmission based on pocket-forming
US10381880B2 (en) 2014-07-21 2019-08-13 Energous Corporation Integrated antenna structure arrays for wireless power transmission
US10206185B2 (en) 2013-05-10 2019-02-12 Energous Corporation System and methods for wireless power transmission to an electronic device in accordance with user-defined restrictions
US9923386B1 (en) 2012-07-06 2018-03-20 Energous Corporation Systems and methods for wireless power transmission by modifying a number of antenna elements used to transmit power waves to a receiver
US10291066B1 (en) 2014-05-07 2019-05-14 Energous Corporation Power transmission control systems and methods
US9812890B1 (en) 2013-07-11 2017-11-07 Energous Corporation Portable wireless charging pad
US9891669B2 (en) 2014-08-21 2018-02-13 Energous Corporation Systems and methods for a configuration web service to provide configuration of a wireless power transmitter within a wireless power transmission system
US10063064B1 (en) 2014-05-23 2018-08-28 Energous Corporation System and method for generating a power receiver identifier in a wireless power network
US10090699B1 (en) 2013-11-01 2018-10-02 Energous Corporation Wireless powered house
US9906065B2 (en) 2012-07-06 2018-02-27 Energous Corporation Systems and methods of transmitting power transmission waves based on signals received at first and second subsets of a transmitter's antenna array
US10205239B1 (en) 2014-05-07 2019-02-12 Energous Corporation Compact PIFA antenna
US10128699B2 (en) 2014-07-14 2018-11-13 Energous Corporation Systems and methods of providing wireless power using receiver device sensor inputs
US10230266B1 (en) 2014-02-06 2019-03-12 Energous Corporation Wireless power receivers that communicate status data indicating wireless power transmission effectiveness with a transmitter using a built-in communications component of a mobile device, and methods of use thereof
US9847679B2 (en) 2014-05-07 2017-12-19 Energous Corporation System and method for controlling communication between wireless power transmitter managers
US10148097B1 (en) 2013-11-08 2018-12-04 Energous Corporation Systems and methods for using a predetermined number of communication channels of a wireless power transmitter to communicate with different wireless power receivers
US10063105B2 (en) 2013-07-11 2018-08-28 Energous Corporation Proximity transmitters for wireless power charging systems
US9893768B2 (en) 2012-07-06 2018-02-13 Energous Corporation Methodology for multiple pocket-forming
US9876379B1 (en) 2013-07-11 2018-01-23 Energous Corporation Wireless charging and powering of electronic devices in a vehicle
US9853692B1 (en) 2014-05-23 2017-12-26 Energous Corporation Systems and methods for wireless power transmission
US10063106B2 (en) 2014-05-23 2018-08-28 Energous Corporation System and method for a self-system analysis in a wireless power transmission network
US9939864B1 (en) 2014-08-21 2018-04-10 Energous Corporation System and method to control a wireless power transmission system by configuration of wireless power transmission control parameters
US10256657B2 (en) 2015-12-24 2019-04-09 Energous Corporation Antenna having coaxial structure for near field wireless power charging
US10128693B2 (en) 2014-07-14 2018-11-13 Energous Corporation System and method for providing health safety in a wireless power transmission system
US9368020B1 (en) 2013-05-10 2016-06-14 Energous Corporation Off-premises alert system and method for wireless power receivers in a wireless power network
US9843213B2 (en) 2013-08-06 2017-12-12 Energous Corporation Social power sharing for mobile devices based on pocket-forming
US10270261B2 (en) 2015-09-16 2019-04-23 Energous Corporation Systems and methods of object detection in wireless power charging systems
US10218227B2 (en) 2014-05-07 2019-02-26 Energous Corporation Compact PIFA antenna
US9831718B2 (en) 2013-07-25 2017-11-28 Energous Corporation TV with integrated wireless power transmitter
US9893554B2 (en) 2014-07-14 2018-02-13 Energous Corporation System and method for providing health safety in a wireless power transmission system
US10224982B1 (en) 2013-07-11 2019-03-05 Energous Corporation Wireless power transmitters for transmitting wireless power and tracking whether wireless power receivers are within authorized locations
US9876394B1 (en) 2014-05-07 2018-01-23 Energous Corporation Boost-charger-boost system for enhanced power delivery
US10211680B2 (en) 2013-07-19 2019-02-19 Energous Corporation Method for 3 dimensional pocket-forming
US10263432B1 (en) 2013-06-25 2019-04-16 Energous Corporation Multi-mode transmitter with an antenna array for delivering wireless power and providing Wi-Fi access
US9941747B2 (en) 2014-07-14 2018-04-10 Energous Corporation System and method for manually selecting and deselecting devices to charge in a wireless power network
US10211682B2 (en) 2014-05-07 2019-02-19 Energous Corporation Systems and methods for controlling operation of a transmitter of a wireless power network based on user instructions received from an authenticated computing device powered or charged by a receiver of the wireless power network
US9859797B1 (en) 2014-05-07 2018-01-02 Energous Corporation Synchronous rectifier design for wireless power receiver
US20140008993A1 (en) 2012-07-06 2014-01-09 DvineWave Inc. Methodology for pocket-forming
US9899873B2 (en) 2014-05-23 2018-02-20 Energous Corporation System and method for generating a power receiver identifier in a wireless power network
US9787103B1 (en) 2013-08-06 2017-10-10 Energous Corporation Systems and methods for wirelessly delivering power to electronic devices that are unable to communicate with a transmitter
US9438045B1 (en) 2013-05-10 2016-09-06 Energous Corporation Methods and systems for maximum power point transfer in receivers
US10124754B1 (en) 2013-07-19 2018-11-13 Energous Corporation Wireless charging and powering of electronic sensors in a vehicle
US10050462B1 (en) 2013-08-06 2018-08-14 Energous Corporation Social power sharing for mobile devices based on pocket-forming
US10992187B2 (en) 2012-07-06 2021-04-27 Energous Corporation System and methods of using electromagnetic waves to wirelessly deliver power to electronic devices
US9941707B1 (en) 2013-07-19 2018-04-10 Energous Corporation Home base station for multiple room coverage with multiple transmitters
US9793758B2 (en) 2014-05-23 2017-10-17 Energous Corporation Enhanced transmitter using frequency control for wireless power transmission
US10439448B2 (en) 2014-08-21 2019-10-08 Energous Corporation Systems and methods for automatically testing the communication between wireless power transmitter and wireless power receiver
US9991741B1 (en) 2014-07-14 2018-06-05 Energous Corporation System for tracking and reporting status and usage information in a wireless power management system
US10243414B1 (en) 2014-05-07 2019-03-26 Energous Corporation Wearable device with wireless power and payload receiver
US9882430B1 (en) 2014-05-07 2018-01-30 Energous Corporation Cluster management of transmitters in a wireless power transmission system
US9876648B2 (en) 2014-08-21 2018-01-23 Energous Corporation System and method to control a wireless power transmission system by configuration of wireless power transmission control parameters
US9859757B1 (en) 2013-07-25 2018-01-02 Energous Corporation Antenna tile arrangements in electronic device enclosures
US10193396B1 (en) 2014-05-07 2019-01-29 Energous Corporation Cluster management of transmitters in a wireless power transmission system
US10075008B1 (en) 2014-07-14 2018-09-11 Energous Corporation Systems and methods for manually adjusting when receiving electronic devices are scheduled to receive wirelessly delivered power from a wireless power transmitter in a wireless power network
US10186913B2 (en) 2012-07-06 2019-01-22 Energous Corporation System and methods for pocket-forming based on constructive and destructive interferences to power one or more wireless power receivers using a wireless power transmitter including a plurality of antennas
US9867062B1 (en) 2014-07-21 2018-01-09 Energous Corporation System and methods for using a remote server to authorize a receiving device that has requested wireless power and to determine whether another receiving device should request wireless power in a wireless power transmission system
US9973021B2 (en) 2012-07-06 2018-05-15 Energous Corporation Receivers for wireless power transmission
US10008889B2 (en) 2014-08-21 2018-06-26 Energous Corporation Method for automatically testing the operational status of a wireless power receiver in a wireless power transmission system
US9887584B1 (en) 2014-08-21 2018-02-06 Energous Corporation Systems and methods for a configuration web service to provide configuration of a wireless power transmitter within a wireless power transmission system
US9966765B1 (en) 2013-06-25 2018-05-08 Energous Corporation Multi-mode transmitter
US10090886B1 (en) 2014-07-14 2018-10-02 Energous Corporation System and method for enabling automatic charging schedules in a wireless power network to one or more devices
US9882427B2 (en) 2013-05-10 2018-01-30 Energous Corporation Wireless power delivery using a base station to control operations of a plurality of wireless power transmitters
US9893555B1 (en) 2013-10-10 2018-02-13 Energous Corporation Wireless charging of tools using a toolbox transmitter
US10291055B1 (en) 2014-12-29 2019-05-14 Energous Corporation Systems and methods for controlling far-field wireless power transmission based on battery power levels of a receiving device
US10965164B2 (en) 2012-07-06 2021-03-30 Energous Corporation Systems and methods of wirelessly delivering power to a receiver device
US9954374B1 (en) 2014-05-23 2018-04-24 Energous Corporation System and method for self-system analysis for detecting a fault in a wireless power transmission Network
US9824815B2 (en) 2013-05-10 2017-11-21 Energous Corporation Wireless charging and powering of healthcare gadgets and sensors
US9948135B2 (en) 2015-09-22 2018-04-17 Energous Corporation Systems and methods for identifying sensitive objects in a wireless charging transmission field
US20150326070A1 (en) 2014-05-07 2015-11-12 Energous Corporation Methods and Systems for Maximum Power Point Transfer in Receivers
US10103582B2 (en) 2012-07-06 2018-10-16 Energous Corporation Transmitters for wireless power transmission
US10211674B1 (en) 2013-06-12 2019-02-19 Energous Corporation Wireless charging using selected reflectors
US9912199B2 (en) 2012-07-06 2018-03-06 Energous Corporation Receivers for wireless power transmission
US9825674B1 (en) 2014-05-23 2017-11-21 Energous Corporation Enhanced transmitter that selects configurations of antenna elements for performing wireless power transmission and receiving functions
US10992185B2 (en) 2012-07-06 2021-04-27 Energous Corporation Systems and methods of using electromagnetic waves to wirelessly deliver power to game controllers
US9143000B2 (en) 2012-07-06 2015-09-22 Energous Corporation Portable wireless charging pad
US9806564B2 (en) 2014-05-07 2017-10-31 Energous Corporation Integrated rectifier and boost converter for wireless power transmission
US9838083B2 (en) 2014-07-21 2017-12-05 Energous Corporation Systems and methods for communication with remote management systems
US10199835B2 (en) 2015-12-29 2019-02-05 Energous Corporation Radar motion detection using stepped frequency in wireless power transmission system
US9899861B1 (en) 2013-10-10 2018-02-20 Energous Corporation Wireless charging methods and systems for game controllers, based on pocket-forming
US10141768B2 (en) 2013-06-03 2018-11-27 Energous Corporation Systems and methods for maximizing wireless power transfer efficiency by instructing a user to change a receiver device's position
US9843201B1 (en) 2012-07-06 2017-12-12 Energous Corporation Wireless power transmitter that selects antenna sets for transmitting wireless power to a receiver based on location of the receiver, and methods of use thereof
US10038337B1 (en) 2013-09-16 2018-07-31 Energous Corporation Wireless power supply for rescue devices
US9847677B1 (en) 2013-10-10 2017-12-19 Energous Corporation Wireless charging and powering of healthcare gadgets and sensors
US9900057B2 (en) 2012-07-06 2018-02-20 Energous Corporation Systems and methods for assigning groups of antenas of a wireless power transmitter to different wireless power receivers, and determining effective phases to use for wirelessly transmitting power using the assigned groups of antennas
US9853458B1 (en) 2014-05-07 2017-12-26 Energous Corporation Systems and methods for device and power receiver pairing
US11502551B2 (en) 2012-07-06 2022-11-15 Energous Corporation Wirelessly charging multiple wireless-power receivers using different subsets of an antenna array to focus energy at different locations
US9859756B2 (en) 2012-07-06 2018-01-02 Energous Corporation Transmittersand methods for adjusting wireless power transmission based on information from receivers
US10199849B1 (en) 2014-08-21 2019-02-05 Energous Corporation Method for automatically testing the operational status of a wireless power receiver in a wireless power transmission system
US9941754B2 (en) 2012-07-06 2018-04-10 Energous Corporation Wireless power transmission with selective range
US9252628B2 (en) 2013-05-10 2016-02-02 Energous Corporation Laptop computer as a transmitter for wireless charging
US10141791B2 (en) 2014-05-07 2018-11-27 Energous Corporation Systems and methods for controlling communications during wireless transmission of power using application programming interfaces
US10224758B2 (en) 2013-05-10 2019-03-05 Energous Corporation Wireless powering of electronic devices with selective delivery range
US10312715B2 (en) 2015-09-16 2019-06-04 Energous Corporation Systems and methods for wireless power charging
JP5950108B2 (ja) * 2012-08-06 2016-07-13 株式会社村田製作所 非接触式入力装置
JP6165776B2 (ja) * 2012-12-11 2017-07-19 インテル コーポレイション コンピューティングデバイスのためのコンテキストセンシング
JP2014153663A (ja) * 2013-02-13 2014-08-25 Sony Corp 音声認識装置、および音声認識方法、並びにプログラム
US9538382B2 (en) 2013-05-10 2017-01-03 Energous Corporation System and method for smart registration of wireless power receivers in a wireless power network
US9819230B2 (en) 2014-05-07 2017-11-14 Energous Corporation Enhanced receiver for wireless power transmission
US9419443B2 (en) 2013-05-10 2016-08-16 Energous Corporation Transducer sound arrangement for pocket-forming
US9537357B2 (en) 2013-05-10 2017-01-03 Energous Corporation Wireless sound charging methods and systems for game controllers, based on pocket-forming
US9866279B2 (en) 2013-05-10 2018-01-09 Energous Corporation Systems and methods for selecting which power transmitter should deliver wireless power to a receiving device in a wireless power delivery network
EP2804382B1 (en) 2013-05-15 2015-04-29 Axis AB Reliability determination of camera fault detection tests
US10103552B1 (en) 2013-06-03 2018-10-16 Energous Corporation Protocols for authenticated wireless power transmission
US10003211B1 (en) 2013-06-17 2018-06-19 Energous Corporation Battery life of portable electronic devices
US9741315B2 (en) * 2013-07-03 2017-08-22 Visteon Global Technologies, Inc. Adjusting a transparent display with an image capturing device
US10021523B2 (en) 2013-07-11 2018-07-10 Energous Corporation Proximity transmitters for wireless power charging systems
US9979440B1 (en) 2013-07-25 2018-05-22 Energous Corporation Antenna tile arrangements configured to operate as one functional unit
US10075017B2 (en) 2014-02-06 2018-09-11 Energous Corporation External or internal wireless power receiver with spaced-apart antenna elements for charging or powering mobile devices using wirelessly delivered power
US9935482B1 (en) 2014-02-06 2018-04-03 Energous Corporation Wireless power transmitters that transmit at determined times based on power availability and consumption at a receiving mobile device
US9966784B2 (en) 2014-06-03 2018-05-08 Energous Corporation Systems and methods for extending battery life of portable electronic devices charged by sound
US10158257B2 (en) 2014-05-01 2018-12-18 Energous Corporation System and methods for using sound waves to wirelessly deliver power to electronic devices
US10170917B1 (en) 2014-05-07 2019-01-01 Energous Corporation Systems and methods for managing and controlling a wireless power network by establishing time intervals during which receivers communicate with a transmitter
US10153653B1 (en) 2014-05-07 2018-12-11 Energous Corporation Systems and methods for using application programming interfaces to control communications between a transmitter and a receiver
US9973008B1 (en) 2014-05-07 2018-05-15 Energous Corporation Wireless power receiver with boost converters directly coupled to a storage element
US10153645B1 (en) 2014-05-07 2018-12-11 Energous Corporation Systems and methods for designating a master power transmitter in a cluster of wireless power transmitters
US9800172B1 (en) 2014-05-07 2017-10-24 Energous Corporation Integrated rectifier and boost converter for boosting voltage received from wireless power transmission waves
US9876536B1 (en) 2014-05-23 2018-01-23 Energous Corporation Systems and methods for assigning groups of antennas to transmit wireless power to different wireless power receivers
US20150363157A1 (en) * 2014-06-17 2015-12-17 Htc Corporation Electrical device and associated operating method for displaying user interface related to a sound track
JP6393537B2 (ja) * 2014-07-09 2018-09-19 株式会社デンソーテン 車両用装置、車両制御システム、車両制御方法
US9926148B2 (en) * 2014-06-27 2018-03-27 Rite-Hite Holding Corporation Pedestrian-vehicle safety systems for loading docks
US10116143B1 (en) 2014-07-21 2018-10-30 Energous Corporation Integrated antenna arrays for wireless power transmission
US10068703B1 (en) 2014-07-21 2018-09-04 Energous Corporation Integrated miniature PIFA with artificial magnetic conductor metamaterials
US9871301B2 (en) 2014-07-21 2018-01-16 Energous Corporation Integrated miniature PIFA with artificial magnetic conductor metamaterials
US9965009B1 (en) 2014-08-21 2018-05-08 Energous Corporation Systems and methods for assigning a power receiver to individual power transmitters based on location of the power receiver
US9917477B1 (en) 2014-08-21 2018-03-13 Energous Corporation Systems and methods for automatically testing the communication between power transmitter and wireless receiver
KR101561026B1 (ko) * 2014-11-27 2015-10-16 주식회사 베가스 설비의 예측 정비 시스템 및 방법
US9893535B2 (en) 2015-02-13 2018-02-13 Energous Corporation Systems and methods for determining optimal charging positions to maximize efficiency of power received from wirelessly delivered sound wave energy
JP6364372B2 (ja) * 2015-03-24 2018-07-25 トヨタホーム株式会社 地域監視システム
US9906275B2 (en) 2015-09-15 2018-02-27 Energous Corporation Identifying receivers in a wireless charging transmission field
US10523033B2 (en) 2015-09-15 2019-12-31 Energous Corporation Receiver devices configured to determine location within a transmission field
US10008875B1 (en) 2015-09-16 2018-06-26 Energous Corporation Wireless power transmitter configured to transmit power waves to a predicted location of a moving wireless power receiver
US9941752B2 (en) 2015-09-16 2018-04-10 Energous Corporation Systems and methods of object detection in wireless power charging systems
US10158259B1 (en) 2015-09-16 2018-12-18 Energous Corporation Systems and methods for identifying receivers in a transmission field by transmitting exploratory power waves towards different segments of a transmission field
US10211685B2 (en) 2015-09-16 2019-02-19 Energous Corporation Systems and methods for real or near real time wireless communications between a wireless power transmitter and a wireless power receiver
US9893538B1 (en) 2015-09-16 2018-02-13 Energous Corporation Systems and methods of object detection in wireless power charging systems
US10778041B2 (en) 2015-09-16 2020-09-15 Energous Corporation Systems and methods for generating power waves in a wireless power transmission system
US11710321B2 (en) 2015-09-16 2023-07-25 Energous Corporation Systems and methods of object detection in wireless power charging systems
US9871387B1 (en) 2015-09-16 2018-01-16 Energous Corporation Systems and methods of object detection using one or more video cameras in wireless power charging systems
US10186893B2 (en) 2015-09-16 2019-01-22 Energous Corporation Systems and methods for real time or near real time wireless communications between a wireless power transmitter and a wireless power receiver
US10199850B2 (en) 2015-09-16 2019-02-05 Energous Corporation Systems and methods for wirelessly transmitting power from a transmitter to a receiver by determining refined locations of the receiver in a segmented transmission field associated with the transmitter
US10027168B2 (en) 2015-09-22 2018-07-17 Energous Corporation Systems and methods for generating and transmitting wireless power transmission waves using antennas having a spacing that is selected by the transmitter
US10135295B2 (en) 2015-09-22 2018-11-20 Energous Corporation Systems and methods for nullifying energy levels for wireless power transmission waves
US10020678B1 (en) 2015-09-22 2018-07-10 Energous Corporation Systems and methods for selecting antennas to generate and transmit power transmission waves
US10128686B1 (en) 2015-09-22 2018-11-13 Energous Corporation Systems and methods for identifying receiver locations using sensor technologies
US10153660B1 (en) 2015-09-22 2018-12-11 Energous Corporation Systems and methods for preconfiguring sensor data for wireless charging systems
US10050470B1 (en) 2015-09-22 2018-08-14 Energous Corporation Wireless power transmission device having antennas oriented in three dimensions
US10135294B1 (en) 2015-09-22 2018-11-20 Energous Corporation Systems and methods for preconfiguring transmission devices for power wave transmissions based on location data of one or more receivers
US10033222B1 (en) 2015-09-22 2018-07-24 Energous Corporation Systems and methods for determining and generating a waveform for wireless power transmission waves
US10333332B1 (en) 2015-10-13 2019-06-25 Energous Corporation Cross-polarized dipole antenna
US10734717B2 (en) 2015-10-13 2020-08-04 Energous Corporation 3D ceramic mold antenna
US9853485B2 (en) 2015-10-28 2017-12-26 Energous Corporation Antenna for wireless charging systems
US9899744B1 (en) 2015-10-28 2018-02-20 Energous Corporation Antenna for wireless charging systems
US10063108B1 (en) 2015-11-02 2018-08-28 Energous Corporation Stamped three-dimensional antenna
US10027180B1 (en) 2015-11-02 2018-07-17 Energous Corporation 3D triple linear antenna that acts as heat sink
US10135112B1 (en) 2015-11-02 2018-11-20 Energous Corporation 3D antenna mount
US10320446B2 (en) 2015-12-24 2019-06-11 Energous Corporation Miniaturized highly-efficient designs for near-field power transfer system
US10027159B2 (en) 2015-12-24 2018-07-17 Energous Corporation Antenna for transmitting wireless power signals
US10141771B1 (en) 2015-12-24 2018-11-27 Energous Corporation Near field transmitters with contact points for wireless power charging
US10079515B2 (en) 2016-12-12 2018-09-18 Energous Corporation Near-field RF charging pad with multi-band antenna element with adaptive loading to efficiently charge an electronic device at any position on the pad
US11863001B2 (en) 2015-12-24 2024-01-02 Energous Corporation Near-field antenna for wireless power transmission with antenna elements that follow meandering patterns
US10038332B1 (en) 2015-12-24 2018-07-31 Energous Corporation Systems and methods of wireless power charging through multiple receiving devices
US10256677B2 (en) 2016-12-12 2019-04-09 Energous Corporation Near-field RF charging pad with adaptive loading to efficiently charge an electronic device at any position on the pad
US10008886B2 (en) 2015-12-29 2018-06-26 Energous Corporation Modular antennas with heat sinks in wireless power transmission systems
JP6789668B2 (ja) * 2016-05-18 2020-11-25 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、情報処理システム、情報処理方法
US10032380B2 (en) 2016-10-05 2018-07-24 Rite-Hite Holding Corporation Pedestrian-vehicle safety systems for loading docks
CN106570963A (zh) * 2016-10-26 2017-04-19 江苏金米智能科技有限责任公司 一种智能侦测监控式门禁锁
US10923954B2 (en) 2016-11-03 2021-02-16 Energous Corporation Wireless power receiver with a synchronous rectifier
CN110235337A (zh) 2016-12-12 2019-09-13 艾诺格思公司 选择性地激活近场充电垫的天线区域以最大化所传递无线功率的方法
US10389161B2 (en) 2017-03-15 2019-08-20 Energous Corporation Surface mount dielectric antennas for wireless power transmitters
US10439442B2 (en) 2017-01-24 2019-10-08 Energous Corporation Microstrip antennas for wireless power transmitters
US10680319B2 (en) 2017-01-06 2020-06-09 Energous Corporation Devices and methods for reducing mutual coupling effects in wireless power transmission systems
WO2018183892A1 (en) 2017-03-30 2018-10-04 Energous Corporation Flat antennas having two or more resonant frequencies for use in wireless power transmission systems
US10511097B2 (en) 2017-05-12 2019-12-17 Energous Corporation Near-field antennas for accumulating energy at a near-field distance with minimal far-field gain
KR102025391B1 (ko) * 2017-05-15 2019-09-25 네이버 주식회사 사용자의 발화 위치에 따른 디바이스 제어
US11462949B2 (en) 2017-05-16 2022-10-04 Wireless electrical Grid LAN, WiGL Inc Wireless charging method and system
JP6814095B2 (ja) * 2017-05-23 2021-01-13 東芝ライフスタイル株式会社 電気掃除機
US10848853B2 (en) 2017-06-23 2020-11-24 Energous Corporation Systems, methods, and devices for utilizing a wire of a sound-producing device as an antenna for receipt of wirelessly delivered power
US10122219B1 (en) 2017-10-10 2018-11-06 Energous Corporation Systems, methods, and devices for using a battery as a antenna for receiving wirelessly delivered power from radio frequency power waves
US11342798B2 (en) 2017-10-30 2022-05-24 Energous Corporation Systems and methods for managing coexistence of wireless-power signals and data signals operating in a same frequency band
US10615647B2 (en) 2018-02-02 2020-04-07 Energous Corporation Systems and methods for detecting wireless power receivers and other objects at a near-field charging pad
US11159057B2 (en) 2018-03-14 2021-10-26 Energous Corporation Loop antennas with selectively-activated feeds to control propagation patterns of wireless power signals
EP4221160A3 (en) * 2018-03-29 2023-08-09 Huawei Technologies Co., Ltd. Inter-device data migration method
US11515732B2 (en) 2018-06-25 2022-11-29 Energous Corporation Power wave transmission techniques to focus wirelessly delivered power at a receiving device
US11437735B2 (en) 2018-11-14 2022-09-06 Energous Corporation Systems for receiving electromagnetic energy using antennas that are minimally affected by the presence of the human body
KR20210117283A (ko) 2019-01-28 2021-09-28 에너저스 코포레이션 무선 전력 전송을 위한 소형 안테나에 대한 시스템들 및 방법들
CN113661660B (zh) 2019-02-06 2023-01-24 艾诺格思公司 估计最佳相位的方法、无线电力发射设备及存储介质
JP6886118B2 (ja) * 2019-08-27 2021-06-16 富士通クライアントコンピューティング株式会社 情報処理装置およびプログラム
EP4032166A4 (en) 2019-09-20 2023-10-18 Energous Corporation SYSTEMS AND METHODS FOR PROTECTING WIRELESS POWER RECEIVERS USING MULTIPLE RECTIFIER AND ESTABLISHING IN-BAND COMMUNICATIONS USING MULTIPLE RECTIFIER
WO2021055898A1 (en) 2019-09-20 2021-03-25 Energous Corporation Systems and methods for machine learning based foreign object detection for wireless power transmission
US11381118B2 (en) 2019-09-20 2022-07-05 Energous Corporation Systems and methods for machine learning based foreign object detection for wireless power transmission
WO2021055900A1 (en) 2019-09-20 2021-03-25 Energous Corporation Classifying and detecting foreign objects using a power amplifier controller integrated circuit in wireless power transmission systems
JP7330507B2 (ja) 2019-12-13 2023-08-22 株式会社Agama-X 情報処理装置、プログラム、及び、方法
EP4073905A4 (en) 2019-12-13 2024-01-03 Energous Corp CHARGING PAD WITH GUIDING CONTOURS FOR ALIGNING AN ELECTRONIC DEVICE ON THE CHARGING PAD AND FOR EFFICIENTLY TRANSMITTING NEAR FIELD HIGH FREQUENCY ENERGY TO THE ELECTRONIC DEVICE
US10985617B1 (en) 2019-12-31 2021-04-20 Energous Corporation System for wirelessly transmitting energy at a near-field distance without using beam-forming control
US11799324B2 (en) 2020-04-13 2023-10-24 Energous Corporation Wireless-power transmitting device for creating a uniform near-field charging area
US20220148411A1 (en) * 2020-11-06 2022-05-12 Ford Global Technologies, Llc Collective anomaly detection systems and methods
US11916398B2 (en) 2021-12-29 2024-02-27 Energous Corporation Small form-factor devices with integrated and modular harvesting receivers, and shelving-mounted wireless-power transmitters for use therewith

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01195499A (ja) 1988-01-30 1989-08-07 Toshiba Corp 音声入力装置
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
JPH103155A (ja) * 1996-06-14 1998-01-06 Copal Co Ltd 現像処理装置の処理ラック
JPH1031551A (ja) 1996-07-15 1998-02-03 Mitsubishi Electric Corp ヒューマンインターフェースシステムおよびこれを使用した高速移動物体位置検出装置
US6154723A (en) * 1996-12-06 2000-11-28 The Board Of Trustees Of The University Of Illinois Virtual reality 3D interface system for data creation, viewing and editing
JPH1141577A (ja) 1997-07-18 1999-02-12 Fujitsu Ltd 話者位置検出装置
US6351222B1 (en) * 1998-10-30 2002-02-26 Ati International Srl Method and apparatus for receiving an input by an entertainment device
JP2000326274A (ja) 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット

Also Published As

Publication number Publication date
US6583723B2 (en) 2003-06-24
US6686844B2 (en) 2004-02-03
JP2002251234A (ja) 2002-09-06
US20020118232A1 (en) 2002-08-29
US20030097190A1 (en) 2003-05-22

Similar Documents

Publication Publication Date Title
JP4624577B2 (ja) 複数のセンサによるヒューマンインタフェースシステム
JP6520878B2 (ja) 音声取得システムおよび音声取得方法
US7340100B2 (en) Posture recognition apparatus and autonomous robot
JP4460528B2 (ja) 識別対象識別装置およびそれを備えたロボット
EP1186162B1 (en) Multi-modal video target acquisition and re-direction system and method
US20220032482A1 (en) Information processing device and storage medium
JP5881136B2 (ja) 情報処理装置及び方法、並びにプログラム
CN109300471A (zh) 融合声音采集识别的场区智能视频监控方法、装置及系统
CN111048113B (zh) 声音方向定位处理方法、装置、系统、计算机设备及存储介质
CN107346661B (zh) 一种基于麦克风阵列的远距离虹膜跟踪与采集方法
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP2000347692A (ja) 人物検出方法、人物検出装置及びそれを用いた制御システム
JP2019217558A (ja) 対話システム及び対話システムの制御方法
US20060093189A1 (en) Movement identification apparatus
JP4669150B2 (ja) 主被写体推定装置及び主被写体推定方法
WO2021166811A1 (ja) 情報処理装置および行動モード設定方法
JP6819633B2 (ja) 個人識別装置および特徴収集装置
JP6540742B2 (ja) 物体認識装置および物体認識方法
JP2001067098A (ja) 人物検出方法と人物検出機能搭載装置
JP6845121B2 (ja) ロボットおよびロボット制御方法
JP2007034872A (ja) 顔認証装置および顔認証システムならびに顔認証方法
JP2005199373A (ja) コミュニケーション装置及びコミュニケーション方法
JP4649944B2 (ja) 動画像処理装置、動画像処理方法およびプログラム
JP2020052822A (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
JPH0728488A (ja) 情報処理方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080806

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080812

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20081031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101007

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101104

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees