JP2013513890A - ユーザ制御のためのユーザ・インターフェースの装置および方法 - Google Patents

ユーザ制御のためのユーザ・インターフェースの装置および方法 Download PDF

Info

Publication number
JP2013513890A
JP2013513890A JP2012544560A JP2012544560A JP2013513890A JP 2013513890 A JP2013513890 A JP 2013513890A JP 2012544560 A JP2012544560 A JP 2012544560A JP 2012544560 A JP2012544560 A JP 2012544560A JP 2013513890 A JP2013513890 A JP 2013513890A
Authority
JP
Japan
Prior art keywords
user
location
pointing device
signal
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012544560A
Other languages
English (en)
Inventor
マシューズ,キム,エヌ.
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2013513890A publication Critical patent/JP2013513890A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

少なくとも2つのセンサと、ポインティング・デバイスと、オブジェクト認識ユニットとを備える装置。それらのセンサは、異なるロケーションにあり、またユーザの少なくとも一部分からの信号を検出することができる。ポインティング・デバイスは、センサによって検出可能であるユーザ制御可能信号を方向づけるように構成されている。オブジェクト認識ユニットは、センサからの出力を受信するように、またその出力に基づいて、ユーザの一部分のロケーションと、ポインティング・デバイスのロケーションとを決定するように構成されている。オブジェクト認識ユニットはまた、ユーザの一部分の決定されたロケーションと、ポインティング・デバイスのロケーションとに基づいて、ポインティング・デバイスを用いてユーザによって指し示されるターゲット・ロケーションを計算するように構成されてもいる。

Description

本開示は、一般に、ユーザ・インターフェースを対象としており、より詳細には、そのような方法を実行するためのポインタ・ベースのユーザ・インターフェースと媒体とを有する装置および方法を対象としている。
本節は、本発明のよりよき理解を容易にすることに対する助けとなり得る態様を紹介するものである。それゆえに、本節の記述は、この観点から読まれるべきものである。本節の記述は、先行技術の中に何があるか、または先行技術の中に何がないかについての承認として理解されるべきではない。
テレビジョン、コンピュータ、他の電化製品など、様々な装置とのユーザ・インターフェースを改善することには、非常に関心がある。ハンドヘルド・リモート制御ユニットは、複雑なシグナル伝達タスクのためには不十分に、または扱いにくくなる。マウス・インターフェースと、キーボード・インターフェースとは、ある種の環境では、不十分な、または不適切な可能性がある。グラフィカル・ユーザ・インターフェース(graphical user interfaces)(GUI)と情報をやりとりする手のジェスチャー(hand gesture)についての認識は、コンピュータによる計算コストが高くつき、使用するのが難しく、また単一のユーザ・インターフェースだけに限定されるということに悩まされる可能性がある。
一実施形態は、少なくとも2つのセンサと、ポインティング・デバイスと、オブジェクト認識ユニットとを備える装置である。それらのセンサは、異なるロケーションにあり、またユーザの少なくとも一部分からの信号を検出することができる。ポインティング・デバイスは、センサによって検出可能であるユーザ制御可能信号を方向づけるように構成されている。オブジェクト認識ユニットは、センサからの出力を受信するように、またその出力に基づいて、ユーザの一部分のロケーションと、ポインティング・デバイスのロケーションとを決定するように構成されている。オブジェクト認識ユニットはまた、ユーザの一部分の決定されたロケーションと、ポインティング・デバイスの決定されたロケーションとに基づいて、ポインティング・デバイスを用いてユーザによって指し示されるターゲット・ロケーションを計算するように構成されてもいる。
別の実施形態は方法である。本方法は、異なるロケーションに位置している少なくとも2つのセンサからの出力を使用して、ユーザのロケーションを決定するステップを備える。出力は、ユーザの少なくとも一部分からの、またセンサによって受信される信号からの情報を含んでいる。本方法はまた、センサからの出力を使用してポインティング・デバイスのロケーションを決定するステップを備え、その出力は、ポインティング・デバイスからの、またセンサによって受信されるユーザ制御可能信号からの情報を含んでいる。本方法はまた、ユーザの一部分の決定されたロケーションと、ポインティング・デバイスの決定されたロケーションとに基づいて、ポインティング・デバイスを用いてユーザが指し示したターゲット・ロケーションを計算するステップを備える。
別の実施形態は、コンピュータによって実行されるときに、上記に説明された方法を実行するコンピュータ実行可能命令を備えるコンピュータ読取り可能媒体である。
本開示の実施形態は、添付の図面と共に読まれるときに、以下の詳細な説明から最も良く理解される。対応する、または同様な番号または文字は、対応する、または同様な構造を指し示している。様々な特徴は、考察を明確にするために、縮尺するように描かれていない可能性があり、またサイズが任意に増大され、または縮小されている可能性がある。次に、添付図面と併せて解釈される以下の説明に対する参照が行われる。
本開示の一例の単一ユーザの装置についてのブロック図を提示する図である。 本開示の一例のマルチ・ユーザの装置についてのブロック図を提示する図である。 図1〜2との関連で考察される装置の任意の実施形態を使用する方法など、本開示の一例の方法についての流れ図である。
説明および図面は、単に本発明の原理を示しているにすぎない。それゆえに、当業者は、本明細書において明示的に説明され、または示されてはいないけれども、本発明の原理を実施し、またその範囲内に含まれる様々な構成を考案することができるようになることが、理解されるであろう。さらに、本明細書において列挙されるすべての例は、主として、本発明の原理と、当技術を推進することに本発明者(単数または複数)によって寄与される概念とを理解するに際して読者を支援する教育上の目的のためだけであるように明示的に意図されており、またそのような特に列挙された例および状態だけに限定されないように解釈されるべきである。さらに、本発明の原理、態様、および実施形態、ならびにその特定の例を列挙する、本明細書におけるすべての記述は、それらの同等物を包含するように意図される。さらに、本明細書において使用される場合、用語「または(or)」は、その他の方法で示されていない限りは、非排他的論理和(non−exclusive or)を意味する。また、本明細書において説明される様々な実施形態は、いくつかの実施形態が、新しい実施形態を形成するために1つまたは複数の他の実施形態と組み合わされることが可能であるように、必ずしも相互に排他的であるとは限らない。
本開示の実施形態は、(a)例えば、ユーザが、実行されるべきあらかじめ定義されたアクションを順にもたらすことができるロケーションを単に指し示すことを可能にすることにより、直観的な、またそれ自体を構成すること、(b)ユーザ・コマンドに対する迅速で正確な応答性、(c)低コスト実装、(d)マルチ・ユーザ・コンフィギュレーションに対する適応可能性、(e)商用設定、または住居設定における典型的なユーザ環境の内部に適合する適応可能性を容易にすること、含むこと、またはそうであることを可能にするインターフェースを提供することにより、ユーザ・インターフェース経験を改善する。
図1は、本開示の一例の装置100のブロック図を提示するものである。いくつかの実施形態においては、装置100は、ユーザまたはその一部分(例えば、ロボットのユーザまたは非ロボットのユーザ)を含むことができる。いくつかの実施形態においては、装置100は、テレビジョン、コンピュータ、ラジオなどのメディア・デバイス、またはランプ、オーブン、他の電化製品などの構造とすることができ、あるいはそれらを含むことができる。
図1に示される装置100は、異なるロケーションにおける少なくとも2つのセンサ110、112を備える。センサ110、112は、ユーザ122の少なくとも一部分120からの信号115を検出することが可能である。装置100はまた、少なくとも2つのセンサ110、120によって検出可能でもあるユーザ制御可能信号130を方向づけるように構成されたポインティング・デバイス125を備える。装置100は、オブジェクト認識ユニット135をさらに備える。オブジェクト認識ユニット135は、センサ110、112からの出力140を受信するように、また出力140に基づいて、ユーザ122の一部分120のロケーション142と、ポインティング・デバイス125のロケーション144とを決定するように構成されている。オブジェクト認識ユニット135はまた、ユーザ122の一部分120の決定されたロケーション142と、ポインティング・デバイス125の決定されたロケーション144とに基づいて、ポインティング・デバイス125を有するユーザ122によって指し示されるターゲット・ロケーション150を計算するように構成されてもいる。
本明細書における本開示に基づいて、当業者は、どのようにして、複数のユーザのためのインターフェースとしての機能を果たすように装置を構成すべきかを理解するであろう。例えば、図2における装置の例200について示されるように、上記で説明されるコンポーネントに加えて、装置200は、第2のポインティング・デバイス210をさらに含むことができる。オブジェクト認識ユニット135は、さらに、センサ110、112から受信される出力140に基づいて、第2のユーザ222の少なくとも一部分220の第2のロケーション215と、第2のポインティング・デバイス210の第2のロケーション230とを決定するように、構成されていることが可能である。出力140は、第2のユーザ222の一部分220からの信号235と、第2のポインティング・デバイス210からの第2のユーザ制御可能信号240とについての情報を含んでいる。オブジェクト認識ユニット135はまた、前記第2のユーザ222の一部分220の決定された第2のロケーション215と、第2のポインティング・デバイス210の決定された第2のロケーション230とに基づいて、第2のポインティング・デバイス210を有する第2のユーザ222によって指し示されるターゲット・ロケーション250を計算するように構成されてもいる。
ユーザ(単数または複数)と、ポインティング・デバイス(単数または複数)とからの信号は、様々な形態のエネルギーを有し、または含むことができる。いくつかの場合において、例えば、ポインティング・デバイス125またはユーザ122からの信号115、130(または他の複数のユーザ222およびデバイス210からの信号235、240)のうちの少なくとも1つは、超音波波長のエネルギーを含んでいる。いくつかの場合において、例えば、ポインティング・デバイス125からの信号130と、ユーザ122からの信号115とは、両方共に、電磁放射線(例えば、1つまたは複数の無線の、マイクロ波の、テラヘルツの、赤外線の、可視光の、紫外線の周波数)を含んでいる。いくつかの場合において、ユーザ122およびポインティング・デバイス125からの信号115、130(または他の複数のユーザ222およびデバイス210からの信号235、240)のおのおのを一意的に識別することを容易にするために、信号115、130は、異なる周波数の電磁放射線を有することができる。一例として、ポインティング・デバイス125は、赤外線の周波数を含む信号130を放射し、または反射することができるが、ユーザ122(またはユーザの頭など、その一部分120)は、可視光の周波数において信号115を放出し、または反射する。しかしながら、他の場合においては、信号115、130は、同じ周波数の、電磁放射線、または超音波放射線を有することができる。一例として、ポインティング・デバイスは、赤外線周波数を含む信号130を放出し、または反射することができるが、ユーザ122の一部分120(例えば、複数の目)は、実質的に同じ周波数の(例えば、信号115の周波数と、信号130の周波数との間に約1%よりも小さい違いの)赤外線信号115を反射する。当業者は、信号115、130、または他のユーザおよびポインティング・デバイスからの追加信号を区別するために使用され得る様々な符号分割多元接続技法(code division multiple access techniques)についてよく知っているであろう。別の例として、ポインティング・デバイス125からの信号130と、ユーザ122からの信号115とは、時間二重化コードや周波数二重化コードなど、異なるチャネル・コードを含むことができる。
本開示に基づいて、当業者は、どのようにして、信号115、130を検出することができるセンサ110、112を構成し、または提供すべきかを理解するであろう。例えば、ポインティング・デバイス125が、超音波のパルスを含む信号130を放出し、またはユーザからの信号115が、ユーザ122から反射される超音波のパルスを含む場合、そのときにはセンサ110、112は、超音波検出器152を含んでいる。例えば、ポインティング・デバイス125が、赤外線の発光ダイオード(light emitting diode)(LED)またはレーザ(laser)を含んでいる場合、そのときにはセンサ110、112は、赤外線のまたは他の電磁放射線の検出器154を含むことができる。
いくつかの場合において、センサは、広範囲の周波数の電磁放射線を検知することができる検出器を含むことができる。例えば、いくつかの実施形態においては、センサ110、112は、おのおの、可視光の周波数と、赤外線の周波数との両方に対して検知可能な検出器154を含むことができる。例えば、ユーザ122からの信号115が、ユーザ122の頭120から反射される可視光を含んでおり、またポインティング・デバイス125が、赤外光を放射するLEDを含んでいる場合について考察する。そのような場合においては、センサ110、112が、可視光および赤外光に対して検知可能であるビデオ・カメラであることが有利とすることができる。あるいは、他の場合においては、例えば、ユーザ122からの信号115は、ユーザ122から反射される信号を含んでおり、ポインティング・デバイス125からの信号130は、ポインティング・デバイス125から反射される信号を含んでおり(例えば、反射された信号115、130の両方は、可視光または赤外光を含むことができる)、またセンサ110、112は、反射された信号115、130を検出することができる検出器154(例えば、可視光または赤外光の検出器)を含んでいる。異なるロケーションにセンサ110、112を位置づけることは、三角測量などのプロシージャによりロケーション142、144の位置を決定することに対して重要である。センサ110、112からの出力140は、ワイヤレス(例えば、図1)の通信手段、または有線(例えば、図2)の通信手段により、オブジェクト認識ユニット135に対して送信されることが可能である。
いくつかの実施形態においては、信号エミッタ(signal emitter)156をユーザ122に取り付けることが望ましい可能性がある。そのような場合においては、ユーザ122からの信号115は、エミッタ156からの信号とすることができ、またはその信号を含むことができる。そのようなエミッタ156を使用することは、ユーザ122、またはその一部分120のロケーション142のより正確な決定を容易にすることができる。ロケーション142についてのより正確な決定は、次には、指し示されているターゲット・ロケーション150のより正確な計算を容易にすることができる。例えば、いくつかの場合においては、装置100は、ユーザ122の頭の部分120に取り付けられた赤外線LEDエミッタ156を含んでおり、またセンサ110、112は、エミッタ156からの信号を検出するように構成されている。
いくつかの実施形態においては、ユーザ122またはポインティング・デバイス125からの信号115、130のうちの一方または両方は、ユーザ122またはポインティング・デバイス125から反射される受動信号とすることができる。例えば、ユーザ122の一部分120から反射される周辺光は、信号115とすることができる。あるいは、ユーザ122からの信号115は、ユーザ122が、着用しているエネルギーを反射するデバイス158(例えば、ミラー)から反射される信号とすることができる。同様に、ポインティング・デバイス125からの信号130は、ポインティング・デバイス125から反射される光を含むことができる。センサ110、112は、反射するデバイス158からの信号115、またはポインティング・デバイス125から反射される信号130を検出するように構成されていることが可能である。
オブジェクト認識ユニット135は、ユーザ122、またはその一部分120と、ポインティング・デバイス125とのロケーション142、144を決定する命令を用いてプログラムされたコンピュータ、回路基板、または集積回路を含むことができ、あるいはそのコンピュータ、回路基板、または集積回路とすることができる。当業者は、オブジェクト認識プロセスと、信号115、130が出て来ており、またセンサ110、112の検知範囲内にあるロケーション142、144を決定する命令を準備するそのようなプロセスをどのようにして適応させるべきかとについてよく知っているであろう。当業者は、コンピュータ読取り可能命令の中への信号フィルタリングおよび平均化のプロセスと、ユーザ122またはポインティング・デバイス125の近くにおける背景雑音からの、あるいはユーザ122またはポインティング・デバイス125から反射される信号115、130を区別する命令を準備するそのようなプロセスをどのようにして適応させるべきかとについてよく知っているであろう。センサ110、112を分離する(例えば、いくつかの実施形態においては、約0.5から3メートルの範囲の中にある)距離164が、知られているものと仮定すると、そのときにはオブジェクト認識ユニット135は、ロケーション142、144を(例えば、三角測量によって)決定するようにプログラムされることが可能である。決定されたロケーション142、144から、ターゲット・ロケーション150は、例えば、ユーザ・ロケーション142からポインティング・デバイス・ロケーション144へのベクトル162を決定すること、およびそのベクトル162を外挿することにより、計算されることが可能である。
図1においてさらに示されているように、いくつかの場合においては、オブジェクト認識ユニット135は、センサ110、112と、ポインティング・デバイス125と、ユーザ122との近くに位置していることができる。他の場合においては、オブジェクト認識ユニット135は、遠く離れて位置しているが、依然として装置100の1つまたは複数の他のコンポーネント(例えば、センサ110、112、またはオプションとしてのディスプレイ・ユニット164)と通信することができる。
いくつかの場合においては、装置100は、ディスプレイ・ユニット164をさらに含むことができる。他の場合においては、ディスプレイ・ユニット164は、装置100の一部分ではない。図1に示されるように、いくつかの場合においては、センサ110、112は、ディスプレイ・ユニット164の近くに(例えば、同じ部屋の中に)あるパフォーマンス・エリア(performance area)165の中の異なるロケーション(例えば、別個のロケーション)にあるようにすることができる。
ディスプレイ・ユニット164は、ユーザ122が検知することができる情報を提示する任意のメカニズムとすることができ、またはその任意のメカニズムを含むことができる。例えば、ディスプレイ・ユニット164は、ビデオ画面や電化製品(例えば、オーブン、またはエアコンの制御パネル)の他のディスプレイ(例えば、LEDディスプレイ)などのビデオ・ディスプレイ・メカニズム、または電化製品の実際の状況(例えば、ランプなどの光源のオン−オフ状態)とすることができ、あるいはそれを含むことができる。ディスプレイ・ユニット164は、ラジオもしくはコンパクト・ディスク・プレーヤ、またはオーディオ状況インジケータ(例えば、トーン、楽音、または音声)を有する他の電化製品のようなオーディオ・ディスプレイ・ユニットとすることができ、あるいはそのオーディオ・ディスプレイ・ユニットを含むことができる。ディスプレイ・ユニット164は、テレビジョン、ゲーム・コンソール、コンピュータ・システム、他のマルチメディア・デバイスなど、ビデオ・ディスプレイとオーディオ・ディスプレイとの両方とすることができ、あるいはそれら両方を含むことができる。
パフォーマンス・エリア165は、ディスプレイ・ユニット164が位置していることができる任意のスペースとすることができる。例えば、パフォーマンス・エリア165は、ビジュアル・ディスプレイ・ユニットとして構成されるディスプレイ・ユニット164の前における閲覧エリア(viewing area)とすることができる。例えば、パフォーマンス・エリア165は、オーディオ・ディスプレイ・ユニットとして構成されるディスプレイ・ユニット164の近く(例えば、聴取距離内)のリスニング・エリア(listening area)とすることができる。パフォーマンス・エリア165は、部屋の中のスペース、または他の屋内スペースとすることができ、あるいはそのスペースを含むことができるが、他の場合においては、例えば、ディスプレイ・ユニット164の聴取距離または閲覧距離の内部の屋外スペースとすることができ、あるいはその屋外スペースを含むことができる。
装置のいくつかの実施形態においては、オブジェクト認識ユニット135は、例えば、当業者によく知られている有線の電気的な(例えば、図2)、またはワイヤレスの(例えば、図1)通信手段(例えば、光学的な、無線周波数の、またはマイクロ波の通信システム)により、ディスプレイ・ユニット164に結合されることが可能である。いくつかの場合においては、オブジェクト認識ユニット135は、ターゲット・ロケーション150に基づいてディスプレイ・ユニット164を変更するように構成されていることが可能である。例えば、ターゲット・ロケーション150が、パフォーマンス・エリア165の中の何らかの定義されたロケーション170にあり、またはそのロケーションの内部にあるときに、ディスプレイ・ユニット164は、変更されることが可能である。例示されるように、定義されたロケーション170は、ディスプレイ・ユニット164それ自体の一部分に対応することができるが、他の場合においては、定義されたロケーション170は、パフォーマンス・エリア165におけるある構造(例えば、光源または光スイッチ)に対応することができる。ロケーション170は、ユーザ122によって定義され、または装置100の製造業者またはプロバイダによって何らかのデフォルト・ロケーションとして定義されることが可能である。
いくつかの実施形態においては、オブジェクト認識ユニット135は、ターゲット・ロケーション150を例えば、ディスプレイ・ユニット164の上に視覚特性(visual feature)として表現するようにするためにビジュアル・ディスプレイ・ユニット164を変更するように構成されていることが可能である。一例として、ターゲット・ロケーション150が、定義されたロケーション170に対応する(例えば、の場所に、またはの内部にある)ことを計算するとすぐに、オブジェクト認識ユニット135は、制御信号175を(例えば、有線の、またはワイヤレスの通信手段を経由して)送信して、ディスプレイ・ユニット164の少なくとも一部分に、ターゲット・ロケーション150の、光のポイント、アイコン、または他の視覚表現を表示するようにさせることができる。追加して、または代わりに、オブジェクト認識ユニット135は、ターゲット・ロケーション150を例えば、ディスプレイ・ユニット164のオーディオ表現として表現するように、オーディオ・ディスプレイを含むディスプレイ・ユニット164を変更するように構成されていることが可能である。
例えば、パフォーマンス・エリア165の中の定義されたロケーション170にあるターゲット・ロケーション150に基づいて、オブジェクト認識ユニット135は、ディスプレイ・ユニット164によって提示される情報を変更するように構成されていることが可能である。一例として、ターゲット・ロケーション150が、ビジュアル・ディスプレイ・ユニット164の画面の上の定義されたロケーション170にあり、またはビジュアル・ディスプレイ・ユニット164の制御部分(例えば、テレビジョン・ディスプレイ・ユニット164のボリューム選択制御ボタンまたはチャネル選択制御ボタン)の上に位置づけられる場合、そのときにはオブジェクト認識ユニット135は、ディスプレイ・ユニット164に、異なる情報を提示する(例えば、ボリュームまたはチャネルを変更する)ようにさせることができる。
オブジェクト認識ユニット135と、ポインティング・デバイス125との実施形態は、他のメカニズムによるディスプレイ・ユニット164によって提示される情報を変更するように協力して機能するように構成されていることが可能である。例えば、いくつかの場合においては、ターゲット・ロケーション150が、パフォーマンス・エリア165の中の定義されたロケーション170にある場合、オブジェクト認識ユニット135は、第2の信号180が、ポインティング・デバイス125から放射されるときに、ディスプレイ・ユニット164によって提示される情報を変更するように構成されている。例えば、ポインティング・デバイス125は、ターゲット・ロケーション150が、ディスプレイ・ユニット164の上の定義されたロケーション170、または定義されたロケーション170の中の他のロケーションと一致するときに、ユーザ122によってアクティブにすることが可能な第2のエミッタ185(例えば、超音波の、無線周波数の、または他の信号のエミッタ)をさらに含むことができる。一例として、いくつかの場合においては、ユーザ122が、ポインティング・デバイス125を用いて定義されたロケーション170を指し示すときだけに、ポインティング・デバイス125の上のプッシュ・ボタンは、ディスプレイ・ユニット164によって提示される情報の変化を引き起こす(例えば、チャネル選択メニュー、ボリューム制御メニュー、または当業者によく知られている他のメニューを提示する)ようにアクティブにされることが可能である。
いくつかの実施形態においては、オブジェクト認識ユニット135は、構造190の状態を変更するように構成されていることが可能である。例えば、定義されたロケーション170にあるターゲット・ロケーション150に応じて、オブジェクト認識ユニット135は、光源の構造190など、構造190のオン/オフ状態を変更するように構成されていることが可能である。いくつかの場合においては、構造190は、装置100のコンポーネントとすることができるが、他の場合においては、構造190は、装置100の一部分ではない。いくつかの場合においては、図1に示されるように、構造190は、例えば、ディスプレイ・ユニット164のパフォーマンス・エリア165の中の装置100の近くにある可能性がある。他の場合においては、構造190は、装置100から離れてリモートに位置していることができる。例えば、オブジェクト認識ユニット135は、通信システム(例えば、インターネットまたは電話回線)に接続され、またリモートに位置している構造(図示されず)の状態に変化を引き起こす制御信号175を送信するように構成されていることが可能である。
本開示の別の実施形態は、装置を使用する一方法である。例えば、本方法は、例えば、装置として実施され、または装置の一部分として含められるユーザ・インターフェースを使用する方法とすることができ、あるいはその方法を含むことができる。例えば、本方法は、装置(例えば、ディスプレイ・ユニット)のコンポーネントを制御する方法、または装置(例えば、ディスプレイ・ユニットまたは他の電化製品)の一部分ではない電化製品を制御する方法とすることができ、またその方法を含むことができる。
図3は、図1〜2との関連で考察される装置の例100、200のうちのどれかなどの装置を使用する一例の方法の流れ図を提示するものである。
図1および2を参照し続けると、図3に示される方法の例は、異なるロケーションに位置づけられる少なくとも2つのセンサ110、112から受信される出力140を使用して、ユーザ122のロケーション142を決定するステップ310を備える。出力140は、センサ110、112により、ユーザ122の少なくとも一部分120から受信される信号115からの情報を含んでいる。図3に示される方法はまた、センサ110、112からの出力140を使用してポインティング・デバイス125のロケーション144を決定するステップ315を備え、出力140は、ポインティング・デバイスから、センサ110、112によって受信される、ユーザ制御可能信号130からの情報を含んでいる。図3に示される方法は、ユーザ122の一部分120の決定されたロケーション142と、ポインティング・デバイス125の決定されたロケーション144とに基づいて、ポインティング・デバイス125を用いてユーザ122が指し示したターゲット・ロケーション150を計算することをさらに備える。
本方法のいくつかの実施形態においては、ステップ310、315、320のうちの1つまたは複数は、オブジェクト認識ユニット135によって実行されることが可能である。他の実施形態においては、これらのステップ310、315、320のうちの1つまたは複数は、例えば、インターネットまたは電話回線を経由してオブジェクト認識ユニット135と通信するコンピュータなど、別のデバイスによって実行されることが可能である。
ステップ310、315におけるロケーション142、144を決定することは、当業者によく知られているオブジェクト認識プロシージャと、信号フィルタリングおよび平均化のプロシージャと、三角測量プロシージャとを含むことができる。例えば、さらに図3に示されるように、本方法のいくつかの実施形態においては、ユーザ122の一部分120のロケーション142を決定すること(ステップ310)は、センサ110、112に対する一部分120の位置を三角測量するステップ325を含んでいる。同様に、いくつかの実施形態においては、ポインティング・デバイス125のロケーション144を決定すること(ステップ315)は、センサ110、112に対するポインティング・デバイス125の位置を三角測量するステップ330を含んでいる。当業者は、センサ110、112に対するロケーション142、144の位置を決定するために、センサ110、112からの出力140に基づいて命令の組の形で、三角測量の三角法の原理を実装するプロシージャについてよく知っているであろう。例えば、コンピュータは、ロケーション142、144を決定するそのような命令の組を読み取り、実行するようにプログラムされることが可能である。
ユーザがステップ320において指し示すターゲット・ロケーション150を計算することは、当業者によく知られている三角法の原理の実装を含むこともできる。例えば、ターゲット・ロケーション150を計算すること(ステップ320)は、ユーザ122の一部分120のロケーション142からポインティング・デバイス125のロケーション144へのベクトル155を計算するステップ335と、構造と交差するようにベクトル162を外挿するステップ337とを含むことができる。ユーザ122によって指し示される構造は、ポインティング・デバイス125それ自体以外の、装置100のコンポーネント部分(例えば、センサ110、112、またはオブジェクト認識ユニット135)、あるいは装置100の近くにあるディスプレイ・ユニット164または構造190(例えば、電化製品、壁、床、窓、家具の項目)を含むことができる。
さらに図3に示されるように、方法のいくつかの実施形態は、定義されたロケーション170に対応するターゲット・ロケーション150に基づいて、様々な構造を制御するステップを含むことができる。いくつかの実施形態においては、本方法は、ターゲット・ロケーション150を表現するディスプレイ・ユニット164を変更する制御信号175を送信するステップ340をさらに含んでいる。例えば、オブジェクト認識ユニット135(または別個の制御ユニット)は、ターゲット・ロケーション150を表現するディスプレイ・ユニット164を変更する制御信号175を送信することができる。本方法のいくつかの実施形態は、定義されたロケーション170にあるターゲット・ロケーション150に基づいて、ディスプレイ・ユニット164によって提示される情報を変更するステップ345をさらに含んでいる。本方法のいくつかの実施形態は、ターゲット・ロケーション150が、定義されたロケーション170に対応するときに、構造190の状態を変更する制御信号175を送信するステップ350をさらに含んでいる。
さらに図3に示されるように、本方法のいくつかの実施形態は、ユーザおよびポインティング・デバイスからオブジェクト認識ユニットへの信号を検出すること、および送信することを含むこともできる。例えば、本方法は、少なくとも2つのセンサ110、112により、ユーザ122の少なくとも一部分120からの信号115を検出するステップ355を含むことができる。本方法のいくつかの実施形態は、少なくとも2つのセンサ110、112により、ポインティング・デバイス125から方向づけられるユーザ制御可能信号130を検出するステップ360を含むことができる。本方法のいくつかの実施形態は、2つのセンサ110、112からオブジェクト認識ユニット135へと出力140を送信するステップ365を含むことができ、出力140は、ユーザ122の一部分120からの、またポインティング・デバイス125からの信号115、130に対応する情報を含んでいる。
当業者は、様々な上記に説明された方法のステップが、プログラムされたコンピュータによって実行され得ることを簡単に認識するであろう。本明細書において、いくつかの実施形態はまた、プログラム・ストレージ・デバイス、例えば、デジタル・データ・ストレージ媒体を包含するようにも意図され、これらのプログラム・ストレージ・デバイスは、マシンまたはコンピュータにより読取り可能であり、また命令のマシン実行可能な、またはコンピュータ実行可能なプログラムを符号化し、そこで、前記命令は、前記の上記に説明された方法の複数のステップのうちの一部または全部を実行する。プログラム・ストレージ・デバイスは、例えば、デジタル・メモリ、磁気ディスクや磁気テープなどの磁気ストレージ媒体、ハード・ドライブ、または光学的読取り可能デジタル・データ・ストレージ媒体とすることができる。実施形態はまた、上記に説明された方法の前記ステップを実行するようにプログラムされるコンピュータを包含するようにも意図される。
本明細書において、図1〜2などに示される任意のブロック図は、本開示の原理を実施する例示の回路についての概念図を表現することができることは、当業者によって理解されるべきでもある。同様に、図3に示される流れ図が、コンピュータ読取り可能媒体において実質的に表現され、またコンピュータまたはプロセッサによってそのように実行され得る様々なプロセスを表現することも、理解されるであろう。
例えば、本開示の別の実施形態は、コンピュータ読取り可能媒体である。コンピュータ読取り可能媒体は、上記で説明されたコンピュータ・ストレージ・ツールのうちの任意のものとして実施されることが可能である。コンピュータ読取り可能媒体は、コンピュータによって実行されるときに、図1〜3との関連で上記で考察されるような少なくとも方法ステップ310、315、および320を実行するコンピュータ実行可能命令を備える。いくつかの場合においては、コンピュータ読取り可能媒体は、さらに325〜345を含むコンピュータ実行可能命令を備える。いくつかの場合においては、コンピュータ読取り可能媒体は、図1〜2に示される装置100、200の実施形態などのユーザ・インターフェース装置のコンポーネントである。いくつかの場合においては、例えば、コンピュータ読取り可能媒体は、装置100のオブジェクト認識ユニット135の中のメモリまたはファームウェアとすることができる。他の場合においては、コンピュータ読取り可能媒体は、オブジェクト認識ユニット135からリモートに位置しているが、コンピュータ実行可能命令をオブジェクト認識ユニット135に対して送信するコンピュータの中のハード・ディスク、CD、フロッピー・ディスクである。
実施形態が、詳細に説明されてきているが、当業者は、彼らが、本開示の範囲を逸脱することなく、本明細書において様々な変更、置換、および修正を行うことができることを理解すべきである。

Claims (10)

  1. 異なるロケーションにおける少なくとも2つのセンサであって、前記センサは、ユーザの少なくとも一部分からの信号を検出することができるセンサと、
    前記センサによって検出可能であるユーザ制御可能信号を方向づけるように構成されたポインティング・デバイスと、
    前記センサからの出力を受信するように、
    前記出力に基づいて、前記ユーザの前記一部分のロケーションと、前記ポインティング・デバイスのロケーションとを決定するように、また
    前記ユーザの前記一部分の前記決定されたロケーションと、前記ポインティング・デバイスの前記決定されたロケーションとに基づいて、前記ポインティング・デバイスを用いて前記ユーザによって指し示されるターゲット・ロケーションを計算するように、
    構成されたオブジェクト認識ユニットと
    を備える装置。
  2. 第2のポインティング・デバイスをさらに含み、また前記オブジェクト認識ユニットは、さらに、
    前記出力に基づいて、第2のユーザの少なくとも一部分の第2のロケーションと、前記第2のポインティング・デバイスの第2のロケーションとを決定するように、また
    前記第2のユーザの前記一部分の前記決定された第2のロケーションと、前記第2のポインティング・デバイスの前記決定された第2のロケーションとに基づいて、前記第2のポインティング・デバイスを用いて前記第2のユーザによって指し示されるターゲット・ロケーションを計算するように
    構成されている、請求項1に記載の装置。
  3. 前記ポインティング・デバイスからの前記信号と、前記ユーザからの前記信号とは、両方ともに電磁放射線を含む、請求項1に記載の装置。
  4. 前記ポインティング・デバイスからの前記信号、または前記ユーザからの前記信号のうちの少なくとも一方は、超音波波長のエネルギーを含む、請求項1に記載の装置。
  5. 前記ユーザからの前記信号は、前記ユーザから反射される信号を含み、または前記ポインティング・デバイスからの前記ユーザ制御可能信号は、前記ポインティング・デバイスから反射される信号を含む、請求項1に記載の装置。
  6. 前記ユーザからの前記信号は、前記ユーザの前記一部分に取り付けられるエミッタから生成される赤外線波長の光を含み、また前記センサは、赤外線波長の光を検出することができる検出器を含む、請求項1に記載の装置。
  7. 異なるロケーションに位置づけられる少なくとも2つのセンサから受信される出力を使用してユーザのロケーションを決定するステップであって、前記出力は、前記ユーザの少なくとも一部分からの、また前記センサによって受信される信号からの情報を含む、決定するステップと、
    前記センサからの前記出力を使用してポインティング・デバイスのロケーションを決定するステップであって、前記出力は、前記ポインティング・デバイスからの、また前記センサによって受信されるユーザ制御可能信号からの情報を含む、決定するステップと、
    前記ユーザの前記一部分の前記決定されたロケーションと、前記ポインティング・デバイスの前記決定されたロケーションとに基づいて、前記ポインティング・デバイスを用いて前記ユーザが指し示したターゲット・ロケーションを計算するステップと
    を備える方法。
  8. 前記ターゲット・ロケーションを計算するステップは、前記一部分の前記ロケーションから前記ポインティング・デバイスの前記ロケーションへのベクトルを計算するステップと、構造と交差するように前記ベクトルを外挿するステップとをさらに含む、請求項7に記載の方法。
  9. コンピュータによって実行されるときに、請求項7に記載の方法のステップを実行するコンピュータ実行可能命令
    を備える、コンピュータ読取り可能媒体。
  10. 前記コンピュータ読取り可能媒体は、ユーザ・インターフェース装置のコンポーネントである、請求項9に記載のコンピュータ読取り可能媒体。
JP2012544560A 2009-12-14 2010-11-24 ユーザ制御のためのユーザ・インターフェースの装置および方法 Withdrawn JP2013513890A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/636,967 2009-12-14
US12/636,967 US20110141013A1 (en) 2009-12-14 2009-12-14 User-interface apparatus and method for user control
PCT/US2010/057948 WO2011081747A1 (en) 2009-12-14 2010-11-24 A user-interface apparatus and method for user control

Publications (1)

Publication Number Publication Date
JP2013513890A true JP2013513890A (ja) 2013-04-22

Family

ID=43613440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012544560A Withdrawn JP2013513890A (ja) 2009-12-14 2010-11-24 ユーザ制御のためのユーザ・インターフェースの装置および方法

Country Status (6)

Country Link
US (1) US20110141013A1 (ja)
EP (1) EP2513757A1 (ja)
JP (1) JP2013513890A (ja)
KR (1) KR20120083929A (ja)
CN (1) CN102667677A (ja)
WO (1) WO2011081747A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9110517B2 (en) * 2009-09-14 2015-08-18 Broadcom Corporation System and method for generating screen pointing information in a television
US20120259638A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Apparatus and method for determining relevance of input speech
US9618618B2 (en) 2014-03-10 2017-04-11 Elwha Llc Systems and methods for ultrasonic position and motion detection
US9437002B2 (en) 2014-09-25 2016-09-06 Elwha Llc Systems and methods for a dual modality sensor system
US9739883B2 (en) 2014-05-16 2017-08-22 Elwha Llc Systems and methods for ultrasonic velocity and acceleration detection
CN104883598A (zh) * 2015-06-24 2015-09-02 三星电子(中国)研发中心 一种画面显示设备以及一种显示画面调整方法
US9995823B2 (en) 2015-07-31 2018-06-12 Elwha Llc Systems and methods for utilizing compressed sensing in an entertainment system
CN109996203B (zh) * 2018-01-02 2022-07-19 中国移动通信有限公司研究院 配置传感器的方法、装置、电子设备及计算机可读存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144367A (en) * 1997-03-26 2000-11-07 International Business Machines Corporation Method and system for simultaneous operation of multiple handheld control devices in a data processing system
CN1146779C (zh) * 1998-04-28 2004-04-21 北京青谷科技有限公司 显示表面上触摸点位置参数传感装置
US6766036B1 (en) * 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US20030095115A1 (en) * 2001-11-22 2003-05-22 Taylor Brian Stylus input device utilizing a permanent magnet
US7864159B2 (en) * 2005-01-12 2011-01-04 Thinkoptics, Inc. Handheld vision based absolute pointing system
CN100347648C (zh) * 2005-02-02 2007-11-07 陈其良 方位式计算机输入装置
CN100451933C (zh) * 2006-01-10 2009-01-14 凌广有 一种电子教鞭
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
CN100432897C (zh) * 2006-07-28 2008-11-12 上海大学 手、眼关系引导的非接触式位置输入系统和方法
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
CN100585548C (zh) * 2008-01-21 2010-01-27 杜炎淦 一种显像屏光标遥控指示器
CN201203853Y (zh) * 2008-05-28 2009-03-04 上海悦微堂网络科技有限公司 一种体感遥控输入的游戏装置

Also Published As

Publication number Publication date
KR20120083929A (ko) 2012-07-26
CN102667677A (zh) 2012-09-12
EP2513757A1 (en) 2012-10-24
WO2011081747A1 (en) 2011-07-07
US20110141013A1 (en) 2011-06-16

Similar Documents

Publication Publication Date Title
JP2013513890A (ja) ユーザ制御のためのユーザ・インターフェースの装置および方法
JP6585205B2 (ja) 見通し外レーダ型ジェスチャ認識
JP7184798B2 (ja) 対象物の位置を決定するための位置決めシステム
US9569103B2 (en) Remote control apparatus and method for performing virtual touch by using information displayed by a projector
ES2425076T3 (es) Sistema de interfaz de usuario basado en dispositivo de puntero
JP5214968B2 (ja) オブジェクト発見方法及びシステム、装置制御方法及びシステム及びインターフェース、ポインティング装置
JP2017191792A (ja) 光制御方法及び該光制御方法を使用する照明装置
CN109107149B (zh) 经由控制台的环境光控制和校准
JP6442119B1 (ja) 照明デバイスを制御する方法
JP2017524216A (ja) 対話型ミラー
JP6242535B2 (ja) ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法
CN113728293A (zh) 用于基于位所的设备控制的系统和界面
EP2208112A2 (en) Apparatus and method for tracking a light pointer
US10685550B2 (en) Gesture-enabled audio device with visible feedback
CN105100854B (zh) 用于控制光标的方法、遥控器以及智能电视
US20160070410A1 (en) Display apparatus, electronic apparatus, hand-wearing apparatus and control system
US20210397296A1 (en) Information processing device, information processing method, and program
JP2009194447A (ja) リモートコントローラ位置検出装置、リモートコントローラ位置検出システム、リモートコントローラ位置検出方法及びプログラム
KR20090076124A (ko) 가전 기기 제어 방법 및 이를 이용한 장치
JP5620925B2 (ja) 認識可能な出力の空間分布を実現するための制御システムの設定を提供する装置、方法及びコンピュータプログラム
CN110032290A (zh) 用户界面
US11570017B2 (en) Batch information processing apparatus, batch information processing method, and program
KR102371633B1 (ko) 리모컨의 위치 탐색 방법
KR20240045042A (ko) 가상 현실 영상을 표시하는 영상 표시 장치 및 그 표시 방법
JP2020528646A (ja) 光源を介してデバイスの存在を伝えるためのシステム

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130426