JP2008524697A - 画像の解釈 - Google Patents

画像の解釈 Download PDF

Info

Publication number
JP2008524697A
JP2008524697A JP2007546663A JP2007546663A JP2008524697A JP 2008524697 A JP2008524697 A JP 2008524697A JP 2007546663 A JP2007546663 A JP 2007546663A JP 2007546663 A JP2007546663 A JP 2007546663A JP 2008524697 A JP2008524697 A JP 2008524697A
Authority
JP
Japan
Prior art keywords
display panel
detected
objects
fingertip
fingertips
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007546663A
Other languages
English (en)
Inventor
ワイアット エイ. ハドルストン
ミシェル エム. ブライズ
ジョナサン ジェイ. サンドバル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2008524697A publication Critical patent/JP2008524697A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本開示の一実施形態による方法は、表示面(SS)を叩いている物体に対応する画像を取り込むこと、及びその画像をコンピュータコマンドとして解釈することを含む。

Description

表示システムは、インタラクティブ機能を有するように構成することができる。インタラクティブ機能は、表示システムが表示システムのユーザからの入力コマンド及び/又は入力データを受け取れるようにすることができる。しかし、表示システムと併せていくつかの入力装置を使用することに関連するいくつかの欠点がある可能性がある。
図面を参照すると、図1は、本開示の少なくとも1つの実施形態による装置又はシステム100の概略図を示す。図1に示す概略図は、装置100の特定の構成に応じて側面断面図又は平面断面図であることができる。装置100は実質的に表示システム等の形態であることができる。すなわち、装置100は概して、装置の1人又は複数のユーザが閲覧可能な画像を表示するように構成することができる。
装置100は表示パネル110を含むことができる。表示パネル110は図示のように略平坦であることができるが、そうでなくてもよい。表示パネル110は実質的に板の形態であることができる。表示パネル110を略垂直すなわち直立の向きを有するものとして示すが、表示パネルは任意の適した向きを有してもよいことが理解される。たとえば、図示していないが、表示パネル110は略水平の向きを有してもよい。すなわち、装置100は、表示パネル110が略水平の「卓上」表示パネルであるような向きを有してもよい。
表示パネル110は略透明であることができる。表示パネル110は、ガラス、ポリカーボネート等の任意の数の適した材料から製造することができるが、これらに限定されない。表示パネル110は、異なる材料の組成物から製造することもできる。たとえば、表示パネル110は、各層を実質的に異なる材料から製造することができる複数の層(図示せず)で構成してもよい。
表示パネル110は、第1の側111及び対向する第2の側112を有することができる。第1の側111及び第2の側112は互いに略平行であることができるが、そうでなくてもよい。表示面「SS」を表示パネル110上に画定することができる。表示面SSは、表示パネル110の第1の側111に画定することができる。表示パネル110はシャシ80又は他の同様の支持構造で支持することができる。
表示パネル110は、表示面SS上すなわち第1の側111から見ることができる閲覧可能な画像を表示するように構成される。閲覧可能な画像は、任意の数の適した画像生成装置によって表示パネル110の表示面SS上に表示することができる。たとえば、装置100は、閲覧可能な画像を生成するように構成される撮像装置120を備えることができる。撮像装置120は、表示パネル110上に閲覧可能な画像を投影するようにさらに構成することができる。
より具体的には、撮像装置120は、閲覧可能な画像を表示パネル110の第2の側112に向けて投影させるように構成されるため、閲覧可能な画像を第1の側111から見ることができ、且つ/又は閲覧可能な画像を表示面SS上で見ることができる。撮像装置120は、任意の数の適した特定の形態及び/又は構成を有することができる。たとえば、撮像装置120は実質的に、デジタル光プロジェクタ(すなわち「DLP」)の形態であることができる。撮像装置120はシャシ80上に支持することができる。
例示的な実施形態では、撮像装置120は1つ又は複数の空間光変調器(図示せず)を備え、且つ/又は実質的に1つ又は複数の空間光変調器の形態であることができる。一般に、空間光変調器は、専用光源(図示せず)と併せて利用されてパネル110上にピクセル配列を形成して閲覧可能な画像を画定することができるピクセル素子配列(図示せず)を含む。
各ピクセル素子は、ピクセルの知覚強度を決める各画像ピクセルの強度及び/又は「オン時間」を調整するように制御することができる。空間光変調器の例としては、「マイクロミラー」、「デジタル光プロセッサ」、及び「液晶ディスプレイ」(すなわち「LCD」パネル)等の装置が含まれるがこれらに限定されない。撮像装置120は、所与の光周波数スペクトル特性を有する濾波光を生成するように構成される1つ又は複数のカラーフィルタ(図示せず)を含むことができる。
本開示の少なくとも1つの実施形態によれば、装置100は、装置のユーザが、ユーザの1本又は複数本の指先「FT」等の1つ若しくは複数の物体を表示パネル110に近接させるか、又は接触させることにより、コマンド(入力コマンド及び/又はコンピュータコマンド等)及び/又はデータを装置及び/又は装置の各種構成要素に伝達できるようにさらに構成することができる。
本開示の各種実施形態によれば、指先FT以外の各種の物体を使用してもよいことを認識されたい。たとえば、本開示の一実施形態では、指の別の部分等、たとえば1つ若しくは複数の指の関節又は1本若しくは複数本の親指等の或る種の部分を使用してもよい。他の実施形態では、1つ若しくは複数のポインタ又はさらにはペン若しくは鉛筆等の他の種類の部分を使用してもよい。
したがって、指先FTが、ここでは本開示の例示的な実施形態による説明のための例として図示され説明されることを認識されたい。すなわち、本明細書での用語「指先」の特定の例示的な使用及び指先FTの特定の例示的な説明は、本開示の各種実施形態による使用に、意図される物体の種類を限定する意図はない。したがって、用語「指先」(複数可)が本明細書において使用される箇所、及び指先FTが本明細書において特に示される箇所がどこであっても、指先以外の他の特定種類の物体の使用が本開示の各種実施形態により意図されることを理解されたい。
より具体的には、装置100は、装置のユーザがユーザの指先FT等の1つ又は複数の物体を、1つ又は複数の各種様式で表示パネル110の第1の側111に近接又は接触させて、コマンド(入力コマンド及び/又はコンピュータコマンド等)を装置100の1つ又は複数の構成要素に伝達できるように構成することができる。
たとえば、1本又は複数本の指先FTを、表示パネル110に近接又は接触している間に任意の数の様式で配置し、且つ/又は移動させることができ、1本又は複数本の指先の所与の位置及び/又は移動様式が、対応する関連のコンピュータコマンドを示す。コンピュータコマンド等及び/又はデータを伝達する1本又は複数本の指先FTの位置及び/又は移動様式について、以下においてさらに詳細に考察する。
装置100は、閲覧可能な画像が表示面SSすなわち第1の側111に表示されている間に、表示パネル110に近接又は接触している1本又は複数本の指先FTによって伝達されるコマンド及び/又はデータを認識するように構成することができる。表示パネル110に関連して1本又は複数本の指先FTの位置を説明する際に本明細書において使用する用語「近接した」又は「近接している」の意味は、別段に特記される場合を除き、表示パネルに「接触」している指先を含むことを意図することが理解される。
すなわち、本明細書において表示パネル110に近接する、又は近接していると述べられる指先FT(又は他の物体)は、表示パネルにかなり近く、且つ/又は表示パネルに接触してもよい。さらに、添付図面のうちの1つ又は複数並びに書面での説明において提供される特定の説明のための例では、指先FTが表示パネル110に接触した状態で示され、且つ/又は説明される場合もあるが、指先は表示パネルに接触せずに近接している状態であってもよいことが理解される。
装置100は光学受信器130を備えることができる。光学受信器はシャシ80上に支持することができる。光学受信器130は、表示パネル110の第1の側111に近接している状態の1本又は複数本の指先FTを光学的に検出するように構成することができる。すなわち、たとえば、光学受信器130は、1本又は複数本の指先を照明する、又はそれに反射する光を受けることにより、表示パネル110の第1の側111に近接している少なくとも1本の指先FTの存在を検出するように構成することができる。
本開示の少なくとも1つの実施形態によれば、光学受信器130は実質的に、表示パネル110の第2の側112に向けられている間に「写真をとる」ように構成されるカメラ等の形態であることができる。したがって、表示パネル110は、少なくとも所与のスペクトル周波数範囲の光を実質的に透過させることができるため、光学受信器130は、カメラが画像を取り込むように、1本又は複数本の指先の画像又はその指先に対応する画像を取り込むことにより、表示パネルに近接している1本又は複数本の指先FTを検出することができる。
より具体的な例として、光学受信器130は、実質的に、図示のように、表示パネル110の第2の側112に照準が定められるか、又は向けられているときに光学受信器130が何を「見ている」かを示す「リアルタイム」デジタル信号及び/又はデジタルデータを生成するデジタルカメラの形態であることができる。光学受信器130は、実質的にカメラのように構成される場合、一連の静止「スナップショット」を撮影するように構成してもよく、又は実質的に連続した「ビデオストリーム」を撮影するように構成してもよい。
簡潔に上述したように、光学受信器130による指先の検出を容易にするために、表示パネル110に近接している1本又は複数本の指先FTを照明することができる。指先FTの照明は、任意の数の適した可能な光源から発することができる光によって実現することができる。たとえば、撮像装置120によって生成される光を使用して、表示パネル110に近接している指先FTを照明することができる。
すなわち、撮像装置120によって生成される閲覧可能な画像の部分を構成する光を利用して、表示パネル110に近接している指先FTを照明することができる。しかし、撮像装置120は、指先FTの照明に使用することを意図される追加光を生成するように構成することができ、追加光は閲覧可能な画像の一部ではない。換言すれば、このような追加光は、撮像装置120によって生成される閲覧可能な画像にとって外部の光であり得る。さらに、日光等の周囲光又は装置100の外部の光源からの光が、装置によって認識される指先FT及び/又は他の物体の少なくとも部分的な照明を提供することができる。
表示パネル110に近接している指先FTを照明するための光は、撮像装置120とは別個のエネルギー源132によって生成することができる。エネルギー源132はシャシ80上に支持することができる。エネルギー源132は、光学受信器130による1本又は複数本の指先FTの検出を容易にするように、光エネルギーを表示パネル110の第2の側112に向けることのできる任意の適した位置にあることができる。エネルギー源132によって生成されて、指先FTの照明に利用される光は、少なくとも部分的に可視光スペクトル外の光であることができる。
装置100は、制御電子回路すなわちコントローラ150をさらに備えることができる。コントローラ150は、装置100の動作に関わる各種の制御機能及び/又はデータ処理機能を実行するように構成することができる。コントローラ150は、1組のコンピュータ実行可能ステップ又は命令151を含むことができ、且つ/又はこれと通信可能にリンクすることができる。コンピュータ実行可能ステップ151は、実質的にコンピュータ可読媒体の形態であってよく、又はコンピュータ可読媒体に収容されてもよい。
コントローラ150は本明細書において概して説明する装置100の残りの部分と別個であってもよいことが理解される。すなわち、装置100は概して、コントローラ150なしのユニットとして構成することができ、この場合、コントローラはパーソナルコンピュータ等の別個の装置又はユニットに組み込まれ、そのコントローラが装置100と通信可能にリンクすることで、本明細書において述べる制御機能を提供することができる。
コンピュータ実行可能ステップ151は、コントローラ150が、本明細書において特に述べる機能を含む各種機能を実行できるように構成することができるが、これらに限定されない。コンピュータ実行可能命令151は、コントローラ150に画像を表示パネル110上に表示させる等の各種機能を実行するように構成することができる。さらに、コントローラ150及び/又はコンピュータ実行可能ステップ151は、光学受信器130に関連して、表示パネル130に近接している指先FT等の物体の各種の識別性のある特徴又は特性を認識するように機能するように構成することができる。
指先FTのこのような識別性のある特徴又は特性は、表示パネル110に近接している指先の本数、移動中の指先の数、及び/又は表示パネルに対して実質的に静止している指先の数、並びに互いに対する、及び/又は表示パネルに対する指先の相対位置及び/又はパターンを含むことができるがこれらに限定されない。
装置100は、表示パネル110に近接している指先FTの「画像」又は指先に対応する画像を取り込むことにより、指先FTのそのような識別性のある特徴又は特性を認識する作業を実現することができる。指先FTの又は対応する「画像」を検出又は取り込む作業は概して、上述したような方法で光学受信器130によって実行することができる。
次いで、光学受信器130は、表示パネル110に近接している指先FTを示す入力信号をコントローラ150に送信することができる。より具体的には、たとえば、光学受信器130からコントローラ150に送信される入力信号は実質的に、表示パネル110の画像を含む、及び/若しくは示す、又は表示パネル110の画像に対応することができ、この画像には、表示パネルに近接している指先FTが示されている。
コントローラ150は、コンピュータ実行可能ステップ151と併せて、光学受信器130から受信される入力信号を処理することができる。入力信号の処理は、入力信号の解析を含むことができる。入力信号のこのような解析は、コントローラ150及び/又はコンピュータ実行可能ステップ151によって実行することができる。コントローラ150及び/又はコンピュータ実行可能ステップ151は、1つ又は複数の各種の「物体認識」技術に関連した入力信号の解析を実行することができる。
たとえば、コントローラ150及び/又はコンピュータ実行可能ステップ151は、上述したような方法で光学受信器130によって取り込まれる表示パネル110のデジタル画像を解析するように構成することができる。コントローラ150及び/又はコンピュータ実行可能ステップ151は、画像に示される物体の特定の形状、及び/又は物体の特定のサイズ、及び/又は物体の特定の反射率、及び/又は物体の特定の色を含む、解析された画像の特定の特徴又は特性を認識するようにさらに構成することができるがこれらに限定されない。
このようにして、コントローラ150は、光学受信器130及び/又はコンピュータ実行可能ステップ151と併せて、表示パネルに近接している1本又は複数本の指先の形状、サイズ、及び/又は反射率等を認識することにより、表示パネル110の第1の側に近接している1本又は複数本の指先FTの存在を認識するように構成することができる。コントローラ150及び/又はコンピュータ実行可能ステップ151は、光学受信器130によって取り込まれた画像(複数可)の追加の解析を実行するようにさらに構成することができる。
このような追加の解析には、表示パネル110に近接している指先FTがいくつあるか及び/又は表示パネルに触れている指先がいくつあるかをより精密に測定することを含むことができる。これは、表示パネル110に近接している、及び/又は触れている指先として認識される指先FTの数をカウントしてトラッキングするようにコントローラ150を構成することによって実現することができる。同様に、コントローラ150は、どの指先FTが表示パネル110に対して移動しているか、及び/又はどの指先が表示パネルに対して実質的に静止しているかを認識するように構成することができる。
さらに、コントローラ150は、互いに対する指先FTの各種パターン及び/又は位置を認識するように構成することができる。たとえば、コントローラ150は、表示パネル110に近接している3本の指先FTが略直線に配置されていることを認識するように構成することができる。又は、コントローラ150は、表示パネル110に近接している3本の指先FTがたとえば略三角形に配置されていることを認識するように構成することができる。
さらなる例として、コントローラ150は、表示パネルに対する指先FTの各位置を認識するように構成することができる。すなわち、指先FTは、表示パネル110の所与のエリア内にあるものとして認識することができ、所与のエリアは、いくつかの可能なパラメータの観点で画定することができる。たとえば、表示パネル110の所与のエリアは、表示パネルの「上部」、表示パネルの「下部」、表示パネルの「右部」、又は表示パネルの「左部」等の表示パネルそれ自体に関連して画定することができる。
表示パネル110の所与のエリアはまた、表示パネルに表示される画像に関連して画定することもできる。たとえば、表示パネルの所与のエリアは、表示パネルに表示される所与の画像又は所与の画像の部分内にあるものとして画定することができる。このような所与の画像の例として、制御パネル画像等が挙げられるがこれに限定されない。
指先FTの他の特徴又は特性をコントローラ150によって認識することができる。たとえば、表示パネル110に対する所与の指先FTの移動方向が認識可能であり得る。すなわち、所与の指先FTは、たとえば、表示パネル110の左側及び/又は表示パネルの上側に向かって移動しているものと認識することができる。さらに、所与の指先FTの移動経路を認識することもできる。たとえば、所与の指先FTを、所与の形状を有する経路に沿って移動しているものとして認識することができる。
本開示の少なくとも1つの例示的な実施形態によれば、画像シーケンスを光学受信器130によって取り込むことができ、イメージングシーケンスが表示パネル110に対する1本又は複数本の指先FTの移動を取り込む。次いで、イメージングシーケンスを、コントローラ150及び/又はコンピュータ実行可能ステップ151がアクセス可能であるように記憶することができる。たとえば、このようなイメージングシーケンスは、コントローラ150及び/又はコンピュータ実行可能ステップ151がアクセス可能な、メモリ装置等(図示せず)に記憶することができる。
コントローラ150及び/又はコンピュータ実行可能ステップ151は、イメージングシーケンスにアクセスすると共に解析し、そのシーケンスの或る画像と、そのシーケンスの次の画像との間の差異を求めることができる。コントローラ150及び/又はコンピュータ実行可能ステップ151は、画像シーケンスの個々の画像間の差異に基づいて所与の移動を指先FTに割り当てるように構成することができる。すなわち、コントローラ150は、2つ以上の所与の画像間の所与の差異を指先FTの所与の移動として解釈することができる。さらに、コントローラ150及び/又はコンピュータ実行可能ステップ151は、1つ又は複数の方法により統計解析を実行して、イメージングシーケンス中の或る画像とその次の画像との間で最も可能性の高いマッチングを予測するように構成することができる。
画像シーケンス中の2つ以上の画像間の差異を、1つ又は複数の目的のために利用することができる。たとえば、画像取り込み速度に対する画像差を、表示パネル110に対する1本又は複数本の指先FTの速度として解釈することができる。このようにして求められた指先FTの速度を利用して、次の画像での所与の指先の位置を予測することができる。
用語「処理」は、表示パネル110に近接している1本又は複数の指先FTの各種特徴又は特性を、関連するコマンド及び/又は入力データとして「解釈」することを含むことができる。すなわち、コントローラ150及び/又はコンピュータ実行可能命令151は、表示パネル110に近接している1本又は複数本の指先FTの認識された所与の識別性のある特徴又は特性を、関連するコンピュータコマンド又は関連するコンピュータコマンドの少なくとも部分として、及び/又は対応する入力データとして解釈するように構成することができる。
表示パネルに近接している指先FTの所与の特徴又は特性をコンピュータコマンド又はその部分等として解釈することは、指先の認識された所与の特徴又は特性を所定の各コンピュータコマンド及び/又は入力データにマッチさせるように、コントローラ150及び/又はコンピュータ実行可能命令151を構成することによって実現することができる。
すなわち、コントローラ150は、まず、表示パネル110に近接している1本又は複数本の指先FTの所与の特徴又は特性を認識し、次いでその認識された特徴又は特性を関連する所定のコンピュータコマンドにマッチするように構成することができる。これは、たとえば、光学受信器130にまず、表示パネル110に近接している、指先FT等の1つ又は複数の物体に対応する画像を取り込ませることによって実現することができる。このようなコンピュータコマンドの解釈の具体例について以下においてさらに考察する。
したがって、本開示の少なくとも1つの実施形態によれば、装置又はシステム100等は、表示パネル110に近接している、指先FT等の物体に対応する画像を取り込み、その画像をコンピュータコマンドとして解釈するように構成することができる。取り込まれた画像は、表示パネル110に近接している物体の1つ又は複数の特徴及び/又は特性を示すことができる。
コントローラ150は、1本又は複数本の指先FTの所与の特徴又は特性を特定の種類のコンピュータコマンドとして解釈することに応答して、特定のイベントを開始するように構成することができる。たとえば、コントローラ150及び/又はコンピュータ実行可能命令151は、表示パネル110に近接している1本又は複数本のFTの各種特徴又は特性から解釈されるコンピュータコマンドに応答して、画像更新を生成することができる。
画像更新を撮像装置120に送り、その結果撮像装置120によって生成され、且つ/又は投影される閲覧可能な画像に対して対応する改変又は変更が行われる。すなわち、コントローラ150及び/又はコンピュータ実行可能命令151は、コンピュータ150及び/又はコンピュータ実行可能ステップ151によって解釈されたコンピュータコマンドに応答して、撮像装置120に、撮像装置によって生成された閲覧可能な画像を改変及び/又は変更させるように構成することができ、コンピュータコマンドは、表示パネル110に近接している1本又は複数本の指先FTの特徴又は特性を示す。
引き続き図面を参照すると、図2は、本開示の少なくとも1つの実施形態によるフローチャート200を示す。フローチャート200はS201において開始され、表示パネルに接触している1本又は複数本の指先を示すコンピュータコマンド又は信号に応答して、閲覧可能な画像を更新し、且つ/又は改変する基本ステップについて説明している。用語「更新」は、画像と併せての処理を説明する際に使用される場合、画像が知覚的に変更されることを示す場合もあれば示さない場合もあることを認識されたい。すなわち、本開示の1つ又は複数の実施形態による「画像を更新する」プロセスは、画像の更新の原因である各コンピュータコマンドに応じて、画像を変更すること及び画像を変更しないことのいずれかを含むことができる。
フローチャート200は次にステップS203に進み、ステップS203によれば、光学受信器を利用して、表示パネルに近接している少なくとも1本の指先に対してスキャン又は「探索」する。すなわち、ステップS203によれば、光学受信器は、表示パネルに近接している実質的に指先の形態のコンピュータコマンド又は信号を探索するように構成され、閲覧可能な画像を表示パネルに表示することもできる。
ステップS203から、フローチャート200は質問であるステップS205に移る。ステップS205の質問は、表示パネルに近接している少なくとも1本の指が検出されたか否かを問う。ステップS205の質問に対する答えが「いいえ」である場合、フローチャート200はステップS203に戻り、ステップS203に従って、光学受信器は、表示パネルに近接している実質的に指先の形態のコンピュータ信号を引き続き「探索」する。
しかし、ステップS205の質問に対する答えが「はい」である場合、フローチャート200はステップS207に進む。ステップS207において、表示パネルに近接している1つ又は複数の指先が、複数の特定のコンピュータコマンドのうちの1つとして解釈され、特定のコンピュータコマンドは表示パネルに近接している1本又は複数本の指先を示す。すなわち、特定のコンピュータコマンドは、表示パネルに近接している1本又は複数本の指先の少なくとも1つの特徴又は特性に依存する。
上述したように、表示パネル110に近接している1本又は複数本の指先FTの「特徴」又は「特性」は、表示パネルに対する、及び/又は互いに対する指先の認識可能な位置及び又は移動様式等の任意の数の識別性のある軌跡であることができる。すなわち、特定のコンピュータコマンドを、表示パネル110に近接している1本又は複数本の指先FTが互いに対して、及び/若しくは表示パネルに対して配置され、且つ/又は移動する様式に応じて解釈することができる。
表示パネル110に近接している1本又は複数本の指先FTの識別性のある軌跡、特徴、又は特性の例としては、表示パネルに近接している指先の数がいくつあるか、表示パネルに対して動いている指先の数がいくつであるか、表示パネルに対して実質的に静止している指先の数はいくつであるか、表示パネルに対する1本又は複数本の指先の各位置、1本又は複数本の指先の互いに対する各位置、少なくとも1本の指先の移動経路、表示パネルに対する少なくとも1本の指先の移動方向、及び指先が軽く叩かれた回数を含め、1本又は複数本の指先が表示パネルを軽く叩いているか否かが挙げられるが、これらに限定されない。
特定のコンピュータコマンドがステップS207によって判断されると、フローチャート200はステップS209に進む。ステップS209に従って、閲覧可能な画像を、特定のコンピュータコマンドに応答して、又はそれに応じて更新することができる。すなわち、閲覧可能な画像S209を、表示パネルに接触している1本又は複数本の指先を順々に示すコンピュータコマンドに応じて改変し、且つ/又は変更することができる。ここでも、上記で説明したように、用語「更新」としては、更新プロセスの原因である特定の各コンピュータコマンドに応じて、画像を物理的に変更すること、同じ画像を引き続き表示すること、又は略同一の画像を再び表示することが挙げられるがこれらに限定されない。
ステップS209から、フローチャート200は別の質問であるステップS211に進む。ステップS211の質問では、表示パネルに近接している少なくとも1本の指先がまだあるか否かを問う。ステップS211の質問に対する答えが「はい」の場合、フローチャート200はステップS207に戻り、さらなるコンピュータコマンドが、まだ表示パネルに近接している1本又は複数本の指先に基づいて解釈される。しかし、ステップS211の質問に対する答えが「いいえ」の場合、フローチャート200はS213において終了する。
まださらに図面を参照すると、図3〜図7はそれぞれ、表示パネルを第2の側112から見た、図1に示し上述した装置100の表示パネル110を示す。図3〜図7はそれぞれ、光学受信器130(図1に示し上述した)が「見る」、すなわち取り込むことができるものの例であり得る。すなわち、図3〜図7はそれぞれ、コントローラ150(図1に示す)により関連のコンピュータコマンドの少なくとも一部として認識することができる識別性のある特徴すなわち特性の各例を示す。
図3〜図7によって示す例は単に、コンピュータコマンドの少なくとも一部として認識することができる指先FTの特徴又は特性の、説明のための数例にすぎないことが理解される。すなわち、図3〜図7に示す例は限定を意図するものではなく、本開示の1つ又は複数の実施形態によるコンピュータコマンドの少なくとも一部として認識できる指先FTの特徴又は特性の多くの例の例示として提供される。
図3を特に参照して、本開示の少なくとも1つの実施形態による装置100の表示パネル110の正面図を示す。図3に示す図は、表示パネルに近接している指先FTを求めてスキャン又は「探索」する際に、光学受信器130によって「見られる」、すなわち取り込まれることができるものの例であることができる。なお、ここでも、以下の説明のための例では指先FTが表示パネル110に「接触」しているものとして説明するが、本開示の各種実施形態による方法及び/又は装置は、表示パネルに近接している指先も同様に認識するように構成可能なことを理解されたい。
図3に示すように、1本の指先FTを、表示パネル110に接触している際に検出することができる。表示パネル110に接触している1本の指先FTを特定のコンピュータコマンドとして解釈することができる。たとえば、表示パネル110に接触している1本の指先FTを、コンピュータマウス(図示せず)等の制御装置に関連する機能が1本の指先FTに割り当てられるように、認識することができる。
本明細書において使用する用語「機能」は、装置100の動作に少なくとも部分的に作用することができるものとして定義される。たとえば、本開示の一実施形態によれば、所与の指先FTに、所与の制御装置に関連する機能が割り当てられた場合、その所与の指先は、その所与の制御装置に概して関連する様式で装置100の動作に少なくとも部分的に作用することができる。より具体的には、たとえば、所与の指先FTにコンピュータマウスに関連する機能が割り当てられた場合、その所与の指先を利用して装置100に対して動作を実行することができ、こういった動作は通常、コンピュータマウスに関連するものである。
本開示の別の実施形態によれば、1本又は複数本の指先FT及び/又は他の物体(図示せず)に機能を割り当てることができ、装置100は、指先及び/又は物体の各種位置、及び/又は形状、及び/又は移動を、制御コマンド及び/又はコンピュータコマンド等のコマンドの少なくとも部分として解釈することができる。たとえば、各種指先FTを、所与の形態の手話等のように、装置100により認識されるように移動させ、且つ/又は配置することができる。
本開示の例示的な実施形態によれば、表示パネル110に対する1本の指先FTの移動が、指先の認識可能な特徴又は特性であることができる。指先FTが移動する(又は移動しない)様式が、指先の認識可能なさらなる特徴又は特性であることができる。たとえば、表示パネル110に対して実質的に静止している又は動きのない、表示パネル110に接触している1本の指先FTを、第1の特定のコンピュータコマンド又はコンピュータコマンドの第1の部分として認識することができる。表示パネル110に対する1本の指先FTの移動を、第2の特定のコンピュータコマンド又はコンピュータコマンドの第2の部分として認識することができる。すなわち、実質的に静止して表示パネル110に接触している1本の指先FTが或る意味を有し、表示パネルを横切って移動している1本の指先が別の意味を有することができる。
表示パネル110に接触している1本の指先FTの移動方向を、またさらなる、又は別の意味を有するものとして認識することができる。たとえば、FT’で示す位置まで略直線で移動する指先FTを、関連する所与の意味を有するものとして認識することができる。より具体的には、表示パネル110の縁に対して斜めに移動する指先FTを、関連する特定の意味を有するものとして認識する一方で、表示パネルの縁に略平行に移動する指先を、関連する特定のさらに別の意味を有するものとして認識することができる。
さらなる例として、表示パネル110上の初期接触点から第2の位置FT’に移動する1本の指先FTは、マウス移動コンピュータコマンドとして認識することができる。すなわち、指先FTのそのような特徴、特性、又は移動を、カーソル(図示せず)を表示パネル110上の第1の位置から表示パネル上の第2の位置に移動させるコマンドとして解釈することができ、カーソルは、撮像装置120(図1に示される)により生成されると共に表示パネルに表示される画像の少なくとも部分として表示することができる。
別の具体例として、1本の指先FTを、表示パネル110を軽く叩くことによって表示パネル110に対して移動させることができる。表示パネル110を軽く叩く指先FTは、たとえばマウスクリックとして認識することができる。すなわち、1本の指先FTを表示パネル110上で軽く叩くことは、マウスボタンのクリック又は押下に対応するコンピュータコマンドとして認識することができる。より具体的には、表示パネル110を軽く叩く1本の指先FTをマウスの左ボタンクリックコマンドとして認識することができる。さらに、指先FTが表示パネルを軽く叩く回数が、関連する特定の意味を有することができる。
図4に移り、本開示の少なくとも1つの実施形態による装置100の表示パネル110の別の正面図を示す。図4には、表示パネル110に接触している1本の指先FTの移動のさらに別の例を示す。具体的には、表示パネル110に接触している少なくとも1本の指先FTを、関連する特定のコンピュータコマンド等として認識することができる特定の形状を有する経路に沿って移動させることができる。
たとえば、図示のように、表示パネル110に接触している1本の指先FTを、略円形の移動経路に沿って移動させることができる。指先FTは、移動経路の形状に対して所与の方向に移動するものとして認識することもできる。たとえば、図示のように、指先FTを、概して円形で移動するもの、及び反時計回りの方向に移動するものとして認識することができる。したがって、指先FTの移動経路の形状及び経路に沿った移動方向をそれぞれ、関連する各意味を有するものとして解釈することができる。
表示パネル110に接触している指先FTの多くの移動経路が、本開示の少なくとも1つの実施形態により可能である。たとえば、認識可能な移動経路の他の例として、「Z」パターン、「S」パターン、「X」パターン、数字の「8」パターン、正方形パターン、三角形パターン等が挙げられるが、これらに限定されない。
これより図5に移り、本開示の少なくとも1つの実施形態による装置100の表示パネル110のさらに別の正面図を示す。図5に示すように、2本以上の指先FTを、表示パネル110に接触しているものとして認識することができる。さらに、表示パネル110に接触している1本又は複数本の指先FTを表示パネルに対して移動するものとして認識し、他の指先を表示パネルに対して実質的に静止しているものとして認識することができる。
より具体的には、図5に示すように、第1の指先FT1を、表示パネル110に実質的に静止して接触しているものとして認識し、同時に、第2の指先FT2を、表示パネルに対して初期位置からFT2’で示す第2の位置に移動しているものとして認識することができる。第2の指先FT2が表示パネル110を移動している間、表示パネルに対して実質的に静止した第1の指先FT1を、関連する特定のコンピュータコマンド又はコンピュータコマンドの部分等として解釈することができる。
第2の指先FT2を、図5に示すような略直線での移動を含む可能な任意の様式で移動させることができるが、これに限定されない。第2の指先FT2を移動させることができる別の様式は、第1の指先FT1が表示パネル110に対して実質的に静止している間に第2の指先が表示パネルを軽く叩くことである。
第2の指先FT2のこのような軽く叩く動きを、関連する特定の意味を有するものとして解釈することができる。たとえば、第2の指先FT2が表示パネルを軽く叩く間に表示パネル110に対して実質的に静止している第1の指先FT1をが、マウスの右ボタンクリックコマンドとして解釈することができる。
図6に移り、本開示の少なくとも1つの実施形態による装置100の表示パネル110のさらに別の正面図を示す。図6に示すように、表示パネル110に接触している第1の指先FT1及び表示パネルに接触している第2の指先FT2が両方とも、表示パネルに対して実質的に静止することができ、その間、表示パネルに接触している第3の指先FT3が表示パネルに対して移動している。
すなわち、2本以上の指先FT1、FT2が表示パネル110に対して実質的に静止することができ、その間同時に、少なくとも1本の指先FT3が表示パネルに対して移動している。具体例として、図6に示す指先FT1、FT2、及びFT3の特徴すなわち特性を「画面スクロール」コマンド又は「ページスクロール」コマンドとして解釈することができる。
これより図7を参照して、本開示の少なくとも1つの実施形態による装置100の表示パネル110のさらに別の正面図を示す。図7に示すように、表示パネル110に接触している第1の指先FT1は実質的に静止することができ、その間、表示パネルに接触している第2の指先FT2及び表示パネルに接触している第3の指先FT3は両方とも、各初期位置から各第2の位置FT2’及びFT3’に表示パネルに対して移動することができる。
すなわち、図7に示すように、1本又は複数本の指先FT1は表示パネル110に対して実質的に静止することができ、その間同時に、2本以上の指先FT2、FT3は表示パネルに対して移動する。第2の指先FT2及び第3の指先FT3の移動は、任意の数の可能な形態をとることができる。たとえば、第2の指先FT2及び第3の指先FT3は、第1の指先FT1に対して実質的に周辺を移動することができる。
換言すれば、第2の指先FT2及び第3の指先FT3は、第1の指先FT1の周囲を移動することができ、第1の指先FT1を実質的に回転軸として使用することができる。1本又は複数本の指先FT1、FT2、FT3のこのような動きは、複数の可能なコンピュータコマンド等の1つとして認識することができる。たとえば、図7に関連して上述した指先FT1、FT2、FT3のこのような移動は、「オブジェクト回転」コマンドとして解釈することができる。
表示パネル110に近接している1本又は複数本の指先FTの各種特徴すなわち特性を解釈するさらに別の例として、表示パネル110に近接している所与の数の指先を、閲覧可能な画像のエリアに色を付加する、関連する色の「ペイントブラシ」を起動させるコマンドとして解釈することができる。より具体的には、表示パネル110に近接している1本の指先FTの検出を、第1の色のペイントブラシを起動させるコンピュータコマンドとして解釈することができる。
同様に、表示パネル110に近接している2本の指先FTの検出を、第2の色のペイントブラシを起動させるコンピュータコマンドとして解釈することができる。同様に、表示パネル110に近接している3本の指先FTの認識を、第3の色のペイントブラシを起動させるコンピュータコマンドとして解釈することができ、表示パネルに近接している4本の指先又は5本の指先の検知に関しても同様である。
本開示の少なくとも1つの実施形態によれば、コンピュータ実行可能命令151は、光学受信器130から情報を受け取るように構成することができる。この情報は、表示面SSへの近接が検出される指先FT等の少なくとも1つの物体を示すことができる。
コンピュータ実行可能命令151は、その情報を使用して、物体FTの少なくとも1つの特性及び/又は特徴を認識し、その特性及び/又は特徴を関連するコンピュータコマンドとして解釈するようにさらに構成することができる。コンピュータコマンドが基づく特定の特性及び/又は特徴として、表示面SSに近接していることが検出される物体FTがどれだけあるか並びに検出された物体のうちどれが移動中でどれが実質的に静止しているかが挙げられるが、これらに限定されない。
コンピュータコマンドが基づくことができる他の特性及び/又は特徴として、物体FTが表示面SSを軽く叩くことが挙げられる。表示面SSを軽く叩いている物体FTを、コンピュータマウスの「クリック」として解釈することができる。特性及び/又は特徴の別の例は、実質的に静止した第1の物体FT及び表示面SSを軽く叩く第2の物体である。これはマウスの右「クリック」として解釈することができる。
コンピュータコマンドが基づくことができるさらに別の特性及び/又は特徴は、実質的に静止した第1の物体FT及び表示面を実質的に横切って移動する第2の物体である。コンピュータ実行可能命令151は、これを「ページスクロール」コマンドとして解釈することができる。コンピュータコマンドが基づくことができるさらに別の特性及び/又は特徴は、実質的に静止した第1の物体FT、実質的に静止した第2の物体、及び表示面SSを実質的に横切って移動する第3の物体である。これも「ページスクロール」コマンドとして解釈することができる。
コンピュータコマンドは、実質的に静止した第1の物体FT、表示面SSを実質的に横切って移動する第2の物体、及び表示面を実質的に横切って移動する第3の物体に基づくことができる。コンピュータ実行可能命令151は、これを「オブジェクト回転」コマンドとして解釈することができる。本発明のさらに別の実施形態によれば、コンピュータコマンドは、所定のペイントブラシ色を起動させるコマンドであることができ、その色には、表示面SSに近接していることが検出される物体FTがいくつあるかということに関連付けられる。
さらに別の例として、コンピュータコマンドは、表示面SSに対する各物体FTの各位置に基づくことができる。コンピュータコマンドは、別の物体に対する少なくとも1つの物体FTの移動方向に基づくことができる。コンピュータコマンドは、1つの物体FTと別の物体との間の所与の距離に基づくことができる。さらに、コンピュータコマンドは、別の物体及び/又は表示面SSに対する1つの物体FTの速度に基づくことができる。
コンピュータ実行可能命令151は、コンピュータコマンドに応答して動作を実行させるようにさらに構成することができる。動作は、装置100が実行可能な任意の動作であることができる。たとえば、動作は表示面SSに表示されている画像の更新であることができるが、これに限定されない。本開示の別の実施形態によれば、装置100等の表示システムは、すぐ上で述べたように実行するように実質的に構成されるコンピュータ実行可能命令151を含むことができる。
本開示の少なくとも1つの実施形態によれば、方法は、表示パネルに近接している少なくとも1つの物体を検出すること、及び少なくとも1つの物体の少なくとも1つの特徴又は特性を認識することを含む。画像は、認識された特徴又は特性を使用して更新することができる。たとえば、方法は、表示パネルに近接している1つ又は複数の物体の少なくとも1つの特徴又は特性を特定のコンピュータコマンドとして解釈することを含むことができる。方法は、図1及び図3〜図7に関連して上述した表示パネル110等の表示パネルを提供することを含むことができる。表示面を表示パネル上に画定することができる。画像を表示面に表示することができる。画像は、表示パネルの片側に、反対側から閲覧可能なように投影することによって表示することができる。
方法は、表示パネルに対して少なくとも1本の指先が近接及び/又は接触していることを光学的に検出することを含むことができる。表示パネルに対して少なくとも1本の指先が近接していることを光学的に検出したことに応答して、信号を生成することができる。信号は、表示パネルに近接している指先(複数可)を示すことができる。すなわち、信号は、指先(複数可)の少なくとも1つの特徴又は特性を示すことができる。
コントローラ150等のデジタル処理装置を、方法により含むことができる。この方法は、デジタル処理装置内で信号を処理することを含むことができる。信号を処理することは、信号をコンピュータコマンドとして解釈することを含むことができる。
信号を処理することは、指先等の1つ又は複数の物体の画像を取り込むことを含むことができると共に、表示パネルに近接している1本又は複数本の指先の所与の特徴又は特性を認識すること、及び所与の特徴又は特性を、その所与の特徴又は特性に関連する特定のコンピュータコマンドとして解釈することをさらに含むことができる。表示された画像は、信号に応答して、すなわち表示パネルに近接している1本又は複数本の指先又は1つ又は複数の物体の少なくとも1つの特徴又は特性に応じて、更新又は調整することができる。本開示の少なくとも1つの実施形態によれば、表示パネルに画像を表示することは、表示面にカーソルを表示することを含むことができる。画像を更新することは、カーソルを表示面に対して移動させることを含むことができる。
光学受信器を設け、表示パネルに向けることができる。光学受信器を利用して表示パネルを光学的にスキャンし、表示パネルに近接している1本又は複数本の指先を検出することができる。表示パネルに近接している1本又は複数本の指先は、表示パネルに近接している1本又は複数本の指先から反射された光を光学受信器で受けることによって検出することができる。光学受信器は、表示パネルに近接している1本又は複数本の指先を示す信号を生成することができる。
コントローラ又は制御電子回路を設けることができ、かつ、光受信器からの信号を受け取らせることができる。コントローラは、信号を任意の数の各種様式で処理することができる。たとえば、コントローラは、信号を解析することによってその信号を処理することができる。信号を解析した結果として、コントローラは、表示パネルに近接している1本又は複数本の指先の少なくとも1つの特徴又は特性を認識することができる。
信号を処理し、且つ/又は解析することは、表示面及び/又は表示パネルに近接している1本又は複数本の指先の少なくとも1つの特徴又は特性を認識することを含むことができる。処理し、且つ/又は解析することは、少なくとも1つの認識された特徴又は特性を関連するコンピュータコマンドとして解釈することを含むこともできる。
このような認識可能な特徴又は特性として、表示パネル及び/又は表示面に近接及び/又は接触している指先がいくつあるか、表示面及び/又は表示パネルに対して移動している及び/又は実質的に静止している指先がいくつあるか、表示パネル及び/又は表示面に対する1本又は複数本の指先の各位置、1本又は複数本の指先の互いに対する各位置、指先のうちの1本又は複数本の移動経路の形状及び/又はその移動経路に沿った移動方向、並びに1本又は複数本の指先が表示面及び/又は表示パネルを軽く叩いているか否か並びに叩く回数を含むことができるがこれらに限定されない。
本開示の少なくとも1つの実施形態によれば、方法は、表示面上に画像を表示することを含むことができる。方法は、表示面を軽く叩いている物体を認識すること、及び表示面を軽く叩いている物体を関連するコンピュータコマンドとして解釈することを含むことができる。上記で説明したように、物体はたとえば指先FTであることができるが、これに限定されない。コンピュータコマンドはマウスの「クリック」であることができるが、これに限定されない。
本開示の少なくとも1つの実施形態によれば、方法は、表示面に近接していることが検出された複数の物体の1つ又は複数の特性及び/又は特徴を認識することを含むことができる。方法は、1つ又は複数の特性及び/又は特徴を関連するコンピュータコマンドとして解釈することを含むことができる。コンピュータコマンドは、検出された物体がいくつであるか、及び検出された物体のどれが移動中でありどれが実質的に静止しているかに基づくことができる。
方法は、表示面に画像を表示することを含むことができる。方法は、1つ又は複数の特性及び/又は特徴をコンピュータコマンドとして解釈したことに応答して、動作を実行することを含むことができる。方法は、実質的に静止した第1の物体及び表示面を軽く叩いている第2の物体を所定のコンピュータコマンドとして解釈することを含むことができる。所定のコンピュータコマンドは、コンピュータマウスの右「クリック」であり得る。
方法は、実質的に静止した第1の物体及び表示面を実質的に横切って移動している第2の物体を所定のコンピュータコマンドとして解釈することを含むことができる。このコマンドは、たとえば、「ページスクロール」コマンドである。方法は、実質的に静止した第1の物体、実質的に静止した第2の物体、及び表示面を実質的に横切って移動している第3の物体を所定のコンピュータコマンドとして解釈することを含むことができる。このコマンドは、たとえば、ページスクロールコマンドであり得る。
方法は、実質的に静止した第1の物体、表示面を実質的に横切って移動している第2の物体、及び表示面を実質的に横切って移動している第3の物体を所定のコンピュータコマンドとして解釈することを含むことができる。このコンピュータコマンドは、たとえば、「オブジェクト回転」コマンドであり得る。
本開示の少なくとも1つの実施形態によれば、方法は、表示面に近接している複数の物体を検出すること、及び1つ又は複数の物体に制御装置に関連する機能を割り当てることを含むことができる。制御装置は、コンピュータマウス、ジョイスティック、及びキーボードであることができるが、これらに限定されない。機能は、検出された物体がいくつあるか、及び検出された物体のどれが移動中であり、どれが実質的に静止しているかに基づくことができる。方法は、表示面に画像を表示することを含むことができ、機能は画像の更新を含むことができる。
本開示の少なくとも1つの実施形態によれば、方法は、表示面を軽く叩いている物体に対応する画像を取り込むことを含むことができる。方法は、その画像をコンピュータコマンドとして解釈することをさらに含むことができる。物体は、たとえば指先であり得る。コンピュータコマンドは、たとえばマウスクリックであり得る。方法は、第2の画像を表示面に表示することを含むことができる。すなわち、「取り込まれる」画像は、表示面に表示される画像と何らかの様式で異なってもよい。
本発明の少なくとも1つの実施形態によれば、方法は、表示面に近接している複数の物体を検出すること、及び1つ又は複数の物体に制御装置に関連する機能を割り当てることを含むことができ、その機能は、検出された物体がいくつあるか、及び検出された物体のどれが移動中であり、どれが実質的に静止しているかに基づく。方法は、画像を表示面に表示することをさらに含むことができ、機能は、たとえば、画像の更新を含み得る。
制御装置は、入力コマンド等の制御信号及び/又は制御コマンドを生成するように構成される任意の制御装置であることができる。制御装置は、たとえば、コンピュータマウス、ジョイスティック、又はキーボードであり得る。さらに、複数の物体はそれぞれ、各指先であることができる。
上記説明は、本開示の各実施形態による方法及び装置を図示し説明するためにのみ提示されたものである。網羅的であること、すなわち本開示を開示した厳密ないずれの形態にも限定することを意図していない。上記教示を鑑みて多くの変更及び変形が可能である。特許請求の範囲の主題の範囲は添付の特許請求の範囲によって規定されるものである。
本開示の一実施形態による装置の実施形態の概略図を示す。 本開示の方法の一実施形態によるフローチャートを示す。 1本又は複数本の指先の認識可能な特徴又は特性の例が示される、本開示の一実施形態による表示パネルの実施形態の正面図を示す。 1本又は複数本の指先の認識可能な特徴又は特性の例が示される、本開示の一実施形態による表示パネルの実施形態の別の正面図を示す。 1本又は複数本の指先の認識可能な特徴又は特性の例が示される、本開示の一実施形態による表示パネルの実施形態の別の正面図を示す。 1本又は複数本の指先の認識可能な特徴又は特性の例が示される、本開示の一実施形態による表示パネルの実施形態の別の正面図を示す。 1本又は複数本の指先の認識可能な特徴又は特性の例が示される、本開示の一実施形態による表示パネルの実施形態の別の正面図を示す。

Claims (10)

  1. 表示面(SS)を叩いている物体に対応する画像を取り込むことと、
    前記画像をコンピュータコマンドとして解釈することとを含むことを特徴とする方法。
  2. 表示面(SS)に近接していることが検出された複数の物体の1つ又は複数の特性を認識することと、
    前記1つ又は複数の特性を関連するコンピュータコマンドとして解釈することであって、前記コンピュータコマンドが、いくつの物体が検出されたか、及び前記検出された物体のうちどれが移動中であるか、前記検出された物体のうちどれが実質的に静止しているかに基づく、解釈することとを含むことを特徴とする方法。
  3. 画像を前記表示面(SS)に表示することをさらに含むことを特徴とする請求項2に記載の方法。
  4. 表示面(SS)に近接している複数の物体を検出することと、
    前記1つ又は複数の物体に、制御装置に関連する機能を割り当てることであって、前記機能は、いくつの物体が検出されたか、及び前記検出された物体のうちどれが移動中であるか、前記検出された物体のうちどれが実質的に静止しているかに基づく、割り当てることとを含むことを特徴とする方法。
  5. 画像を前記表示面(SS)に表示することをさらに含むことを特徴とする請求項4に記載の方法。
  6. コンピュータ実行可能命令(151)を含むコンピュータ可読媒体を備える装置(100)であって、前記コンピュータ実行可能命令は制御電子回路(150)に、
    表示面(SS)を叩いている物体に対応し、光学受信器(130)によって取り込まれる画像についての情報を受け取らせ、
    前記情報をコンピュータコマンドとして解釈させるように構成されることを特徴とする装置。
  7. コンピュータ実行可能命令(151)を含むコンピュータ可読媒体を備える装置(100)であって、前記コンピュータ実行可能命令は制御電子回路(150)に、
    表示面(SS)に近接していることが検出された複数の物体を示す情報を、光学受信器(130)から受け取らせ、
    前記情報を使用させて、前記物体の1つ又は複数の特性を認識させ、
    前記1つ又は複数の特性を関連するコンピュータコマンドとして解釈させることであって、前記コンピュータコマンドは、いくつの物体が検出されたか、及び前記検出された物体のうちどれが移動中であるか、前記検出された物体のうちどれが実質的に静止しているかに基づく、解釈させるように構成されることを特徴とする装置。
  8. 表示パネル(110)と、
    画像を前記表示パネルに投影するように構成される第1の構成要素(120)と、
    前記表示パネルを光学的にスキャンすると共に、光学スキャンを用いて信号を生成するように構成される第2の構成要素(130)と、
    前記信号を受け取り、前記信号を使用することで、前記表示パネルに近接していることが検出された複数の物体の1つ又は複数の特性を認識すると共に、前記1つ又は複数の特性を関連するコンピュータコマンドとして解釈するように構成されるコントローラ(150)であって、前記1つ又は複数の特性は、いくつの物体が検出されたか、及び前記検出された物体のうちどれが移動中であるか、前記検出された物体のうちどれが実質的に静止しているかを含むコントローラ(150)とを備えることを特徴とする表示システム(100)。
  9. 表示パネル(110)と、
    画像を前記表示パネルの第1の側に、前記表示パネルの第2の側から閲覧可能なように投影する手段(120)と、
    前記表示パネルの前記第2の側に近接していることが検出された複数の物体の1つ又は複数の特性を認識する手段(130、150、151)と、
    前記物体の1つ又は複数の特性を関連するコンピュータコマンドとして解釈する手段(130、150、151)であって、前記1つ又は複数の特性は、いくつの物体が検出されたか、及び前記検出された物体のうちどれが移動中であるか、前記検出された物体のうちどれが実質的に静止しているかを含む、解釈する手段(130、150、151)とを備えることを特徴とする装置(100)。
  10. 閲覧可能な画像を表示するように構成される表示面(SS)と、
    前記表示面に近接している複数の指先(FT)から反射された光を受けると共に、前記指先を示す信号を生成するように構成される光学受信器(130)と、
    前記信号の受信に応答して、前記信号を受け取って前記信号を使用することにより、前記指先の少なくとも1つの特性を認識し、及び前記1つ又は複数の特性を関連するコンピュータコマンドとして解釈することであって、前記1つ又は複数の特性がいくつの指先が検出されたか、前記検出された指先のうちどれが移動中であるか、前記検出された指先のうちどれが実質的に静止しているかを含む、解釈するように構成されるコントローラ(150)とを備えることを特徴とする装置(100)。
JP2007546663A 2004-12-20 2005-10-28 画像の解釈 Withdrawn JP2008524697A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/018,187 US20060132459A1 (en) 2004-12-20 2004-12-20 Interpreting an image
PCT/US2005/039678 WO2006068703A1 (en) 2004-12-20 2005-10-28 Interpreting an image

Publications (1)

Publication Number Publication Date
JP2008524697A true JP2008524697A (ja) 2008-07-10

Family

ID=35841781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007546663A Withdrawn JP2008524697A (ja) 2004-12-20 2005-10-28 画像の解釈

Country Status (4)

Country Link
US (1) US20060132459A1 (ja)
EP (1) EP1828876A1 (ja)
JP (1) JP2008524697A (ja)
WO (1) WO2006068703A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134111A (ja) * 2009-12-24 2011-07-07 Sony Corp タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8901268B2 (en) 2004-08-03 2014-12-02 Ahila Krishnamoorthy Compositions, layers and films for optoelectronic devices, methods of production and uses thereof
US8557877B2 (en) 2009-06-10 2013-10-15 Honeywell International Inc. Anti-reflective coatings for optically transparent substrates
JP2012103938A (ja) * 2010-11-11 2012-05-31 Seiko Epson Corp 光学式検出システム及びプログラム
US8864898B2 (en) 2011-05-31 2014-10-21 Honeywell International Inc. Coating formulations for optical elements
US9658717B2 (en) 2013-05-14 2017-05-23 Otter Products, Llc Virtual writing surface
US9229583B2 (en) 2013-05-29 2016-01-05 Otter Products, Llc Object location determination including writing pressure information of a stylus
US9170685B2 (en) * 2013-06-20 2015-10-27 Otter Products, Llc Object location determination
US9335866B2 (en) 2013-11-20 2016-05-10 Otter Products, Llc Retractable touchscreen adapter
US10544329B2 (en) 2015-04-13 2020-01-28 Honeywell International Inc. Polysiloxane formulations and coatings for optoelectronic applications

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4561017A (en) * 1983-08-19 1985-12-24 Richard Greene Graphic input apparatus
US5025314A (en) * 1990-07-30 1991-06-18 Xerox Corporation Apparatus allowing remote interactive use of a plurality of writing surfaces
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
DE4423005C1 (de) * 1994-06-30 1995-11-30 Siemens Ag Eingabevorrichtung für einen Computer
GB9603330D0 (en) * 1996-02-16 1996-04-17 Thomson Training & Simulation A method and system for determining the point of contact of an object with a screen
FR2756077B1 (fr) * 1996-11-19 1999-01-29 Opto System Ecran tactile et dispositif de visualisation utilisant cet ecran tactile
US6061177A (en) * 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134111A (ja) * 2009-12-24 2011-07-07 Sony Corp タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体

Also Published As

Publication number Publication date
WO2006068703A1 (en) 2006-06-29
EP1828876A1 (en) 2007-09-05
US20060132459A1 (en) 2006-06-22

Similar Documents

Publication Publication Date Title
JP2008524697A (ja) 画像の解釈
KR101831350B1 (ko) 카메라 기반 멀티 터치 상호작용 및 조명 시스템과 방법
JP6539816B2 (ja) 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法
US9696808B2 (en) Hand-gesture recognition method
US6478432B1 (en) Dynamically generated interactive real imaging device
US8345920B2 (en) Gesture recognition interface system with a light-diffusive screen
US8842076B2 (en) Multi-touch touchscreen incorporating pen tracking
US9507411B2 (en) Hand tracker for device with display
US9268413B2 (en) Multi-touch touchscreen incorporating pen tracking
US7168813B2 (en) Mediacube
US20050226505A1 (en) Determining connectedness and offset of 3D objects relative to an interactive surface
US20060284874A1 (en) Optical flow-based manipulation of graphical objects
US20140267029A1 (en) Method and system of enabling interaction between a user and an electronic device
TW201337684A (zh) 光學觸控裝置、被動式觸控系統及其輸入偵測方法
JP2013045310A (ja) 表示装置、表示装置の制御方法およびプログラム
CN106325726A (zh) 触控互动方法
JP5118663B2 (ja) 情報端末装置
EP4339745A1 (en) Touchless user-interface control method including fading
Maierhöfer et al. TipTrack: Precise, Low-Latency, Robust Optical Pen Tracking on Arbitrary Surfaces Using an IR-Emitting Pen Tip
KR100899650B1 (ko) 무선 광 마우스의 제어방법
US20180129308A1 (en) Interactive display apparatus and operating method thereof
JP2015232885A (ja) 表示装置、表示装置の制御方法およびプログラム
JPWO2016132568A1 (ja) 非接触入力装置及び方法

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090514