JP2011505639A - 画面と指示体との間でインタラクションを行うためのインタラクション装置 - Google Patents

画面と指示体との間でインタラクションを行うためのインタラクション装置 Download PDF

Info

Publication number
JP2011505639A
JP2011505639A JP2010536329A JP2010536329A JP2011505639A JP 2011505639 A JP2011505639 A JP 2011505639A JP 2010536329 A JP2010536329 A JP 2010536329A JP 2010536329 A JP2010536329 A JP 2010536329A JP 2011505639 A JP2011505639 A JP 2011505639A
Authority
JP
Japan
Prior art keywords
interaction device
indicator
interaction
camera
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010536329A
Other languages
English (en)
Other versions
JP5060622B2 (ja
Inventor
ハウケ・ルードルフ
ボイアーレ・イェンス−ウーヴェ
Original Assignee
アルメーファ・アクチエンゲゼルシャフト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルメーファ・アクチエンゲゼルシャフト filed Critical アルメーファ・アクチエンゲゼルシャフト
Publication of JP2011505639A publication Critical patent/JP2011505639A/ja
Application granted granted Critical
Publication of JP5060622B2 publication Critical patent/JP5060622B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Details Of Measuring And Other Instruments (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Details Of Measuring Devices (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

本発明は、透明なパネル(2)の背後に配置された少なくとも1つの画面(3)とこのパネル(2)の前に存在する少なくとも1つの指示体(4)との間でインタラクションを行うためのインタラクション装置であって、前記パネル(2)の背後に配置された少なくとも2つのカメラ(6、7)を具備し、この各カメラ(6、7)には偏向ユニット(8、9)が付設されており、この偏向ユニットによって少なくとも1つの光路(10.1)を、パネル(2)の近傍および前方のインタラクション領域(11)からカメラ(6、7)内へ案内することができ、さらに、前記カメラ(6、7)の少なくとも2つにとって視認可能であるように導かれた指示体(4)の位置を求めるために、各カメラ(6、7)に接続されたコンピュータユニット(12)を具備しており、しかも、少なくとも前記インタラクション領域(11)が赤外光を用いてストロボ照明可能であり、かつ、前記カメラ(6、7)が、赤外線感応カメラであり、このストロボ照明と同期可能であるインタラクション装置(1)に関する。

Description

本発明は、透明なパネルの背後に配置された少なくとも1つの画面とこのパネルの前に存在する少なくとも1つの指示体との間でインタラクションを行うためのインタラクション装置であって、前記パネルの背後に配置された少なくとも2つのカメラを具備し、このカメラの光軸が、パネルに対してほぼ垂直に整向されており、その際、各カメラには偏向ユニットが付設されており、この偏向ユニットによって光路をパネルの近傍および前方のインタラクション領域からカメラ内へ案内することができ、さらに、カメラの少なくとも2つにとって視認可能であるように導かれた指示体の位置を求めるために、各カメラに接続されたコンピュータユニットを具備するインタラクション装置に関する。
インタラクティブな画面は、タッチスクリーンという名称で知られており、画面上で、ユーザが指示体、例えば自らの指を移動させる。画面上における指示体の位置あるいは移動は、機械センサを用いて検出される。所定のアクションが、指示体の位置または他のアクション、例えば画面の所定の領域を押すというアクションに応じて引き起こされる。このようなシステムは、汚損や擦過による機械的な消耗を被り、そのために保守コストが大きくなるので、永続的な利用、例えば公共領域などでの利用にはただ条件付きでのみ有効である。
従って、受動表面に対する指示体の位置を光学的検出によって求めるシステムが開発されている。特許文献1では、ウインドウを通じてユーザが画面とインタラクションを行うための装置が開示されている。ウインドウを通じて見える画面領域が、受動的な接触面として用いられる。このシステムは、接触面の近傍にある指示体を光学的手段によって記録するための記録ユニットを有する。記録ユニットに接続されたコンピュータユニットが、記録ユニットによって記録された信号から、接触面の近傍にある指示体の位置を算定することができる。画面は、ウインドウの背後に、すなわちユーザからウインドウによって分け隔てられた位置に配置されている。記録ユニットは、例えば2つのカメラを有し、同じくウインドウの背後に配置されている。接触面の上方または下方に配置された偏向ユニット、例えばミラーまたはプリズムを用いて、光路が記録ユニットから接触面の前方の領域へ案内される。コントラストを増大させるために、接触面の前方の領域が、赤外光を用いて照明される。この赤外光は、記録ユニットと同じ光路を有する。接触面を基準にして、偏向ユニットに対向するように反射面が配置されている。これらの反射面は、赤外光を反射して背景として働き、この背景の前で、コントラストが増大した指示体を検出することができる。そして、指示体の位置が、例えば三角測量によって求められる。
カメラを用いた同様のインタラクティブシステムが、例えば、特許文献2、特許文献3および特許文献4で開示されている。これらの文献は、互いに重なり合った視野を持つ少なくとも2つのカメラを具備した撮像ユニットを利用することを教示している。これらのカメラは、フレームによって画定された接触面を有する。接触面上または接触面近傍における指示体の存在は、接触面の、2つの連続する画像の間に見られる相違を解析することによって検出される。指示体が存在する場合、撮影された画像データは、選出された、画像の下部領域のみが評価されるように処理される。
カメラベースの公知のインタラクティブシステムには、撮像ユニットによって撮影された画像が、他の光源からの光、例えば周囲からの直接入射光、制御光または反射光によってしばしば歪みが生じるという問題が内在している。このような外部光源からの光は、指示体から出る光よりも高い強度を有することが多い。通例、カメラ制御部は最大強度に合わせて調整されるので、指示体の検出が困難または不可能になることが多い。また、撮影された画像は、しばしば、周囲の照明の変化、例えば昼間と夜間の変化に対して非常に感応性が高い。これらの事情により、指示体の位置を決定する際に誤りが生じる。
これらの誤りを低減するために、接触面の前方の領域を照明するための赤外線照明を、適当な赤外線感度を有するカメラと共に用いることができる。コントラストは、さらに上述の反射面によって改良することが可能である。照明された指示体は、こうしてコントラストを高めて検出することができる。ただし、その分、このシステムは、より複雑かつより高コストになる。
ユーザと画面との間に二重ガラスを施したウインドウの場合、また別の問題が生じる。光が、これらの窓ガラスの間で反射されて撮像ユニットに達し、撮影された画像を歪めてしまうことで、指示体の位置の決定を困難または不可能にする。
米国特許第7034807号明細書 国際公開第02/03316号パンフレット 欧州特許出願公開第1420335号明細書 独国特許出願公開第10163648号明細書
従って、本発明の課題は、画面と指示体との間でインタラクションを行うための、改良されたインタラクション装置を提示することである。
この課題は、本発明において、請求項1に記載の特徴を有するインタラクション装置によって解決される。
有利な別形態が、従属請求項に記載されている。
透明なパネルの背後に配置された少なくとも1つの画面とこのパネルの前に存在する少なくとも1つの指示体との間でインタラクションを行うための、本発明に係るインタラクション装置は、前記パネルの背後に配置された少なくとも2つのカメラを具備し、このカメラの光軸が、特に好ましくは、パネルに対してほぼ垂直に整向されている。この各カメラには偏向ユニットが付設されており、この偏向ユニットによって光路をパネルの近傍および前方のインタラクション領域からカメラ内へ案内することができる。各カメラにはコンピュータユニットが接続されていて、これらのカメラの少なくとも2つに視認可能であるように導かれた指示体の位置を求めるために用いられる。インタラクション領域は、赤外光を用いてストロボ照明される。これらのカメラは、赤外線感応カメラであり、ストロボ照明と同期される。赤外線照明は、透明パネルの前に位置する人物には知覚されないが、適当な感度を有するカメラの場合に撮像のコントラストを改善する。通常のデジタルカメラは、一般的にそれ自体が赤外線感応性を有する。しかし、これらの赤外線感度は、大抵、適当な赤外線阻止フィルタによって抑制される。本発明で利用する場合、このフィルタは不要であり、従って、カメラに関連して発生するコストは、増大するよりもむしろ減少する。ストロボ照明を用い、かつ、このストロボ照明にカメラを同期させる場合の利点は、可変の周囲照明が撮像に及ぼす作用を大幅に排除できることであり、これは特に、大きな赤外成分を有する強い太陽光入射の場合に当てはまる。写真用カメラでフラッシュ撮影する場合と同じように、照明が当たる瞬間に、指示体の、一種のスナップショットが生じ、これにより、モーションブラーが発生しなくなり、従って、指示体を明確に識別でき、ストロボパルスの時点における指示体の位置を厳密に決定することができる。ここでは、同期とは、ストロボ照明が、カメラのシャッター時間に対して所定の関係にあることを意味するものとする。必ずしも同時である必要はない。ストロボパルスは、特に好ましくはカメラの露光時間よりも短い。コンピュータユニットに対するカメラの接続は、直接的な接続であっても、間接的な接続であってもよい。間接的な接続の場合、カメラは、例えばFPGA(フィールドプログラマブルゲートアレイ)に接続しておくことができ、このFPGAから画像がコンピュータユニットに供給される。
ストロボ照明は、例えば各カメラの視点から個別に当てることができ、カメラのシャッター時間を連続的に少しずつずらすことで、各カメラのストロボパルスが、他のどのカメラの撮像にも投影を生じないようにして、指示体の位置の識別または決定が困難にならないようにすることができる。
ストロボ照明はまた、全てのカメラの視点から同じ時点に行うこともでき、これにより、位置決定、例えば三角測量による位置決定の精度が、可能な限り最大となる。
透明パネルとしては、例えばウインドウが可能であり、その背後に画面が配置されている。偏向ユニットは、ミラーまたはプリズムを有することができ、ミラーまたはプリズムは、透明パネルの前方におけるカメラの光軸上に位置する。インタラクション領域とは、指示体、例えば指の位置または移動が検出される、パネルの前方領域のことである。カメラおよびそれに付随する偏向ユニットは、特に好ましくは透明パネルの隅に配置されている。この場合、カメラと偏向ユニットとの各組み合わせについては、開口角90°の視野で充分にパネル全体をカバーできる。
ストロボ照明には、特に近赤外領域の赤外光が用いられる。従って、波長域は、700nmから1.4μmの間ということである。特に有利であるのは、800nm程度の波長である。なぜなら、ウインドウには断熱ガラスが用いられることが多く、1μm以上の赤外線放射を吸収するからである。
好ましくは、各カメラに赤外線透過フィルタが備えられている。この措置により、昼光の波長領域の光は除去され、その結果、インタラクション装置の機能が、周囲光の状況の違いによって影響を受けない、あるいは、ほとんど受けない。
ストロボ照明を行うために、照明手段は、カメラの領域に配置され、特に、照明光路が偏向ユニットを介して少なくともインタラクション領域内へ案内可能であるように配置される。これにより、照明に利用される光の大部分が、その光が来た方向と同じ方向に反射されるので、指示体の特に有効な照明が可能となる。
指示体の位置は、好ましくは、三角測量によって求められる。このために、少なくとも2つのカメラによって撮影された、指示体を含む画像が必要とされる。指示体は、各画像において識別され、位置が突き止められる。偏向ユニットを具備するカメラが適宜較正されている場合、画像における指示体の位置から、偏向された光軸に対して指示体が位置する角度を推測することができる。少なくとも2つのカメラについてこれらの角度が決定されている場合、これらのカメラ間の基線長を知ることで、カメラ位置に対する指示体の位置を決定することができる。カメラがその取り付け位置で較正されることにより、費用対効果に優れたカメラ光学系を用いることが可能となり、歪みなどの結像誤差に関して、高い要求事項を満たす必要がなくなる。較正は次のように行うことができる。すなわち、例えば、カメラを取り付けた状態で、フレーム片または他の較正体が、カメラの視野領域あるいは偏向ユニットによって偏向された光路の領域において所定の位置に保持され、この位置がコンピュータユニットに通知されるようにすることで、較正は行われる。較正体は、光学的に容易に識別できるポイントまたは構造体を有し、これらのポイントまたは構造体が、コンピュータユニットによってカメラの画像の中で見出され、フレーム片の既知の位置と共にこれらを基にして画像の歪み補正が行われる。
これらのカメラは、好ましくは、ストロボ照明と同期されているだけでなく、カメラ同士も相互に同期されている。例えば、全てのカメラをFPGA(フィールドプログラマブルゲートアレイ)に接続しておき、FPGAのフレームバッファにカメラの画像を一時保存することができる。次に、FPGAは、時間的に相互に関連する画像を、例えばUSBインターフェースまたはIEEE1394インターフェースを介してコンピュータユニットに送るか、あるいは、画像の、ある種の前処理、例えば指示体の識別または位置決定を事前に行う。
また別の実施形態では、少なくとも1つの光路を、インタラクション領域よりもパネルから遠い位置にある、パネルの前方の所在領域から、偏向ユニットを経て、または偏向ユニットの近傍を通過して、カメラ内へ案内することができ、その際、この所在位置にいる人物が少なくとも部分的にカメラの視野領域内に位置するように、この光路は案内可能である。このようにして、インタラクション時、人物の属性または動作を考慮することができる。例えば、画面に表示された内容が、これらの属性または動作に応じて変更される。カメラを追加するコストは不要である。また、人物を撮影するためのカメラを1つまたは複数追加することも可能であり、追加されたカメラも、パネルの前に配置しておくことができる。
この目的のために、偏向ユニットは、ビームスプリッタとして構成しておくことができる。ビームスプリッタは、大抵、半透過鏡または部分透過鏡を用いて実現される。これらの透過鏡では、到達する光の一部が反射され、他の一部が鏡を透過する。また、ビームスプリッタは、プリズムを用いても実現できる。また別の可能な方法は、2部材以上で構成された鏡を偏向ユニットに装備するという方法であり、この場合、部材の1つが、所在領域の方向からの光路を、別の1つの部材が、インタラクション領域の方向からの光路をカメラへ案内する。偏向ユニットは、さらに別の光学素子、例えばレンズを含んでいてもよい。
さらに別の実施形態では、コンピュータユニットに人物の顔の光学的な検出機能が備えられている。検出された顔から一連の特徴を抽出することができ、画面上に内容をインタラクティブに表示する際にこれらの特徴を考慮することが可能である。例えば、生体測定上の特徴に基づいて認識された、コンピュータユニットで既に認知されている顔を利用して、使用者プロフィールが作成あるいは維持管理される。これは、人物の入力事項から導き出された興味対象や好みを、その認識された人物に割り付けておき、後に接触した際、画面上に内容を表示するときにこれらの興味対象や好みを考慮に入れるという方法によって行われる。
1つの好ましい実施形態では、指示体、特に指の光学的な検出機能、例えばパターン認識を用いた検出機能が、コンピュータユニットに備えられている。この場合、人物または人物の顔を認識するために事前に実装されているアルゴリズムを用いることができる。
人物が複数のカメラによって撮影される場合、三角測量を用いて、属性として人物の体の大きさを判定することができる。体の大きさから、例えば、その人物が大人であるか、子供であるかを推定することができる。表示内容は、当該のターゲットグループに合わせて調整することが可能である。
人物の年齢は、体の大きさ以外に顔の特徴からも推定できる。
さらに、人物の性別も、体の大きさおよび/または顔から認識可能な場合がある。このようにして、表示内容、例えば衣服、化粧品、技術製品などを性別および年齢に合わせて提示することが可能となる。
さらに、例えば、眼鏡装用者を非眼鏡装用者と区別して、適した内容を画面上に表示することで眼鏡装用者に意図的に働きかけることも可能である。
人物の顔を充分精緻に検知する場合、画面を基準にして、人物の視線方向を検知することができる。視標追跡(アイトラッキング)は、既にかなり以前からカメラの合焦時に用いられている。本インタラクション装置では、画面のどの表示内容に、その人物が注意を向けているかを知ることができ、従って、たとえ、その人物が、指または指示体を用いてインタラクションに積極的に加わることをまだ躊躇している時点であっても、表示内容を適合させることができる。
特に好ましい1つの実施形態では、人物のアバターが画面上に表示され、このアバターは、その人物の撮像から作成される。このために、特に好ましくは、複数のカメラの撮像が用いられ、これにより、人物の立体的な似姿を作成することができる。アバターには、例えば、自動的に、または他のインタラクションを通じて、指示体によって行われたアクションに基づいて、仮想的に、提示された衣服、眼鏡または他の装身具を装着させることが可能であり、これにより、その商品がその人にどの程度似合いそうかを確認してもらうことで、購買意欲を高めることができる。また、アバターは、当該の人物に製品を説明すること、あるいは、仮想的な販売員の役割を担うことも可能である。
アバターは、鏡像として表示することができる。完全に左右対称である人間はほとんどいないので、普段自分が見ている鏡像としての姿の方が、正像の姿、すなわち他の人々や映像および写真が伝える姿よりも慣れ親しんでいる。特に試着の際に、鏡像表示によって、無用な戸惑いが生じるのを防ぐことができる。
好ましくは、カメラへの光路を抑制するための遮蔽手段が備えられている。このような不所望な光路は、例えば、太陽光または人工照明による反射または直接入射である。この遮蔽手段によって、カメラにより撮影される画像の歪み、および、ダイナミックレンジの制限が低減される。
また別の実施形態では、少なくとも1つの光学検出器と少なくとも1つの照明手段とが、透明パネルの表面間における全反射により少なくとも1つの光路が照明手段から光学検出器まで延びるように配置されている。その際、指示体としての指で透明パネルに触れると、全反射が妨げられることで、光学検出器に指紋を記録することができる。このようにして、当該の人物を指紋によって識別あるいは確認できる。ユーザプロフィールまたは諸機能の擬人化のために利用すること、例えばユーザログインの場合に利用すること以外に、このような形態のインタラクション装置は、人物の監視および位置測定のためにも適している。
また、透明パネルにおける鏡像の指示体を含む、前記インタラクション領域の鏡像を検知して、この鏡像の指示体から実際の指示体までの距離を決定することによって、指示体から透明パネルまでの距離を求めることも可能である。指示体が移動した場合、例えばソフトキーをクリックするためにパネルへ指示体が導かれる場合、移動方向は、連続する撮像から容易に求めることができ、しかも、その際、パネルに対する指示体の姿勢のせいで決定に誤りが生じることがない。指示体とそれの鏡像との間隔がゼロである場合、パネルの接触が確実に検出される。
カメラが充分な解像度を有する場合、人物の眼球についての虹彩認識機能、あるいは、識別または認証を行うためのバーコード認識機能を備えておくことができる。
人物を同定するための付加的な機構を備えておくこともできる。例えば、アクティブRFIDチップまたはパッシブRFIDチップあるいは携帯電話を検出することができる。さらに、画面をインタラクティブ操作することでユーザ名およびパスワードを入力する機能を備えておくことができる。
音声入力および音出力による付加的な音響インタラクション機能を備えておくこともできる。
例えばショートメッセージ(SMS)および/またはマルチメディアメッセージ(MMS)を送信および/または受信することによって、携帯電話またはPDAを介して画面とのインタラクションを行う機能を備えておくことができる。例えば、キャッシュレスの支払い手続きを行える人物が携帯電話を用いて通信を行うための機構を備えておくことができる。
カメラは、画面に配置しておくことも、別個に配置しておくことも可能である。
カメラ、赤外光源および画面のために冷却機構を備えておくことができ、これにより、太陽入射光が強い場合にも、これらの構成要素の寿命を長くすることが可能である。
赤外光源としては、狭帯域光源、例えばレーザーが可能である。このような赤外光源を用いることで、特に良好に画定されたビームをインタラクション領域へ導くことができる。例えば、光を格子網状に投影することができ、これにより、位置決定が容易になる。
本インタラクション装置は、例えば、仮想的な社会(オンラインコミュニティ)、結婚相談所において、および、イベント会場でのイベントを別の会場で観ることを可能にするいわゆるイベントガイドシステムにおいて、人物を識別および追跡するために用いることができる。その際、インタラクションは、これらのソーシャルネットワーク内にいる別の人々とメッセージを交換するために用いられる。
さらに、音響インタラクションのための手段を備えておくことができる。例えば、人が、音声による応答または命令を与えることができる。あるいは、このインタラクションシステムは、音響手段を有すること、例えばウインドウの前に立っている人々が話すといった方法が可能であることで、種々のインタラクションの可能性があることを示唆している。音響インタラクションの手段、特にマイクロフォンおよびスピーカーは、偏向ユニットの中に設置しておくことができる。しかしまた、音響による通信は、かなり短い区間についてならば、例えばガラス製の透明パネルを通してでも行うことができる。
画面上に、インタラクティブな映像を表示することも可能である。
以下において、本発明の実施例について、図面を参照しながら詳述する。
透明パネルの背後に配置された画面とこのパネルの前に存在する指示体との間でインタラクションを行うためのインタラクション装置を示す。 透明パネルに対する指示体の移動の推移を示す。
図1は、透明パネル2の背後に配置された画面3とこのパネル2の前に存在する指示体4との間でインタラクションを行うためのインタラクション装置1を示す。画面3上には、例えば、操作されるべきメニュー項目または仮想的なスイッチ(ソフトキー)が表示される。透明パネル2の前、例えばウインドウの前にいる人物5が、指示体4として指を用いる。透明パネル2の背後には、2つのカメラ6、7が、その光軸6.1、7.1が透明パネル2に対してほぼ垂直に向くように配置されており、これにより、反射を少なく保つことができる。カメラ6、7にはそれぞれ偏向ユニット8、9が付設されており、これらによって、光路10.1が、パネル2の直ぐ近くのインタラクション領域11からそれぞれのカメラ6、7へ案内される。
コンピュータユニット12が、各カメラ6、7に接続されており、両カメラ6、7に視認可能であるように導かれた指示体4の位置を求めるために用いられる。カメラ6、7の領域には、それぞれ赤外光源13、14が備えられており、これらによって、インタラクション領域11は、赤外光を用いてストロボ照明することが可能である。それに応じて、カメラ6、7は、赤外線感応性を有するように構成されており、また、ストロボ照明と同期されている。その際、カメラ6、7および赤外光源13、14は、コンピュータユニット12によって制御することができる。インタラクション領域11の照明は、光路10.2の少なくとも一部分を偏向ユニット8、9によって偏向することで実施される。
指示体4の位置を決定するために、まず、赤外光源13、14の1つが、光パルスを送出して、付随するカメラ6、7の視点からインタラクション領域11に照明を当てる。このカメラ6、7は、この時点にはシャッターを開いており、指示体4を含むインタラクション領域11を撮影する。このカメラ6、7のシャッターが再び閉じられたとき、もう一方のカメラ7、6のシャッターが開かれて、付随する赤外光源14、13から適当な光パルスが送出される。両画像において、例えばパターン認識法を用いて指示体4が識別され、例えば三角測量を用いてその位置が決定される。一連の撮影は、指示体4の位置を、移動が素早い場合にも精確に検知できるように、可能な限り時間的に密に連続して行う必要がある。撮影は、例えば、40msというオーダーの時間間隔で行うことができる。連続して決定された、指示体4の複数の位置から、動きを求めることができる。画面3上で、その位置または動きに対応するアクションを実行し、それに応じて表示内容を変更することが可能である。
他の光路10.3を、インタラクション領域11よりも透明パネル2から遠い位置にある、パネル2の前方の所在領域15から、偏向ユニット8、9の近傍を通過してカメラ6、7へと案内することができ、その際、所在領域15に存在する人物5が少なくとも部分的にカメラ6、7の視野領域内に位置するように、この光路を案内することができる。この図では、所在領域15は、破線によってインタラクション領域11から区分されている。
人物を撮影および/または検出するための光路10.3は、また、偏向ユニット8、9によって導くことも可能である。このために、偏向ユニット8、9をビームスプリッタとして構成しておくことができる。また別の可能な方法は、2部材以上で構成された鏡を偏向ユニット8、9に装備するという方法であり、この場合、部材の1つが、所在領域15の方向からの光路10.3を、別の1つの部材が、インタラクション領域11の方向からの光路10.1をカメラ6、7へ案内する。偏向ユニット8、9は、さらに別の光学素子、例えばレンズを含んでいてもよい。また、本インタラクション装置1は、所在領域15にいる人物5の検出を伴わなくても実現可能である。
それぞれ偏向ユニット8、9を具備する、別の個数のカメラ6、7を備えておくことも可能である。例えば、カメラ6、7を、ウインドウとして構成された透明パネル2の四隅に配置することが可能である。
このインタラクション装置1は、自動切符販売機などの自動販売機での利用にも適している。
あるいは、ストロボ照明とカメラ6、7のシャッター開放とを、同時に行うことも可能であり、これにより、位置決定の精度が極めて高くなる。
偏向ユニット8、9は、ミラーまたはプリズムを有してもよい。
ストロボ照明のためには、特に、近赤外領域の赤外光が用いられる。
好ましくは、各カメラ6、7にはフィルタが備えられており、このフィルタにより、カメラ6、7には赤外領域の波長だけが供給される。フィルタとしては、赤外線透過フィルタが可能であり、あるいはまた、赤外光のみをカメラ6、7内へ反射する、偏向ユニット上に施された層が可能である。フィルタは、特に狭帯域に構成しておくことができ、例えば、870nmから880nmまでの波長の光のみが供給されるように構成することができる。
赤外光源13、14は、また別の個所に配置しておくことも可能であり、例えば、透明パネル2の前方の偏向ユニット8、9領域に配置でき、これにより、光路10.2を偏向ユニット8、9によって案内する必要がなくなる。
カメラ6、7の較正は、好ましくは、カメラ6、7を取り付けた状態で、フレーム片または他の較正体が、カメラ6、7の視野領域あるいは偏向ユニット8、9によって偏向された光路10.1の領域において所定の位置に保持され、この位置がコンピュータユニット12に通知されることによって実施される。
カメラ6、7をFPGA(フィールドプログラマブルゲートアレイ)に接続しておき、FPGAのフレームバッファにカメラ6、7の画像を一時保存することができる。次に、FPGAは、時間的に相互に関連する画像を、例えばUSBインターフェースまたはIEEE1394インターフェースを介してコンピュータユニット12に送るか、あるいは、ある種の前処理、例えば指示体4の識別または位置決定を事前に行う。
また、コンピュータユニット12に人物5の顔の光学的な検出機能を備えておくことができる。検出された顔から一連の特徴を抽出することができ、画面12上に内容をインタラクティブに表示する際にこれらの特徴を考慮することが可能である。例えば、生体測定上の特徴に基づいて認識された、コンピュータユニット12で既に認知されている顔を利用して、使用者プロフィールが作成あるいは維持管理される。これは、人物5の入力事項から導き出された興味対象や好みを、その認識された人物5に割り付けておき、後に接触した際、画面12上に内容を表示するときにこれらの興味対象や好みを考慮に入れるという方法によって行われる。
指示体4として、ペンや雨傘のようなものも検出可能である。指示体4、特に指は、コンピュータユニット12においてパターン認識を用いて識別できる。同様に、画像における強度が大きい領域を、ヒストグラムを用いて、指示体4が存在する可能性が高い場所として識別することが可能である。
人物5が複数のカメラ6、7によって撮影される場合、三角測量を用いて、属性として人物5の体の大きさを判定することができる。体の大きさから、例えば、その人物5が大人であるか、子供であるかを推定することができる。人物5の年齢は、体の大きさ以外に顔の特徴からも推測できる。
さらに、人物5の性別も、体の大きさおよび/または顔から認識可能な場合がある。このようにして、表示内容、例えば衣服、化粧品、技術製品などを性別および年齢に合わせて提示することが可能となる。
さらに、例えば、眼鏡装用者を非眼鏡装用者と区別して、適した内容を画面上に表示することで眼鏡装用者に意図的に働きかけることも可能である。
人物5の顔を充分精緻に検知する場合、画面12を基準にして、人物5の視線方向を検知することができ、これにより、画面12のどの表示内容に、その人物5が注意を向けているかを知ることが可能であり、それに合わせて表示内容を適合させることができる。
また、人物5のアバターを画面12上に表示することができ、アバターは、その人物5の撮像から作成される。このアバターには、例えば、自動的に、または他のインタラクションを通じて、指示体4によって行われたアクションに基づいて、仮想的に、提示された衣服、眼鏡または他の装身具を装着させることができる。アバターは、鏡像として表示することが可能である。
また、遮蔽手段を備えておくことができ、この遮蔽手段により、太陽光または人工照明による反射または直接入射から生じる、カメラ6、7への光路を抑制することが可能である。
光学検出器と少なくとも1つの照明手段とを備えておくこともでき、これらは、少なくとも1つの光路が、透明パネル2の表面間における全反射により照明手段から光学検出器まで延びるように配置されている。その際、指示体4としての指で透明パネル2に触れると、全反射が妨げられることで、光学検出器に指紋を記録することができる。特に3つ以上のカメラ6、7を用いる場合、例えば複数の人物5がインタラクションに参加する際に、あるいは、1人の人物5がインタラクションのために2本の指を用いる際に、2つ以上の指示体4の位置を同時に検出する機能を備えておくことができる。2本の指を位置決めして、それらの指を互いに引き離す動作は、例えば、ズームインして表示内容を拡大せよという要求であると、コンピュータユニット12に解釈させることができる。
また、例えば幅の広いウインドウの背後にいる複数の人物5とインタラクションを行うために、透明パネル2の背後に2つ以上の画面3を備えておくことも可能である。この場合、各画面3に2つのカメラ6、7が必要とされるわけではない。カメラ6、7を工夫して配置することによって、複数の指示体4および/または人物5を検知することが可能である。
また、人物5に照明を当てるために、赤外光源13、14の光路10.2を所在領域へ導くこともできる。
図2には、カメラ6、7の視点から見た、透明パネル2に対する指示体4の移動の推移の例が示されている。カメラ6、7は、偏向ユニット8、9の作用によって、インタラクション領域11と透明パネル2におけるその鏡像11’との両方を検知する。これは、パネルに対するカメラ6、7の視角が非常にフラットであるためにパネル2に全反射が生じるからである。指示体4がインタラクション領域11にある場合、また、鏡像の指示体4’も鏡像11’に見られる。指示体4から透明パネル2までの距離は、鏡像の指示体4’から指示体4までの距離を決定することによって求められる。この図には、時間tを横軸に同一の指示体4とその鏡像の指示体4’とが示されており、時点t1からt3までの間、指示体はパネル2に接近し、時点t4にパネル2に接触し、その後、時点t5からt6までの間、パネル2から遠ざかっている。指示体4と鏡像の指示体4’との間隔がゼロになると、パネル2の接触が確実に検出される。例えば、ソフトキー、リンクまたは画面3上に表示された他の内容に対する「クリック動作」を検出することが可能である。
1 インタラクション装置
2 透明パネル
3 画面
4 指示体
4’ 鏡像の指示体4’
5 人物
6、7 カメラ
6.1、7.1 光軸
8、9 偏向ユニット
10.1、10.2、10.3 光路
11 インタラクション領域
11’ インタラクション領域の鏡像
12 コンピュータユニット
13、14 赤外光源
15 所在領域

Claims (23)

  1. 透明なパネル(2)の背後に配置された少なくとも1つの画面(3)とこのパネル(2)の前に存在する少なくとも1つの指示体(4)との間でインタラクションを行うためのインタラクション装置であって、前記パネル(2)の背後に配置された少なくとも2つのカメラ(6、7)を具備し、この各カメラ(6、7)には偏向ユニット(8、9)が付設されており、この偏向ユニットによって少なくとも1つの光路(10.1)を、パネル(2)の近傍および前方のインタラクション領域(11)からカメラ(6、7)内へ案内することができ、さらに、前記カメラ(6、7)の少なくとも2つにとって視認可能であるように導かれた指示体(4)の位置を求めるために、各カメラ(6、7)に接続されたコンピュータユニット(12)を具備するインタラクション装置において、
    少なくとも前記インタラクション領域(11)を、赤外光を用いてストロボ照明することが可能であり、かつ、前記カメラ(6、7)が赤外線感応カメラであり、このカメラをストロボ照明と同期させることが可能であることを特徴とするインタラクション装置(1)。
  2. 前記ストロボ照明のために、近赤外領域の赤外光が備えられていることを特徴とする請求項1に記載のインタラクション装置(1)。
  3. 前記各カメラ(6、7)のために赤外線透過フィルタが備えられていることを特徴とする請求項2に記載のインタラクション装置(1)。
  4. 照明の光路(10.2)を前記偏向ユニット(8、9)を介して少なくとも前記インタラクション領域(11)内へ案内できるように、ストロボ照明のための赤外光源(13、14)が前記カメラ(6、7)の領域に配置されていることを特徴とする請求項1〜3のいずれか1つに記載のインタラクション装置(1)。
  5. 前記指示体(4)の位置を、三角測量を用いて求めることができることを特徴とする請求項1〜4のいずれか1つに記載のインタラクション装置(1)。
  6. 前記カメラ(6、7)が相互に同期されていることを特徴とする請求項1〜5のいずれか1つに記載のインタラクション装置(1)。
  7. 少なくとも1つの光路(10.3)を、前記インタラクション領域(11)よりも透明パネル(2)から遠い位置にある、パネル(2)前方の所在領域(15)から、前記偏向ユニット(8、9)を経て、または前記偏向ユニット(8、9)の近傍を通過して、前記カメラ(6、7)へと案内することができ、その際、この所在領域(15)に存在する人物(5)が少なくとも部分的に前記カメラ(6、7)の視野領域内に位置するように、この光路を案内することが可能であることを特徴とする請求項1〜6のいずれか1つに記載のインタラクション装置(1)。
  8. 前記偏向ユニット(8、9)がビームスプリッタとして構成されていることを特徴とする請求項7に記載のインタラクション装置(1)。
  9. 人物(5)の顔の光学的な検出機能が、前記コンピュータユニット(12)に備えられていることを特徴とする請求項7または8のいずれかに記載のインタラクション装置(1)。
  10. パターン認識を用いた、前記指示体(4)の光学的な検出機能が、前記コンピュータユニット(12)に備えられていることを特徴とする請求項1〜9に記載のインタラクション装置(1)。
  11. 属性として、人物(5)の体の大きさを判定できることを特徴とする請求項7〜10のいずれか1つに記載のインタラクション装置(1)。
  12. 属性として、体の大きさおよび/または顔から人物(5)の年齢を判定できることを特徴とする請求項10または11のいずれかに記載のインタラクション装置(1)。
  13. 属性として、体の大きさおよび/または顔から人物(5)の性別を判定できることを特徴とする請求項10〜12のいずれか1つに記載のインタラクション装置(1)。
  14. 属性として、人物(5)が装用する眼鏡を検出できることを特徴とする請求項7〜13のいずれか1つに記載のインタラクション装置(1)。
  15. 画面(12)に対する、人物(5)の視線方向を検知できることを特徴とする請求項10〜14のいずれか1つに記載のインタラクション装置(1)。
  16. 前記指示体(4)および/または人物(5)の挙動に応じて、および/または人物(5)について得られた属性に応じて、前記画面(12)上に表示される内容を変更できることを特徴とする請求項1〜15のいずれか1つに記載のインタラクション装置(1)。
  17. 人物(5)のアバターを前記画面(12)上に表示できることを特徴とする請求項7〜16に記載のインタラクション装置(1)。
  18. 前記アバターを鏡像として表示できることを特徴とする請求項17に記載のインタラクション装置(1)。
  19. 前記カメラ(6、7)への不所望な光路を抑制するための遮蔽手段が備えられていることを特徴とする請求項1〜18のいずれか1つに記載のインタラクション装置(1)。
  20. 少なくとも1つの光学検出器と少なくとも1つの照明手段とが、前記透明パネル(2)の表面間における全反射により少なくとも1つの光路がこの照明手段から光学検出器まで延びるように配置されており、指示体(4)としての指で前記透明パネル(2)に触れると、全反射が妨げられることで、この光学検出器に指紋が記録できることを特徴とする請求項1〜19のいずれか1つに記載のインタラクション装置(1)。
  21. 前記透明パネル(2)における鏡像の指示体(4’)を含む、前記インタラクション領域(11)の鏡像(11’)を検知して、この鏡像の指示体(4’)から前記指示体(4)までの距離を決定することによって、前記指示体(4)から透明パネル(2)までの距離を求めることができることを特徴とする請求項1〜20のいずれか1つに記載のインタラクション装置(1)。
  22. 人物(5)の携帯電話との通信を行うための機構が備えられており、この機構を介してキャッシュレスの支払い手続きが行えることを特徴とする請求項1〜21のいずれか1つに記載のインタラクション装置(1)。
  23. 音響インタラクションのための手段が備えられていることを特徴とする請求項1〜22のいずれか1つに記載のインタラクション装置(1)。
JP2010536329A 2007-12-05 2007-12-05 画面と指示体との間でインタラクションを行うためのインタラクション装置 Expired - Fee Related JP5060622B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2007/063340 WO2009071121A2 (de) 2007-12-05 2007-12-05 Interaktionsanordnung zur interaktion zwischen einem bildschirm und einem zeigerobjekt

Publications (2)

Publication Number Publication Date
JP2011505639A true JP2011505639A (ja) 2011-02-24
JP5060622B2 JP5060622B2 (ja) 2012-10-31

Family

ID=39735312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010536329A Expired - Fee Related JP5060622B2 (ja) 2007-12-05 2007-12-05 画面と指示体との間でインタラクションを行うためのインタラクション装置

Country Status (11)

Country Link
US (1) US9582115B2 (ja)
EP (1) EP2229617B1 (ja)
JP (1) JP5060622B2 (ja)
CN (1) CN101971128B (ja)
AT (1) ATE509308T1 (ja)
CA (1) CA2707993C (ja)
DK (1) DK2229617T3 (ja)
ES (1) ES2366490T3 (ja)
HK (1) HK1153555A1 (ja)
PL (1) PL2229617T3 (ja)
WO (1) WO2009071121A2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8587562B2 (en) * 2002-11-04 2013-11-19 Neonode Inc. Light-based touch screen using elliptical and parabolic reflectors
US8593434B2 (en) 2008-09-15 2013-11-26 Hewlett-Packard Development Company, L.P. Touchscreen display with plural cameras
WO2012063560A1 (ja) * 2010-11-10 2012-05-18 日本電気株式会社 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
CN102023760B (zh) * 2010-12-01 2012-10-17 广州市迪拓信息科技有限公司 一种多点触控感应方法及其设备
AT510692B1 (de) * 2011-03-04 2012-06-15 Isiqiri Interface Tech Gmbh Lichtvorhang sowie eine darauf basierende eingabevorrichtung für eine datenverarbeitungsanlage
CN106249967B (zh) * 2011-06-07 2019-04-30 上海科斗电子科技有限公司 无线触摸系统
US9146665B2 (en) 2011-09-30 2015-09-29 Paypal, Inc. Systems and methods for enhancing user interaction with displayed information
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
AT512461B1 (de) * 2012-02-10 2018-02-15 Isiqiri Interface Tech Gmbh Vorrichtung für die eingabe von informationen an eine datenverarbeitungsanlage
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US10461743B2 (en) * 2013-01-11 2019-10-29 Imagesurge, Inc. Interactive display system and method for use with low emissivity glass using infrared illumination
AU2014205055A1 (en) * 2013-01-14 2015-08-27 Imagesurge, Inc. Interactive display system and method for use with low emissivity glass using infrared illumination
US9325943B2 (en) 2013-02-20 2016-04-26 Microsoft Technology Licensing, Llc Providing a tele-immersive experience using a mirror metaphor
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
WO2014201465A2 (en) * 2013-06-15 2014-12-18 The SuperGroup Creative Omnimedia, Inc. Apparatus and method for simultaneous live recording through and projecting live video images onto an interactive touch screen
EP3008887A4 (en) 2013-06-15 2016-12-21 The Supergroup Creative Omnimedia Inc METHOD AND DEVICE FOR INTERACTIVE TWO-WAY VISUALIZATION USING AT THE SAME TIME AND PROJECTED VIDEO STREAMS
US9883138B2 (en) 2014-02-26 2018-01-30 Microsoft Technology Licensing, Llc Telepresence experience
EP3256936A4 (en) * 2015-02-09 2018-10-17 FlatFrog Laboratories AB Optical touch system comprising means for projecting and detecting light beams above and inside a transmissive panel
JP2016201002A (ja) * 2015-04-10 2016-12-01 船井電機株式会社 位置検出装置及び空間入力装置
US9819903B2 (en) 2015-06-05 2017-11-14 The SuperGroup Creative Omnimedia, Inc. Imaging and display system and method
US9823782B2 (en) * 2015-11-20 2017-11-21 International Business Machines Corporation Pre-touch localization on a reflective surface
US10606468B2 (en) 2015-11-20 2020-03-31 International Business Machines Corporation Dynamic image compensation for pre-touch localization on a reflective surface
KR102627244B1 (ko) * 2016-11-30 2024-01-22 삼성전자주식회사 전자 장치 및 전자 장치에서 홍채 인식을 위한 이미지 표시 방법
CN108268227B (zh) 2017-01-04 2020-12-01 京东方科技集团股份有限公司 显示设备
US10152118B2 (en) * 2017-04-26 2018-12-11 The Virtual Reality Company Emotion-based experience freedback
US20190012552A1 (en) * 2017-07-06 2019-01-10 Yves Lambert Hidden driver monitoring
CN115039063A (zh) 2020-02-10 2022-09-09 平蛙实验室股份公司 改进的触摸感测设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0380041U (ja) * 1989-12-07 1991-08-15
US20010020933A1 (en) * 2000-02-21 2001-09-13 Christoph Maggioni Method and configuration for interacting with a display visible in a display window
JP2004246814A (ja) * 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd 指示動作認識装置
JP2006163751A (ja) * 2004-12-07 2006-06-22 Xiroku:Kk 位置検出平面外に撮像部を有する光学式位置検出装置
JP2009116586A (ja) * 2007-11-06 2009-05-28 Denso Corp タッチ式操作入力装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US6256046B1 (en) * 1997-04-18 2001-07-03 Compaq Computer Corporation Method and apparatus for visual sensing of humans for active public interfaces
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6091378A (en) * 1998-06-17 2000-07-18 Eye Control Technologies, Inc. Video processing methods and apparatus for gaze point tracking
US7050177B2 (en) * 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US6700669B1 (en) * 2000-01-28 2004-03-02 Zheng J. Geng Method and system for three-dimensional imaging using light pattern having multiple sub-patterns
DE60124549T2 (de) 2000-07-05 2007-09-06 Smart Technologies Inc., Calgary Kamerabasiertes beruehrungssystem
US20050206610A1 (en) * 2000-09-29 2005-09-22 Gary Gerard Cordelli Computer-"reflected" (avatar) mirror
JP4624577B2 (ja) * 2001-02-23 2011-02-02 富士通株式会社 複数のセンサによるヒューマンインタフェースシステム
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US7174029B2 (en) * 2001-11-02 2007-02-06 Agostinelli John A Method and apparatus for automatic selection and presentation of information
DE10163648A1 (de) 2001-12-21 2003-07-03 Klaus-Dieter Frank Interaktives Projektions- und Eingabesystem
US20030126013A1 (en) * 2001-12-28 2003-07-03 Shand Mark Alexander Viewer-targeted display system and method
US7440590B1 (en) * 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7225414B1 (en) * 2002-09-10 2007-05-29 Videomining Corporation Method and system for virtual touch entertainment
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US7466308B2 (en) * 2004-06-28 2008-12-16 Microsoft Corporation Disposing identifying codes on a user's hand to provide input to an interactive display application
CA2613906A1 (en) * 2004-12-29 2006-07-06 Bernard Trest Dynamic information system
TW200627244A (en) * 2005-01-17 2006-08-01 Era Optoelectronics Inc Data input device
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
EP1821184A3 (en) * 2006-02-08 2007-11-14 Almeva AG System and method for interacting with a display through a shop window
US8725567B2 (en) * 2006-06-29 2014-05-13 Microsoft Corporation Targeted advertising in brick-and-mortar establishments
US20080004953A1 (en) * 2006-06-30 2008-01-03 Microsoft Corporation Public Display Network For Online Advertising
US8081158B2 (en) * 2007-08-06 2011-12-20 Harris Technology, Llc Intelligent display screen which interactively selects content to be displayed based on surroundings

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0380041U (ja) * 1989-12-07 1991-08-15
US20010020933A1 (en) * 2000-02-21 2001-09-13 Christoph Maggioni Method and configuration for interacting with a display visible in a display window
JP2004246814A (ja) * 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd 指示動作認識装置
JP2006163751A (ja) * 2004-12-07 2006-06-22 Xiroku:Kk 位置検出平面外に撮像部を有する光学式位置検出装置
JP2009116586A (ja) * 2007-11-06 2009-05-28 Denso Corp タッチ式操作入力装置

Also Published As

Publication number Publication date
ATE509308T1 (de) 2011-05-15
DK2229617T3 (da) 2011-08-29
CA2707993A1 (en) 2009-06-11
CN101971128A (zh) 2011-02-09
US9582115B2 (en) 2017-02-28
PL2229617T3 (pl) 2011-12-30
ES2366490T3 (es) 2011-10-20
WO2009071121A3 (de) 2009-08-13
EP2229617A2 (de) 2010-09-22
CA2707993C (en) 2015-06-23
EP2229617B1 (de) 2011-05-11
HK1153555A1 (en) 2012-03-30
WO2009071121A2 (de) 2009-06-11
JP5060622B2 (ja) 2012-10-31
CN101971128B (zh) 2013-07-17
US20110102320A1 (en) 2011-05-05

Similar Documents

Publication Publication Date Title
JP5060622B2 (ja) 画面と指示体との間でインタラクションを行うためのインタラクション装置
US6634749B1 (en) Eye tracking system
TWI470507B (zh) 具可切換漫射器的互動式平面電腦
US9852339B2 (en) Method for recognizing iris and electronic device thereof
EP1341119A2 (en) Iris recognition system
CN108885341A (zh) 基于棱镜的眼睛跟踪
JP6675064B2 (ja) 照合装置
JP5956479B2 (ja) 表示装置及び視線推定装置
US10803988B2 (en) Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment
JP2005198743A (ja) 三次元視点計測装置
JP2013182062A (ja) 表示装置および投影装置
JP2009240551A (ja) 視線検出装置
US11822714B2 (en) Electronic device and control method for capturing an image of an eye
US10867492B1 (en) Systems and methods for discreet imaging of a scene
JP2015061211A (ja) 処理装置
CN107783292A (zh) 可以采集用户虹膜信息的头戴式可视设备
US10928894B2 (en) Eye tracking
KR100557037B1 (ko) 홍채 인식 시스템의 눈위치 표시장치
WO2014171644A1 (ko) 거울을 이용한 증강현실 시스템
US20230403449A1 (en) Closed loop photography
CN106662911A (zh) 在媒体中使用参考帧的注视检测器
US20240184133A1 (en) Air floating video display apparatus
US20230401884A1 (en) Biometric authentication device
WO2021210225A1 (ja) 電子機器
KR101513976B1 (ko) 뷰파인더를 사용한 타인 인증용 홍채 인식 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120803

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5060622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees