JPS63223819A - グラフィック物体を操作する方法及び装置 - Google Patents

グラフィック物体を操作する方法及び装置

Info

Publication number
JPS63223819A
JPS63223819A JP63033843A JP3384388A JPS63223819A JP S63223819 A JPS63223819 A JP S63223819A JP 63033843 A JP63033843 A JP 63033843A JP 3384388 A JP3384388 A JP 3384388A JP S63223819 A JPS63223819 A JP S63223819A
Authority
JP
Japan
Prior art keywords
sensor
ray
frame
light
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63033843A
Other languages
English (en)
Inventor
ポール マッカビネイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SENSOR FUREEMU Inc
Original Assignee
SENSOR FUREEMU Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SENSOR FUREEMU Inc filed Critical SENSOR FUREEMU Inc
Publication of JPS63223819A publication Critical patent/JPS63223819A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/405Beam sensing or control, i.e. input interfaces involving substantially immaterial beams, radiation, or fields of any nature, used, e.g. as a switch as in a light barrier, or as a control device, e.g. using the theremin electric field sensing principle
    • G10H2220/411Light beams

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、光学的手段を用いて、複数の光遮断物体の位
置、空間的方向及び/又は速度を検出する方法及びこれ
に関連する装置に関し、コンピュータ端末ディスプレイ
モニターに用いたとき特に有利になるようにしたもので
ある。
(従来技術の説明) コンピュータに関しては、特定のグラフィック物体に注
意を向ける際、従来のキーボード入力に変えて該物体を
指すようにした種々の装置が知られている0例えば、ラ
イトベンや所謂「マウス」等がコンピュータのビデオモ
ニターに表示された物体を指す手段として知られている
。更に又、限られたメニューの中から特定のものを指し
て選択を行なえることも知られている。
1つの物体で複数のビームを遮断し、該物体を表示する
ことも既に行なわれている。これについては、例えば米
国特許第3673327号及び第4517559号を参
照することが出来る。更に又、広範囲に分散した光ビー
ムを遮ぎることによりセンサー配列の集合を部分的に遮
断することも知られている。これについては、米国特許
第4247767号を参照することが出来る。
更に、複数の電荷結合素子(CCD )を用いて1個の
物体のx−y軸座標系の位置を決めることも知られてい
る。これについては、エレクトロニックデザイン、19
80年9月27日、139−143(a)及び43 (
b)に記載された、「分解能が高い光タッチパネルのC
CDJを参照することが出来る。
このように従来からいろんな技術が開示されているが、
複数の物体の位置及び空間方向並びに該物体の速度を正
確に表示出来るようにした装置の出現が真に望まれてい
る。
(発明が解決しようとする課題) 本発明は前述した要請に合致するものである。
本発明の方法及び装置は、複数のグラフィック物体の位
置、空間方向及び速度を決めるための正確な手段を明ら
かにするものである。
本発明は、フレーム部の中に導かれる多数の物体の位置
、角度又は方向及び速度を速やかに且つ効率よく決定す
る周辺走査装置を提供することを目的としている。
本発明は、前述の目的を達成し、グラフィック物体の操
作、例えば翻訳、回転、スケール化(sealing)
等を効率よく行なえる方法及び装置を提供することを更
に目的としている。
本発明は、グラフィック物体又はその構成要素の位置及
び方向を操作し、グラフィック物体の合成及び分解(組
立て及び分解)を行なえる方法及び装置を提供すること
を更番こ目的としている。
本発明は、検知した物体の位置、方向及び速度を、経済
的且つ簡単にリアルタイムで決定出来るシステムを提供
することを更に目的としている。
(課題を解決するための手段) 本発明を用いるには、ビデオモニターを設け、該モニタ
ーに隣接してフレームを設け、フレーム内の空間を照明
出来るようにし、複数の光センサーをフレームの内部に
略向かうようにしておけば良い。
本発明の方法は、複数の光遮断物体を用いてセンサーに
達する光の一部を遮断し、センサーの個々の要素上に衝
突する光の位置及び強度に応答して、そのセンサーから
信号を発するようにしている。光遮断物体を用いてビデ
オモニター上のグラフィック物体を分離したり、選択し
たり、微細にしたり、操作することが出来る。
望ましい装置はビデオモニターの前方に設けられたフレ
ームと、均一な照明を行なう照明手段と、少なくとも照
明の一部を受ける複数のダイナミックRAMセンサーを
有している。
本発明の方法及び装置は、ビデオモニターを用いること
なく、音楽、その他の聴覚出力を発生させるようなその
他の目的にも用いることが出来る。
本発明のこれ等及びその他目的は添付の図面に基づく以
下の本発明の説明からより完全に理解されるであろう。
(望ましい実施例の説明) ここで用いられる「グラフィック物体」という用語は、
原文どおりの1つ又は2つ以上の要素、コンピュータビ
デオモニター等に表示されたグラフィック要素又はその
結合を意味するものである。
ここで用いられる「光遮断物体」という用語は、少なく
とも光の一部を遮断する1つ又はそれ以上の不透明物体
を意味し、もしこの物体がなければ光は光センサーに突
き当たることになるであろう物体を意味する。この語句
には、指、足、細長い物体、例えば棒、鉛筆、ブラシ等
この目的に適合するその他物品が含まれるが、これらに
限定されるものではない。
ここで用いられる用語「フレーム」又は「フレーム部材
」は、1つ又はそれ以上の光源と、フレームサイズに拘
わらず少なくとも光の一部を受ける複数のセンサーを備
えた装置を意味する。当該語句には、例えば長方形、正
方形、円形等の形状からなる連続的に閉じたフレームや
、従来の意味に於けるフレームの形状ではなく所望の位
置にて所定の光源と幾つかのセンサーを有する不連続構
造のフレームが含まれるが、これらに限定されるもので
はない。
第1図に略長方形のフレーム部材を示している。
フレーム部材にはハウジングを設けてもよく、該ハウジ
ングは例えば金属又はその他適当なプラスチック樹脂に
て作られる。フレーム部材は、コンピュータのビデオモ
ニターの前方に、該モニターに接近させて設けるのが望
ましい0図示のフレーム部材は画像表示部(4)を有し
ており、必要に応じて段差部(オフセット領域)(6)
が設けられている。光源は、光源エキサイタ−(10)
によって励起されるネオン管が有利であり、光源ディフ
ューザのセクション(12) (14) (16) (
18)の中に配置される。
必要に応じて、適当な光源フィルターを設けることによ
り、光の強度を所定範囲内に維持出来る。
光源フィルターは、フレーム内部の開口全体への照明を
略一様にする役割を果たす。
図示の実施例では、望ましい光センサーの一群は、フレ
ームのコーナ部に設けられ、角度方向が調節可能にプリ
ント回路基板に取り付けられている。各光センサーには
、光集束用のレンズを適当なハウジング内に設けるのが
望ましく、これによってフレーム内部から受けた光をセ
ンサーセルの上に正確に焦点を合わすことが出来る。セ
ンサー装置(20)にはレンズ系(22)が連繋され、
センサー装置(24)にはレンズ系(26)が連繋され
、センサー装置(28)にはレンズ系(30)が連繋さ
れ、センサー装置(34)にはレンズ系(36)が連繋
されている。
本発明の系を最大限有効に利用出来るようにするため、
センサー装! (20) (24) (28) (34
)はダイナミックRAMチップを用いることが望ましい
6例えば、64にのRAMは、各々が32768個のセ
ル(128X256)からなる2つの独立した長方形の
アレイ(arrays)から構成される0本発明におい
て求められるz軸の位置情報を提供するため、レフティ
リニアアレイをリニアアレイと区別して用いることが望
ましい。レフティリニアアレイの行(rows)間隔を
より広くし、これに対応して濃密な光源を供することに
より、Z軸の位置と角度の測定能力を向上させることが
出来る。センサーはシルエット画を得るカメラとして作
用する。この種のセンサーに於ける各々のセルは、セン
サーに当たる光が充分に強くて所定の強度(inten
sity)である場合、出力はOとなり、強度がそのよ
うなレベルに達しない場合、出力は1となる。本発明に
使用される適当なソリッドステートセンサーとして、ミ
クロンテクノロジー インコーホレーテッド(アメリカ
合衆国 アイダホ州 ボイス)社が商標名rIS32オ
プチックRAMJで販売するものが挙げられる。
本発明では、望ましい光センサーとしてダイナミック 
ランダム−アクセスメモリーを用いている。この種のセ
ンサーが、電荷結合素子のようなその他ソリッドステー
ト光センサーよりも優れている点は、これ等のセンサー
が視野の任意の点の対して数マイクロ秒にて簡単にアク
セスすることができ、グレースケール(gray−sc
ale)の情報を送らなくてもよいことにある。これに
よって、輪郭(エツジ)の検出を容易に行なうことが出
来るから、インターフェースの形成が容易でしかも費用
は安価である。
本発明で使用する望ましいセンサーは、レフティリニア
アレイのセルを有しており、X軸、X軸及びZ軸のフレ
ームワークに於ける物体の位置を決定出来るようにして
いる。モニターされているスクリーン領域の中に物体が
存在することを初期決定するには、センサー要素の中の
リニアアレイだけを用いればよい。例えば、指の角度の
ように方向に関する決定を行なうにはセンサーセルの中
の2つ又はそれ以上のりニアアレイがモニターされる。
次に2軸が使用される。
第1図を参照すると、ディスプレイ画像領域(4)の中
にグラフィック物体がコンピュータによって表示される
。オフセット領域(6)は必ずしも必要ではないが、光
遮断物体によるゼスチャーの意味の説明が幾つかの説明
的な視覚表示の形態にて使用者にフィードバックされ、
その視覚表示が使用者の手でふさがれることなく使用者
に見えるようにすることが望ましい場合、オフセット領
域を設けることは有利であり望ましい、オフセット領域
(6)はこの目的のために用いられる0例えば、グラフ
ィック物体を移動させる場合、使用者の手の右から2イ
ンチの部分がオフセット領域にディスプレイされ、その
手が使用者の物体視野を遮断しないであろう。もし使用
者が物体をスクリーンの左端部に移動させたい場合、左
側に2インチのオフセット領域を設けることによって、
手は画面の左端部を越えた位置で検知されるため、使用
者はその手によって視野を妨げられることはない。
説明の都合上、フレーム<2)と、コントローラと、光
源と、ディフューザーとセンサーを組み合せたものを商
標名「センサーフレーム」又は「センサーフレームデバ
イス」と称するものとする。
第2図は本発明で用いられるセンサーチップを示してい
る。チップは、サイズが等しいセンサーセルからなる2
つのアレイ(37) (38)を一定の間隔をあけて設
けたものである。センサーとしてダイナミックRAMチ
ップを用いることが望ましいが、例えば電荷結合素子(
CCD)のように、分離したセンサーのアレイを用いて
光を検出できるものであれば任意のデバイスを用いるこ
とが出来る。
ダイナミックランダムアクセスメモリー(DRAM)チ
ップの場合、ビットに対応するセルは「IJ又は「O」
として称される2つの状態の中の1つの状態にある。
DRAMチップのサイズは多様であるが、最も一般的に
は多くのセル又はビットを含んでおり、これは2つのパ
ワーである。センサーフレームデバイスに使われる望ま
しいDRAMチップは「64 K  D RA M S
 Jであり、これは65536のビットを含んでおり、
2つの長方形(第2図参照)として配列され、各長方形
は32768個のビット又はセルを含んでいる。セルは
スペクトラムの「近赤外線」の領域にある光を感知する
。各32にビットの長方形は128行(rows) X
 256列(C01U躊n)に配列される。
必要に応じて、より大きなく又はより小さな)DRAM
Sを容易に用いることが出来る。各DRAMはデータ(
1又は0)をセルの中に書き込むための1本の入力ライ
ン(例えばワイヤー)と、データをセルから読み取るた
めの1本の出力ラインを有している。セルの読取り又は
書込みの選択はDRAMに「アドレスJ(64K  D
RAMの場合ビット数は16)することによって行なわ
れる。実際には、殆んどの64K  DRAMSはアド
レスの読取りを行なうための「アドレスライン」は8本
しかないが、8本のアドレスラインだけでD RAMに
16ビツトのアドレスを行なう方法は、「マルチプレク
シング」と呼ばれ、当該分野の専門家であれば周知のこ
とである。
DRAMに一旦アドレスされると1又は0が書き込まれ
るか、或は先に記憶された値(1又はOの何れか1つ)
が読み出される。
センサーフレームデバイスの場合、走査される視野の位
置に対応したDRAMセルの中に複数の「1」が書き込
まれる。DRAMのセルは指又はその他の遮断物体によ
ってブロックされる部分を除いて光にさらされる0個々
のセルは部分的に掻く小さなキャパシターから構成され
、該キャパシターによって「1」に対応する電荷が保持
される。「IJが書き込まれた全てのセルは最終的に電
荷を失うが、赤外線光近傍にさらされたセルは遥かに速
く電荷を喪失して「0」になる0強度が適当な光源を用
いて露光時間を極めて注意深く選択することにより指に
ブロックされたセルは「1」を含み、ブロックされてい
ないセルは露光後「0」を含むことになる。
本発明では、固定された連続的光源を用いて光の模様(
通常は必ずしも長方形とは限らない)を形成し、これを
チップの上に焦点を結ばせる。第3図は、強度が均一な
長方形の光源からの光がレンズ系(図示せず)によって
センサーフレームに使用されているセンサーチップの1
つに焦点を合わせた状態を示している。チップの白色棒
部(39)は、長方形の光源からの光が当たる部分を示
している。
人間の指(40)のような1つ又は2つ以上の物体が光
源(41)とレンズ/センサー装置(42)との間に置
かれると、物体は光源から発せられる光を部分的に遮断
する。物体の影によって、シルエット又は光遮断物体の
形状の輪郭がセンサーの上に形成される。第4図はこの
現象を示している。
カメラのように物体から反射される光を用いて像を形成
することにより、光源を不要にすることは望ましいと考
えられるが、この方法は幾つかの理由によって望ましく
はない、先ず第1に、反射された光の強さは2つのファ
クターに依存しており、これ等のファクターは感知され
た物体の反射率(ref Iectivity)及び室
内光の強度をコントロールすることは極めて難しいため
である。更に又、強度が非常に高い光を用いて物体を照
明するときでさえも、反射された光の強さ及び得られる
像のコントラストは、ここに記載する光遮断方法を用い
て得られる場合よりもかなり小さくなる。このため、露
光時間を長くせねばならなくなり、リアルタイムの実施
やアンビギティ−の分解(disambiguatio
n)を行なうことが実験室環境の外では極めて困難なも
のとなる。
光学的な構造には制約があるため、各センサーからの9
0度視野を感知することは一般的には実用的でないし、
更に又感知された物体に非常に近い位置にあるセンサー
からの情報を用いることも実際的ではない、このため、
位置を演算(calculate)するとき、本発明で
は物体と略反対側のフレームの端部にあるセンサーだけ
の情報を用いる。
例えば、長方形のセンサーフレームデバイスの縦横比を
縦よりも横を長くした場合、フレームの右半分の物体の
位置を演算するのに左上と左下のセンサーが用いられ、
フレームの左半分の物体の位置を演算するのに右上及び
右下のセンサーが用いられる。第5図乃至第7図は後者
の場合を示しており、フレーム内のハツチングした領域
は各センサー(43) (44)によって走査された領
域を示している。
遮断物体の位置の決定は、隣り合うセンサーを一対にし
、(いつもそうとは限らないが通常は長方形フレームの
短辺側の2つのセンサー)、次にセンサー(ベースライ
ン距離)と、物体の視中心(visual cente
r)を通る各センサーからのラインとによって形成され
た内部角度間の既装置の距離を用いて行なわれる。この
「角度−側辺−角度(arByle−side−ang
le)」の情報を用いて物体のX位置及びy位置の演算
を行なうことが出来る。
第8図及び第9図はこの処理方法を詳細に示している。
第8図では、センサー(43)が実際に感知するのは光
遮断物体(46)の左エツジ(44)及び右エツジ(4
5)だけである、センサーフレームデバイスのコントロ
ーラは、ベースライン(47)(位置決めするために対
にした2つのセンサー間のフレームの側部)と感知した
物体(46)の左右エツジとの角度を示す数値を記憶す
る。2つの数値が記憶され、第1の数値はベースライン
と物体の左エツジとの角度に対応し、他方の数値はベー
スラインと物体の右エツジとの角度に対応している。こ
の左右エツジ対は、各センサーが感知した物体毎にコン
トローラによって記憶される。これ等の数値を含むコン
トローラの内部テーブル(internal tabl
e)はレイリスト(raylist>と呼ばれる。左エ
ツジ角度/右エツジ角度の各対はレイリストの中のエン
トリー、即ちインプットデータであり、「レイ(ray
) Jと呼ばれる。
物体の左エツジ角度と右エツジ角度を平均した角度がそ
の物体の視中心(48)を通る線の角度を表わす(第8
図及び第9図参照)、隣り合う2つのセンサーと物体の
視中心を結ぶ線の角度は物体の位置を演算するのに用い
られる。
第9図に角度Aと角度Bを示している。角度Aはベース
ライン(47)とライン(49)との間に形成される角
度を示し、ライン(49)は左上センサーと物体の視中
心を結ぶ線である。角度Bはベースラインとライン(5
0)との間に形成される角度を示し、ライン(50)は
左下センサーと、物体の視中心(48)を結ぶ線である
。角度A、B及びベースライン(47)の長さを「角度
−側辺−角度」の三角関数の公式の中に当てはめること
により、物体の視中心のX位置及びy位置を容易に得る
ことが出来る。
本発明の目的の1つは、多数の光遮断物体の位置、角度
及び速度をリアルタイムで検出することにある。例えば
、車や楽器を、リアルタイムでコントロールできる程の
十分な速さで複雑なゼスチャーを豊富に分類できる安価
な手段を提供することが要望される。
ゼスチャーを光学的、即ち視覚をベースにして認識する
のに原理が異なる2つのアプローチがある。これ等は「
透視走査(perspective 5can)」方法
及び「周辺走査(peripheral 5can)」
方法に分類される。透視走査方法はビデオカメラを使用
者の手の上又は下のどちらかに置くものである。この方
法の利点は手の全体を一度に見ることが出来る点にある
。この方法の不利な点は、ここに記載した方法と較べ、
走査速度が遅くハードウェアの費用がかなり高く付くと
いう点にある。
センサーフレームデバイスは周辺走査方式のセンシング
デバイスである。これは本来的に透視走査デバイスより
も走査速度は速いが、潜在的に2つの問題を有している
。潜在的な問題の1つは遮断性(occlusion)
である。周辺走査デバイスの場合、使用者の指は互いに
ブロックし合い、トラッキングが困難となる。センサー
フレームデバイスの構造の場合、遮断(ブロック)した
指のエツジの動きの履歴を維持することによって当該指
を追跡することが可能となる。第2の潜在的な問題はア
ンビギティ−(ambiguity)である、異なる2
つの指の位置形状を一対のセンサー上に同じパターンを
作り出すことが可能になる。これに別名を付け(ali
asins)、ここでは「パターンアンビギティ−」と
いうものとする、この問題は、「テンボラルディスアン
ビュギュレイション(temporql disamb
iguation)」と言われる方法を用いて解決する
ことが出来る。これについて簡単に述べると、時間分解
能が非常に高いため、速やかに走査することにより2つ
若しくはそれ以上の指の形状を選択して、どの櫓が最初
に視野の中に入ったかということ、即ちどの指が真のも
のであるかを知ることが出来る。
第10図は2本の指(81)(82)が右側にあるセン
サー対(2B> (34)の視野の中に入った状態を示
している。指とセンサーとの間には、光源をさえぎる指
のシルエットによって「レイ」が生じている。センサー
フレームデバイスの視野を走査する毎に、これ等レイの
リスト(レイリストといわれる)が各センサー毎に集め
られる。レイは4つの領域A、BJC,Dにてオーバー
ラツプしている。同じレイのオーバーラツプパターンは
、指を縦方向(第10図の(81)(82)で示す指の
位置)に並べるか、或は横方向(第11図の(83) 
(84)で示す指の位置)に並べるかによって作り出す
ことが出来る。この結果、2つのパターンの内、真のパ
ターンのアンビギティ−が得られる。このパターンのア
ンビギティ−は多くの手段によって分解することが出来
る。これ等の手段として、テンポラル ディスアンビギ
ュレイションが挙げられるが、これに限定するものでは
ない、これは、との、指が最初に到達したかを追加のセ
ンサーを用いて追跡し続けるもので、使用者の指のサイ
ズのような使用者の生理学的及び/又はツールに関する
知識をベースにして遮断解除(clisoeclusi
on)される。
例えばグラフィック物体を90度回転させる系を用いる
場合、使用者はグラフィック物体が含まれるビデオモニ
ターの近傍に2本の指を位置決めする0次に指を一体に
して回転させる。系は初期位置、方向及び回転角度を決
定し、コンピュータによってグラフィック物体は所望の
方向に90度円弧状に回転させられる。
系の他の使用例では、指をモニタースクリーン上のグラ
フィック物体に指すことにより、指の2軸に対する角度
を決めることが出来る。これは、特定のグラフィック物
体を移動させるようにコンピュータに指令するもので、
Z軸に関する指角度によって移動させるべき方向が決め
られる。指を取り除くとグラフィック物体の移動停止の
指令が与えられるように作用させることが出来る。
第12a図乃至第12c図は多数の指(この実施例では
2本)をどのように用いて表示された物体を選択し、該
物体の操作を行なうかについての説明図である。第12
a図に於て、フレームは正方形(50)、三角形(51
)、円(52)である、第12b図に示す様に、使用者
の指(53)(54)を用いて長方形(55)の対角線
の両コーナ部を決定する。指(53〉(54)によって
長方形のサイズと位置が決められる。
長方形(55)の内側に完全に含まれる一切の物体が操
作され、長方形(55)の中に完全に含まれない任意の
物体は操作されない0例えば、第12b図において正方
形(50)と三角形(51)は選択されるが、円(52
)は選択されない。第12c図では3つの物体は全て長
方形り56)の中にあるから、全部が選択される。
第13図は2本の指をどのように用いることにより、ビ
デオモニターに表示されたコントロールパネルのノブを
回転させることが出来るかについて示している。(a)
は戻り止め(detent)位置が5つあるノブ(56
)を示しており、夫々、3.4.5の位置を指している
。(b)において、指(57) (58)を時計方向に
回転させたとき、センサーフレームデバイスはそれ等の
位置の情報をパネルコントロールプログラムに送る。ノ
ブ(56)はこれに応答して、指(57) (58)の
対応する位置まで回転する0列(b)のシーケンスはノ
ブの上と下に置かれた指(57)(58)を示している
が、正確に位置決めする必要性はない。もし、一方の指
(57)がノブ(56)の中心上にあり、他方の指(5
8)がノブの周辺部にあるとき(例えば(c)を9照)
、同じ効果を順番に得ることが出来る。このようにセン
サーフレームデバイスを用いたときの真に重要な点は、
指をノブの近傍に置きノブを所望の戻り止め位置に回転
させるのに十分な角度だけ指を回転させることにある。
第14a図及び第14b図は、多くの指のゼスチャーを
どのように用いることにより、オシロスコープ、論理ア
ナライザー、波形関数ゼネレータ等の複雑な器具をコン
トロール出来るかを示している。
これらの図面に於て、2本の指(59) (60)は波
形関数ゼネレータによって作られる方形波(61)の周
波数と振幅をコントロールするのに用いられる。
第14a図において、使用者が指(59) (60)を
夫々表示された波形の上ピークと下ピークの近傍に載せ
た状態を示している。第14b図は指(59)(60)
間の距離を離したときに起こる状態を示している。
形成された波形の振幅は指(59) (60)の移動量
に比例して変化(この場合は大きくなる)して波形(6
1’)が作り出される。
第15a図及び第15b図は同様の方法が周波数のスケ
ール化(scaliB)に用いられることを示している
。使用者は2本の指(62) (63)を横方向に向け
て置き、互いに接近するように移動させて、形成した波
形(64)(64’ )の周期を少なくさせる(従って
周波数は増加する)。
これ等の図はセンサーフレームデバイスを「コントロー
ルパネル」に用いた実施例を示しているが、これ等のゼ
スチャーをその他の用途、より複雑な用途に適用出来る
ことは理解されるであろう。
第16図に本発明のセンサーとして使用するのに望まし
い光学系及び動的RAMセンサー配列の1つの形態を示
している。フレーム内部から送られる平行な光線(ra
ys)は矢印「L」で示すように入射する。一定の間隔
をあけて設けた一対の焦点レンズ(52) (54)に
よって入射光は(56)の位置で集束し、フレームの中
に存在する遮断物体の像がセンサーアレイ(60)の上
に結ばれる。この実施例に於ては前部の第ルンズは焦点
長さ378インチの両凹レンズ、第2のレンズ(54)
は焦点長さ174インチの両凸レンズである。
第17図は本発明の「独立(stand −alone
)」の実施例を示している。ホストコンピュータ(60
)はケーブル(66)によってコントローラ(64)に
接続される。DC電源及び光源同期要素(70)はケー
ブル(71)によってコントローラ(64)に接続され
る。高電圧のAC電源(73)は高電圧ケーブル(74
)によってフレーム光源に接続される。コントローラ(
64)はケーブル(78)によってフレームセンサー装
置(20) (24) (28) (34)に接続され
る。高電圧供給源(73)が光源を励起することによっ
て作動状態となる。必要に応じて、コントローラ(64
)をホストコンピュータ(60)のハウジング内の位置
要素として設けることも出来る。
人間の指のような物体によって光源の像を遮断すると、
遮断物体のエツジに対応したエツジを有する影が、セン
サーに形成された像の中に現れる。
なお、ここで用いられる用語「レイ(ray) Jは遮
断物体によって形成される影のことを言うものとする。
物体が移動すると、レイはそれに対応して移動する。
本発明の一実施例ではホストコンピュータ(60〉は遮
断物体のx、 y及びZ軸座標を決定する「物体の追跡
」機能と、各センサーのレイの履歴(history)
を維持する「レイの追跡」機能を有している。しかし乍
ら、望ましい実施例では、コントローラ(64)によっ
てこれ等の機能が実行される。
コントローラクロ4)によってレイリストが作られる。
レイリストは最新に露光されたセンサーに見られるレイ
のリストである。レイリストは、レイ及び物体をトラッ
クするソフトウェアへの入力として、コントローラ(6
4)からホストコンピュータ(60)に送られる。この
送信は、例えば約30−35ミリ秒毎に行なうことが出
来る。レイリストはセンサーを走査することによってコ
ントローラ(64)の中に形成される。ホストコンピュ
ータ(60)によって各センサーのレイリストを維持す
る。「レイ経路(raypaths) Jには、所定の
センサーの所定物体に対するレイリストから抜き出した
最後のn個のサンプルを含んでおり、ここでnは用途に
応じて変化するものである。各センサーのレイ経路に関
連づけられたリストは、経路リスト(path fix
t)と呼ばれる。「単純なレイ経路」は、センサーへの
光線が、例えば指のような物体によって全く遮断されて
いないときのものである。rクラスター(cluste
r) Jは、二重に関連づけられたレイ経路のサブリス
トであり、一部又は全部を遮断した物体について1つの
センサーから見た状態を現わしたレイの経路がサブリス
トの中に入れられている。レイリストが順次得られ、各
レイリスト毎に得られる情報を先のレイリストのものと
比較することによって、物体の位置、方向及び速度の変
化を決定することが出来る。この情報を用いてビデオモ
ニターのグラフィック物体を変更することが出来る。
本発明の方法及び装置に必要な機能を実行するためのソ
フトウェアを提供するのに種々の手段を用いることが出
来る。以下の説明では、出願人が本発明の装置及び方法
を実施するのに最良の形態であると考えられるものを示
す。
第18図は、センサーフレームデバイスから物体のリス
トを得るのに用いられるアプリケーションファンクショ
ンのフローチャートを示している。
センサーフレームの読取り機能(80)の初めに、(8
2)にてセンサーフレームが新たなデータを持っている
かどうかが判断される。もし新たなデータを持っている
場合、レイリスト獲得機能部(84)を呼び出すことに
よって、コントローラ(64)を通じて更新されたレイ
リストが得られる0次に、物体の追跡機能部(86〉が
呼び出される。もし、物体の追跡機能部(88)によっ
て戻されたリストの中に物体が見出だされると、物体表
示機能部(90)を用いることにより、ユーザプログラ
ムによってビデオ端子上に物体がディスプレイされる。
もし物体が見f寸からない場合、機能は(92)に戻さ
れる。
第19図は物体をトラッキングするのに使用される物体
追跡機能部のフローチャートを示している。この機能は
別に4つの機能を用いており、新たな物体を確認し、既
知の物体の移動を追跡する作用を行なう。
物体追跡機能(100)の初めに、[レイインデックス
(ray 1ndices)Jが増加(102)される
、これによって、更新されたレイの情報が全て円形のバ
ッファの中に書き込まれ、レイの先のサンプルに間する
情報が、不要になるまで保持させることが出来る。
例えば、過去のレイ情報を用いて現在のレイの位置と先
の位置との違いを調べることによって速度を得ることが
出来る。
小さすぎるか、又は大き過ぎるために有用でないレイは
、レイのフィルター機能(104)によって取り除かれ
る0例えば、人間の指を物体として用いる場合、人間の
指を表わすには狭過ぎるレイを取り除いておけば追跡速
度や信頼性を更に高めることが出来る。フィルターのパ
ラメータは一般的にはアブリゲーションに応じて決めら
れるもので、ユーザープログラムによって変更させるこ
とが出来る。
レイ追跡機能(106)によって以前に知られた物体に
関連するレイの動きを追跡し、レイリスI・の中に過去
に存在したレイとマツチ、即ち整合しないレイが見出だ
されると新たなレイ経路が作り出される。これによって
、レイの位置が更新され、新旧のレイの重なりをチェッ
クし、レイの併合(mergiB)と分割(split
ting)が行なわれる。これは一方の物体が他方の物
体の後ろを通過するときに起こる。
センサーの多対に対する両レイ結合機能(108)は、
2つのレイ経路が共に時間的に接近して作り出されなけ
ればならなかったという制限の下で、センサー対の各セ
ンサーの新たなレイ経路を見出だそうとするものである
。両レイ結合機能(108)が十分短い期間内に作り出
された一対のレイ経路を見つけると、それらは、同一物
体によって生じたものと仮定され、物体データ構造を作
り出してその新たな物体を表す。2つのレイ経路は次に
新たな物体に結合され、該物体は結合したレイ経路がな
くなるまで存在する。(110)では、物体が存在しな
い場合、物体追跡機能は呼び出し機能(114)に戻さ
れる。
存在物体の更新機能(112)は幾つかの役割を果たす
。指の塊、即ちクラスター(cluster)が検出さ
れると、この機能によって物体の大きさが指1本の大き
さよりも大きいかどうか調べられる。この機能は更に又
、レイ追跡機能(104)によって先に更新されたレイ
経路の中の最新の情報に基づいて物体の現在位置をプロ
ットする。この機能は更に又、先に物体と結合しなかっ
たレイ経路を探し、それらを存在する物体に結合させよ
うとする。更に又、この存在物体更新機能(112)は
、各々が物理的に同一な物体を表わすセンサーの多対か
ら物体構造を検出するとき、2つの物体構造を1つに結
合しようとする。これは両物体のxy平面の絶対位置が
十分に接近している時にだけ成功する。
コントローラ(64)(第17図参照)によってセンサ
ーが形成した視野を走査させてレイリストを得るときの
望ましい態様を示すフローチャートを第20図に示して
いる。第21図に於て、スナップショット機能(130
)は、光源(ネオン管又は蛍光管で60Hzにてフラッ
シュのオン・オフが行なわれるものが望ましい)が所定
の明るさに達するまで待機する(132) 、これは、
センサーの書込み/走査サイクルを、光源の電力源とし
て使用される6011zの周波数に同期化させることに
よって行なわれる。同期化回路(150)(151)(
第18図)が断たれると、露光準備状態であることを示
す。
(134)にて、複数の「1」を適当なセンサーセルに
書き込みを行ない「1」レベルにした後、スナップショ
ットのルーチンによってセマ(Se+ma)分析機能(
138)に信号(136)が送られる。セマ分析機能(
138)によって先の露光結果の処理がスタートする。
スナップショット機能(130)はセンサーセルが露光
(146)されるのを待っている間、セマ分析機能(1
38)が先の露光(140)の結果を処理することが出
来、レイ送信機能(142)を呼び出すことが出来る。
レイ送信機能(142)は第21図のホストインターフ
ェースコントローラ(152)によってホストコンピュ
ータ(60)にレイリストを送る。このようにして、コ
ントローラのレベルで処理する低レベルの像と並行して
露光が行なわれる。センサーの露光が完了すると、スナ
ップショットはタイマーが切れで第21図のクロック/
カウンター(151)から第21図のコントロールマイ
クロプロセッサ−(153)へ再びスケジューリング<
146)が行なわれる。次に、像の割込み(inter
ruption)(148)をリセットし、スキャナー
機能(150)を呼び出して先に「1」が書き込まれた
センサーセルが読み出される。光源に露光されたセルは
ゼロとなり、感知される物体によって遮断されたセルは
電荷をそのまま維持しているから、「1」として読み出
される。
スキャナー機能(150)は大変能率よく実行され、ソ
フトウェア−とハードウェアーの組合せを用いることに
より、高速で露光出来る。センサーセルの読取りは、ル
ープによらずに、未展開の読取り命令シーケンスによっ
て各セルに対し1回行なうのが望ましい。各々の読取り
命令によって、全てのセンサーの同じセルが並行して読
み取られる。
読取り命令によって読み取られたデータの状態をテスト
する命令はない。テスト及び条件付き分岐命令を省略す
ることによって、これら命令を実施する場合に較べ、約
3倍速く走査することが出来る。
第21図において、スキャナー機能(150)がセンサ
ーからのデータを読み取る前に、コントロールレジスタ
ー(156)の最低オーダーのNビットに対し、全て「
0」の書込みが行なわれる。ここでNはセンサーフレー
ムデバイスに用いられるセンサーの数である。センサー
の読取りが引き続き行なわれると、センサーからの入力
データはNビットのデータバッファ(157)に現われ
、そのデータはコンパレータ(155)によって、コン
トロールレジスター(156)に先に記憶されたデータ
と比較される。もし新たに読み取られたデータ(15)
)が先のデータ(156)とマツチしない場合、像側込
みラッチ(154)がセットされ、コントローラマイク
ロプロセッサ−(153)への割込みが行なわれる。マ
イクロプロセッサ−(153)はクロック/カウンター
(151)、ホストインターフェースコントローラ(1
52)、ROM / RA M (148)及び光源同
期回路(158)と協同して作用する。
これが起こると、像の割込みを取り扱うルーチンを用い
、パターンが変わったセンサーセルの列(カラム)アド
レスを演算するため割り込みしたアドレスの読取り命令
が出される。新たに読み取られたNビットのパターンは
、先にコントロールレジスター(156)の中に記憶さ
れたパターンと比較され、各ビットが異なっている場合
、読み取ったセンサーのカラム数が、入力が変化したセ
ンサーのレイリストの端部として記憶される0次に、新
たなNビットパターンはコントロールレジスター(15
8)の最も低いNビットの中に記憶され、割込み取扱い
手段はスキャナーのルーチンのコントロールに戻る。こ
のルーチンは、別のパターン変化によって割込みが行な
われるまで、又はセンサー(150)のカラムの全ての
セルの読取りが終わるまで続けられる。
第22図はレイ追跡機能のフローチャートを示している
。レイ追跡(160)の初めに、センサー数は0にセッ
トされ、第1のレイ経路はこのセンサー (164)に
フェッチ(fetch)される、レイ経路(166)が
ない場合、センサー数は大きくなる。もし全てのセンサ
ーをチェックして経路リスト(170)に空白のものが
ない渇き、オルファン(Orphans)発見機能(1
72)が呼び出され、既に存在するレイと整合すること
が出来なかった全てのレイが見つけ出される(このよう
にして新たなレイが発見される)。
オルファン発見機能が呼び出された後、レイ追跡機能は
リターンする(174) 、レイ経路のリストに空白が
ない各センサーに対しては、レイ追跡機能がレイ経路リ
ストを2回トラバースする。第1回目のバス(178乃
至182)にて、レイ整合(match)機能(178
)が呼び出される。この機能は先に記録したレイの位置
を利用し、先に記録したレイの速度情報を用いてレイの
現在位置を推定する。マツチしない場合、レイはマーク
されてレリースされる(190)。数回走査を行なって
も経路が依然としてマツチしない場合、レリースされる
。もしそれが物体に結合された最後の経路の場合、その
物体はレリースされる(190) 、もし、経路リスト
(182)にそれ以上の経路はなく、整合しない経路が
ある場” (184)、より速い速度(192)でレイ
と整合させる試みが行なわれる。レイ経路リストの第1
回目のトラバースにてクラスターに出くわすと、リスト
の2回目のパスが実行される(196乃至204)、ク
ラスターの存在が確認されるレイ経路には、1つのセン
サーから見える遮断物体のクラスターを現わしたレイ経
路を2重にリンクしたサブリストが含まれている。クラ
スター更新機能(200)が呼び出されてこのサブリス
トをトラバースし、クラスター内のレイの位置が演算さ
れる。この演算はクラスターの現在位置の左右両エツジ
と、クラスター内のレイ経路のエツジ−物体結合アトリ
ビュート(attributes)に基づいて行なわれ
る。クラスターのサイズが局所極小を越えていることが
見出だされると、逆転チェック機能(202)の作用に
よって、クラスター内の各レイ経路の左−右エツジを結
合アトリビュートを逆転させる。エツジと物体を結合す
るアトリビュートについては後で説明を行なう。
レイ整合機能(178)は、更に、2つの特別な条件の
内、1つの条件に達したかどうかを調べる。
先ず第1に、現在のレイ経路のサンプルが新たなレイリ
ストの中で少なくとも2つ以上のレイがオーバーラツプ
する場合、レイのクラスターは分割される。レイ経路の
クラスターは2つの部分に分したことになる。レイ経路
のクラスターを2つの部分に分割するとき、分割位置は
レイ経路のクラスターの中に新たに発見されたギャップ
の位置に応じて整合される。第2に、新たなレイリスト
の中のレイが所定のセンサーの2つ以上のレイ経路とオ
ーバーラツプする場合、2つの物体(又は物体のクラス
ター)は併合されたことになる。隣り会う2つのレイ経
路は同じクラスターに併合され、レイ経路の「エツジ結
合」と「物体結合」アトリビュートが記録される。
センサーフレームデバイスのセンサーはフレーム光源の
像をセンサーチップの上に結ばせる。人間の指のような
物体が光源の像をさえぎる場合、結ばれた像に影が現わ
れる。影のエツジは遮断物体のエツジに対応している。
ここで用いられる「レイ」は物体を遮断することによっ
て投げかけられる影を意味するもので、物体が移動する
とそのレイもそれに対応して移動する。
第23図はセンサーフレームデバイスの視野の中にある
2つの物体(207) (208)によって作られた2
つのレイが形成する角度の説明図である。この図は端末
のビデオディスプレイを見る位置から見た図である。第
23図はセンサーに感知されたレイを示している。第2
4図は2つのセンサーが感知したレイを示しており、他
方のセンサーは右下のコーナ部に設けられている。レイ
は2ケ所ではなく4ケ所で交錯するため、例えば第25
図に示すように、同じパターンのレイを2種類以上の配
列によって作ることができることを示している。
第26図に於て、破線(209)は左下のセンサーの視
野の輪郭を示している。センサーフレームデバイスの短
い方のエツジの各々に沿うセンサーの多対は、画像領域
の反対側半分にある物体を見ている。従って、図示の場
合、下部の2つのセンサーは画像領域の上半分を見てお
り、上部の2つのセンサーは画像領域の下半分を見てい
ることになるのである。
説明の都合上、第2311J乃至第27図は感知された
物体を表現するため、全体図表現法(overview
 notation)を用いて順番に示している。
全体図表示法を用いて2つ以上のセンサーから見た物体
を表現することができるけれども11つのセンサーだけ
から見える1つ又は2つ以上の物体の像を表現する表示
方法がより単純である。このより簡潔な表示方法を、こ
こではレイ変化(ray−transition)表示
法又はRTNと称するものとし、第28図に示す、可動
のフィルム片のフレームを用いて動作の幻影(i l 
fusion)を与える場合、R,TNを用いることに
より指位置のシーケンスをより簡単に表現することが出
来る。RTNでは、各フレームが所定の時間においζ1
つのセンサーから見えた物体の位置を示す。第28図は
隣り合う2つのフレームを示しており、2つの瞬間時刻
における指の「スナップショット」を示している。指は
ブラケット状の物体として表わされる。使用者は、セン
サーがフレームの左側から離れて置かれ、フレームの平
面内にあるものと見なすことが出来る。
この場合、フレーム上部により近いところで見られる物
体はセンサーから見た像の左側部により接近しており、
フレームの下部により近い物体はセンサー像の右側によ
り接近している。
第28図の時刻1と時刻2に於けるRTNの像は第26
図及び第27図に示す位置(207’ )、(208′
)及び(207” )及び(208”)に夫々対応して
いる。
第29図及び第30図に2つの表現法における遮断物体
く物体2)を示す、ここでRTN表現法の場合、使用者
が、もしセンサーがフレームの平面内のRTNフレーム
の左側にあると考える場合、物体2は物体3の背後にあ
ることになる。
尚ここで、望ましい実施例に於けるセンサーフレームデ
バイスはグレースケールの像を作らないことを思い起こ
すことは重要である。全ては黒色又は白色である。これ
は、第31図に示すように2つの物体が一緒に移動する
場合、物体の内側エツジは見えなくなり、より大きな一
つの物体という印象が残されることを意味する。このエ
ツジは見えなくなっても2つの物体を区別し続けること
が望ましいことは勿論であり、第32図のRTN表示法
では「時刻2」にて物体1と物体2の間のエツジを表示
し続けている。同様にして、遮断エツジの情報がセンサ
ーフレーム追跡アルゴリズムによって維持される。第3
3図及び第34図は2つの物体の併合をを逆転、即ち分
割を示している。
これらの表示法を用いてセンサーフレームデバイスから
見える物体の空間位置間係を描く場合、レイと物体の追
跡が本発明の中で行なわれることを描くことになる。
センサーフレームデバイスの場合、ソフトウェア−のW
I(layer)は、X軸及びy軸位置、並びに物体の
2軸回りの角度をリターンするが、これは「物体追跡」
層であって、物体追跡機能の中に含まれている。
物体追跡層の下にはレイ追跡層があり、レイ追跡機能の
中に設けられて各センサーのレイの履歴を維持し、一方
の物体が他方の物体の背後に移動したときレイを併合し
、一方の物体が背後がら出て来たときレイを分割する。
データ構造は、2つの物体追跡レベルに共通している。
これらには次のようなものがある。■レイリスト。レイ
リストはセンサー毎に維持するもので、センサーの内、
最新露光時に見られるレイのりスト(及びそのエツジ)
を維持する。これはセンサースキャナーによって作られ
る最も低いレベルの「生の」データである。■レイ経路
及び経路リスト。レイ経路と経路リストは、各センサー
毎に維持するもので、レイ経路と呼ばれるノードのリン
クされたリストが維持される。各レイ経路は、所定物体
のレイリストから抜き出した最後のn個のレイリストサ
ンプルを含んでおり、nはアブリゲーションに依存して
いる。各センナのために保持さ、れるレイ経路のリンク
されたリストは経路リストと呼ばれる。経路リストへの
エントリーは単純なレイ経路又はクラスターでよい。単
純なレイ経路は1つのセンサーが物体(例えば指)によ
って全く遮ぎられていない場合である。クラスターはレ
イ経路を2重にリンクさせたサブリストを有するレイ経
路である。サブリストの各エントリーは、1つのセンサ
ーが物体によって部分的又は全部が遮断された場合のレ
イ経路である。■物体。物体の構造は物体追跡アルゴリ
ズムによって見出だされた各々の物理的物体に対応して
いる。センサーの視野の中に物体がある場合(視野が遮
断されるかどうかとは関係なく)、内部物体構造はレイ
経路へのモンゼロポインター(non−null po
inter)を含む。
これらデータ構造の目的及び使用を明瞭にするため幾つ
かの実施例を示す。
第35図は光を遮断した指の連続的な「スナップショッ
ト」を4つ示している。この場合、左センサーからは、
指2が指1の背後を通過するように見える。感知した物
体を表わす各RTNフレームの下には、センサーレベル
にて物体の動きを追跡し続けるために用いられるレイ経
路のリストを構造的に表示している。
2つの指がフレーム2の中で「併合(merge)」す
ると、併合されたレイに対する現在のレイ経路リストは
1のレベルまで押し下げられ、クラスターされたレイ経
路を表わす新たなノードがトップレベルにて挿入される
。指2がフレーム4の指1の背後から表われると、トッ
プレベルのクラスターノードに対応する単一のレイが再
び2つに分割される。フレーム2に加えられるクラスタ
ーのノードは次に処分され、2つの元のレイ経路ノード
がトップレベルに表れる。もし2つの指が併合してしま
い、もう1つのレイが遮断されると、そのレイ経路は遮
断されたレイ経路のリストの中で2つの予め存在したレ
イ経路とリンクさせられる。
更に、指又はその他物体は、前述の実施例の如く最初に
登場したものが光を遮断させないようにするとは限らな
い、多くの場合アプリケーションに応じて、クラスター
の中に多くの指の存在が「推定(inferred) 
Jされなければならない。
第36図の上部に3つの指の全体図表示法によるダイヤ
グラムを示している。左センサー(センサー1)は3つ
の全ての指をはっきりと見ている!()131Bye’
)!十丑tfs kp ’y 廿/ Jq ’7廿n 
)/71 四点からは1つのレイの中に共にクラスター
されている。
各センサーの視野は約60度にしか過ぎないなめ、破線
を用いて全体図の中に視野の領域を線で描き、各領域の
中で物体を感知することの出来るセンサーの数を示すこ
とにする1例えば、全体図の中央部の菱形領域にある「
4S」はその領域では4つのセンサーが物体を見ること
が出来ることを示している。同じように、この実施例で
示す3つの物体が存在する領域の「2S」は2つのセン
サー、即ち下部対だけが3つの物体を見るることができ
ることをを示している。
第38図は内部センサーフレームデバイスのデータ構造
の中におけるレイリスト、レイ経路、経路リスト及び物
体の関係を示す図である。
物体(ここでは物体は指2を表わしている)は第38図
の左上コーナ部に示されている。物体構造には、とりわ
け指2と整合するレイの履歴を含んだレイ経路へのポイ
ンターを含んでいる。これは、指2を見ることの出来る
各センサーに対して行なわれる。従って、指2について
はセンサー2と3から見えないため、物体はセンサー2
と3(フレームの上部)のポインターは含んでいない。
この内部データ構造図に於て、小さな長方形枠の中に記
載されたレイの数はセンサーフレームの光センサーが感
知した「生のレイ」の1つt表わしている。生のレイを
集めたものがレイリストと呼ばれる。実施例では、レイ
リストは左センサーに対して3つの生のレイを含み、右
のセンサーに対しては2つの生のレイを含んでいる。各
センサーのために維持されたレイリストはセンサーフレ
ームのデータ構造図中では最も低いレベルのものとして
表わされる。視野のスナップショット毎に各センサーの
新たなレイリストが作られる。レイリストの中の各レイ
を用いて1つ又は2つ以上のレイ経路の状態が更新され
、これはデータ構造図の中で、円によって表わしている
新たなレイリストを利用出来るようになるとく例えば約
33ミリ秒毎)、存在物体に結合したレイ経路が各々の
新たなレイと比較され、オーバーラツプしているかどう
か調べられる。データ構造図に於て、右センサーのレイ
リストの生のレイ0からレイ経路1及び2に屈曲した矢
印は、レイ経路が両方とも生のレイとマツチし、遮断物
体が存在していること又は1つのレイの中に多くの物体
の「クラスタリング」が存在することを示す、屈曲した
矢印だけがマツチングしたことを表わす、これらは生の
レイリストからレイ経路へのポインターがあることを意
味しない。
レイ経路のクラスターは、レイ経路が部分的(場合によ
っては完全に)遮断された後、使用者がレイの位置を推
定することの出来るアトリビュートを有している。
第39図は1つのセンサーから見える3つの物体の連続
する4つの状態を示している。第1のフレームでは、時
刻0のとき、3つのどの物体によっても遮断されていな
い。第2のフレームの時刻T1では、物体1と2が共に
移動したことを示す。
第3のフレームでは、物体3は物体1と2の背後に移動
している。第4のフレームでは、物体3は物体1と2の
左側後部から表われ始めるが、その右エツジは遮断され
たままである。
一方では、物体1と2の関係及び物体2と3の関係の違
いについて検討が行なわれる。違いを表わすため、第3
9図に示すレイ経路のデータ構造表示法に幾つかの新し
い表示法を加える必要がある。フレーム2では、物体1
と2が共に移動したとき、このセンサーに対してそれら
のレイ経路がクラスターレイ経路ノードの中に挿入され
、データ構造図の中ではCを円で囲んで表わしている。
2つの部分的遮断物体(1:クラスタ・−ノードに結合
した2重リンクのリストの中にある。データ構造図の中
の各遮断されたレイ経路ノードの下に2つの文字(le
tters)がある、左の文字はレイ経路のエツジ結合
アトリビュートと呼ばれる。このアトリビュートによっ
て未だ、可視状態にあるクラスターの2つのエツジに関
するレイの遮断エツジの角度位置を、使用者が推定出来
る。クラスター〇は常にレイ(実際は影)を表わしてお
り、該レイの中に1つ又は2つ以上の他のレイが併合さ
れる。
従って、クラスターがセンサーの視野の端部をオーバー
ランしたときでも、常に2つの可視端部を有している。
エツジ結合アトリビュートは、(a)未結合(unat
tached)、(b)左、(c)右、(d)挿入(i
nterpolated)及び(e)速度の1つを有す
ることが出来る。これら状君の意味は次のとおりである
。「未結合」は遮断されていないレイの初期状態である
。「左」はレイ経路がクラスターの左エツジと一致して
動(ことを意味する。クラスターの左エツジによるどの
ような移動の場合も、左−エツジが結合したレイ経路に
よって行なわれる。「右」は、レイ経路がクラスターの
右エツジと一致して移動することを意味する。クラスタ
ーの右エツジによってどのように移動する場合でも、右
−エツジが結合したレイ経路によって行なわれる。「挿
入」は、レイ経路の角度位置がクラスターの右エツジと
左エツジの間に挿入されることを意味する。このモード
は物体の結合を説明するときに更に詳しく説明する。「
速度」はレイ経路が全て遮断されてエツジに結合されて
いないこと、即ち情報はこのセンサーの視点から入手出
来ないことを意味する。この場合、速度が一様に連続的
な運動(過去の速度は知られている)にて位置訂正のた
めのデータを他のセンサーから得ることが出来るまで続
けられるものと仮定することにより、使用者はレイ経路
の位置を推定出来る。
第39図はレイ経路が遮断されたとき、各レイ経路のエ
ツジ結合アトリビュートはどのように起こるかを示して
いる0時刻Tl(フレーム2)にて、物体1と2が併合
され、センサーはレイ経路1の左側部とレイ経路2の右
側部からなるクラスターを見ることが出来る。従って、
レイ経路1と2に対する時刻T1のデータ構造図におけ
るエツジ結合アトリビュートは夫々LとRである。エツ
ジ結合アトリビュートは左側のレイ経路ノードの下に示
した文字である。
クラスターされたレイ経路の各ノードの下の右の文字は
物体結合アトリビュートと呼ばれる。このアトリビュー
トによって1つ又は2つ以上の他のセンサーからの情報
を用いて、隣り合う2つのレイ経路によって表わされる
2つの物体が結合されるべきにy平面の中で実際に十分
接近しているかどうか、或は共に移動するかどうかを、
使用者が知ることが出来る。この情報は非常に重要であ
る。
なぜなら、例えば2本の指が正常に結合されていること
を使用者が知った場合、ある条件の下でその位置を推定
するのに利用出来るからであり、これは1本又は2本以
上の指が全部のセンサーに対して全て遮断されるように
なったときも同様である。
これが第39図の時刻T2で起こった内容である。レイ
経路2によって表現される物体は全て遮断されてしまう
、クラスターの左側又は右側の何れか一方からは見られ
ない、にも拘わらずその位置を決定出来るのは、それが
物体3ではなく物体1に対して結合されることを知るこ
とが出来るからである。
エツジと物体を結合するアトリビュートは、(、)未結
合、(b)左物体、(c)右物体及び(d)青物体の5
つの状態の1つを持つことが出来る。これら状態の意味
は次のとおりである。r未結合」は、レイ経路に表わさ
れた物体が他のどんな物体にも結合されていないことを
意味する。「左物体」は、レイ経路によって表わされた
物体が左のすぐ隣りのレイ経路に表わされた物体に結合
することを意味する。「右物体」は、レイ経路に表わさ
れた物体が右のすぐ隣りのレイ経路に表わされた物体に
結合されることを意味する。「青物体」は、レイ経路に
表わされた物体が、左のすぐ隣りのレイ経路に表わされ
た物体と右のすぐ隣りのレイ経路に表わされた物体の両
方に結合されることを意味する。それは隣り合う両者に
結合される。
レイ経路ノードのエツジ−物体結合アトリビュートにつ
いて説明すると、第39図のフレームを通じて進行する
ノードのアトリビュートは「マークmarked) J
される0時刻T1にて、レイ経路1はクラスターの左エ
ツジに結合され、経路2は右エツジに結合される。これ
は、その物体レベルにて経路1と2がxy平面内で互い
に非常に接近していることが発見されたため、経路1の
物体結合はRにセットされ、右の経路即ち経路2によっ
て表わされた物体に結合されることを示す、同じように
して、経路2の物体結合はLにセットされ、左の経路、
即ち経路1に表わされた物体に結合されることを示す。
これを経路1と2が「結合された(attached)
 Jということが出来る。
時刻T2にて、物体3は物体1と2の後を右から移動す
ることによってクラスターの中に巻き込まれる。他のセ
ンサーから、物体2に接近していないことを知ることが
出来る。更に又、経路2の右エツジはここで遮断される
。しかし乍ら、経路1に結合されて経路3には結合され
ていないから、エツジ結合はし、即ち左に変化する。こ
れは、使用者からはこのセンサーから経路2を最早見る
ことが出来ないけれども、結合された経路1に関するそ
の位置を推定出来、これによってクラスターの左エツジ
に関する位置を推定出来ることを意味する。
時刻T2にて、経路3のエツジ結合はR(右)にセット
されるが、そのエツジ結合アトリビュートはU、即ち未
結合にセットされる。
時刻T3では、経路3は経路1と経路2の後を通過し、
左に再び現われる。クラスターの左側に再登場すること
により、その速度は完全に遮断されるようになった後も
その速度が相対的に一定に維持されるかどうか予測し検
出することが出来る。
これらの実施例は、遮断物体の位置を推定する際におけ
るエツジ及び物体結合アトリビュートの役割を説明する
ために示したものである。エツジと物体を結合するアト
リビュートを理解することにより、使用者はレイ整合機
能(1)8)(第22図)の理解をより高めることが出
来る。
第40図はレベル整合機能(220)を示している。
この機能が呼び出されるとき、生のレイリストが空白(
222)であるときリターンする(224)、現在のレ
イ経路が新しいもの(226)でない場合、初期の位置
と速度(228)の情報によって現在のレイ経路の位置
を推定出来る。
第40図の動作(230乃至264)はレイ経路の現在
の推定位置と、現在のセンサーの現在のレイリストの中
の生の各レイとの間におけるオーバーラツプ部分を見付
けようとするループである(生のレイは各レイ経路の更
新された位置情報を表わす。)(230)では、生のレ
イは各々が順番に次のように行なわれる。■レイが小さ
過ぎるか又は大き過ぎる場合、リジェクトする(234
)。■現在のレイ経路と比較し、オーバーラツプしてい
るかどうか調べる(238)。■もしオーバーラツプ部
分があり、現在のレイ経路も又先の生のレイとオーバー
ラツプしたとき(250)、次にレイは分割し、そして
レイ経路がクラスターである場合、レイ分割機能(25
2)によってクラスターを2つに分離させなければなら
ない、■もしく256)にて現在の生のレイ(レイリス
ト中)も又このセンサーの先のレイ経路に整きした場き
、現在及び先のレイ経路は併合され、もし現在と先のレ
イ経路が同じ物体に結合されない場合2つの分離した物
体は現在のセンサー(258) (260)の視点から
併合され、レイ経路併合機能(262)が呼び出される
。■現在のレイ経路と現在の生のレイ(238)との間
にオーバーラツプがない場合、次の生のレイがフェッチ
される。最後の生のレイのチェックが完了すると(26
4)、レイ整合機能がリターンする(266) 。
第41図乃至第43図においてレイの併合中、エツジと
物体結合アトリビュートをセットするレイ経路併合機能
によって、レイ追跡機能は遮断されたレイの位置を推定
し、それ故遮断物体及び部分的遮断物体の位置を推定出
来る。レイ追跡機能はその全体の中に含まれており、遮
断物体を追跡するセンサーフレームの効果を決定する上
で重要である。
併合したレイ経路は論理的に独立した2つの部分に分割
することが出来る。第1の部分は、第41図の(290
)の部分から(310)の部分(310は含まない)ま
でであって、2つのレイ経路又はレイ経路クラスターの
各々のデータ構造を1つのクラスターに合併させる機構
についてのみ関するものであり、当該分野の専門家であ
れば容易に理解出来る。
(310)の部分から第42a図、第42b図及び第4
3図の(354) (388)及び(408)の部分に
夫々至る併合されたレイ経路の第2の部分は、レイとエ
ツジ結合アルゴリズムを含んでおり、該アルゴリズムは
センサーフレームデバイスのような周辺走査式の多物体
走査デバイスの操作に用いられる。
併きすべきレイ経路がにy平面(310)の中で共に接
近した物体のレイ経路である場合、一方の物体は左のレ
イ経路の物体が以前は未結合(320)であったかどう
かを決定する。もし結合していた場合、一方の物体は右
経路の物体が以前に未結合(376)であったかどうか
を決定する。もし結きされていた場合、両物体は両方向
(378)に結きされるべきである。もし右の経路の物
体が未結きであったとき、左の経路の物体に結合され、
左の経路の物体は両方向(380)に結合される。もし
右の経路が遮断されると(382)、右の経路と左の経
路は両方ともエツジ結合アトリビュートを有し「左エツ
ジに結きJ(384)にセットされる。さもなければ、
右の経路は遮断されていないため、エツジ結合は「右エ
ツジへ結合」にセットされ、左経路のエツジ結合は「挿
入J (386)にセットされる。
もしく320)において左のレイ経路の物体が以前には
結合されていないことが判ると、右のレイ経路の物体は
結きされていなかった(324)かどうかを決定する。
もし結合していた場合、次に右の経路の物体は両方向で
結合され、左経路の物体は右経路の物体(350)に結
合される。もし左経路が遮断されていない(351)場
合、エツジ結合は「左エツジに結合」にセットされ、右
経路のエツジ結合は[挿入J (353)にセットされ
る。左経路が遮断される場合、両経路のエツジ結合は、
「右結合J (352)にセットされる。
もしく324)で、右のレイ経路の物体がまだ結合され
ておらず、次に両方のレイ経路の物体が以前にも結合さ
れていなかった場合、左の物体は反対に右の物体と結合
する(330)、次に左の経路が以前に遮断されていな
かったかどうかを判断する(332)。もしそうなら、
左の経路のエツジ結合は「左エツジに結合J(334)
にセットされる。ここで右の経路は遮断されたかどうか
判断する(360) 。
もし遮断されていた場合、エツジ結合は「左エツジに結
合」にセットされ、もしそうでなければ「右エツジに結
合」にセットされる。(332)において左経路が遮断
されたことが判断されると、右の経路もまた遮断されて
いるかどうか判断する(366) 。
もし遮断されている場合、左右のレイ経路のエツジ結合
は、両レイ経路とも完全に遮断され、互い以外のなにも
のに対しても結合されていないから(370)、「速度
」にセットされる。もし右の経路が遮断されていない場
合、両経路のエツジ結合は「右エツジに結合」にセット
される。
(310)において、左右のレイ経路によって表わされ
た物体がxy平面内で共に接近していなかったことが判
明すると、左経路は既に結合されているかどうか判断す
る(400) 、もし既に結合されている場合、そのエ
ツジ結合は「左エツジに結合J(402)にセットされ
る。もし結合されていない場合、左経路はクラスター(
416)の中にあるかどうか判断される。もしクラスタ
ーの中にある場合、左経路のエツジ結合は、「速度」に
セットされる。これは左経路は完全に遮断されて結合さ
れていないからである(420)。もしクラスターの中
にない場合、エツジ結合は「左エツジに結合J (42
2)にセットされる。
次に右のレイ経路は既に結合されているかどうかが判断
される(404)。もし結合されている場合、右経路の
エツジ結合は「右エツジに結合J (406)にセント
される。もし結合されていない場合、右経路はクラスタ
ー(410)の中にあるかどうか判断される。もしクラ
スターの中にある場合、エツジ結きは「速度」にセット
される。これは、右経路が完全に遮断されて結合されて
いないからである(412)。もしクラスターの中にな
い場合、そのエツジ結合は「右エツジに結合J (41
4)にセットされる11能は(408)にリターンする
センサーは光を受けたセンサーアレイの個々のセルに対
応した電気信号を発し、適当なコントローラ(第21図
)がその信号を特定の位置、及び必要に応じて光遮断物
体の速度に関連づけてその遮断物に基づいたあるグラフ
ィック物体を分難することが出来る。速度は物体の位置
変化と時間を比較することによって決定される。
本発明の方法及び装置は、ビデオモニター、隣接フレー
ム、フレーム内部にほぼ面し少なくともフレームが形成
した空間の一部を照明する複数の光センサーを提供する
ことを含むものである。光の一部がセンサーのセルに達
するのを妨げるため、複数の光遮断物体が用いられる。
光遮断物体のフレームに関する三次元位置に対応するセ
ルから信号が発せられる。
外部の物質がフレームの中に入り込むのを防ぐため、使
用しないときはフレームの上に適当な保護ダストカバー
を設けることも出来る。このようなフレームについては
図示していない。
ここでは、フレーノーの中に多数の指を用いる場合につ
いて説明したが、本発明はこれに限定されるものでなく
、足、相棒その他の物理的な物体又はその組み合せを用
いても有効であることは理解されるであろう。
本発明の開示は単一のフレームを用いた実施例について
行なったが、必要に応じて複数のフレームを隣り合う領
域の中に用いてもよいことは理解されるであろう。
ここでは主としてグラフィック物体の変更について説明
したが、コンピュータに関連する多様な用途、一般的に
は音楽のキーボード、CADシステム及び産業設備の安
全装置等に関連する種々の用途に用いられることは当該
分野の専門家であれば明らかであろう。
本発明の望ましい実施例に於て、センサーによる視野の
走査は、例えば約30乃至60回/秒のオーダで速やか
に実行することが出来る。
説明の都合上、フレームは略長方形のものを示したが、
本発明はそのような形のものに限定されるものでないこ
とは理解されるべきである。フレームは閉じた形状又は
略閉じた形状のものが望ましく、フレームには適当な数
のセンサーが設けられ、センサーの最少個数は4つが望
ましく (特別な状況においては2つのセンサーを用い
るけれども)且つ最大個数には制限なく、照明は略均−
に行なうことが望ましい。フレームは四角又は円形の他
、照明領域及び関連センサーが光遮断物体の位置及び/
又は形状を有効に決定出来る限り、任意の形状とするこ
とが出来、必要に応じて速度の決定が可能であることは
理解されるであろう。
説明を明瞭にするため、ここではフレーム位置をビデオ
モニターに隣接して配置したが、必ずしもこのように位
置決めする必要性はない、更に、必要に応じてフレーム
はビデオモニターなしで用いることが出来る。
本発明の詳細な説明したが当該分野の専門家であれば更
に多くの追加の用途も考えられるであろう。例えば、セ
ンサーの出力をオルガンに作用させることにより、この
装置を用いてデジタル音楽オルガンを演奏することが出
来る。更に又、システムは音声を発するコンピュータ装
置とも適合性がある。このように本発明のシステムの用
途は多様性に富んでいる。
当該分野の専門家であれば、本発明の方法及び装置に関
し、いろんな端末用途アブリゲーションのあることは理
解されるであろう、基本的な用途は、コンピュータベー
スのワークステーションに於けるゼスチャー検知デバイ
スである0本発明は産業的な処理及び産業環境に於ける
安全装置に用いることが出来る6本発明の装置は又、例
えば、身体障害者のロボット装置及びシステムに用いる
ことも出来る。
このように、本発明は周辺走査手段によって複数の光遮
断物体の位置と速度を決定することによりグラフィック
物体の有効な選択及び走査を行なうための方法及び装置
を提供するものである。これは、ビデオモニター、照明
源を有するフレーム、所定位置に設けられた光センサー
及び該センサーから発せられた信号の処理手段を用いる
ことにより達成される。
本発明の具体的な実施例は例示的に示したものであって
、当該分野の専門家であればその詳細に関する種々の変
更は特許請求の範囲に規定された発明から逸脱すること
なくなせるであろう。
【図面の簡単な説明】
第1図は本発明の1実施例を示す図である。 第2図は本発明に使用可能なセンサーチップの1実施例
を示す図である。 第3図は第2図のセンサーチップに於て光源の焦点をチ
ップの上に合わしたときの状態を示す説明図である。 第4図は手が部分的に光を遮断し、その結果センサーチ
ップの上に得られたパターンを示す説明図である。 第5図は第1のセンサーの視野を示す説明図である。 第6図は第2のセンサーの視野を示す説明図である。 第7図は第5図及び第6図の両センサーの視野を示す説
明図である。 第8図はセンサー測定時のシルエットを示す説明図であ
る。 第9図は一対のセンサーと感知された物体との間の幾何
学的な位置関係を示す説明図である。 第10図は2つの光遮断物体が存在する場合のフレーム
の1実施例の説明図である。 第11図は光遮断物体が第10図とは異なる状態にある
ときの説明図である。 第12a乃至第12c図は指を用いてグラフィック物体
の選択を行なう方法を示す説明図である。 第13図は指を用いて操作する方法を示す説明図である
。 第14a図及び第141J図は装置の多指コントロール
を示す説明図である。 第15a図及び第15b図はスケール化に於ける多指の
使用説明図である。 第16図はレンズ/光センサー結合装置の1実施例の断
面図である。 第17図は本発明の1実施例の一部の説明図である。 第18図はフレームの読取りを行なうのに用いられるユ
ーザー機能のフローチャート図である。 第19図及び第20図は本発明に使用可能なソフトウェ
ア−のフローチャート図である。 第21図は本発明のコントローラの1形態のブロック図
である。 第22図は本発明に使用可能なソフトウェア−の一部の
フローチャート図である。 第23図乃至第39図は例えば指のような光遮断物体と
光線との関係並びに関連する表示システムを示す略図で
ある。 第40図乃至第43図は本発明に使用可能なソフトウェ
ア−の部分のフローチャート図である。 (第41図、第42a図、第42b図及び第43図は整
合文字A乃至Eを有する部分によって組み合わされるべ
きである。) (2)・・・フレーム部材  (4)・・・画像表示部
(10)・・・光源エキサイタ− (12) (14) (16) (18)・・・光ディ
フューザ(20) (24) (7,8) (34)・
・・センサー装置(22) (26) (30) (3
6)・・・レンズ系(40)・・・指      (4
1)・・・光 源FIG、 II FIG、 +2(l    FIG、 12b    
 FIG、 12CF/G、 /3 FIG、 17 FIG、+8 日G、 +9 FIG、20 FIG、21 FIG、22 日6.29 FIG 30 IG31 Time l    Time 2 IG32 Time I    −−V−二Time2FI633 FIG、 34 FIG、 38 FIG、 39 日G、40 Fl(’; 42h

Claims (12)

    【特許請求の範囲】
  1. (1)複数の光センサーをフレームの内側に略向くよう
    に配設し、 少なくともフレームによって形成される空間に投光し、
    複数の光遮断物体を用いて、光の一部が少なくとも光セ
    ンサーの中の幾つかの要素へ達することを妨げ、 光遮断物体のフレームに関連した位置に対応するセンサ
    ーから信号を出力する工程から構成されるグラフィック
    物体を操作する方法。
  2. (2)光遮断物体の位置変化に関する情報を形成するた
    め、センサー信号を周期的に結合し、 光遮断物体に対し1回目の検出によって得られた第1位
    置に対応するセンサー信号の第1の組を記憶し、 次に第1の組のセンサー信号を、2回目の検出によって
    得られたセンサー信号の第2の組と比較して、光遮断物
    体の位置変化を判断する工程を含んでいる特許請求の範
    囲第1項に記載の方法。
  3. (3)グラフィック物体のエッジ部と視中心の、位置と
    相対的な運動を比較し、 該比較を用いてグラフィック物体の位置、方向及び運動
    の履歴を維持し、 該履歴を用いて、グラフィック物体のアンビギティーの
    組合せを分解し、又は他のグラフィック物体によって少
    なくとも部分的に遮断された物体を追跡する 工程を含んでいる特許請求の範囲第2項に記載の方法。
  4. (4)複数組のセンサー信号を、別の時刻に得た各々の
    信号と比較し、 複数組のセンサー信号を用いて光遮断物体の位置変化を
    判断する 工程を含んでいる特許請求の範囲第2項に記載の方法。
  5. (5)人体の一部を光遮断物体として用いている特許請
    求の範囲第2項に記載の方法。
  6. (6)ビデオモニターを設け、 フレームを、閉じたフレームとし、 フレームをビデオモニターの近傍に配置し、フレームの
    内側を略一様に照明し、センサーとしてダイナミックR
    AMを用いる 工程を含んでいる特許請求の範囲第2項に記載の方法。
  7. (7)少なくとも1つのグラフィック物体を選んで操作
    するために光遮断物体を用いる特許請求の範囲第5項に
    記載の方法。
  8. (8)少なくとも部分的に光遮断物体を受けるフレーム
    手段と、 フレーム手段の近傍の領域を少なくとも部分的に照明す
    る光源手段と、 フレーム手段と連繋して少なくとも照明の一部を受けて
    応答信号を発するセンサー手段と、センサー信号を用い
    て光遮断物体の位置を決定する信号処理手段、 を含んでいるグラフィック物体を操作する装置。
  9. (9)フレーム手段に接近してビデオモニターを配置し
    、該フレーム手段はビデオモニターの前方に設けられ、
    モニターの少なくとも一部がフレームを通して見られる
    ようにしている特許請求の範囲第8項に記載の装置。
  10. (10)信号処理手段は、第1回目の際に得たセンサー
    信号の第1の組をその後に得た信号の第2の組と比較す
    ることにより、光遮断物体の位置変化を判断できるよう
    にしている特許請求の範囲第8項に記載の装置
  11. (11)センサー手段は複数のダイナミックRAMセン
    サーを有し、 信号処理手段は光遮断物体の位置変化を判断するため、
    複数組のセンサー信号を記憶して比較する手段を有し、 信号処理手段は、センサーから受けた情報に応答してグ
    ラフィック物体を操作する手段を有している 特許請求の範囲第8項に記載の装置。
  12. (12)フレーム手段は略長方形であり、ダイナミック
    RAMセンサーはフレームの略コーナ部に設けられてい
    る特許請求の範囲第11項に記載の装置。
JP63033843A 1987-02-17 1988-02-16 グラフィック物体を操作する方法及び装置 Pending JPS63223819A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/014,943 US4746770A (en) 1987-02-17 1987-02-17 Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US014,943 1993-02-02

Publications (1)

Publication Number Publication Date
JPS63223819A true JPS63223819A (ja) 1988-09-19

Family

ID=21768697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63033843A Pending JPS63223819A (ja) 1987-02-17 1988-02-16 グラフィック物体を操作する方法及び装置

Country Status (4)

Country Link
US (1) US4746770A (ja)
EP (1) EP0279652A3 (ja)
JP (1) JPS63223819A (ja)
AU (1) AU603643B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05224817A (ja) * 1991-11-22 1993-09-03 Internatl Business Mach Corp <Ibm> タッチ画面表示装置及び方法
JP2005258810A (ja) * 2004-03-11 2005-09-22 Canon Inc 座標入力装置及びその制御方法、プログラム
JP2006518076A (ja) * 2003-02-14 2006-08-03 ネクスト ホールディングス リミティド タッチスクリーン信号処理
JP2009522669A (ja) * 2005-12-30 2009-06-11 アップル インコーポレイテッド マルチタッチ入力を備えた携帯電子装置
JP2010198593A (ja) * 2009-02-23 2010-09-09 Chunghwa Picture Tubes Ltd 光学方式タッチパネル液晶ディスプレイ装置
JP2011525270A (ja) * 2008-05-12 2011-09-15 マイクロソフト コーポレーション 赤外レーザーを使用するコンピュータービジョンベースのマルチタッチセンシング
JP2012059228A (ja) * 2010-09-13 2012-03-22 Canon Inc 座標入力装置
JP2013513852A (ja) * 2009-12-11 2013-04-22 キム,ソン−ハン 光学式タッチスクリーン
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method

Families Citing this family (215)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4914604A (en) * 1988-10-07 1990-04-03 Hughes Aircraft Company Processor for analyzing angle-only data
JP2827612B2 (ja) * 1991-10-07 1998-11-25 富士通株式会社 タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。
US7345675B1 (en) 1991-10-07 2008-03-18 Fujitsu Limited Apparatus for manipulating an object displayed on a display device by using a touch screen
GB2266038B (en) * 1992-03-24 1995-07-12 Afe Displays Limited Information input system for a computer
EP0567660B2 (de) * 1992-04-21 2000-09-06 IBP Pietzsch GmbH Einrichtung zum Führen von Fahrzeugen
US7098891B1 (en) * 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
US5317140A (en) * 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US5786810A (en) * 1995-06-07 1998-07-28 Compaq Computer Corporation Method of determining an object's position and associated apparatus
US5734375A (en) * 1995-06-07 1998-03-31 Compaq Computer Corporation Keyboard-compatible optical determination of object's position
US20090322499A1 (en) 1995-06-29 2009-12-31 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US7973773B2 (en) * 1995-06-29 2011-07-05 Pryor Timothy R Multipoint, virtual control, and force based touch screen applications
US8228305B2 (en) 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
US5805288A (en) * 1996-03-05 1998-09-08 Laserscore, Inc. Apparatus for detecting the presence and location of at least one object in a field
JP3624070B2 (ja) * 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
EP1717681B1 (en) 1998-01-26 2015-04-29 Apple Inc. Method for integrating manual input
US7844914B2 (en) * 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6147759A (en) * 1998-02-04 2000-11-14 Laserscore, Inc. System for detecting the presence and location of at least one object in a field by using a divergent radiation source and an array of opposed plural detectors which rotate together around the field
US20010013867A1 (en) * 1998-04-27 2001-08-16 Kenshiu Watanabe Object search method and object search system
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US20020018051A1 (en) * 1998-09-15 2002-02-14 Mona Singh Apparatus and method for moving objects on a touchscreen display
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US8482535B2 (en) * 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
JP3881148B2 (ja) 2000-02-18 2007-02-14 株式会社リコー 座標検出用受光装置、座標入力/検出装置、電子黒板、装着位置検出方法及び記憶媒体
US20080122799A1 (en) * 2001-02-22 2008-05-29 Pryor Timothy R Human interfaces for vehicles, homes, and other applications
US8576199B1 (en) 2000-02-22 2013-11-05 Apple Inc. Computer control systems
US7859519B2 (en) * 2000-05-01 2010-12-28 Tulbert David J Human-machine interface
US7287232B2 (en) 2000-05-08 2007-10-23 Fujitsu Limited Information display system having graphical user interface switchingly controlling information display on display screen
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7692625B2 (en) 2000-07-05 2010-04-06 Smart Technologies Ulc Camera-based touch system
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US20080088587A1 (en) * 2001-02-22 2008-04-17 Timothy Pryor Compact rtd instrument panels and computer interfaces
US20080024463A1 (en) * 2001-02-22 2008-01-31 Timothy Pryor Reconfigurable tactile control display applications
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
US7487444B2 (en) 2002-03-19 2009-02-03 Aol Llc Reformatting columns of content for display
US20040001144A1 (en) * 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US7358963B2 (en) 2002-09-09 2008-04-15 Apple Inc. Mouse having an optically-based scrolling feature
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US6972401B2 (en) * 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US8508508B2 (en) * 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US6947032B2 (en) * 2003-03-11 2005-09-20 Smart Technologies Inc. Touch system and method for determining pointer contacts on a touch surface
US7786983B2 (en) 2003-04-08 2010-08-31 Poa Sana Liquidating Trust Apparatus and method for a data input device using a light lamina screen
US7256772B2 (en) * 2003-04-08 2007-08-14 Smart Technologies, Inc. Auto-aligning touch system and method
US7099553B1 (en) 2003-04-08 2006-08-29 Poa Sona, Inc. Apparatus and method for generating a lamina of light
US9024884B2 (en) * 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7509011B2 (en) * 2004-01-15 2009-03-24 Poa Sana Liquidating Trust Hybrid waveguide
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
JP4429047B2 (ja) 2004-03-11 2010-03-10 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
EP1743277A4 (en) 2004-04-15 2011-07-06 Gesturetek Inc MONITORING OF BI-MANUAL MOVEMENTS
WO2005101169A1 (en) * 2004-04-15 2005-10-27 University Of Northern British Columbia Methods and systems for interacting with virtual objects
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US7267930B2 (en) * 2004-06-04 2007-09-11 National Semiconductor Corporation Techniques for manufacturing a waveguide with a three-dimensional lens
US7676131B2 (en) * 2004-06-04 2010-03-09 Poa Sana Liquidating Trust Waveguide with a three-dimensional lens
US7471865B2 (en) 2004-06-04 2008-12-30 Poa Sana Liquidating Trust Apparatus and method for a molded waveguide for use with touch screen displays
US7864161B2 (en) * 2004-06-17 2011-01-04 Adrea, LLC Use of a two finger input on touch screens
US8184108B2 (en) * 2004-06-30 2012-05-22 Poa Sana Liquidating Trust Apparatus and method for a folded optical element waveguide for use with light based touch screens
US7412119B2 (en) * 2004-06-30 2008-08-12 Poa Sana Liquidating Trust Apparatus and method for making flexible waveguide substrates for use with light based touch screens
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7724242B2 (en) * 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US7719523B2 (en) 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
US20070046643A1 (en) * 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
ATE553429T1 (de) 2004-08-16 2012-04-15 Apple Inc Verfahren zur erhöhung der räumlichen auflösung von berührungsempfindlichen vorrichtungen
US20100231506A1 (en) * 2004-09-07 2010-09-16 Timothy Pryor Control of appliances, kitchen and home
EP2487624B1 (en) 2005-01-07 2020-02-19 Qualcomm Incorporated(1/3) Detecting and tracking objects in images
US8144118B2 (en) * 2005-01-21 2012-03-27 Qualcomm Incorporated Motion-based tracking
US20060202974A1 (en) * 2005-03-10 2006-09-14 Jeffrey Thielman Surface
CN101137956A (zh) * 2005-03-10 2008-03-05 皇家飞利浦电子股份有限公司 用于检测与触摸屏显示器交互的多个对象的位置、大小和形状的系统和方法
US8487910B2 (en) * 2005-05-02 2013-07-16 Smart Technologies Ulc Large scale touch system and methods for interacting with same
FR2887660A1 (fr) * 2005-06-22 2006-12-29 Simag Dev Sarl Procede et dispositif pour rendre un volume ou une surface interactifs
FR2887659A1 (fr) * 2005-06-22 2006-12-29 Simag Dev Sarl Dispositif pour rendre un volume ou une surface interactifs
WO2006136696A1 (fr) * 2005-06-22 2006-12-28 3Dfeel Procede et dispositif pour rendre un volume ou une surface interactifs
US20070018966A1 (en) * 2005-07-25 2007-01-25 Blythe Michael M Predicted object location
US7294089B2 (en) * 2005-08-15 2007-11-13 Ford Global Technologies, Llc Multiple-speed automatic transmission
CA2628512C (en) * 2005-11-18 2013-10-08 Accenture Global Services Gmbh Multiple target detection and application state navigation system
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US8077147B2 (en) 2005-12-30 2011-12-13 Apple Inc. Mouse with optical sensing surface
US20070165007A1 (en) * 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
US7551814B1 (en) 2006-02-21 2009-06-23 National Semiconductor Corporation Optical detection of user interaction based on external light source
US20070205994A1 (en) * 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
US7511702B2 (en) * 2006-03-30 2009-03-31 Apple Inc. Force and location sensitive display
US7538760B2 (en) 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
US7978181B2 (en) * 2006-04-25 2011-07-12 Apple Inc. Keystroke tactility arrangement on a smooth touch surface
US8062115B2 (en) * 2006-04-27 2011-11-22 Wms Gaming Inc. Wagering game with multi-point gesture sensing device
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US8243027B2 (en) 2006-06-09 2012-08-14 Apple Inc. Touch screen liquid crystal display
CN104484066B (zh) 2006-06-09 2017-08-08 苹果公司 触摸屏液晶显示器
CN104965621B (zh) 2006-06-09 2018-06-12 苹果公司 触摸屏液晶显示器及其操作方法
US20080031584A1 (en) * 2006-08-02 2008-02-07 National Semiconductor Corporation Apparatus and method for a singulation of polymer waveguides using photolithography
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7369724B2 (en) 2006-10-03 2008-05-06 National Semiconductor Corporation Apparatus and method for an improved lens structure for polymer wave guides which maximizes free space light coupling
US8147316B2 (en) * 2006-10-10 2012-04-03 Wms Gaming, Inc. Multi-player, multi-touch table for use in wagering game systems
DE102007021537B4 (de) 2006-12-13 2020-01-02 Lg Display Co., Ltd. Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion
EP2613281B1 (en) * 2006-12-29 2014-08-13 Qualcomm Incorporated Manipulation of virtual objects using enhanced interactive system
US8269727B2 (en) * 2007-01-03 2012-09-18 Apple Inc. Irregular input identification
US7855718B2 (en) * 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US8130203B2 (en) 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
US8493330B2 (en) 2007-01-03 2013-07-23 Apple Inc. Individual channel phase delay scheme
US9710095B2 (en) 2007-01-05 2017-07-18 Apple Inc. Touch screen stack-ups
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US8115753B2 (en) 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
KR101420419B1 (ko) 2007-04-20 2014-07-30 엘지전자 주식회사 전자기기와 그 데이터 편집방법 및 이동통신단말기
US20100182168A1 (en) * 2007-07-02 2010-07-22 Koninklijke Philips Electronics N.V. Method of processing data generated by a user input device for indicating positions
EP2015252B1 (en) * 2007-07-08 2010-02-17 Université de Liège Visual background extractor
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
WO2009029764A1 (en) * 2007-08-30 2009-03-05 Next Holdings, Inc. Low profile touch panel systems
AR064377A1 (es) * 2007-12-17 2009-04-01 Rovere Victor Manuel Suarez Dispositivo para sensar multiples areas de contacto contra objetos en forma simultanea
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US20090278816A1 (en) * 2008-05-06 2009-11-12 Next Holdings Limited Systems and Methods For Resolving Multitouch Scenarios Using Software Filters
US8115745B2 (en) 2008-06-19 2012-02-14 Tactile Displays, Llc Apparatus and method for interactive display with tactile feedback
US8665228B2 (en) 2008-06-19 2014-03-04 Tactile Displays, Llc Energy efficient interactive display with energy regenerative keyboard
US8217908B2 (en) 2008-06-19 2012-07-10 Tactile Displays, Llc Apparatus and method for interactive display with tactile feedback
US9513705B2 (en) * 2008-06-19 2016-12-06 Tactile Displays, Llc Interactive display with tactile feedback
TW201013492A (en) * 2008-06-23 2010-04-01 Flatfrog Lab Ab Determining the location of one or more objects on a touch surface
TW201005606A (en) * 2008-06-23 2010-02-01 Flatfrog Lab Ab Detecting the locations of a plurality of objects on a touch surface
TW201007530A (en) * 2008-06-23 2010-02-16 Flatfrog Lab Ab Detecting the location of an object on a touch surface
EP2318903A2 (en) * 2008-06-23 2011-05-11 FlatFrog Laboratories AB Detecting the location of an object on a touch surface
TW201001258A (en) * 2008-06-23 2010-01-01 Flatfrog Lab Ab Determining the location of one or more objects on a touch surface
US8241912B2 (en) * 2008-06-26 2012-08-14 Wms Gaming Inc. Gaming machine having multi-touch sensing device
US8625899B2 (en) * 2008-07-10 2014-01-07 Samsung Electronics Co., Ltd. Method for recognizing and translating characters in camera-based image
KR101554606B1 (ko) 2008-08-07 2015-10-06 랩트 아이피 리미티드 변조된 에미터를 가진 광학 제어 시스템
US9092092B2 (en) 2008-08-07 2015-07-28 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device using touch event templates
WO2010015408A1 (en) * 2008-08-07 2010-02-11 Owen Drumm Method and apparatus for detecting a multitouch event in an optical touch-sensitive device
US8531435B2 (en) * 2008-08-07 2013-09-10 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device by combining beam information
JP5284470B2 (ja) * 2008-08-07 2013-09-11 ドラム,オウエン フィードバック制御を用いた光制御システム
US8339378B2 (en) * 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
SE533704C2 (sv) 2008-12-05 2010-12-07 Flatfrog Lab Ab Pekkänslig apparat och förfarande för drivning av densamma
US8441441B2 (en) 2009-01-06 2013-05-14 Qualcomm Incorporated User interface for mobile devices
TWM361062U (en) * 2009-01-09 2009-07-11 Quanta Comp Inc Touch screen
US8854336B2 (en) * 2009-02-25 2014-10-07 Pixart Imaging Inc. Light guide module, optical touch module, and method of increasing a signal to noise ratio of an optical touch module
US9009612B2 (en) * 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8692768B2 (en) * 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
TWI501121B (zh) * 2009-07-21 2015-09-21 Pixart Imaging Inc 手勢辨識方法及使用該方法之觸控系統
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
TWI498785B (zh) * 2009-10-08 2015-09-01 Silicon Motion Inc 觸控感應裝置以及觸碰點偵測方法
US20110095977A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system incorporating multi-angle reflecting structure
JP5525798B2 (ja) * 2009-11-20 2014-06-18 株式会社ニューフレアテクノロジー 荷電粒子ビーム描画装置およびその帯電効果補正方法
US8621380B2 (en) 2010-01-06 2013-12-31 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US20110193969A1 (en) * 2010-02-09 2011-08-11 Qisda Corporation Object-detecting system and method by use of non-coincident fields of light
CN102163106B (zh) * 2010-02-23 2015-05-20 慧荣科技股份有限公司 触控感应装置以及触碰点侦测方法
US10719131B2 (en) 2010-04-05 2020-07-21 Tactile Displays, Llc Interactive display with tactile feedback
US20200393907A1 (en) 2010-04-13 2020-12-17 Tactile Displays, Llc Interactive display with tactile feedback
US8707195B2 (en) 2010-06-07 2014-04-22 Apple Inc. Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface
CN102281395B (zh) * 2010-06-08 2014-09-03 北京汇冠新技术股份有限公司 触摸屏、触摸系统和显示器
US20120007804A1 (en) * 2010-07-12 2012-01-12 Smart Technologies Ulc Interactive input system and method
US8452600B2 (en) 2010-08-18 2013-05-28 Apple Inc. Assisted reader
US8659562B2 (en) 2010-11-05 2014-02-25 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
TWI424343B (zh) * 2010-11-22 2014-01-21 Pixart Imaging Inc 光學觸控系統及其感測方法
US9019239B2 (en) * 2010-11-29 2015-04-28 Northrop Grumman Systems Corporation Creative design systems and methods
US8804056B2 (en) * 2010-12-22 2014-08-12 Apple Inc. Integrated touch screens
US9436381B2 (en) 2011-01-24 2016-09-06 Apple Inc. Device, method, and graphical user interface for navigating and annotating an electronic document
US9250798B2 (en) 2011-01-24 2016-02-02 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US10068447B1 (en) * 2011-03-31 2018-09-04 Fusion Optix, Inc. Lighting module with integrated sensing
US8751971B2 (en) 2011-06-05 2014-06-10 Apple Inc. Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
KR101789683B1 (ko) * 2011-06-13 2017-11-20 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치
US8959459B2 (en) 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
EP2734914B1 (en) 2011-07-22 2016-11-23 Rapt IP Limited Optical coupler for use in an optical touch sensitive device
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
US9086732B2 (en) 2012-05-03 2015-07-21 Wms Gaming Inc. Gesture fusion
US10168835B2 (en) 2012-05-23 2019-01-01 Flatfrog Laboratories Ab Spatial resolution in touch displays
US9524060B2 (en) 2012-07-13 2016-12-20 Rapt Ip Limited Low power operation of an optical touch-sensitive device for detecting multitouch events
US9557846B2 (en) 2012-10-04 2017-01-31 Corning Incorporated Pressure-sensing touch system utilizing optical and capacitive systems
US8949735B2 (en) 2012-11-02 2015-02-03 Google Inc. Determining scroll direction intent
WO2014168567A1 (en) 2013-04-11 2014-10-16 Flatfrog Laboratories Ab Tomographic processing for touch detection
US9576422B2 (en) 2013-04-18 2017-02-21 Bally Gaming, Inc. Systems, methods, and devices for operating wagering game machines with enhanced user interfaces
WO2015005847A1 (en) 2013-07-12 2015-01-15 Flatfrog Laboratories Ab Partial detect mode
WO2015108479A1 (en) 2014-01-16 2015-07-23 Flatfrog Laboratories Ab Light coupling in tir-based optical touch systems
US10126882B2 (en) 2014-01-16 2018-11-13 Flatfrog Laboratories Ab TIR-based optical touch systems of projection-type
WO2015199602A1 (en) 2014-06-27 2015-12-30 Flatfrog Laboratories Ab Detection of surface contamination
EP3250993B1 (en) 2015-01-28 2019-09-04 FlatFrog Laboratories AB Dynamic touch quarantine frames
US10318074B2 (en) 2015-01-30 2019-06-11 Flatfrog Laboratories Ab Touch-sensing OLED display with tilted emitters
US10496227B2 (en) 2015-02-09 2019-12-03 Flatfrog Laboratories Ab Optical touch system comprising means for projecting and detecting light beams above and inside a transmissive panel
EP3265855A4 (en) 2015-03-02 2018-10-31 FlatFrog Laboratories AB Optical component for light coupling
CN108369470B (zh) 2015-12-09 2022-02-08 平蛙实验室股份公司 改进的触控笔识别
US10761657B2 (en) 2016-11-24 2020-09-01 Flatfrog Laboratories Ab Automatic optimisation of touch signal
KR102629629B1 (ko) 2016-12-07 2024-01-29 플라트프로그 라보라토리즈 에이비 개선된 터치 장치
US10963104B2 (en) 2017-02-06 2021-03-30 Flatfrog Laboratories Ab Optical coupling in touch-sensing systems
US10606414B2 (en) 2017-03-22 2020-03-31 Flatfrog Laboratories Ab Eraser for touch displays
WO2018182476A1 (en) 2017-03-28 2018-10-04 Flatfrog Laboratories Ab Touch sensing apparatus and method for assembly
CN117311543A (zh) 2017-09-01 2023-12-29 平蛙实验室股份公司 触摸感测设备
WO2019172826A1 (en) * 2018-03-05 2019-09-12 Flatfrog Laboratories Ab Improved touch-sensing apparatus
US11943563B2 (en) 2019-01-25 2024-03-26 FlatFrog Laboratories, AB Videoconferencing terminal and method of operating the same
US11422638B2 (en) * 2019-07-08 2022-08-23 Apple Inc. Input devices that use self-mixing interferometry to determine movement within an enclosure
US11409365B2 (en) 2019-09-06 2022-08-09 Apple Inc. Self-mixing interferometry-based gesture input system including a wearable or handheld device
US11419546B2 (en) 2019-09-24 2022-08-23 Apple Inc. Wearable self-mixing interferometry device used to sense physiological conditions
US11886001B2 (en) * 2019-12-20 2024-01-30 Snap Inc. Optical waveguide fabrication process
KR20220131982A (ko) 2020-02-10 2022-09-29 플라트프로그 라보라토리즈 에이비 향상된 터치-감지 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3673327A (en) * 1970-11-02 1972-06-27 Atomic Energy Commission Touch actuable data input panel assembly
US3739372A (en) * 1971-10-27 1973-06-12 Holobeam Optical intrusion alarm system
US3885408A (en) * 1973-10-29 1975-05-27 Jr Charles T Clark Finger operated electro-optical lock and method
US4144449A (en) * 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
CA1109539A (en) * 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
US4347438A (en) * 1979-01-22 1982-08-31 Richard Spielman Light transceiver device
US4274092A (en) * 1979-11-07 1981-06-16 The United States Of America As Represented By The Secretary Of The Air Force Display system for microscopic optical instruments
US4305071A (en) * 1980-04-16 1981-12-08 Bell Telephone Laboratories, Incorporated Touch sensitive screen signal detection arrangement
US4450351A (en) * 1981-03-30 1984-05-22 Bio/Optical Sensor Partners, Ltd. Motion discontinuance detection system and method
US4517559A (en) * 1982-08-12 1985-05-14 Zenith Electronics Corporation Optical gating scheme for display touch control
US4507557A (en) * 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05224817A (ja) * 1991-11-22 1993-09-03 Internatl Business Mach Corp <Ibm> タッチ画面表示装置及び方法
JP2006518076A (ja) * 2003-02-14 2006-08-03 ネクスト ホールディングス リミティド タッチスクリーン信号処理
JP2005258810A (ja) * 2004-03-11 2005-09-22 Canon Inc 座標入力装置及びその制御方法、プログラム
JP2009522669A (ja) * 2005-12-30 2009-06-11 アップル インコーポレイテッド マルチタッチ入力を備えた携帯電子装置
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
JP2011525270A (ja) * 2008-05-12 2011-09-15 マイクロソフト コーポレーション 赤外レーザーを使用するコンピュータービジョンベースのマルチタッチセンシング
JP2010198593A (ja) * 2009-02-23 2010-09-09 Chunghwa Picture Tubes Ltd 光学方式タッチパネル液晶ディスプレイ装置
JP2013513852A (ja) * 2009-12-11 2013-04-22 キム,ソン−ハン 光学式タッチスクリーン
JP2012059228A (ja) * 2010-09-13 2012-03-22 Canon Inc 座標入力装置

Also Published As

Publication number Publication date
US4746770A (en) 1988-05-24
AU1173288A (en) 1988-08-18
EP0279652A2 (en) 1988-08-24
AU603643B2 (en) 1990-11-22
EP0279652A3 (en) 1989-12-27

Similar Documents

Publication Publication Date Title
JPS63223819A (ja) グラフィック物体を操作する方法及び装置
CN109564495B (zh) 显示装置、存储介质、显示方法及控制装置
US4468694A (en) Apparatus and method for remote displaying and sensing of information using shadow parallax
CA1196086A (en) Apparatus and method for remote displaying and sensing of information using shadow parallax
JPH05509394A (ja) 実時間三次元感知装置
US5798750A (en) Image display apparatus
JP3114813B2 (ja) 情報入力方法
JPS6170407A (ja) 距離測定装置
BR112014002463B1 (pt) sistemas de captura de projeções, sistema de captura de projeções interativo e método de captura de projeções
JP2006087139A (ja) カメラ制御用ユーザインタフェースシステム
JP4054847B2 (ja) 光デジタイザ
JPH0810132B2 (ja) 対象パタ−ンの回転角検出方式
JP3224856B2 (ja) 立体映像装置
JP2000304508A (ja) 3次元入力装置
JPS60138628A (ja) 画面指示入力装置
JP2003186616A (ja) 情報入力装置、情報入出力システム、位置座標出力方法、プログラム及び記録媒体
JPH01251179A (ja) 画像合成装置
JP4414075B2 (ja) 座標入力/検出装置、座標検出方法及び記憶媒体
JP4074020B2 (ja) 形状測定器
KR20180045668A (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
JPH03216503A (ja) 位置認識装置及びその方法
US6266066B1 (en) Shadowbox input of illumination information
KR101743888B1 (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
WO2018207490A1 (ja) 非接触式の三次元タッチパネル、非接触式の三次元タッチパネルシステム、非接触式の三次元タッチパネルの制御方法、プログラム及び記録媒体
JPH08186808A (ja) 画像処理方法及びその装置