JP2001125745A - 情報入力方法および座標入力装置 - Google Patents
情報入力方法および座標入力装置Info
- Publication number
- JP2001125745A JP2001125745A JP30941299A JP30941299A JP2001125745A JP 2001125745 A JP2001125745 A JP 2001125745A JP 30941299 A JP30941299 A JP 30941299A JP 30941299 A JP30941299 A JP 30941299A JP 2001125745 A JP2001125745 A JP 2001125745A
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinate input
- plane
- distance
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 54
- 239000013598 vector Substances 0.000 claims abstract description 66
- 238000003384 imaging method Methods 0.000 claims description 31
- 238000000605 extraction Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 113
- 230000003287 optical effect Effects 0.000 description 19
- 230000014509 gene expression Effects 0.000 description 10
- 238000012546 transfer Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
より、座標入力が行われたことを判断して、その入力座
標を求める。 【解決手段】 制御装置2は、電子カメラ10で撮像し
た画像から物体を抽出し、物体と表示部12の面との距
離が所定範囲内にあるとき、物体の動きベクトルの求
め、物体による座標入力を判定し、入力があったとき、
電子カメラ10、11上の物体像の位置を基に、物体の
入力座標を算出する。
Description
面として専用の部材を必要としない電子式筆記入力装置
などの座標入力装置に関し、PDP(Plasma D
isplayPanel)やリアプロジェクションタイ
プの大画面ディスプレイを使用した電子黒板やプレゼン
テーションシステムなどに適用される。
求める方法が種々提案されている。その一つは、座標入
力領域の周囲に取り付けられた光再帰性反射シートを利
用して、光が遮断された部分を検出することにより入力
座標を求める方法であり(特開平11−85376号公
報を参照)、他の一つは、複数のテレビカメラを用いて
可動物体の3次元空間内の座標位置を求める方法である
(特開昭61−196317号公報を参照)。
ペン等の座標入力物体と座標入力面であるディスプレイ
表面との間の接触、非接触を精度よく検出できるように
するために、光再帰性反射シートに照射する光ビームの
幅をできるだけ小さくして、また光ビームをディスプレ
イ表面からできるだけ近い位置に照射する必要がある。
この時、ディスプレイ表面が歪んでいる場合は、光ビー
ムがディスプレイ表面に遮られて光が遮断されたことを
検出しない程度に光ビームがディスプレイ表面から離れ
ている必要がある。この場合、歪んだディスプレイ表面
上の全ての位置で指やペン等の座標入力物体の接触を精
度よく検出することが難しくなる。
た状態からペンアップにより非接触となったが光ビーム
は遮断されたままの状態になることが有り得る。この場
合、文字が筆記者の意図しないものとなったり、ダブル
クリックが検出されない、といった問題が発生する。
フレームレートが大きい2次元撮像素子を使用したテレ
ビカメラであるので、高価である。
号の出力フレームレートも大きい1次元撮像素子を使用
したカメラを用いて座標入力物体とディスプレイ表面と
の接触を検出する方法が提案されている。
示す。なお、図24では、カメラから出力される画像信
号を基に座標を求めたり、表示部に画面データを出力す
るパーソナルコンピュータ等の制御装置の図示は省略し
ている。この座標入力装置の中央はPDP等の表示部で
あり、この表示部の右上方部と左上方部にカメラがその
光軸が表示部平面と平行となるように取り付けられてい
る。なお、これらのカメラのレンズは画角が90度以上
の広角レンズであり、表示部全体について接触する座標
入力物体を撮像できるようになっている。
は光の反射率の小さい黒い枠が取り付けられている。こ
の枠の表示部平面と垂直方向の幅は、カメラの撮像範囲
の幅と等しいかそれ以上であり、表示部の近傍に座標入
力物体が無い場合は、カメラはその黒い枠を撮像するよ
うになっている。カメラの撮像領域に座標入力物体が無
く、黒い枠のみを撮像している時のカメラからの出力信
号のレベルを基準レベルと定義する。ここで表示部近傍
すなわちカメラの撮像領域に座標入力物体が存在する
と、カメラの撮像素子はこの物体表面から反射される太
陽光や照明光等の光を受光して、受光した画素は光電変
換により電荷を掃き出すため、ラインセンサの全画素分
に相当するカメラからの出力信号は、座標入力物体から
の反射光を受光した画素に相当する部分のみ信号レベル
が基準レベルに対して高くなる。
れたスレッシュレベルよりも大きい場合はそのピークに
相当する画素位置のデータを使用して表示部上の座標を
算出する。なお、この座標算出に関する詳細な説明は後
述するため、ここではその説明を省略する。
コープでの波形を図25に示す。図25では、ラインセ
ンサの全画素分に相当する信号を1走査分示している。
大きいため、その像部分に該当するカメラからの出力信
号レベルは大きくなり、逆に座標入力物体が黒色の場合
は光の反射率が小さいため、その像部分に該当するカメ
ラからの出力信号レベルは小さくなる。また、カメラか
らの出力信号レベルはカメラにおける座標入力物体の撮
像面積に依存する。すなわち、座標入力物体が表示部か
ら離れており、カメラの撮像領域にほんの1部分しか存
在しないような場合にはその像部分に該当するカメラか
らの出力信号レベルは小さくなり、座標入力物体が表示
部に接触している場合にはその像部分に該当するカメラ
からの出力信号レベルは大きくなる。
ッシュレベルを大きくすると座標入力物体として黒っぽ
いペンが使用されると座標入力ができず、逆にこのスレ
ッシュレベルを小さくすると座標入力物体として白いペ
ンが使用されると表示部に接触しなくても、座標入力が
行われてしまうという相矛盾した不具合が発生する。後
者の場合は前述したように、文字が筆記者の意図しない
ものとなったり、ダブルクリックが検出されないという
問題がある。
電磁授受方式を採るタブレットがあるが、入力面上の空
間でペン(専用ペン)先をカーソルの位置指定として機
能できる範囲が非常に限定されている(例えば、最大で
8mm程度)。この範囲をさらに拡大しようとすると、
ペンを大型化したり、あるいはペンにバッテリを内蔵し
なければならないという問題がある。
で、本発明の目的は、座標入力部材である物体の動きを
見ることにより、座標入力が行われたことを判断して、
その入力座標を求める情報入力方法および座標入力装置
を提供することにある。
ような光ビームの走査手段を不要とし、また、ディスプ
レイ表面が歪んでいる場合にも座標入力部材とディスプ
レイ表面との接触、非接触を精度よく判断できるように
する。
ない。すなわち、例えば、ペン、指、棒が使用できる。
座標入力が行われる部材はディスプレイに限定されたも
のではなく、座標入力面が平面であるという条件さえ満
たしていればよい。例えば、座標入力が行われる部材と
して、黒板が使用できる。
用いて具体的に説明する。 (実施例1)図1は、本発明の実施例1に係る座標入力
システムのシステム構成図を示す。この座標入力システ
ムは、座標入力装置1と制御装置2とから構成されてい
て、座標入力装置1は2個の電子カメラ10、11と表
示部12を具備している。電子カメラ10および電子カ
メラ11は、表示部12に高画素タイプのXGA(10
24×768画素)で表示された場合にも、メニュー選
択や筆記動作等が支障なく実行される程度に高画素でま
た画像信号の出力フレームレートが大きく、また光電変
換された信号を画素単位に独立して出力することができ
る2次元撮像素子を具備している。この2次元撮像素子
として、例えばCMOS(Complementary
Metal Oxide Semiconducto
r)センサがある。
光電変換された電気信号をA/D(Analog/Di
gital)変換して、デジタル画像データを出力す
る。また、各電子カメラの光軸は表示部12平面と平行
となるように取り付けられている。なお、これらの電子
カメラのレンズは画角が90度以上の広角レンズであ
り、表示部全体の領域について接触する座標入力物体を
撮像できるようになっている。表示部12は大画面ディ
スプレイであり、例えばPDPが使用される。
2に示す。図中、CPU20、メインメモリ21、クロ
ック22、バスコントローラ23、ROM(ReadO
nly Memory)24、PCI(Periphe
ral Component Interconnec
t)ブリッジ25、キャッシュメモリ26、ハードディ
スク27、HD(Hard Disk)コントローラ2
8、表示コントローラ29、画像処理回路(1)30、
画像処理回路(2)31、LANコントローラ32、L
AN I/F(Interface)33、FD(Fl
oppyDisk)コントローラ34、FDドライブ3
5、CD−ROM(Compact Disc Rea
d Only Memory)コントローラ36、CD
−ROMドライブ37、キーボードコントローラ38、
マウスI/F39、RTC(Real Time Cl
ock)40、CPUバス41、PCIバス42、Xバ
ス(内部バス)43は、制御装置2に実装されている。
御処理プログラム、ハードディスク27からメインメモ
リ21に読み出されたOS(Operating Sy
stem)や各種のアプリケーションプログラムを実
行、処理する。メインメモリ21は、DRAM(Dyn
amic Random Access Memor
y)で構成されていて、CPU20のワークエリア等で
使用される。クロック22は、水晶発振子と分周回路か
ら構成されていて、CPU20やバスコントローラ23
の動作タイミングを制御するためのクロックを生成して
いる。バスコントローラ23は、CPUバス41とXバ
ス43でのデータ転送を制御する。ROM24は、電源
オン時のシステム立ち上げや各種デバイスの制御を行う
ためのプログラムが予め書き込まれている。PCIブリ
ッジ25は、キャッシュメモリ26を使用して、PCI
バス42とCPU20との間のデータ転送を行う。キャ
ッシュメモリ26は、DRAMで構成されていて、PC
Iブリッジ25により使用される。ハードディスク27
は、システムソフトウェア、各種のアプリケーションプ
ログラム、多数のユーザデータ等を記憶する。HDコン
トローラ28は、ハードディスク27とのインタフェー
スとして例えばIDE(IntegratedDevi
ce Electronics)インタフェースを持
ち、ハードディスク27と高速データ転送を行う。
ラフィックデータ等をD/A(Digital/Ana
log)変換するとともに、これらのデータを座標入力
装置1の表示部12に表示するための制御を行う。
1の電子カメラ10から出力されたデジタル画像データ
をRS−422等のデジタルI/F(図示を省略)を介
して入力し、その画像データから物体の抽出処理や物体
の形状の認識処理、また物体の動きベクトルを求める処
理等を行う。また、画像処理回路(1)30は、電子カ
メラ10に与えるクロックや画像転送パルスをRS−4
22等のデジタルI/F(図示を省略)を介して出力す
る。
(1)30と同じハードウェアであり、座標入力装置1
の電子カメラ11から出力されたデジタル画像データを
入力し、画像処理回路(1)30と同様な動作を実行す
る。なお、画像処理回路(1)30と画像処理回路
(2)31からそれぞれ電子カメラ10と電子カメラ1
1へ与えるクロックや画像転送パルスは同期するように
なっている。
(Institute ofElectrical a
nd Electronics Engineers)
802.3規格に準拠した通信プロトコルを実行して、
LAN I/F33を介してイーサネット(登録商標)
に接続された他の機器との通信を制御する。FDコント
ローラ34はFDドライブ35とデータ転送を行う。C
D−ROMコントローラ36はCD−ROMドライブ3
7とのインタフェースとして例えばIDEインタフェー
スを持ち、CD−ROMドライブ37とデータ転送を行
う。キーボードコントローラ38は、キーボード44か
ら入力されたシリアルデータからパラレルデータへの変
換を行う。マウスI/F39は、マウス用のポートを持
ち、マウスドライバ(制御プログラム)によって制御さ
れる。RTC40は、日付時計であり、図示していない
バッテリーによりバックアップされている。なお、座標
入力装置1が制御装置2の入力装置であるため、保守用
の作業時を除き、キーボード44およびマウス45は接
続する必要はない。
示部12に接触したときの接触位置を幾何学的に求める
方法を説明する。図3に示すように、座標入力装置1の
電子カメラ10は広角レンズ50、CMOSイメージセ
ンサ51を具備し、電子カメラ11は広角レンズ52、
CMOSイメージセンサ53を具備しており、それぞれ
の入射光の光軸が座標入力装置1の表示部12平面に平
行であり、また、それぞれの電子カメラが表示部12全
体の領域について接触する座標入力物体を撮像できるよ
うに配置されている。
をL、表示部12平面における座標入力部材の接触点を
A、点Aの位置座標を(x,y)、広角レンズ50と広
角レンズ52とを結ぶ直線をX−Line、広角レンズ
50における接触点Aの方向とX−Lineとのなす角
度をβ1、広角レンズ52における接触点Aの方向とX
−Lineとのなす角度をβ2とする。
ージセンサ51付近の拡大図を図4に示す。図4におい
て、fは広角レンズ50とCMOSイメージセンサ51
との間の距離、hはCMOSイメージセンサ51におけ
る広角レンズ50の光軸の結像位置と接触点Aの結像位
置との間の距離(表示部12平面に平行な方向における
距離)、αは広角レンズ50の光軸とX−Lineとの
なす角度、θは接触点Aとその結像点とを結ぶ線と広角
レンズ50の光軸とのなす角度である。これらを用い
て、以下の2式が成り立つ。
め、これら2式より角度β1を求めることができる。ま
た、電子カメラ11についても同様にして角度β2を求
めることができる。角度β1と角度β2が求まると、接
触点Aの位置座標(x,y)は、三角測量の原理により x=Ltanβ2/(tanβ1+tanβ2) …… (3) y=xtanβ1 …… (4) として算出される。
CMOSイメージセンサ53上に結像される表示部12
平面に該当するエッジ部の像(直線)と各CMOSイメ
ージセンサの画素配列との関係について説明する。CM
OSイメージセンサ51およびCMOSイメージセンサ
53は2次元の画素配列を持つが、縦方向と横方向とで
画素数が異なる場合、画素数の小さい方向をX軸方向、
画素数の大きい方向をY軸方向として、そのY軸方向が
表示部12平面にできるだけ平行となるように電子カメ
ラ10と電子カメラ11が組み付けられる。縦方向と横
方向の画素数が同じ場合は、いずれかの方向をY軸方向
とする。
される表示部12平面に該当するエッジ部の像(直線)
が画素配列のY軸方向と一致しない場合は、表示部12
平面に該当するエッジ部の像(直線)と画素配列のY軸
方向との成す角度δを求める。この角度δは、エッジ部
の像(直線)上の数点の画素位置を調べることで求める
ことができる。この説明のための図を図5に示す。図5
のエッジ部の像(直線)の端点を基準画素位置として、
この直線上の任意の点、A、B、CにおけるX軸方向の
画素数xとY軸方向の画素数yを調べる。これらの各点
において、 tanδ*=x/y …… (5) によりδ*が求まるため、これらの平均値を角度δとす
る。
ータから表示部12平面と物体(座標入力部材)との距
離を求める場合、表示部12平面に該当するエッジ部の
像(直線)をその画像データの座標系のY軸とした方が
便利である。そこで、画像データを用いて表示部12平
面と物体(座標入力部材)との距離を求めたり、動きベ
クトルの大きさを求める場合、その画像データの座標値
を上記で求めた角度δだけ回転させて処理する。図5に
示すように、エッジ部の像(直線)が右に傾いている場
合は左方向へ回転させ、逆に左に傾いている場合は右方
向へ回転させる。この回転後の座標(x’,y’)は、
回転前の座標を(x,y)として次式により求められ
る。
がCMOSイメージセンサ51の画素配列のY軸方向に
一致するように、工場出荷時あるいはユーザ先の設置時
に調整されたり、あるいは適宜保守モードで調整される
場合は上記の座標回転処理は必ずしも必要とはされな
い。
の処理フローチャートを示す。座標入力装置1の電子カ
メラ10は、CMOSイメージセンサ51の撮像領域の
中で、表示部12平面と垂直方向については画像信号を
出力させる画素を制限する。すなわち、表示部12平面
から所定の距離までの範囲を撮像している画素のみにつ
いて画像信号を出力するように制御する。そして、この
画像信号をA/D変換して、このデジタル画像データを
制御装置2の画像処理回路(1)30へ出力する。画像
処理回路(1)30はこの入力された1フレーム分の画
像データから物体の輪郭線を抽出する処理を行う(ステ
ップ101)。物体の輪郭線の抽出方法としては、例え
ば微分により画素間の濃度勾配を求め、その方向と大き
さから輪郭線を判定する方法(例えば、特公平8−16
931号公報に記載の方法)等を用いる。
標入力装置1の表示部12平面に該当するエッジ部の像
(直線)と抽出された輪郭線上における各点との間の画
素数(つまり、距離に相当)を求める(ステップ10
2)。そして、この画素数(距離)の中の最小値Nmi
nが所定の値以下である場合には(ステップ103でY
ES)、その画素数Nminとなった画素を中心とした
物体の輪郭線上における所定数の画素について、次に入
力される1フレーム分の画像データから動きベクトルを
求める(ステップ104)。
えばオプティカルフローを使用する。オプティカルフロ
ーとは、画像の画素値の時間的な変化率とその周りでの
空間的な変化率を用いて求められる、画像の各点での速
度ベクトルのことである。動きベクトルは画像データ中
における表示部12平面に該当するエッジ部の像(直
線)をY軸、これと垂直な方向をX軸として2次元で表
す。
例(部分)を図7に示す。なお、図7は表示部12とそ
の周りのフレーム部分とが同一平面になるように取り付
けられている場合を示す。
定の距離以内であるため、動きベクトル(Vx,Vy)
が求められる。このようにして、入力される1フレーム
分の画像データ毎に、表示部12平面と物体との距離が
所定の範囲内であれば輪郭線上の所定数の画素について
その物体の動きベクトルを求め、このX方向の成分Vx
の値を各画素毎にメインメモリ21に逐次記憶しておく
(ステップ105)。そして、この逐次記憶されたデー
タ(トレースデータ)に基づいて、物体が表示部12に
対して座標入力を行ったか否かを判断する(ステップ1
06)。
例3や実施例4に記載の方法を使用する。そして、座標
入力が行われたと判断した場合は(ステップ107でY
ES)、その時点における各動きベクトルの座標の中で
座標入力物体が表示部12平面に接触している中心にあ
る点P、あるいは表示部12平面に最も近い点PのY軸
方向の位置、すなわちY軸方向の端からの画素数N1を
調べる。ここで、広角レンズ50の光軸の結像位置の中
心点QにおけるY軸方向の端からの画素数N2は既に知
られた値であるため、点Pと点Qとの間のY軸方向につ
いての画素数は|N1−N2|となり、この値とCMO
Sイメージセンサ51の画素間の距離(画素ピッチ)か
ら点Pと点Qとの間のY軸方向についての距離hが求ま
る(ステップ108)。このhが図4に示したhであ
る。
り既知の値を持つfとαを用いて角度β1が求まる(ス
テップ110)。画像処理回路(2)31においても電
子カメラ11から入力される画像データを用いて上記と
同様な処理を行い、角度β2が求まる。これらのβ1、
β2および既知の値を持つLを用いて式(3)と式
(4)より表示部12面上における座標(x,y)が求
まる(ステップ111)。
ータ列を基に、物体が表示部表面から所定の距離範囲に
あるか否かを判定し、所定の距離範囲にあるときには
(ステップ109でYES)、ステップ104に進み、
前述したように動きベクトルを求め、ステップ109で
NOのときはステップ101に戻る。
述の計算はCPU20で実行してもよいし、式(1)と
式(2)の計算を画像処理回路(1)30および画像処
理回路(2)31で実行し、式(3)と式(4)の計算
をCPU20で実行するようにしてもよい。
ェックする際に、画像データ中の座標入力装置1の表示
部12平面に該当するエッジ部の像(直線)と物体の輪
郭線上における所定の間隔でサンプリングされた各点と
の間の画素数(つまり距離に相当)を求めて、この画素
数(距離)の中の最小値Nminが所定の値以下である
場合に、その画素数Nminとなった画素を中心とした
物体の輪郭線上における所定数の画素について、次に入
力される1フレーム分の画像データから動きベクトルを
求めるようにしてもよい。
る場合は座標入力部材による座標入力が行われている間
に得られた座標データ列から表示用の描画データを生成
して、これを表示コントローラ29を介して座標入力装
置1の表示部12に表示する。
面に歪みが無く、また座標入力動作時にへこまない硬い
材質で構成されている場合を示している。ところが、表
示部12平面に歪みがあったり、あるいはこの表面の材
質が柔らかいもので構成されていて座標入力動作時に表
面がへこむような場合は、座標入力物体の表示部12へ
の接触部分の一部が画像として得ることができず、また
この部分に該当する画素の動きベクトルも得られない。
この場合の一例を図8に示す。
ションタイプの表示装置が使用され、この表示表面が柔
らかく、座標入力動作時に表面がへこんだ場合を示して
いる。この場合は、座標入力物体(ペン)の表示部12
への接触部分の一部(ペン先)が画像として得ることが
できない。そこで、表示部12への接触部分の両端点
(図中、点Aと点B)の中間点を座標入力物体が表示部
12平面に接触している中心にある点Pとみなして上述
した処理により表示部12面上における座標を求める。
あると判断された物体の動きを見ることにより、座標入
力が行われたことを判断して、その入力座標を求める実
施例である。実施例2の座標入力システムの構成、制御
装置の構成は、実施例1と同様である。
の処理フローチャートを示す。座標入力装置1の電子カ
メラ10は実施例1と同様にして、画像データを制御装
置2の画像処理回路(1)30へ出力する。画像処理回
路(1)30はこの入力された1フレーム分の画像デー
タから実施例1と同様にして、物体の輪郭線を抽出する
処理を行う(ステップ201)。輪郭線が抽出される
と、その輪郭線の形状よりその物体が座標入力部材であ
るか否かを判断する。
う。この形状認識の方法として、例えば、まず物体の重
心を求め、この重心と輪郭線までの距離を重心の回り
(360°)について順次求め、この角度と距離の関係
から輪郭線の形状を特定する方法(特開平8−3151
52を参照)を用いる。この得られた輪郭線の形状に関
するデータは、座標入力部材の形状としてROM24ま
たはハードディスク27に予め記憶されたデータと比較
することで(ステップ202)、その形状の物体が座標
入力部材であるか否かを判断する(ステップ203)。
ーに対するポインティングや筆記入力等の座標入力動作
時は、座標入力部材の表示部12平面に対する傾きが一
定でないため、物体の重心と輪郭線とを結ぶ基準線(0
°の位置)をある角度の範囲内で回転させて予め記憶さ
れたデータと比較する。この座標入力部材の画像および
基準線の回転の例を図10に示す。なお、座標入力部材
の形状に関するデータを複数種類用意しておき、形状の
判断処理時にこれらを全て利用してもよい。また、座標
入力部材の形状に関するデータを予め記憶せずに、図1
1に示すように、輪郭線が抽出された物体が左右対称で
あるか否かをチェックして、対称と判断した場合にその
物体を座標入力部材とする方法もある。この対称性は上
述した重心と輪郭線までの距離を重心の回りについて順
次求めることで判断することができる。
と判断した場合は(ステップ203でYES)、画像デ
ータ中の座標入力装置1の表示部12平面に該当するエ
ッジ部の像(直線)と座標入力部材であると判断された
物体の輪郭線上における各点との間の画素数を求める
(ステップ204)。そして、この画素数の中の最小値
Nminが所定の値以下である場合には(ステップ20
5でYES)、その画素数Nminとなった画素を中心
とした物体の輪郭線上における所定数の画素について、
次に入力される1フレーム分の画像データから、実施例
1と同様にオプティカルフローを使用して動きベクトル
(Vx,Vy)を求める(ステップ206)。
て、表示部12面上における座標(x,y)が求まる
(ステップ213)。
座標入力が行われる表示部材との距離が所定の値以下の
場合に、座標入力部材である物体が接近から離れる方向
へ動きが反転したことを見ることで、座標入力が行われ
たことを判断して、その入力座標を求める実施例であ
り、主に表示部12に表示されたアイコンやメニューに
対してポインティングする場合に適用される。実施例3
の座標入力システムの構成、制御装置の構成は、実施例
1と同様である。
置の処理フローチャートを示す。実施例2と同様にし
て、画像処理回路(1)30は入力された1フレーム分
の画像データから物体の輪郭線を抽出する処理を行う
(ステップ301)。輪郭線が抽出されると、その輪郭
線の形状を基に、その物体が座標入力部材であるか否か
を判断する(ステップ302)。
テップ302でYES)、画像データ中の座標入力装置
1の表示部12平面に該当するエッジ部の像(直線)と
座標入力部材であると判断された物体の輪郭線上におけ
る各点との間の画素数を求める(ステップ303)。そ
して、この画素数の中の最小値Nminが所定の値以下
である場合には(ステップ304でYES)、その画素
数Nminとなった画素を中心とした物体の輪郭線上に
おける所定数の画素について、次に入力される1フレー
ム分の画像データからオプティカルフローを使用して動
きベクトル(Vx,Vy)を求める(ステップ30
5)。なお、画像データ中における表示部12平面に該
当するエッジ部の像(直線)をY軸、これと垂直な方向
をX軸としている。
の画像データ毎に、表示部12平面と物体との距離が所
定の範囲内であれば輪郭線上の所定数の画素についてそ
の物体の動きベクトルを求め、このX方向の成分Vxの
値を各画素毎にメインメモリ21に逐次記憶しておく
(ステップ306)。そして、これらのX方向の成分V
xの値が表示部12平面に近づく方向から離れる方向へ
向きが逆転した場合は(ステップ307でYES)、そ
の向きが逆転したベクトルの始点の中で座標入力部材が
表示部12平面に接触している中心にある点P、あるい
は表示部12平面に最も近い点Pと広角レンズ50の光
軸の結像位置の中心点Qとの間のY軸方向についての画
素数を求め、この値とCMOSイメージセンサ51の画
素間の距離(画素ピッチ)から点Pと点Qとの間のY軸
方向についての距離hを求める(ステップ309)。
が求まると、式(1)と式(2)より角度β1が求まり
(ステップ310)、また画像処理回路(2)31にお
いても電子カメラ11から入力される画像データを用い
て上記と同様な処理により角度β2が求まる。これらの
β1、β2および既知の値を持つLを用いて式(3)と
式(4)より表示部12面上における座標(x,y)が
求まる(ステップ311)。上記ステップ307でNO
のときは、ステップ308に進み、実施例1、2と同様
に、Vxのデータ列を基に、物体が表示部表面から所定
の距離範囲にあるか否かを判定する。
座標入力が行われる表示部材との距離が所定の値以下の
場合に、座標入力部材である物体が座標入力が行われる
部材の平面部と垂直方向の動きが接近から停止へと動き
が止まったことを見ることで、座標入力が行われたこと
を判断して、座標入力状態としてその入力座標を求める
動作を開始し、その後、座標入力部材が平面部から離れ
る方向に動いたことを検出すると、座標入力状態を解除
して、その入力座標を求める動作を停止する実施例であ
り、主に表示部12に対して筆記入力する場合に適用さ
れる。また、実施例4の座標入力システムの構成、制御
装置の構成は、実施例1と同様である。
フローチャートを示す。実施例2と同様にして、画像処
理回路(1)30は入力された1フレーム分の画像デー
タから物体の輪郭線を抽出する処理を行う(ステップ4
01)。輪郭線が抽出されると、その輪郭線の形状より
その物体が座標入力部材であるか否かを判断する(ステ
ップ402)。
像データ中の座標入力装置1の表示部12平面に該当す
るエッジ部の像(直線)と座標入力部材であると判断さ
れた物体の輪郭線上における各点との間の画素数を求め
る(ステップ403)。そして、この画素数の中の最小
値Nminが所定の値以下である場合には(ステップ4
04でYES)、その画素数Nminとなった画素を中
心とした物体の輪郭線上における所定数の画素につい
て、次に入力される1フレーム分の画像データからオプ
ティカルフローを使用して動きベクトル(Vx,Vy)
を求める(ステップ405)。なお、画像データ中にお
ける表示部12平面に該当するエッジ部の像(直線)を
Y軸、これと垂直な方向をX軸としている。
の画像データ毎に、表示部12平面と物体との距離が所
定の範囲内であれば輪郭線上の所定数の画素についてそ
の物体の動きベクトルを求め、このX方向の成分Vxの
値を各画素毎にメインメモリ21に逐次記憶しておく
(ステップ406)。そして、これらのX方向の成分V
xの値がゼロとなった場合は(ステップ407でYE
S)、座標入力が行われたと判断して座標入力状態とす
る(ステップ409)。
部材が表示部12平面に接触している中心にある点P、
あるいは表示部12平面に最も近い点Pと広角レンズ5
0の光軸の結像位置の中心点Qとの間のY軸方向につい
ての画素数を求め、この値とCMOSイメージセンサ5
1の画素間の距離(画素ピッチ)から点Pと点Qとの間
のY軸方向についての距離hを求める(ステップ41
0)。
り角度β1が求まり(ステップ411)、また画像処理
回路(2)31においても電子カメラ11から入力され
る画像データを用いて上記と同様な処理により角度β2
が求まる。これらのβ1、β2および既知の値を持つL
を用いて式(3)と式(4)より表示部12面上におけ
る座標(x,y)が求まる(ステップ412)。
接触している中心にある点P、あるいは表示部12平面
に最も近い点Pの動きベクトルに着目し、X方向の成分
Vxの値がゼロのままでY方向の成分Vyの値が変化し
た場合(ステップ413でYES)、点Pと点Qとの間
のY軸方向についての距離hを求めて上記と同様にして
表示部12面上における座標(x,y)を求める(ステ
ップ412)。そして、CPU20は得られた座標デー
タ列から表示用の描画データを生成して、これを表示コ
ントローラ29を介して座標入力装置1の表示部12に
表示する。
ベクトルのX方向の成分Vxの値がマイナスの値、すな
わち表示部12平面から離れる方向になった場合は(ス
テップ414でYES)、座標入力状態を解除して表示
部12面上における座標を求める動作を停止する(ステ
ップ415)。
動きベクトルのX方向の成分Vxの値が正(表示部12
平面に近づく方向)でY方向の成分Vyの値が変化した
場合も表示部12面上における座標(x,y)を求め
る。
座標入力が行われる表示部材との距離が所定の値以下の
場合には撮像素子から出力される画像信号のフレームレ
ート(1秒間のフレーム数)を大きくして動きを精度よ
く見るようにし、それ以外の場合には撮像素子から出力
される画像信号のフレームレートを小さくして装置の負
荷を軽減させる実施例である。また、実施例5の座標入
力システムの構成、制御装置の構成は、実施例1と同様
である。
0と電子カメラ11は、それぞれCMOSイメージセン
サ51およびCMOSイメージセンサ53から出力され
る画像信号のフレームレートを可変に制御でき、このフ
レームレートに応じたデータ量の画像データを制御装置
2の画像処理回路(1)30と画像処理回路(2)31
へ出力できるようになっている。ここでは、大小2種類
のフレームレートがあり、これらを適宜切り換えられる
ようになっているものとする。また、電源投入時はデフ
ォルトとして小さい方のフレームレートが選択されてい
るものとする。
フローチャートを示す。実施例2と同様にして、画像処
理回路(1)30は入力された1フレーム分の画像デー
タから物体の輪郭線を抽出する処理を行う(ステップ5
01)。輪郭線が抽出されると、その輪郭線の形状より
その物体が座標入力部材であるか否かを判断する(ステ
ップ502)。座標入力部材であると判断した場合は、
画像データ中の座標入力装置1の表示部12平面に該当
するエッジ部の像(直線)と座標入力部材であると判断
された物体の輪郭線上における各点との間の画素数を求
める(ステップ503)。
が所定の値以下である場合には(ステップ504でYE
S)、画像処理回路(1)30は座標入力装置1の電子
カメラ10に対してCMOSイメージセンサ51から出
力される画像信号のフレームレートを大きくする要求コ
マンドを出す(ステップ505)。電子カメラ10はこ
のコマンドを受け取ると、CMOSイメージセンサ51
から出力される画像信号のフレームレートを大きくする
ように制御する。これは、例えば、CMOSイメージセ
ンサ51を構成する各素子の電荷蓄積時間を短くするよ
うに設定することで実現される。この時点(つまり、ス
テップ504で)の画素数の最小値Nminを比較する
所定の値は、実施例1から実施例4に示した座標入力部
材の動きベクトルデータのトレースを開始する時の値と
は異なり、より大きな値が設定される。
部材と表示部12平面との距離が所定の範囲内(画像信
号のフレームレートを切り替える時の範囲より小さい)
であると判断した場合は(ステップ506でYES)、
座標入力部材の動きベクトルデータをトレースし(トレ
ースを行う範囲<大きいフレームレートの範囲)、座標
入力の判断処理(つまり、実施例1から実施例4で説明
した入力座標を求める処理)を行う(ステップ50
7)。
のトレースを行う範囲から出て(ステップ506でN
O)、さらに表示部12平面から所定の距離(画像信号
のフレームレートを大きくなるように切り替えた距離)
以上になったと判断した場合は(ステップ508でN
O)、画像処理回路(1)30は座標入力装置1の電子
カメラ10に対してCMOSイメージセンサ51から出
力される画像信号のフレームレートを小さくする要求コ
マンドを出し(ステップ509)、ステップ501に進
む。そして、CMOSイメージセンサ51から出力され
る画像信号のフレームレートが小さくなるように制御さ
れる。
のトレースを行う範囲から出た場合は、座標入力部材の
輪郭線上の各点と表示部平面に該当するエッジ部の像
(直線)との間の画素数を調べることで、所定の距離以
上になったことを判断する。
ラ10との間の動作を示したが、画像処理回路(2)3
1と電子カメラ11も同様な動作を実行する。また、画
像処理回路から出されるフレームレートの切替要求コマ
ンドは、画像データを受信するケーブルを介して電子カ
メラへ渡される。
信号を画素単位に独立して出力することができる撮像素
子を使用し、座標入力部材と座標入力が行われる表示部
材との距離が所定の値以下の場合には光電変換された信
号を出力する画素を座標入力部材の像を中心とした限定
された領域に含まれるものに限定して、装置の負荷を軽
減させる実施例である。また、実施例6の座標入力シス
テムの構成、制御装置の構成は、実施例1と同様であ
る。
1は、それぞれCMOSイメージセンサ51およびCM
OSイメージセンサ53から画像信号を画素単位で出力
するように制御できる。電源投入時は、表示部12平面
全体から所定の距離までの範囲を撮像している画素につ
いて画像信号を出力するように制御している。
フローチャートを示す。実施例2と同様にして、画像処
理回路(1)30は入力された1フレーム分の画像デー
タから物体の輪郭線を抽出する処理を行う(ステップ6
01)。輪郭線が抽出されると、その輪郭線の形状より
その物体が座標入力部材であるか否かを判断する(ステ
ップ602)。座標入力部材であると判断した場合は、
画像データ中の座標入力装置1の表示部12平面に該当
するエッジ部の像(直線)と座標入力部材であると判断
された物体の輪郭線上における各点との間の画素数を求
める(ステップ603)。
が所定の値K以下である場合には(ステップ604でY
ES)、その輪郭線上の点のY軸方向の位置ym(Y軸
方向の端からの画素数)を調べる。そして、このY軸方
向の位置ymを中心として、CMOSイメージセンサ5
1から画像信号を出力する画素領域をY軸のプラスおよ
びマイナス方向についてそれぞれλ画素に制限するため
の要求コマンドを座標入力装置1の電子カメラ10に対
して出す(ステップ605)。この画像例を図16
(a)に示す。
と、CMOSイメージセンサ51から画像信号を出力す
る画素領域を、Y軸方向の位置ymを中心としてY軸の
プラスおよびマイナス方向についてそれぞれλ画素に制
限するように制御する。
距離(画素数L)だけ移動すると(ステップ606でY
ES)、CMOSイメージセンサ51から画像信号を出
力する画素領域をそのY軸方向の位置ym’を中心とし
てY軸のプラスおよびマイナス方向についてそれぞれλ
画素に制限するための要求コマンドを座標入力装置1の
電子カメラ10に対して出す(ステップ607)。この
画像例を図16(b)に示す。
力部材との距離が所定の範囲内であれば、CMOSイメ
ージセンサ51から画像信号を出力する画素領域をY軸
方向について2λ画素となるように制御する。
部材と表示部12平面との距離が所定の範囲内(画素数
(距離)Kより小さな画素数(距離)に設定)であると
判断した場合は、座標入力部材の動きベクトルデータを
トレースする。そして、座標入力部材が動きベクトルデ
ータのトレースを行う範囲から出て(ステップ608で
NO)、さらに表示部12平面から所定の距離(画素数
K)以上になったと判断した場合は(ステップ610で
NO)、画像処理回路(1)30は座標入力装置1の電
子カメラ10に対してCMOSイメージセンサ51から
表示部12平面全体の範囲について画像信号を出力する
要求コマンドを出す(ステップ611)。そして、CM
OSイメージセンサ51から画像信号を出力する画素領
域は電源投入時の初期値と同じになるように制御され
る。
のトレースを行う範囲から出た場合は、座標入力部材の
輪郭線上の各点と表示部平面に該当するエッジ部の像
(直線)との間の画素数を調べることで、所定の距離以
上になったことを判断する。
ラ10との間の動作を示したが、画像処理回路(2)3
1と電子カメラ11も同様な動作を実行する。また、画
像処理回路から出される画素領域の切替要求コマンド
は、画像データを受信するケーブルを介して電子カメラ
へ渡される。
リアプロジェクションタイプの大画面ディスプレイは画
面サイズが40インチから70インチである。これらの
ディスプレイに表示される内容はパーソナルコンピュー
タ等からの出力画面であり、高画素タイプのXGA(E
xtended Graphics Array:10
24×768画素)で表示された場合にも、メニュー選
択や筆記動作等が支障なく実行されることが要求され
る。
ために、撮像素子をディスプレイの一つの辺を挟んだ頂
角に各1個ずつ、計2個使用した場合には、約2000
画素のラインを含んだ撮像素子が必要となる。
は撮像素子から出力される画像信号のフレームレートを
大きくする必要があるが、1辺が2000画素程度の2
次元撮像素子で出力フレームレートの大きなものを使用
すると、このコストが非常に高価なものとなり、製品全
体のコストを押し上げてしまう。
手段は画素数の多い2次元画像を処理する手段に比べて
非常に安価に実現できる。
では、ディスプレイの表示画面上の2次元座標を求める
撮像素子として2000画素程度の1次元ラインセンサ
を2個使用し、ディスプレイの表示画面近傍の空間にお
ける座標入力部材の動きはVGA(Video Gra
phics Array:640×480画素)程度の
画素数の2次元撮像素子を1個あるいは2個使用して見
るようにして、コストを押さえる。
力システムのシステム構成図を示す。この座標入力シス
テムは座標入力装置60と制御装置61とから構成され
ていて、座標入力装置60は1次元撮像素子を具備した
2個の電子カメラ(ラインセンサカメラ)70、71と
2次元撮像素子を具備した1個の電子カメラ72、表示
部73および枠74を具備している。
像素子としてCCD(ChargeCoupled D
evice)を使用している。この1次元CCD(ライ
ンセンサ)は、その画素数が表示部73に高画素タイプ
のXGA(1024×768画素)で表示された場合に
も、メニュー選択や筆記動作等が支障なく実行される程
度に高画素でまた画像信号の出力フレームレートは高画
素タイプの2次元撮像素子に比べて非常に大きい。これ
らのラインセンサカメラ70、71の光学的な位置関係
は図3に示したものと同じである。
の電子カメラ10と同様に2次元撮像素子としてCMO
Sセンサを使用しており、この画素数は表示部73平面
に対して座標入力が行われる座標入力部材の動きを認識
できる程度に高画素でまた画像信号の出力フレームレー
トも大きい。
において光電変換された電気信号をアナログ信号のまま
出力し、電子カメラ72は撮像素子において光電変換さ
れた電気信号をA/D変換して、デジタル画像データを
出力する。また、各電子カメラの光軸は表示部73平面
と平行となるように取り付けられている。なお、これら
の電子カメラのレンズは画角が90度以上の広角レンズ
であり、表示部全体の領域について接触する座標入力物
体を撮像できるようになっている。
例えばPDPが使用される。枠74は黒色で、かつ光の
反射率が小さい材質で出来ている。また、この枠74は
座標入力装置60の右辺、左辺、下辺に沿って取り付け
られており、この枠の表示部73平面と垂直方向の幅
は、ラインセンサカメラ70、71の撮像範囲の幅と等
しいかそれ以上であり、表示部73の近傍に座標入力物
体が無い場合は、ラインセンサカメラ70、71はその
黒い枠を撮像するようになっている。
置61のハードウェア構成を示す。図中、CPU80、
メインメモリ81、クロック82、バスコントローラ8
3、ROM84、PCIブリッジ85、キャッシュメモ
リ86、ハードディスク87、HDコントローラ88、
表示コントローラ89、画像処理回路(1)90、画像
処理回路(2)91、画像処理回路(3)92、LAN
コントローラ93、LAN I/F94、FDコントロ
ーラ95、FDドライブ96、CD−ROMコントロー
ラ97、CD−ROMドライブ98、キーボードコント
ローラ99、マウスI/F100、RTC101、CP
Uバス102、PCIバス103、Xバス(内部バス)
104は、制御装置61に実装されている。
(1)90、画像処理回路(2)91、画像処理回路
(3)92以外は、図2で説明した実施例の各構成要素
と同じであるため、それらの説明は省略する。
60の電子カメラ72から出力されたデジタル画像デー
タをRS−422等のデジタルI/F(図示を省略)を
介して入力し、その画像データから物体の抽出処理や物
体の形状の認識処理、また物体の動きベクトルを求める
処理等を行う。画像処理回路(2)91はA/D変換回
路を含んでおり、座標入力装置60のラインセンサカメ
ラ70から出力されたアナログ画像信号を同軸ケーブル
を介して入力し、その画像信号から1次元上における物
体の位置を検出する。なお、画像処理回路(2)91は
ラインセンサカメラ70に与えるクロックやライン転送
パルスはRS−422等のデジタルI/F(図示を省
略)を介して出力する。画像処理回路(3)92は画像
処理回路(2)91と同じハードウェアであり、座標入
力装置60のラインセンサカメラ71から出力されたア
ナログ画像信号を入力し、画像処理回路(2)91と同
様な動作を実行する。なお、画像処理回路(2)91と
画像処理回路(3)92からそれぞれラインセンサカメ
ラ70とラインセンサカメラ71へ与えるクロックやラ
イン転送パルスは同期するようになっている。
よび画像処理回路(2)91、画像処理回路(3)92
の動作を詳細に説明する。ラインセンサカメラ70、7
1の撮像領域に座標入力物体が無く、黒い枠のみを撮像
している時のこれらのカメラからの出力信号のレベルを
基準レベルと定義する。ここで表示部73近傍すなわち
ラインセンサカメラ70、71の撮像領域に座標入力物
体が存在すると、ラインセンサカメラ70、71の撮像
素子はこの物体表面から反射される太陽光や照明光等の
光を受光して、受光した画素は光電変換により電荷を掃
き出すため、ラインセンサの全画素分に相当するライン
センサカメラ70、71からの出力信号は、座標入力物
体からの反射光を受光した画素に相当する部分のみ信号
レベルが基準レベルに対して高くなる。この時のライン
センサカメラ70、71からの出力信号波形の1例は図
25に示した通りである。
(3)92は、この信号レベルが基準レベルを基に予め
決められたスレッシュレベルよりも大きいことを検知し
た場合はそのピークに相当する画素位置を求める。信号
のピーク部分の画素位置がわかると、その画素とライン
センサカメラ70の光軸の結像位置の画素との距離hを
ラインセンサの画素間の距離(画素ピッチ)を用いて求
めることができる。なお、このhは図4に示したhであ
る。距離hが求まると、前述した実施例と同様に、式
(1)と式(2)より既知の値を持つfとαを用いて角
度β1が求まる(図4を参照)。
センサカメラ71から入力される画像信号を用いて上記
と同様な処理を行い、角度β2が求まる。これらのβ
1、β2および既知の値を持つLを用いて式(3)と式
(4)より表示部73面上における座標(x,y)が求
まる。
処理フローチャートを示す。座標入力装置60の電子カ
メラ72は、内蔵されたCMOSイメージセンサの撮像
領域の中で、表示部73平面と垂直方向については画像
信号を出力させる画素を制限する。すなわち、表示部7
3平面から所定の距離までの範囲を撮像している画素の
みについて画像信号を出力するように制御する。そし
て、この画像信号をA/D変換して、このデジタル画像
データを制御装置61の画像処理回路(1)90へ出力
する。画像処理回路(1)90はこの入力された1フレ
ーム分の画像データから物体の輪郭線を抽出する処理を
行う(ステップ701)。
標入力装置60の表示部73平面に該当するエッジ部の
像(直線)と抽出された輪郭線上における各点との間の
画素数を求める(ステップ702)。次いで、この画素
数の中の最小値Nminが所定の値以下である場合には
(ステップ703でYES)、その画素数Nminとな
った画素を中心とした物体の輪郭線上における所定数の
画素について、次に入力される1フレーム分の画像デー
タから動きベクトルを求める(ステップ704)。な
お、画像データ中における表示部73平面に該当するエ
ッジ部の像(直線)をY軸、これと垂直な方向をX軸と
する。
タが入力される毎に動きベクトルを求め、このX方向の
成分Vxの値を各画素毎にメインメモリ81に逐次記憶
しておく(ステップ705)。続いて、この逐次記憶さ
れたデータ(トレースデータ)に基づいて、物体が表示
部73に対して座標入力を行ったか否かを判断する(ス
テップ706)。この判断方法として、例えば前述した
実施例3や実施例4に記載の方法を使用する。
テップ707でYES)、画像処理回路(2)91と画
像処理回路(3)92がラインセンサカメラ70、71
からの出力信号に基づいて座標入力物体の撮像位置を検
出して、その中心画素とラインセンサカメラ70、71
の光軸の結像位置の画素との距離hをそれぞれ求める
(ステップ708)。
式(1)と式(2)より角度β1を求める(ステップ7
09)。画像処理回路(3)92においても同様にして
角度β2を求める。これらのβ1、β2および既知の値
を持つLを用いて式(3)と式(4)より表示部73面
上における座標(x,y)を求める(ステップ71
1)。
の構成、制御装置の構成は、実施例7と同様である。図
20は、実施例8に係る制御装置61の処理フローチャ
ートを示す。
例7と同様にして、画像データを制御装置61の画像処
理回路(1)90へ出力する。画像処理回路(1)90
はこの入力された1フレーム分の画像データから物体の
輪郭線を抽出する処理を行う(ステップ801)。
よりその物体が座標入力部材であるか否かを判断する
(ステップ802)。この形状判断は、例えば実施例2
で説明した方法を使用する。そして、座標入力部材であ
ると判断した場合は(ステップ803でYES)、画像
データ中の座標入力装置60の表示部73平面に該当す
るエッジ部の像(直線)と座標入力部材であると判断さ
れた物体の輪郭線上における各点との間の画素数を求め
る(ステップ804)。
が所定の値以下である場合には(ステップ805でYE
S)、その画素数Nminとなった画素を中心とした物
体の輪郭線上における所定数の画素について、次に入力
される1フレーム分の画像データから動きベクトル(V
x,Vy)を求める(ステップ806)。なお、画像デ
ータ中における表示部73平面に該当するエッジ部の像
(直線)をY軸、これと垂直な方向をX軸としている。
の画像データ毎に、表示部73平面と物体との距離が所
定の範囲内であれば輪郭線上の所定数の画素についてそ
の物体の動きベクトルを求め、このX方向の成分Vxの
値を各画素毎にメインメモリ81に逐次記憶しておく
(ステップ807)。続いて、この逐次記憶されたデー
タ(トレースデータ)に基づいて、物体が表示部73に
対して座標入力を行ったか否かを判断する(ステップ8
08)。この判断方法として、例えば前述した実施例3
や実施例4に記載の方法を使用する。
テップ809でYES)、画像処理回路(2)91と画
像処理回路(3)92がラインセンサカメラ70、71
からの出力信号に基づいて座標入力物体の撮像位置を検
出して、その中心画素とラインセンサカメラ70、71
の光軸の結像位置の画素との距離hをそれぞれ求める
(ステップ811)。
式(1)と式(2)より角度β1を求める(ステップ8
12)。画像処理回路(3)92においても同様にして
角度β2を求める。これらのβ1、β2および既知の値
を持つLを用いて式(3)と式(4)より表示部73面
上における座標(x,y)を求める(ステップ81
3)。
座標入力が行われる表示部材との距離が所定の値以下の
場合のみ1次元撮像素子から画像信号を出力するように
して、装置の負荷を軽減させる実施例である。実施例9
の座標入力システムの構成、制御装置の構成は、実施例
7と同様である。
処理フローチャートを示す。実施例9のラインセンサカ
メラ70、71は、それぞれ画像処理回路(2)91と
画像処理回路(3)92からの制御により、動作を開始
したり停止したりすることができるようになっている。
画像処理回路(2)91と画像処理回路(3)92は、
この制御信号をデジタルI/Fを介して出力する。
標入力装置60の表示部73に接近して動きベクトルの
トレースを行う範囲に入った時(ステップ901)、画
像処理回路(2)91および画像処理回路(3)92は
ラインセンサカメラ70、71に対して動作開始信号を
出す(ステップ902)。ラインセンサカメラ70、7
1は、この信号を受けると、撮像素子の光電変換処理を
開始して、画像信号の出力を開始し、座標入力の判断処
理を行う(ステップ903)。
の表示部73から離れて動きベクトルのトレースを行う
範囲から出た時に(ステップ904)、画像処理回路
(2)91および画像処理回路(3)92はラインセン
サカメラ70、71に対して動作停止信号を出す(ステ
ップ905)。ラインセンサカメラ70、71は、この
信号を受けると、撮像素子の光電変換処理を停止して、
画像信号の出力を停止する。
(2)91および画像処理回路(3)92は座標入力物
体が動きベクトルのトレースを行う範囲に入った時に動
作開始信号を出すとしたが、座標入力物体が座標入力装
置60の表示部73に対してこれよりもっと大きな所定
の距離まで接近した時に動作開始信号を出すようにして
もよい。
と座標入力が行われる表示部材との距離が所定の範囲に
ある場合は、座標入力部材をカーソルの位置指定として
機能できるようにする実施例である。また、本実施例で
は、上記した所定の範囲内における座標入力部材の動き
からジェスチャーコマンド入力を行う。実施例10の座
標入力システムの構成、制御装置の構成は、実施例1と
同様である。
理フローチャートを示す。座標入力装置1の電子カメラ
10および電子カメラ11から撮像された画像データか
ら物体の輪郭線を抽出して、その物体が表示部12平面
から所定の距離範囲に存在していると判断した場合に、
その物体の動きベクトルを1フレーム毎に記憶し、その
記憶されたデータ(トレースデータ)からその物体が表
示部12平面に対して座標入力を行ったか否かを判断し
て、座標入力が行われたと判断した場合に表示部12平
面上における2次元座標を求める動作は、実施例1と同
様である。
レースを行う距離範囲を第1の範囲(M1)と定義し、
この範囲外でかつより長距離側に設定された距離範囲を
第2の範囲(M2)と定義する。この第1と第2の距離
範囲の例を図23に示す。図23は、第2の距離範囲
(M2)に座標入力物体であるペンが存在しているとこ
ろも示している。
0から入力される画像データから物体の輪郭線を抽出し
て(ステップ1001)、画像データ中の座標入力装置
1の表示部12平面に該当するエッジ部の像(直線)と
抽出された輪郭線上における各点との間の画素数を求め
る(ステップ1002)。
が第1の距離範囲の最大値に該当する所定の値M1より
大きく、かつ第2の距離範囲の最大値に該当する所定の
値M2以下である場合には(ステップ1003でYE
S)、その画素数Nminとなった画素(点P)と広角
レンズ50の光軸の結像位置の中心点Qの画素との間の
Y軸方向についての画素数を求め、この値とCMOSイ
メージセンサ51の画素間の距離(画素ピッチ)から点
Pと点Qとの間のY軸方向についての距離hを求める
(ステップ1004)。
り角度β1が求まり(ステップ1005)、また画像処
理回路(2)31においても電子カメラ11から入力さ
れる画像データを用いて上記と同様な処理により角度β
2が求まる。これらのβ1、β2および既知の値を持つ
Lを用いて式(3)と式(4)より表示部12面上にお
ける座標(x,y)が求まる(ステップ1006)。な
お、画像データ中における表示部12平面に該当するエ
ッジ部の像(直線)をY軸としている。
との距離が第1の距離範囲の最大値より大きく、かつ第
2の距離範囲の最大値以下であると判断された間は、電
子カメラ10および電子カメラ11から入力される1フ
レーム分の画像データから上記と同様の動作を実行して
(ステップ1004、1005)、表示部12面上にお
ける物体の座標(x,y)を求める(ステップ100
6)。
ルを表すグラフィックデータを表示コントローラ29を
介して座標入力装置1の表示部12に表示する(ステッ
プ1007)。
距離範囲の最大値に該当する所定の値M1より小さいと
きは(ステップ1008でYES)、Vxのトレースデ
ータを基に座標入力が行われたか否かを判断し、座標入
力があるときには、以下、実施例1と同様に処理する。
が第2の距離範囲にある場合、電子カメラ10および電
子カメラ11から1フレーム分の画像データを入力する
毎に表示部12面上における物体の座標を求める場合を
示したが、所定のフレーム分の画像データを入力する毎
に表示部12面上における物体の座標を求めるようにし
てもよい。
が第2の距離範囲にある場合、表示部12上のその物体
に対応した位置にカーソルを表示する場合を示したが、
この座標データを他の目的、例えばジェスチャーコマン
ド入力のために使用することもできる。この場合、座標
データをその座標が算出された時間情報とともに記憶
し、この記憶された座標データ列(トレースデータ)に
基づいて、その物体の動きがコマンド入力用として予め
定義された動きのパターンと一致するか否かを判断す
る。この動きのパターンからコマンドを識別するための
方法として、例えば特開平5−197810号公報に開
示された方法(撮影した画像中に検出された動きベクト
ルの空間的および時間的な組み合わせパターンから予め
用意されたパターン辞書を用いて、このパターンに対応
したコマンドを識別する)がある。
表示されている画面データのスクロールがある。例え
ば、表示部12平面に対して物体を上から下へ所定の速
度範囲で所定の距離だけ移動すると画面を下へスクロー
ルさせるコマンドとして認識する。そして、表示部12
に表示されている画面データを所定量だけ下方へスクロ
ールして表示画面を更新する。
て、その物体が座標入力用のものか否かを判断する物体
形状認識手段を持たせて、座標入力用のものであると判
断した場合のみ、上記の動作を実施するようにしてもよ
い。
16、17記載の発明によれば、座標入力部材である物
体の動きを見ることで座標入力が行われたことを判断す
るため、被入力部材であるディスプレイ等の表面が歪ん
でいる場合にも座標入力の検出精度が劣化せず、装置の
利便性が向上する。また、座標入力装置における撮像素
子(電子カメラ)の取り付けに高い精度は要求されない
ため、装置の設置作業の負担を軽減させることができ
る。
れば、座標入力が行われる物体が座標入力部材であると
判断した場合のみ座標入力処理を実行するため、操作者
の意図しない座標入力を防止することができる。
力部材の近傍の所定の領域における座標入力部材の動き
を見ているので、筆記入力する場合に確実に座標を入力
することができる。
から出力される画像信号のフレームレートを適応的に切
り替えるため、不必要な処理を省略でき、装置の処理負
荷を軽減させることができる。
を出力する撮像素子の画素領域を適応的に切り替えるた
め、不必要な処理を省略でき、装置の処理負荷を軽減さ
せることができる。
によれば、座標入力動作を判断する処理では、座標入力
部材の動きを観察できる程度の画素数の2次元撮像素子
を使用し、被入力部材の平面上の2次元座標を求める処
理では、コストの安い1次元ラインセンサを使用してい
て、また、1次元画像を処理する手段は画素数の多い2
次元画像を処理する手段に比べて非常に安価に実現でき
るため、装置のコストを抑えることができる。
像素子およびそのカメラ部の動作を適応的にON、OF
Fできるため、装置の処理負荷を軽減させることができ
るとともに、省電力の効果ももたらすことができる。
明によれば、座標入力部材である物体と被入力部材との
間の距離に応じて異なる情報を入力できるので、入力装
置の操作性が著しく向上する。また、座標入力部材であ
る物体と被入力部材であるディスプレイ等の表面までの
距離が、ポインティングや筆記入力が行われたことを判
断するために必要な距離以上の所定の範囲である場合に
は、ディスプレイ上のその物体に対応した位置にカーソ
ル等が表示されたり、あるいは物体の動きからジェスチ
ャーコマンド入力が行われるため、装置の利便性が向上
する。
材の近傍の所定の領域において座標入力部材の動きが反
転したことを検出することにより座標入力が行われたと
判定しているので、入力の判定が確実かつ容易に行うこ
とができる。
成を示す。
す。
る図である。
である。
面のエッジ部の像(直線)との関係を説明する図であ
る。
チャートを示す。
チャートを示す。
ている例を示す。
す。
ーチャートを示す。
ーチャートを示す。
ーチャートを示す。
ーチャートを示す。
信号の画素領域を制限する例を示す。
構成を示す。
す。
ーチャートを示す。
ーチャートを示す。
ーチャートを示す。
ローチャートを示す。
第2の範囲の例を示す。
を示す。
す。
Claims (18)
- 【請求項1】 平面と所定物体を含む画像から前記平面
上の所定物体を抽出し、前記平面と前記物体との間の所
定距離内における前記物体の動きを検出したとき、前記
物体によって所定の情報が入力されたと判定することを
特徴とする情報入力方法。 - 【請求項2】 平面と所定物体を含む画像から前記平面
上の所定物体を抽出し、抽出された前記物体が所定形状
であることを認識し、前記平面と前記所定形状の物体と
の間の所定距離内における前記所定形状の物体の動きを
検出したとき、前記所定形状の物体によって所定の情報
が入力されたと判定することを特徴とする情報入力方
法。 - 【請求項3】 平面と所定物体を含む画像から前記平面
上の所定物体を抽出し、前記平面と前記物体との間の距
離が所定距離内にあって、前記物体が第1の距離にある
とき、前記物体から所定の情報を入力し、前記物体が第
1の距離を超えて第2の距離内にあるとき、前記物体に
対して所定の情報を表示することを特徴とする情報入力
方法。 - 【請求項4】 平面と所定物体を含む画像から前記平面
上の所定物体を抽出し、前記平面と前記物体との間の距
離が所定距離内にあって、前記物体の前記平面からの距
離に応じて、前記物体から異なる情報を入力することを
特徴とする情報入力方法。 - 【請求項5】 前記物体が第1の距離にあるとき、前記
物体が位置する情報を入力することを特徴とする請求項
4記載の情報入力方法。 - 【請求項6】 前記物体が第1の距離を超えて第2の距
離内にあるとき、前記物体の動きに基づいた情報を入力
することを特徴とする請求項4記載の情報入力方法。 - 【請求項7】 座標入力が行われる平面上の領域を撮像
する複数の撮像素子を配置した画像入力手段と、前記画
像入力手段により撮像した画像から所定の物体を抽出す
る物体抽出手段と、前記抽出された物体と前記平面との
距離が所定の範囲内にあるか否かを判定する距離判定手
段と、前記距離が所定の範囲内にあると判定されたと
き、前記物体の動きベクトルを求める動きベクトル検出
手段と、前記検出された動きベクトルを基に前記物体が
前記平面に対して座標入力を行ったか否かを判定する動
き認識手段と、前記動き認識手段により座標入力が行わ
れたと判定したとき、前記各撮像素子上における前記物
体の像の位置を基に、前記平面上における前記物体の2
次元座標を算出する座標算出手段とを備えたことを特徴
とする座標入力装置。 - 【請求項8】 座標入力が行われる平面上の領域を撮像
する複数の撮像素子を配置した画像入力手段と、前記画
像入力手段により撮像した画像から所定の物体を抽出す
る物体抽出手段と、前記抽出された物体の形状を認識し
て、前記物体が座標入力用の物体であるか否かを判定す
る形状認識手段と、前記物体が座標入力用の物体である
と判定されたとき、前記座標入力用の物体と前記平面と
の距離が所定の範囲内にあるか否かを判定する距離判定
手段と、前記距離が所定の範囲内にあると判定されたと
き、前記座標入力用の物体の動きベクトルを求める動き
ベクトル検出手段と、前記検出された動きベクトルを基
に前記座標入力用の物体が前記平面に対して座標入力を
行ったか否かを判定する動き認識手段と、前記動き認識
手段により座標入力が行われたと判定したとき、前記各
撮像素子上における前記座標入力用の物体の像の位置を
基に、前記平面上における前記座標入力用の物体の2次
元座標を算出する座標算出手段とを備えたことを特徴と
する座標入力装置。 - 【請求項9】 座標入力が行われる平面上の領域を撮像
する複数の撮像素子を配置した画像入力手段と、前記画
像入力手段により撮像した画像から所定の物体を抽出す
る物体抽出手段と、前記抽出された物体の形状を認識し
て、前記物体が座標入力用の物体であるか否かを判定す
る形状認識手段と、前記物体が座標入力用の物体である
と判定されたとき、前記座標入力用の物体と前記平面と
の距離が所定の範囲内にあるか否かを判定する距離判定
手段と、前記距離が所定の範囲内にあると判定されたと
き、前記座標入力用の物体の動きベクトルを求める動き
ベクトル検出手段と、前記検出された動きベクトルの成
分の中で前記平面と垂直方向の成分を逐次記憶し、前記
平面と垂直方向の動きベクトル成分がゼロとなったとき
に座標入力が行われたと判定して座標入力状態とし、そ
の後、前記平面と垂直方向の動きベクトル成分が前記平
面から離れる方向であることを検出したとき前記座標入
力状態を解除する動き認識手段と、前記座標入力状態と
なったとき、前記各撮像素子上における前記座標入力用
の物体の像の位置を基に、前記平面上における前記座標
入力用の物体の2次元座標を算出する座標算出手段とを
備えたことを特徴とする座標入力装置。 - 【請求項10】 前記距離判定手段により前記抽出され
た物体または座標入力用の物体と前記平面との距離が所
定の範囲内にあると判定されたときは、前記撮像素子か
ら出力される画像データ量を多くし、前記抽出された物
体または座標入力用の物体と前記平面との距離が所定の
範囲外にあると判定されたときは、前記撮像素子から出
力される画像データ量を少なくする切替手段を備えたこ
とを特徴とする請求項7、8または9記載の座標入力装
置。 - 【請求項11】 前記距離判定手段により前記抽出され
た物体または座標入力用の物体と前記平面との距離が所
定の範囲内にあると判定されたときは、前記撮像素子に
おいて光電変換された信号を出力する画素領域を、前記
抽出された物体像または座標入力用の物体像を中心とし
た所定領域に限定する撮像素子制御手段を備えたことを
特徴とする請求項7、8または9記載の座標入力装置。 - 【請求項12】 座標入力が行われる平面上の領域を撮
像する複数の1次元撮像素子と1または複数の2次元撮
像素子を配置した画像入力手段と、前記2次元撮像素子
により撮像した画像から所定の物体を抽出する物体抽出
手段と、前記抽出された物体と前記平面との距離が所定
の範囲内にあるか否かを判定する距離判定手段と、前記
距離が所定の範囲内にあると判定されたとき、前記物体
の動きベクトルを求める動きベクトル検出手段と、前記
検出された動きベクトルを基に前記物体が前記平面に対
して座標入力を行ったか否かを判定する動き認識手段
と、前記動き認識手段により座標入力が行われたと判定
したとき、前記各1次元撮像素子上における前記物体の
像の位置を基に、前記平面上における前記物体の2次元
座標を算出する座標算出手段とを備えたことを特徴とす
る座標入力装置。 - 【請求項13】 座標入力が行われる平面上の領域を撮
像する複数の1次元撮像素子と1または複数の2次元撮
像素子を配置した画像入力手段と、前記2次元撮像素子
により撮像した画像から所定の物体を抽出する物体抽出
手段と、前記抽出された物体の形状を認識して、前記物
体が座標入力用の物体であるか否かを判定する形状認識
手段と、前記物体が座標入力用の物体であると判定され
たとき、前記座標入力用の物体と前記平面との距離が所
定の範囲内にあるか否かを判定する距離判定手段と、前
記距離が所定の範囲内にあると判定されたとき、前記座
標入力用の物体の動きベクトルを求める動きベクトル検
出手段と、前記検出された動きベクトルを基に前記座標
入力用の物体が前記平面に対して座標入力を行ったか否
かを判定する動き認識手段と、前記動き認識手段により
座標入力が行われたと判定したとき、前記各1次元撮像
素子上における前記座標入力用の物体の像の位置を基
に、前記平面上における前記座標入力用の物体の2次元
座標を算出する座標算出手段とを備えたことを特徴とす
る座標入力装置。 - 【請求項14】 前記距離判定手段により前記抽出され
た物体または座標入力用の物体と前記平面との距離が所
定の範囲内にあると判定された場合にのみ、前記1次元
撮像素子から画像信号を出力するように制御する撮像素
子制御手段を備えたことを特徴とする請求項12または
13記載の座標入力装置。 - 【請求項15】 座標入力が行われる平面上の領域を撮
像する複数の撮像素子を配置した画像入力手段と、前記
画像入力手段により撮像した画像から所定の物体を抽出
する物体抽出手段と、前記抽出された物体と前記平面と
の距離が第1の範囲内にあるか否かを判定する第1の距
離判定手段と、前記抽出された物体と前記平面との距離
が前記第1の範囲を超えてかつ第2の範囲内にあるか否
かを判定する第2の距離判定手段と、前記距離が前記第
1の範囲内にあると判定されたとき、前記物体の動きベ
クトルを求める動きベクトル検出手段と、前記検出され
た動きベクトルを基に前記物体が前記平面に対して座標
入力を行ったか否かを判定する動き認識手段と、前記動
き認識手段により座標入力が行われたと判定したとき、
前記各撮像素子上における前記物体の像の位置を基に、
前記平面上における前記物体の2次元座標を算出する座
標算出手段と、前記距離が前記第1の範囲を超えてかつ
第2の範囲内にあると判定されたとき、前記物体に対し
て所定の情報を表示するように制御する表示制御手段と
を備えたことを特徴とする座標入力装置。 - 【請求項16】 前記動きベクトル検出手段は、前記物
体または座標入力用の物体の動きベクトルを前記撮像素
子から所定量の画像データが出力される毎に求めること
を特徴とする請求項7、8、9、12、13または15
記載の座標入力装置。 - 【請求項17】 前記動き認識手段は、検出された動き
ベクトルの成分の中で前記平面と垂直方向の成分を逐次
記憶し、該記憶されたデータを基に前記物体または座標
入力用の物体が前記平面に対して座標入力を行ったか否
かを判定することを特徴とする請求項7、8、12、1
3または15記載の座標入力装置。 - 【請求項18】 前記動き認識手段は、前記逐次記憶さ
れた垂直方向の動きベクトル成分の方向が前記平面に接
近する方向から離れる方向へ反転したことを検出したと
き、座標入力が行われたと判定することを特徴とする請
求項17記載の座標入力装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30941299A JP4052498B2 (ja) | 1999-10-29 | 1999-10-29 | 座標入力装置および方法 |
US09/698,031 US6674424B1 (en) | 1999-10-29 | 2000-10-30 | Method and apparatus for inputting information including coordinate data |
US10/717,456 US7342574B1 (en) | 1999-10-29 | 2003-11-21 | Method and apparatus for inputting information including coordinate data |
US12/722,345 USRE43084E1 (en) | 1999-10-29 | 2010-03-11 | Method and apparatus for inputting information including coordinate data |
US13/345,044 US20120327031A1 (en) | 1999-10-29 | 2012-01-06 | Method and apparatus for inputting information including coordinate data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30941299A JP4052498B2 (ja) | 1999-10-29 | 1999-10-29 | 座標入力装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001125745A true JP2001125745A (ja) | 2001-05-11 |
JP4052498B2 JP4052498B2 (ja) | 2008-02-27 |
Family
ID=17992706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30941299A Expired - Lifetime JP4052498B2 (ja) | 1999-10-29 | 1999-10-29 | 座標入力装置および方法 |
Country Status (2)
Country | Link |
---|---|
US (4) | US6674424B1 (ja) |
JP (1) | JP4052498B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008134793A (ja) * | 2006-11-28 | 2008-06-12 | Fujifilm Corp | 電子的手書入力装置 |
JP2009027724A (ja) * | 2003-02-03 | 2009-02-05 | Tatsumi Denshi Kogyo Kk | 自動写真作成装置 |
JP2014164372A (ja) * | 2013-02-22 | 2014-09-08 | Funai Electric Co Ltd | プロジェクタ |
US9170682B2 (en) | 2011-04-14 | 2015-10-27 | Pixart Imaging Inc. | Image processing method for optical touch system |
CN113934323A (zh) * | 2021-10-19 | 2022-01-14 | 河北师达教育科技有限公司 | 基于智能黑板的多点显示方法、装置和终端设备 |
Families Citing this family (95)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6424335B1 (en) * | 1998-09-02 | 2002-07-23 | Fujitsu Limited | Notebook computer with detachable infrared multi-mode input device |
JP3905670B2 (ja) * | 1999-09-10 | 2007-04-18 | 株式会社リコー | 座標入力検出装置、情報記憶媒体及び座標入力検出方法 |
JP4052498B2 (ja) | 1999-10-29 | 2008-02-27 | 株式会社リコー | 座標入力装置および方法 |
JP2001184161A (ja) | 1999-12-27 | 2001-07-06 | Ricoh Co Ltd | 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体 |
US6803906B1 (en) | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
CN1310126C (zh) * | 2000-07-05 | 2007-04-11 | 智能技术公司 | 基于摄影机的触摸系统 |
US7095401B2 (en) * | 2000-11-02 | 2006-08-22 | Siemens Corporate Research, Inc. | System and method for gesture interface |
JP4383864B2 (ja) * | 2001-09-05 | 2009-12-16 | 徹 大田 | 文字入力機能を有する装置 |
US7015401B2 (en) * | 2001-11-23 | 2006-03-21 | Aiptek International, Inc. | Image processing system with handwriting input function and the method for forming the same |
US20040001144A1 (en) * | 2002-06-27 | 2004-01-01 | Mccharles Randy | Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects |
US6954197B2 (en) * | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
US8456447B2 (en) | 2003-02-14 | 2013-06-04 | Next Holdings Limited | Touch screen signal processing |
US8508508B2 (en) | 2003-02-14 | 2013-08-13 | Next Holdings Limited | Touch screen signal processing with single-point calibration |
US7629967B2 (en) * | 2003-02-14 | 2009-12-08 | Next Holdings Limited | Touch screen signal processing |
US7532206B2 (en) | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
US6947032B2 (en) * | 2003-03-11 | 2005-09-20 | Smart Technologies Inc. | Touch system and method for determining pointer contacts on a touch surface |
US7256772B2 (en) | 2003-04-08 | 2007-08-14 | Smart Technologies, Inc. | Auto-aligning touch system and method |
US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US7274356B2 (en) | 2003-10-09 | 2007-09-25 | Smart Technologies Inc. | Apparatus for determining the location of a pointer within a region of interest |
JP2005123858A (ja) * | 2003-10-16 | 2005-05-12 | Mega Chips Corp | カメラ制御装置 |
US7355593B2 (en) | 2004-01-02 | 2008-04-08 | Smart Technologies, Inc. | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
US7232986B2 (en) * | 2004-02-17 | 2007-06-19 | Smart Technologies Inc. | Apparatus for detecting a pointer within a region of interest |
US7460110B2 (en) | 2004-04-29 | 2008-12-02 | Smart Technologies Ulc | Dual mode touch system |
US7492357B2 (en) * | 2004-05-05 | 2009-02-17 | Smart Technologies Ulc | Apparatus and method for detecting a pointer relative to a touch surface |
US7538759B2 (en) | 2004-05-07 | 2009-05-26 | Next Holdings Limited | Touch panel display system with illumination and detection provided from a single edge |
US8120596B2 (en) | 2004-05-21 | 2012-02-21 | Smart Technologies Ulc | Tiled touch system |
US7593593B2 (en) | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
US7719523B2 (en) | 2004-08-06 | 2010-05-18 | Touchtable, Inc. | Bounding box gesture recognition on a touch detecting interactive display |
US7724242B2 (en) | 2004-08-06 | 2010-05-25 | Touchtable, Inc. | Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter |
WO2006090386A2 (en) * | 2005-02-24 | 2006-08-31 | Vkb Inc. | A virtual keyboard device |
KR100677457B1 (ko) * | 2005-05-24 | 2007-02-02 | 엘지전자 주식회사 | 단말기의 카메라를 이용한 메뉴 입력 장치 및 방법 |
US7911444B2 (en) | 2005-08-31 | 2011-03-22 | Microsoft Corporation | Input method for surface of interactive display |
US7630002B2 (en) * | 2007-01-05 | 2009-12-08 | Microsoft Corporation | Specular reflection reduction using multiple cameras |
US20070165007A1 (en) * | 2006-01-13 | 2007-07-19 | Gerald Morrison | Interactive input system |
US20070205994A1 (en) * | 2006-03-02 | 2007-09-06 | Taco Van Ieperen | Touch system and method for interacting with the same |
US7948450B2 (en) * | 2006-11-09 | 2011-05-24 | D3 Led, Llc | Apparatus and method for allowing display modules to communicate information about themselves to other display modules in the same display panel |
KR20080044017A (ko) * | 2006-11-15 | 2008-05-20 | 삼성전자주식회사 | 터치 스크린 |
US9442607B2 (en) | 2006-12-04 | 2016-09-13 | Smart Technologies Inc. | Interactive input system and method |
US8212857B2 (en) * | 2007-01-26 | 2012-07-03 | Microsoft Corporation | Alternating light sources to reduce specular reflection |
US8115753B2 (en) * | 2007-04-11 | 2012-02-14 | Next Holdings Limited | Touch screen system with hover and click input methods |
US8400407B2 (en) * | 2007-07-18 | 2013-03-19 | Smart Technologies Ulc | Touch panel and interactive input system incorporating the same |
US8094137B2 (en) | 2007-07-23 | 2012-01-10 | Smart Technologies Ulc | System and method of detecting contact on a display |
KR20100055516A (ko) * | 2007-08-30 | 2010-05-26 | 넥스트 홀딩스 인코포레이티드 | 개선된 조광을 가진 광학 터치 스크린 |
WO2009029764A1 (en) | 2007-08-30 | 2009-03-05 | Next Holdings, Inc. | Low profile touch panel systems |
US20090213093A1 (en) * | 2008-01-07 | 2009-08-27 | Next Holdings Limited | Optical position sensor using retroreflection |
US20090207144A1 (en) * | 2008-01-07 | 2009-08-20 | Next Holdings Limited | Position Sensing System With Edge Positioning Enhancement |
US8405636B2 (en) * | 2008-01-07 | 2013-03-26 | Next Holdings Limited | Optical position sensing system and optical position sensor assembly |
US20090278794A1 (en) * | 2008-05-09 | 2009-11-12 | Smart Technologies Ulc | Interactive Input System With Controlled Lighting |
US8902193B2 (en) * | 2008-05-09 | 2014-12-02 | Smart Technologies Ulc | Interactive input system and bezel therefor |
US20090277697A1 (en) * | 2008-05-09 | 2009-11-12 | Smart Technologies Ulc | Interactive Input System And Pen Tool Therefor |
TW201007254A (en) * | 2008-08-04 | 2010-02-16 | Pixart Imaging Inc | Image-sensing module and image-sensing system |
US20100079385A1 (en) * | 2008-09-29 | 2010-04-01 | Smart Technologies Ulc | Method for calibrating an interactive input system and interactive input system executing the calibration method |
CN102232209A (zh) * | 2008-10-02 | 2011-11-02 | 奈克斯特控股有限公司 | 解决触摸检测系统中的多点触摸的立体光学传感器 |
JP5105122B2 (ja) * | 2008-10-16 | 2012-12-19 | Necディスプレイソリューションズ株式会社 | 画像情報検出装置 |
US8339378B2 (en) * | 2008-11-05 | 2012-12-25 | Smart Technologies Ulc | Interactive input system with multi-angle reflector |
US20100229090A1 (en) * | 2009-03-05 | 2010-09-09 | Next Holdings Limited | Systems and Methods for Interacting With Touch Displays Using Single-Touch and Multi-Touch Gestures |
TWI452488B (zh) * | 2009-05-18 | 2014-09-11 | Pixart Imaging Inc | 應用於感測系統的控制方法 |
TWI399676B (zh) | 2009-06-30 | 2013-06-21 | Pixart Imaging Inc | 觸控螢幕之物件偵測校正系統及其方法 |
US8368668B2 (en) * | 2009-06-30 | 2013-02-05 | Pixart Imaging Inc. | Displacement detection system of an optical touch panel and method thereof |
US8860693B2 (en) * | 2009-07-08 | 2014-10-14 | Apple Inc. | Image processing for camera based motion tracking |
US8692768B2 (en) | 2009-07-10 | 2014-04-08 | Smart Technologies Ulc | Interactive input system |
TWI394072B (zh) * | 2009-08-21 | 2013-04-21 | Largan Precision Co Ltd | 平面顯示器位置檢出裝置及其方法 |
US20110095977A1 (en) * | 2009-10-23 | 2011-04-28 | Smart Technologies Ulc | Interactive input system incorporating multi-angle reflecting structure |
CN102713794A (zh) * | 2009-11-24 | 2012-10-03 | 奈克斯特控股公司 | 用于手势识别模式控制的方法和装置 |
US20110199387A1 (en) * | 2009-11-24 | 2011-08-18 | John David Newton | Activating Features on an Imaging Device Based on Manipulations |
CN102741781A (zh) * | 2009-12-04 | 2012-10-17 | 奈克斯特控股公司 | 用于位置探测的传感器方法和系统 |
US8427443B2 (en) | 2009-12-30 | 2013-04-23 | Hong Kong Applied Science And Technology Research Institute Co. Ltd. | Coordinate locating method, coordinate locating device, and display apparatus comprising the coordinate locating device |
US20110234542A1 (en) * | 2010-03-26 | 2011-09-29 | Paul Marson | Methods and Systems Utilizing Multiple Wavelengths for Position Detection |
US8338725B2 (en) * | 2010-04-29 | 2012-12-25 | Au Optronics Corporation | Camera based touch system |
TWI433004B (zh) * | 2010-05-14 | 2014-04-01 | Alcor Micro Corp | 觸控面板上之觸控點判斷方法及其系統 |
TW201201079A (en) * | 2010-06-23 | 2012-01-01 | Pixart Imaging Inc | Optical touch monitor |
TWI417774B (zh) * | 2010-06-28 | 2013-12-01 | Pixart Imaging Inc | 光學距離判斷裝置、光學觸控螢幕系統及光學觸控測距之方法 |
TWI421753B (zh) * | 2010-08-12 | 2014-01-01 | Lite On Semiconductor Corp | Calibration method, detection device and optical touch panel for optical touch panel |
JP2012173029A (ja) * | 2011-02-18 | 2012-09-10 | Seiko Epson Corp | 光学式位置検出装置および入力機能付き表示システム |
US8928589B2 (en) * | 2011-04-20 | 2015-01-06 | Qualcomm Incorporated | Virtual keyboards and methods of providing the same |
TWI420369B (zh) * | 2011-05-12 | 2013-12-21 | Wistron Corp | 影像式觸控裝置及影像式觸控系統 |
US8937588B2 (en) * | 2011-06-15 | 2015-01-20 | Smart Technologies Ulc | Interactive input system and method of operating the same |
CN103019391A (zh) * | 2011-09-22 | 2013-04-03 | 纬创资通股份有限公司 | 利用所撷取键盘影像作为指令输入依据的输入装置及方法 |
US20130179811A1 (en) * | 2012-01-05 | 2013-07-11 | Visteon Global Technologies, Inc. | Projection dynamic icon knobs |
TW201342158A (zh) * | 2012-04-03 | 2013-10-16 | Wistron Corp | 光學式觸控感測裝置 |
TW201342137A (zh) * | 2012-04-10 | 2013-10-16 | Pixart Imaging Inc | 光學操作系統 |
TWI470511B (zh) * | 2012-06-06 | 2015-01-21 | Wistron Corp | 雙模輸入裝置 |
US9507462B2 (en) * | 2012-06-13 | 2016-11-29 | Hong Kong Applied Science and Technology Research Institute Company Limited | Multi-dimensional image detection apparatus |
KR101346374B1 (ko) | 2012-06-25 | 2013-12-31 | 주식회사 아하정보통신 | 전자칠판의 좌표 인식 장치 |
TWI482068B (zh) * | 2012-11-21 | 2015-04-21 | Wistron Corp | 光學觸控裝置與其運作方法 |
US9645734B2 (en) * | 2012-11-21 | 2017-05-09 | Wistron Corp. | Optical touch devices and operation method thereof |
TWI479393B (zh) * | 2012-11-21 | 2015-04-01 | Wistron Corp | 切換方法、使用其之光學觸控裝置、以及其電腦程式產品 |
TWI498792B (zh) * | 2013-08-06 | 2015-09-01 | Wistron Corp | 光學觸控系統及觸控顯示系統 |
US9875019B2 (en) * | 2013-12-26 | 2018-01-23 | Visteon Global Technologies, Inc. | Indicating a transition from gesture based inputs to touch surfaces |
JP6711817B2 (ja) | 2015-08-20 | 2020-06-17 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
KR20230011485A (ko) * | 2015-09-28 | 2023-01-20 | 애플 인크. | 연장된 활성 영역을 갖는 전자 디바이스 디스플레이 |
WO2019094003A1 (en) * | 2017-11-08 | 2019-05-16 | Hewlett-Packard Development Company, L.P. | Determining locations of electro-optical pens |
CN109840038A (zh) * | 2018-06-12 | 2019-06-04 | 柯梦天 | 利用3d影像定位触控技术的电子白板 |
US11307045B2 (en) * | 2019-12-19 | 2022-04-19 | Lenovo (Singapore) Pte. Ltd. | Method and system to determine navigation actions based on instructions from a directional dialogue |
Family Cites Families (250)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2550653C3 (de) | 1975-11-11 | 1978-12-21 | Erwin Sick Gmbh Optik-Elektronik, 7808 Waldkirch | Drehstrahl-Lichtvorhang |
US4144449A (en) | 1977-07-08 | 1979-03-13 | Sperry Rand Corporation | Position detection apparatus |
CA1109539A (en) | 1978-04-05 | 1981-09-22 | Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications | Touch sensitive computer input device |
JPS5936295B2 (ja) | 1981-06-23 | 1984-09-03 | 株式会社日立国際電気 | 光学式座標入力装置 |
US4558313A (en) | 1981-12-31 | 1985-12-10 | International Business Machines Corporation | Indicator to data processing interface |
US4507557A (en) | 1983-04-01 | 1985-03-26 | Siemens Corporate Research & Support, Inc. | Non-contact X,Y digitizer using two dynamic ram imagers |
JPS60143937A (ja) | 1983-12-29 | 1985-07-30 | Sekisui Plastics Co Ltd | 熱硬化性樹脂球状発泡体 |
US4672364A (en) | 1984-06-18 | 1987-06-09 | Carroll Touch Inc | Touch input device having power profiling |
JPS61196317A (ja) | 1985-02-27 | 1986-08-30 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方式 |
US4688933A (en) | 1985-05-10 | 1987-08-25 | The Laitram Corporation | Electro-optical position determining system |
JPS61262917A (ja) | 1985-05-17 | 1986-11-20 | Alps Electric Co Ltd | 光電式タツチパネルのフイルタ− |
DE3616490A1 (de) | 1985-05-17 | 1986-11-27 | Alps Electric Co Ltd | Optische koordinaten-eingabe-vorrichtung |
US4980547A (en) | 1985-05-24 | 1990-12-25 | Wells-Gardner Electronics Corp. | Light distribution and detection apparatus |
JPH0138669Y2 (ja) | 1985-05-29 | 1989-11-20 | ||
US4762990A (en) | 1985-10-21 | 1988-08-09 | International Business Machines Corporation | Data processing input interface determining position of object |
US4831455A (en) | 1986-02-21 | 1989-05-16 | Canon Kabushiki Kaisha | Picture reading apparatus |
US4822145A (en) | 1986-05-14 | 1989-04-18 | Massachusetts Institute Of Technology | Method and apparatus utilizing waveguide and polarized light for display of dynamic images |
JPS6375918A (ja) | 1986-09-19 | 1988-04-06 | Alps Electric Co Ltd | 座標入力装置 |
US4782328A (en) | 1986-10-02 | 1988-11-01 | Product Development Services, Incorporated | Ambient-light-responsive touch screen data input method and system |
US4868912A (en) | 1986-11-26 | 1989-09-19 | Digital Electronics | Infrared touch panel |
JPH0816931B2 (ja) | 1987-02-06 | 1996-02-21 | 富士通株式会社 | 輪郭線抽出方式 |
US4746770A (en) | 1987-02-17 | 1988-05-24 | Sensor Frame Incorporated | Method and apparatus for isolating and manipulating graphic objects on computer video monitor |
US4820050A (en) | 1987-04-28 | 1989-04-11 | Wells-Gardner Electronics Corporation | Solid-state optical position determining apparatus |
JPH07110733B2 (ja) | 1988-05-10 | 1995-11-29 | 三菱重工業株式会社 | ブレーキ装置の劣化判定装置 |
JPH01314324A (ja) | 1988-06-14 | 1989-12-19 | Sony Corp | タッチパネル装置 |
JPH01320521A (ja) | 1988-06-22 | 1989-12-26 | Wacom Co Ltd | 電子黒板装置及びその筆記具等 |
US5109435A (en) | 1988-08-08 | 1992-04-28 | Hughes Aircraft Company | Segmentation method for use against moving objects |
US5196835A (en) | 1988-09-30 | 1993-03-23 | International Business Machines Corporation | Laser touch panel reflective surface aberration cancelling |
JPH0354618A (ja) | 1989-07-22 | 1991-03-08 | Fujitsu Ltd | 光学式位置指示装置 |
JP2917155B2 (ja) | 1989-12-18 | 1999-07-12 | 株式会社日立製作所 | 画像結合装置及び方法 |
US5130794A (en) | 1990-03-29 | 1992-07-14 | Ritchey Kurtis J | Panoramic display system |
US5025314A (en) | 1990-07-30 | 1991-06-18 | Xerox Corporation | Apparatus allowing remote interactive use of a plurality of writing surfaces |
US6736321B2 (en) | 1995-12-18 | 2004-05-18 | Metrologic Instruments, Inc. | Planar laser illumination and imaging (PLIIM) system employing wavefront control methods for reducing the power of speckle-pattern noise digital images acquired by said system |
US5162618A (en) | 1990-11-16 | 1992-11-10 | Exzec, Inc. | Acoustic touch position sensor with first order lamb wave reflective arrays |
US5239373A (en) | 1990-12-26 | 1993-08-24 | Xerox Corporation | Video computational shared drawing space |
JP3318897B2 (ja) | 1991-01-29 | 2002-08-26 | ソニー株式会社 | ビデオモニタ付リモートコントローラ |
US5097516A (en) | 1991-02-28 | 1992-03-17 | At&T Bell Laboratories | Technique for illuminating a surface with a gradient intensity line of light to achieve enhanced two-dimensional imaging |
JP3087345B2 (ja) | 1991-05-28 | 2000-09-11 | 松下電器産業株式会社 | 入力装置 |
JPH04355815A (ja) | 1991-06-03 | 1992-12-09 | Pfu Ltd | タッチスクリーン |
US5168531A (en) * | 1991-06-27 | 1992-12-01 | Digital Equipment Corporation | Real-time recognition of pointing information from video |
US5448263A (en) | 1991-10-21 | 1995-09-05 | Smart Technologies Inc. | Interactive display system |
US6141000A (en) | 1991-10-21 | 2000-10-31 | Smart Technologies Inc. | Projection display system with touch sensing on screen, computer assisted alignment correction and network conferencing |
JPH05181605A (ja) | 1991-12-27 | 1993-07-23 | Seiko Instr Inc | 座標読み取り機能付き投影表示装置およびその表示スクリーンおよびその表示装置 |
JPH05189137A (ja) | 1992-01-16 | 1993-07-30 | Sumitomo Heavy Ind Ltd | 計算機用コマンド入力装置 |
JPH05197810A (ja) | 1992-01-20 | 1993-08-06 | Nippon Telegr & Teleph Corp <Ntt> | 映像によるコマンド入力処理方法 |
GB9201949D0 (en) | 1992-01-30 | 1992-03-18 | Jenkin Michael | Large-scale,touch-sensitive video display |
US5483261A (en) | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5880411A (en) | 1992-06-08 | 1999-03-09 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US5724743A (en) | 1992-09-04 | 1998-03-10 | Snap-On Technologies, Inc. | Method and apparatus for determining the alignment of motor vehicle wheels |
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
US5982352A (en) | 1992-09-18 | 1999-11-09 | Pryor; Timothy R. | Method for providing human input to a computer |
EP0594146B1 (en) | 1992-10-22 | 2002-01-09 | Advanced Interconnection Technology, Inc. | System for automatic optical inspection of wire scribed circuit boards |
US5317140A (en) * | 1992-11-24 | 1994-05-31 | Dunthorn David I | Diffusion-assisted position location particularly for visual pen detection |
US5751355A (en) | 1993-01-20 | 1998-05-12 | Elmo Company Limited | Camera presentation supporting system |
US5374971A (en) | 1993-03-12 | 1994-12-20 | Picturetel Corporation | Two-view video camera stand and support method |
US5502568A (en) | 1993-03-23 | 1996-03-26 | Wacom Co., Ltd. | Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's |
US5359155A (en) | 1993-03-25 | 1994-10-25 | Tiger Scientific Corp. | Illumination apparatus for a digitizer tablet |
US5729704A (en) | 1993-07-21 | 1998-03-17 | Xerox Corporation | User-directed method for operating on an object-based model data structure through a second contextual image |
US5490655A (en) | 1993-09-16 | 1996-02-13 | Monger Mounts, Inc. | Video/data projector and monitor ceiling/wall mount |
JPH07230352A (ja) | 1993-09-16 | 1995-08-29 | Hitachi Ltd | タッチ位置検出装置及びタッチ指示処理装置 |
JPH07110733A (ja) | 1993-10-13 | 1995-04-25 | Nippon Signal Co Ltd:The | 入力装置 |
US7310072B2 (en) | 1993-10-22 | 2007-12-18 | Kopin Corporation | Portable communication display device |
JP3419050B2 (ja) * | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5739850A (en) | 1993-11-30 | 1998-04-14 | Canon Kabushiki Kaisha | Apparatus for improving the image and sound processing capabilities of a camera |
US5484966A (en) | 1993-12-07 | 1996-01-16 | At&T Corp. | Sensing stylus position using single 1-D image sensor |
US5712658A (en) | 1993-12-28 | 1998-01-27 | Hitachi, Ltd. | Information presentation apparatus and information display apparatus |
GB2286100A (en) | 1994-01-19 | 1995-08-02 | Ibm | Touch-sensitive display apparatus |
US5577733A (en) | 1994-04-08 | 1996-11-26 | Downing; Dennis L. | Targeting system |
KR100300397B1 (ko) | 1994-04-21 | 2001-10-22 | 김순택 | 터치판넬및디지타이저기능을겸비한시스템및구동방법 |
JPH08108689A (ja) | 1994-05-31 | 1996-04-30 | Nippon Typewriter Co Ltd | 電子黒板 |
US5771039A (en) | 1994-06-06 | 1998-06-23 | Ditzik; Richard J. | Direct view display device integration techniques |
US5525764A (en) * | 1994-06-09 | 1996-06-11 | Junkins; John L. | Laser scanning graphic input system |
US5528263A (en) | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
US5737740A (en) | 1994-06-27 | 1998-04-07 | Numonics | Apparatus and method for processing electronic documents |
JPH0816931A (ja) | 1994-06-28 | 1996-01-19 | Tec Corp | オーダーデータ処理装置 |
JPH0863326A (ja) * | 1994-08-22 | 1996-03-08 | Hitachi Ltd | 画像処理装置及び方法 |
US5528290A (en) | 1994-09-09 | 1996-06-18 | Xerox Corporation | Device for transcribing images on a board using a camera based board scanner |
JPH0888785A (ja) | 1994-09-16 | 1996-04-02 | Toshiba Corp | 画像入力装置 |
US5686942A (en) * | 1994-12-01 | 1997-11-11 | National Semiconductor Corporation | Remote computer input system which detects point source on operator |
JPH08237407A (ja) | 1994-12-09 | 1996-09-13 | Xerox Corp | 画像タイルの相対的なアラインメントを見当合わせすると共に透視歪みを修正するための方法 |
US5638092A (en) | 1994-12-20 | 1997-06-10 | Eng; Tommy K. | Cursor control system |
JPH08179888A (ja) | 1994-12-21 | 1996-07-12 | Hitachi Ltd | 大画面ディスプレイ用入力装置 |
US5554828A (en) | 1995-01-03 | 1996-09-10 | Texas Instruments Inc. | Integration of pen-based capability into a field emission device system |
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5736686A (en) | 1995-03-01 | 1998-04-07 | Gtco Corporation | Illumination apparatus for a digitizer tablet with improved light panel |
JPH08240407A (ja) | 1995-03-02 | 1996-09-17 | Matsushita Electric Ind Co Ltd | 位置検出入力装置 |
EP0823683B1 (en) | 1995-04-28 | 2005-07-06 | Matsushita Electric Industrial Co., Ltd. | Interface device |
JP3436828B2 (ja) | 1995-05-08 | 2003-08-18 | 株式会社リコー | 画像処理装置 |
JPH08315152A (ja) | 1995-05-22 | 1996-11-29 | Sony Corp | 画像認識装置 |
US5764223A (en) | 1995-06-07 | 1998-06-09 | International Business Machines Corporation | Touch-screen input device using the monitor as a light source operating at an intermediate frequency |
US5786810A (en) | 1995-06-07 | 1998-07-28 | Compaq Computer Corporation | Method of determining an object's position and associated apparatus |
US5734375A (en) | 1995-06-07 | 1998-03-31 | Compaq Computer Corporation | Keyboard-compatible optical determination of object's position |
JPH09106320A (ja) | 1995-08-24 | 1997-04-22 | Symbios Logic Inc | 図形入力装置および図形入力方法 |
JPH0991094A (ja) | 1995-09-21 | 1997-04-04 | Sekisui Chem Co Ltd | タッチパネルの座標検出装置 |
US5818424A (en) | 1995-10-19 | 1998-10-06 | International Business Machines Corporation | Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space |
US5825352A (en) | 1996-01-04 | 1998-10-20 | Logitech, Inc. | Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad |
JPH09190284A (ja) | 1996-01-11 | 1997-07-22 | Canon Inc | 情報処理装置およびその方法 |
TW394879B (en) | 1996-02-09 | 2000-06-21 | Sega Enterprises Kk | Graphics processing system and its data input device |
JPH09224111A (ja) | 1996-02-16 | 1997-08-26 | Hitachi Denshi Ltd | 電子黒板 |
JP3807779B2 (ja) | 1996-05-29 | 2006-08-09 | 富士通株式会社 | 座標検出装置 |
US7098392B2 (en) | 1996-07-10 | 2006-08-29 | Sitrick David H | Electronic image visualization system and communication methodologies |
US6075905A (en) | 1996-07-17 | 2000-06-13 | Sarnoff Corporation | Method and apparatus for mosaic image construction |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
US6208329B1 (en) | 1996-08-13 | 2001-03-27 | Lsi Logic Corporation | Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device |
US5745116A (en) | 1996-09-09 | 1998-04-28 | Motorola, Inc. | Intuitive gesture-based graphical user interface |
US5936615A (en) | 1996-09-12 | 1999-08-10 | Digital Equipment Corporation | Image-based touchscreen |
US5819201A (en) | 1996-09-13 | 1998-10-06 | Magellan Dis, Inc. | Navigation system with vehicle service information |
JPH10124689A (ja) | 1996-10-15 | 1998-05-15 | Nikon Corp | 画像記録再生装置 |
JP3943674B2 (ja) | 1996-10-25 | 2007-07-11 | キヤノン株式会社 | カメラ制御システム並びにカメラサーバ及びその制御方法 |
US5953469A (en) | 1996-10-29 | 1999-09-14 | Xeotron Corporation | Optical device utilizing optical waveguides and mechanical light-switches |
US6061177A (en) | 1996-12-19 | 2000-05-09 | Fujimoto; Kenneth Noboru | Integrated computer display and graphical input apparatus and method |
EP0849697B1 (en) * | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
US6252989B1 (en) | 1997-01-07 | 2001-06-26 | Board Of The Regents, The University Of Texas System | Foveated image coding system and method for image bandwidth reduction |
JP3624070B2 (ja) | 1997-03-07 | 2005-02-23 | キヤノン株式会社 | 座標入力装置及びその制御方法 |
US6122865A (en) | 1997-03-13 | 2000-09-26 | Steelcase Development Inc. | Workspace display |
US5914709A (en) | 1997-03-14 | 1999-06-22 | Poa Sana, Llc | User input device for a computer system |
WO1998044316A1 (en) | 1997-04-02 | 1998-10-08 | Goszyk Kurt A | Adjustable area coordinate position data-capture system |
US6104387A (en) | 1997-05-14 | 2000-08-15 | Virtual Ink Corporation | Transcription system |
JP3876942B2 (ja) * | 1997-06-13 | 2007-02-07 | 株式会社ワコム | 光デジタイザ |
US6229529B1 (en) | 1997-07-11 | 2001-05-08 | Ricoh Company, Ltd. | Write point detecting circuit to detect multiple write points |
US5790910A (en) | 1997-08-04 | 1998-08-04 | Peerless Industries, Inc. | Camera mounting apparatus |
JPH1151644A (ja) | 1997-08-05 | 1999-02-26 | Honda Motor Co Ltd | 車両用距離測定装置 |
JPH11110116A (ja) | 1997-08-07 | 1999-04-23 | Fujitsu Ltd | 光学式位置検出装置 |
JPH1164026A (ja) | 1997-08-12 | 1999-03-05 | Fujitsu Ten Ltd | ナビゲーション装置 |
US6161066A (en) | 1997-08-18 | 2000-12-12 | The Texas A&M University System | Advanced law enforcement and response technology |
US6188939B1 (en) | 1997-08-18 | 2001-02-13 | The Texas A&M University System | Advanced law enforcement and response technology |
US20020036617A1 (en) | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6243074B1 (en) | 1997-08-29 | 2001-06-05 | Xerox Corporation | Handedness detection for a physical manipulatory grammar |
JP3846981B2 (ja) | 1997-09-02 | 2006-11-15 | 富士通株式会社 | 光学式位置検出装置付き情報表示装置 |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
CA2308213A1 (en) | 1997-10-22 | 1999-04-29 | James T. Sears | Voice-output reading system with gesture-based navigation |
JP3794180B2 (ja) | 1997-11-11 | 2006-07-05 | セイコーエプソン株式会社 | 座標入力システム及び座標入力装置 |
TW449709B (en) | 1997-11-17 | 2001-08-11 | Hewlett Packard Co | A method for distinguishing a contact input |
US6310610B1 (en) | 1997-12-04 | 2001-10-30 | Nortel Networks Limited | Intelligent touch display |
US6323846B1 (en) | 1998-01-26 | 2001-11-27 | University Of Delaware | Method and apparatus for integrating manual input |
WO1999040562A1 (en) | 1998-02-09 | 1999-08-12 | Joseph Lev | Video camera computer touch screen system |
US6226035B1 (en) | 1998-03-04 | 2001-05-01 | Cyclo Vision Technologies, Inc. | Adjustable imaging system with wide angle capability |
US6031531A (en) | 1998-04-06 | 2000-02-29 | International Business Machines Corporation | Method and system in a graphical user interface for facilitating cursor object movement for physically challenged computer users |
JP2000105671A (ja) | 1998-05-11 | 2000-04-11 | Ricoh Co Ltd | 座標入力/検出装置および電子黒板システム |
JP4033582B2 (ja) | 1998-06-09 | 2008-01-16 | 株式会社リコー | 座標入力/検出装置および電子黒板システム |
US6496122B2 (en) | 1998-06-26 | 2002-12-17 | Sharp Laboratories Of America, Inc. | Image display and remote control system capable of displaying two distinct images |
US6064354A (en) | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
JP2002523830A (ja) | 1998-08-18 | 2002-07-30 | デジタル インク インコーポレーテッド | 絶対的および相対的な位置決めのための検出センサを有する手書き用デバイス |
JP2000089913A (ja) | 1998-09-08 | 2000-03-31 | Gunze Ltd | タッチパネル入力座標変換装置 |
US6570612B1 (en) | 1998-09-21 | 2003-05-27 | Bank One, Na, As Administrative Agent | System and method for color normalization of board images |
DE19845030A1 (de) | 1998-09-30 | 2000-04-20 | Siemens Ag | Bildsystem |
US6972753B1 (en) | 1998-10-02 | 2005-12-06 | Semiconductor Energy Laboratory Co., Ltd. | Touch panel, display device provided with touch panel and electronic equipment provided with display device |
US6690357B1 (en) * | 1998-10-07 | 2004-02-10 | Intel Corporation | Input device using scanning sensors |
US6414673B1 (en) | 1998-11-10 | 2002-07-02 | Tidenet, Inc. | Transmitter pen location system |
US6147678A (en) * | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US6597348B1 (en) | 1998-12-28 | 2003-07-22 | Semiconductor Energy Laboratory Co., Ltd. | Information-processing device |
US6633328B1 (en) | 1999-01-05 | 2003-10-14 | Steris Corporation | Surgical lighting system with integrated digital video camera |
US6335724B1 (en) | 1999-01-29 | 2002-01-01 | Ricoh Company, Ltd. | Method and device for inputting coordinate-position and a display board system |
US6179426B1 (en) | 1999-03-03 | 2001-01-30 | 3M Innovative Properties Company | Integrated front projection system |
US6530664B2 (en) | 1999-03-03 | 2003-03-11 | 3M Innovative Properties Company | Integrated front projection system with enhanced dry erase screen configuration |
US6545669B1 (en) | 1999-03-26 | 2003-04-08 | Husam Kinawi | Object-drag continuity between discontinuous touch-screens |
TW459192B (en) | 1999-06-25 | 2001-10-11 | Toshiba Corp | Electronic apparatus and electronic system provided with the same |
JP2001060145A (ja) | 1999-08-23 | 2001-03-06 | Ricoh Co Ltd | 座標入力/検出システムおよびその位置合わせ調整方法 |
JP2001075735A (ja) | 1999-09-06 | 2001-03-23 | Canon Inc | 座標入力装置及びその方法、コンピュータ可読メモリ |
JP3905670B2 (ja) | 1999-09-10 | 2007-04-18 | 株式会社リコー | 座標入力検出装置、情報記憶媒体及び座標入力検出方法 |
JP4057200B2 (ja) | 1999-09-10 | 2008-03-05 | 株式会社リコー | 座標入力装置および座標入力装置の記録媒体 |
US6512838B1 (en) | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
WO2003007049A1 (en) | 1999-10-05 | 2003-01-23 | Iridigm Display Corporation | Photonic mems and structures |
JP4052498B2 (ja) | 1999-10-29 | 2008-02-27 | 株式会社リコー | 座標入力装置および方法 |
US6710770B2 (en) | 2000-02-11 | 2004-03-23 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
JP3819654B2 (ja) | 1999-11-11 | 2006-09-13 | 株式会社シロク | 指示体の識別機能を有する光デジタイザ |
US6328270B1 (en) | 1999-11-12 | 2001-12-11 | Elbex Video Ltd. | Swivel joint with cable passage for a television camera or a case |
JP2001209487A (ja) | 2000-01-25 | 2001-08-03 | Uw:Kk | 筆跡通信システムおよび該システムで使用される筆跡入力装置及び筆跡表示装置 |
US6529189B1 (en) | 2000-02-08 | 2003-03-04 | International Business Machines Corporation | Touch screen stylus with IR-coupled selection buttons |
JP3881148B2 (ja) | 2000-02-18 | 2007-02-14 | 株式会社リコー | 座標検出用受光装置、座標入力/検出装置、電子黒板、装着位置検出方法及び記憶媒体 |
JP3934846B2 (ja) | 2000-03-06 | 2007-06-20 | 株式会社リコー | 座標入力/検出装置、電子黒板システム、受光素子の位置ズレ補正方法及び記憶媒体 |
JP2001265516A (ja) | 2000-03-16 | 2001-09-28 | Ricoh Co Ltd | 座標入力装置 |
JP2001282445A (ja) | 2000-03-31 | 2001-10-12 | Ricoh Co Ltd | 座標入力/検出装置および情報表示入力装置 |
JP4094796B2 (ja) | 2000-03-31 | 2008-06-04 | 株式会社リコー | 座標入力システム、座標入力システムの制御方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP3834766B2 (ja) | 2000-04-03 | 2006-10-18 | 独立行政法人科学技術振興機構 | マンマシーン・インターフェース・システム |
US7084868B2 (en) | 2000-04-26 | 2006-08-01 | University Of Louisville Research Foundation, Inc. | System and method for 3-D digital reconstruction of an oral cavity from a sequence of 2-D images |
US6864882B2 (en) | 2000-05-24 | 2005-03-08 | Next Holdings Limited | Protected touch panel display system |
US6690397B1 (en) | 2000-06-05 | 2004-02-10 | Advanced Neuromodulation Systems, Inc. | System for regional data association and presentation and method for the same |
US6690363B2 (en) | 2000-06-19 | 2004-02-10 | Next Holdings Limited | Touch panel display system |
US6803906B1 (en) | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
CN1310126C (zh) | 2000-07-05 | 2007-04-11 | 智能技术公司 | 基于摄影机的触摸系统 |
US7466843B2 (en) | 2000-07-07 | 2008-12-16 | Pryor Timothy R | Multi-functional control and entertainment systems |
US6531999B1 (en) | 2000-07-13 | 2003-03-11 | Koninklijke Philips Electronics N.V. | Pointing direction calibration in video conferencing and other camera-based system applications |
US6747663B2 (en) | 2000-08-24 | 2004-06-08 | Sun Microsystems, Inc. | Interpolating sample values from known triangle vertex values |
NO311740B1 (no) | 2000-09-11 | 2002-01-14 | Tormod Njoelstad | Tegne-, skrive- og peke-redskap for datamaskinbaserte presentasjoner og kontorarbeid |
JP3793014B2 (ja) | 2000-10-03 | 2006-07-05 | キヤノン株式会社 | 電子源の製造装置、電子源の製造方法及び画像形成装置の製造方法 |
WO2002033541A2 (en) | 2000-10-16 | 2002-04-25 | Tangis Corporation | Dynamically determining appropriate computer interfaces |
US6774889B1 (en) | 2000-10-24 | 2004-08-10 | Microsoft Corporation | System and method for transforming an ordinary computer monitor screen into a touch screen |
US6518600B1 (en) | 2000-11-17 | 2003-02-11 | General Electric Company | Dual encapsulation for an LED |
US6530702B2 (en) | 2000-12-02 | 2003-03-11 | Thomas H. S. Harris | Operator supported remote camera positioning and control system |
US7190348B2 (en) | 2000-12-26 | 2007-03-13 | International Business Machines Corporation | Method for touchscreen data input |
JP2004523031A (ja) | 2001-01-08 | 2004-07-29 | ヴィーケービー インコーポレイテッド | データ入力装置 |
JP3977018B2 (ja) | 2001-02-07 | 2007-09-19 | 株式会社リコー | 情報入力システム |
US6741250B1 (en) | 2001-02-09 | 2004-05-25 | Be Here Corporation | Method and system for generation of multiple viewpoints into a scene viewed by motionless cameras and for presentation of a view path |
TW487593B (en) | 2001-02-09 | 2002-05-21 | Sampo Technology Corp | Remote-controlled toy car set with camera and rear view mirror |
US7030861B1 (en) | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
JP4639293B2 (ja) | 2001-02-27 | 2011-02-23 | オプテックス株式会社 | 自動ドアセンサ |
JP4768143B2 (ja) | 2001-03-26 | 2011-09-07 | 株式会社リコー | 情報入出力装置、情報入出力制御方法およびプログラム |
GB2374266A (en) | 2001-04-04 | 2002-10-09 | Matsushita Comm Ind Uk Ltd | Virtual user interface device |
JP4551018B2 (ja) | 2001-04-05 | 2010-09-22 | 富士通株式会社 | 画像結合装置 |
US6517266B2 (en) | 2001-05-15 | 2003-02-11 | Xerox Corporation | Systems and methods for hand-held printing on a surface or medium |
US6919880B2 (en) | 2001-06-01 | 2005-07-19 | Smart Technologies Inc. | Calibrating camera offsets to facilitate object position determination using triangulation |
GB2378073B (en) | 2001-07-27 | 2005-08-31 | Hewlett Packard Co | Paper-to-computer interfaces |
US7202857B2 (en) | 2001-08-29 | 2007-04-10 | Microsoft Corporation | Manual controlled scrolling |
JP2003162370A (ja) | 2001-09-14 | 2003-06-06 | Ricoh Co Ltd | 画像処理装置、タッチパネル付きディスプレイ装置、画像処理方法、および画像処理方法をコンピュータに実行させるプログラム |
US7007236B2 (en) | 2001-09-14 | 2006-02-28 | Accenture Global Services Gmbh | Lab window collaboration |
JP2003173237A (ja) | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | 情報入出力システム、プログラム及び記憶媒体 |
US7254775B2 (en) | 2001-10-03 | 2007-08-07 | 3M Innovative Properties Company | Touch panel system and method for distinguishing multiple touch inputs |
JP3920067B2 (ja) | 2001-10-09 | 2007-05-30 | 株式会社イーアイティー | 座標入力装置 |
JP2003158597A (ja) | 2001-11-21 | 2003-05-30 | Mitsubishi Rayon Co Ltd | 手書き画像入力面として使用されるスクリーンを備えた画像表示装置 |
JP2003167669A (ja) | 2001-11-22 | 2003-06-13 | Internatl Business Mach Corp <Ibm> | 情報処理装置、プログラム及び座標入力方法 |
US7121470B2 (en) | 2002-01-11 | 2006-10-17 | Hand Held Products, Inc. | Transaction terminal having elongated finger recess |
JP3805259B2 (ja) | 2002-01-29 | 2006-08-02 | 富士写真フイルム株式会社 | 画像処理方法、画像処理装置及び電子カメラ |
US7091926B2 (en) | 2002-02-08 | 2006-08-15 | Kulas Charles J | Computer display system using multiple screens |
US6628216B2 (en) | 2002-02-13 | 2003-09-30 | Intersil Americas Inc. | Calibration of resistor ladder using difference measurement and parallel resistive correction |
US7038659B2 (en) | 2002-04-06 | 2006-05-02 | Janusz Wiktor Rajkowski | Symbol encoding apparatus and method |
US7067763B2 (en) | 2002-05-17 | 2006-06-27 | Gsi Group Corporation | High speed, laser-based marking method and system for producing machine readable marks on workpieces and semiconductor devices with reduced subsurface damage produced thereby |
US20030226968A1 (en) | 2002-06-10 | 2003-12-11 | Steve Montellese | Apparatus and method for inputting data |
US7260257B2 (en) | 2002-06-19 | 2007-08-21 | Microsoft Corp. | System and method for whiteboard and audio capture |
US20040001144A1 (en) | 2002-06-27 | 2004-01-01 | Mccharles Randy | Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects |
US6954197B2 (en) | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
US6972401B2 (en) | 2003-01-30 | 2005-12-06 | Smart Technologies Inc. | Illuminated bezel and touch system incorporating the same |
US7629967B2 (en) | 2003-02-14 | 2009-12-08 | Next Holdings Limited | Touch screen signal processing |
US7176905B2 (en) | 2003-02-19 | 2007-02-13 | Agilent Technologies, Inc. | Electronic device having an image-based data input system |
US20040169639A1 (en) | 2003-02-28 | 2004-09-02 | Pate Michael A. | Visible pointer tracking with separately detectable pointer tracking signal |
US7532206B2 (en) | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
US6947032B2 (en) | 2003-03-11 | 2005-09-20 | Smart Technologies Inc. | Touch system and method for determining pointer contacts on a touch surface |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
WO2004102523A1 (en) | 2003-05-19 | 2004-11-25 | Itzhak Baruch | Optical coordinate input device comprising few elements |
US7432893B2 (en) | 2003-06-14 | 2008-10-07 | Massachusetts Institute Of Technology | Input device based on frustrated total internal reflection |
US7190496B2 (en) | 2003-07-24 | 2007-03-13 | Zebra Imaging, Inc. | Enhanced environment visualization using holographic stereograms |
US20050052427A1 (en) | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US7274356B2 (en) | 2003-10-09 | 2007-09-25 | Smart Technologies Inc. | Apparatus for determining the location of a pointer within a region of interest |
US7145766B2 (en) | 2003-10-16 | 2006-12-05 | Hewlett-Packard Development Company, L.P. | Display for an electronic device |
US7355593B2 (en) | 2004-01-02 | 2008-04-08 | Smart Technologies, Inc. | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
US7265752B2 (en) | 2004-01-09 | 2007-09-04 | Microsoft Corporation | Multi-chart geometry images |
US7232986B2 (en) | 2004-02-17 | 2007-06-19 | Smart Technologies Inc. | Apparatus for detecting a pointer within a region of interest |
US7492357B2 (en) | 2004-05-05 | 2009-02-17 | Smart Technologies Ulc | Apparatus and method for detecting a pointer relative to a touch surface |
US7538759B2 (en) | 2004-05-07 | 2009-05-26 | Next Holdings Limited | Touch panel display system with illumination and detection provided from a single edge |
US20080129707A1 (en) | 2004-07-27 | 2008-06-05 | Pryor Timothy R | Method and apparatus employing multi-functional controls and displays |
US20060158437A1 (en) | 2005-01-20 | 2006-07-20 | Blythe Michael M | Display device |
US7705835B2 (en) | 2005-03-28 | 2010-04-27 | Adam Eikman | Photonic touch screen apparatus and method of use |
EP1907918A2 (en) | 2005-07-05 | 2008-04-09 | O-Pen ApS | A touch pad system |
US20070019103A1 (en) | 2005-07-25 | 2007-01-25 | Vkb Inc. | Optical apparatus for virtual interface projection and sensing |
US8847924B2 (en) | 2005-10-03 | 2014-09-30 | Hewlett-Packard Development Company, L.P. | Reflecting light |
US7599520B2 (en) | 2005-11-18 | 2009-10-06 | Accenture Global Services Gmbh | Detection of multiple targets on a plane of interest |
US20070125652A1 (en) | 2005-12-02 | 2007-06-07 | Buckley Paul W | Electroform, methods of making electroforms, and products made from electroforms |
TWI333572B (en) | 2005-12-20 | 2010-11-21 | Ind Tech Res Inst | Light source package structure |
-
1999
- 1999-10-29 JP JP30941299A patent/JP4052498B2/ja not_active Expired - Lifetime
-
2000
- 2000-10-30 US US09/698,031 patent/US6674424B1/en not_active Expired - Lifetime
-
2003
- 2003-11-21 US US10/717,456 patent/US7342574B1/en not_active Ceased
-
2010
- 2010-03-11 US US12/722,345 patent/USRE43084E1/en not_active Expired - Lifetime
-
2012
- 2012-01-06 US US13/345,044 patent/US20120327031A1/en not_active Abandoned
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009027724A (ja) * | 2003-02-03 | 2009-02-05 | Tatsumi Denshi Kogyo Kk | 自動写真作成装置 |
JP4746653B2 (ja) * | 2003-02-03 | 2011-08-10 | 辰巳電子工業株式会社 | 自動写真作成装置 |
JP2008134793A (ja) * | 2006-11-28 | 2008-06-12 | Fujifilm Corp | 電子的手書入力装置 |
US9170682B2 (en) | 2011-04-14 | 2015-10-27 | Pixart Imaging Inc. | Image processing method for optical touch system |
JP2014164372A (ja) * | 2013-02-22 | 2014-09-08 | Funai Electric Co Ltd | プロジェクタ |
US9709878B2 (en) | 2013-02-22 | 2017-07-18 | Funai Electric Co., Ltd. | Projector and rear projector |
CN113934323A (zh) * | 2021-10-19 | 2022-01-14 | 河北师达教育科技有限公司 | 基于智能黑板的多点显示方法、装置和终端设备 |
CN113934323B (zh) * | 2021-10-19 | 2023-12-29 | 河北师达教育科技有限公司 | 基于智能黑板的多点显示方法、装置和终端设备 |
Also Published As
Publication number | Publication date |
---|---|
US6674424B1 (en) | 2004-01-06 |
US7342574B1 (en) | 2008-03-11 |
US20120327031A1 (en) | 2012-12-27 |
JP4052498B2 (ja) | 2008-02-27 |
USRE43084E1 (en) | 2012-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4052498B2 (ja) | 座標入力装置および方法 | |
US7006236B2 (en) | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices | |
US20220091680A1 (en) | Cursor Mode Switching | |
US7050177B2 (en) | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices | |
US8971565B2 (en) | Human interface electronic device | |
US8491135B2 (en) | Interactive projection with gesture recognition | |
US20100103099A1 (en) | Pointing device using camera and outputting mark | |
US10310675B2 (en) | User interface apparatus and control method | |
JP2002526867A (ja) | データ入力方法 | |
JP2001184161A (ja) | 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体 | |
JP2005353071A (ja) | アレーセンサーポインティング入力システム及びその方法(pointinginputsystemandmethodusingarraysensors) | |
KR20020052217A (ko) | 이미지 센서를 이용한 전자 기기 | |
WO2017147748A1 (zh) | 一种可穿戴式系统的手势控制方法以及可穿戴式系统 | |
JP2006209359A (ja) | 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム | |
JPH0757103A (ja) | 情報処理装置 | |
JP2016103137A (ja) | ユーザインタフェース装置、画像処理装置及び制御用プログラム | |
JP2014029656A (ja) | 画像処理装置および画像処理方法 | |
US20100207876A1 (en) | Laser scanning input device | |
JPH05189137A (ja) | 計算機用コマンド入力装置 | |
TWI499938B (zh) | 觸控系統 | |
US20180032142A1 (en) | Information processing apparatus, control method thereof, and storage medium | |
US9785253B2 (en) | Pointing device using camera and outputting mark | |
JP6643825B2 (ja) | 装置及び方法 | |
JP2018063555A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2000292121A (ja) | 3次元計測方法及び3次元入力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071129 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101214 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4052498 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101214 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101214 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101214 Year of fee payment: 3 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101214 Year of fee payment: 3 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111214 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121214 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131214 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |