JP2001265517A - Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium - Google Patents

Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium

Info

Publication number
JP2001265517A
JP2001265517A JP2000075212A JP2000075212A JP2001265517A JP 2001265517 A JP2001265517 A JP 2001265517A JP 2000075212 A JP2000075212 A JP 2000075212A JP 2000075212 A JP2000075212 A JP 2000075212A JP 2001265517 A JP2001265517 A JP 2001265517A
Authority
JP
Japan
Prior art keywords
coordinate
light
predetermined
light receiving
coordinate input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000075212A
Other languages
Japanese (ja)
Inventor
Katsuyuki Omura
克之 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000075212A priority Critical patent/JP2001265517A/en
Publication of JP2001265517A publication Critical patent/JP2001265517A/en
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Drawing Aids And Blackboards (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance a degree of freedom of a mounting position of a light receiving/emitting means on a coordinate input surface. SOLUTION: Light shielding position information (u11 to u51), (u12 to u52 and coordinates of reference points in sensor heads 1, 2 when an object is inserted into reference points (x1, y1) to (X5, y5) are stored in first storage parts 3, 4. Coefficient calculating means 5, 6 calculate coefficients (c11 to c51), (c12 to c52) by every sensor head on the basis of the coordinates of the reference points and the light shielding position information and stores them in second storage parts 7, 8. A prescribed operation 9 is performed by using pieces of information u1, u2 corresponding to shielding positions of light generated in each of the sensor heads 1, 2 by the light shielding object inserted in the case of input of the coordinates and the coefficients stored in the second storage parts 2 by and a coordinate (x, y) into which the light shielding object is inserted is outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、座標入力装置に関
し、特にパーソナルコンピュータ等において、情報を入
力したり選択するためにペン等の指示部材や指等によっ
て指示された座標位置を入力するいわゆるタッチパネル
方式の座標入力装置に関する。この座標入力装置は、電
子黒板や大型のディスプレイと共に一体化して利用され
たり、壁面、机上の紙面や従来の黒板など、電子的な表
示装置と一体化する形態に限らず、そこに書き込まれた
情報をディジタイズする装置などに利用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coordinate input device, and more particularly to a so-called touch panel for inputting a coordinate position indicated by a pointing member such as a pen or a finger to input or select information in a personal computer or the like. The present invention relates to a coordinate input device. This coordinate input device is used integrally with an electronic blackboard and a large display, and is not limited to a form integrated with an electronic display device, such as a wall surface, a paper surface on a desk, or a conventional blackboard, but is written there. Used for devices that digitize information.

【0002】[0002]

【従来の技術】図18は、本発明が適用される光学式の
座標入力装置の構成を示す図である。光学式の座標入力
装置40は、受発光手段41と座標入力領域43と再帰
性反射部材44から構成されている。座標入力領域43
は四角形の形状であり、例えば電子的に文字や画像を表
示するディスプレイ表面やマーカー等のペンで書き込む
ホワイトボードなどが座標入力領域となる。
2. Description of the Related Art FIG. 18 is a diagram showing a configuration of an optical coordinate input device to which the present invention is applied. The optical coordinate input device 40 includes a light emitting / receiving means 41, a coordinate input area 43, and a retroreflective member 44. Coordinate input area 43
Is a quadrangular shape. For example, a coordinate input area is a display surface for electronically displaying characters or images, a whiteboard written with a pen such as a marker, or the like.

【0003】光学式の座標入力装置40は、座標入力領
域43上を光学的に不透明な材質からなるユーザの手、
指やペン、支持棒などの指示物体42で触ったときの指
示物体42の座標位置を検出して、その位置情報をパー
ソナルコンピュータ等に入力する装置である。
[0003] The optical coordinate input device 40 includes a user's hand made of an optically opaque material on the coordinate input area 43.
This device detects the coordinate position of the pointing object 42 when touched by the pointing object 42 such as a finger, a pen, or a support rod, and inputs the position information to a personal computer or the like.

【0004】座標入力領域43の上方両端には受発光手
段41が設けられている。受発光手段41からは座標入
力領域43に向けて、L1、L2、L3、...Lmの光ビ
ームの束(プローブ光)が照射されている。実際には点
光源61から拡がる、座標入力領域の面に平行に進行す
る扇形板状の光波である。
[0004] At both upper ends of the coordinate input area 43, light receiving / emitting means 41 are provided. From the light receiving / emitting means 41 toward the coordinate input area 43, L 1 , L 2 , L 3 ,. . . L m of the light beam bundle (probe light) is irradiated. Actually, it is a fan-shaped plate-like light wave that spreads from the point light source 61 and travels in parallel to the plane of the coordinate input area.

【0005】また、座標入力領域43の周辺部分には、
再帰性反射部材44が再帰反射面を座標入力領域43の
中央に向けて設けられている。再帰性反射部材44は、
入射した光を、入射角度によらずに同じ方向に反射する
特性をもった部材である。例えば、受発光手段41から
発した扇形板状の光波の内、ある一つのビーム47に注
目すると、ビーム47は再帰性反射部材44によって反
射されて再び同じ光路を再帰反射光46として受発光手
段41に向かって戻るように進行する。受発光手段41
には、後述するように受光手段が設置されていて、プロ
ーブ光L1〜Lmのそれぞれに対して、その再帰光が受発
光手段41に再帰したか否かを検出することができる。
[0005] Also, in the peripheral portion of the coordinate input area 43,
A retroreflective member 44 is provided with the retroreflective surface facing the center of the coordinate input area 43. The retroreflective member 44 is
It is a member having the property of reflecting incident light in the same direction regardless of the angle of incidence. For example, when focusing on a certain beam 47 out of the fan-shaped plate-like light waves emitted from the light emitting / receiving means 41, the beam 47 is reflected by the retroreflecting member 44, and the same light path is again returned as the retroreflected light 46 as the light receiving / emitting means Proceed back to 41. Light receiving and emitting means 41
Is provided with a light receiving means, as will be described later, and can detect whether or not the return light of each of the probe lights L 1 to L m has returned to the light receiving / emitting means 41.

【0006】いま、ユーザーが手で位置42を触った場
合を考える。このときプローブ光45は位置42で手に
遮られて再帰性反射部材44には到達しない。従ってプ
ローブ光45の再帰光は受発光手段41には到達せず、
プローブ光45に対応する再帰光が受光されないことを
検出することによって、プローブ光45の延長線(直線
L)上に指示物体が挿入されたことを検出することがで
きる。
Now, consider the case where the user touches the position 42 with his hand. At this time, the probe light 45 is blocked by the hand at the position 42 and does not reach the retroreflective member 44. Therefore, the return light of the probe light 45 does not reach the light receiving / emitting means 41,
By detecting that the return light corresponding to the probe light 45 is not received, it is possible to detect that the pointing object is inserted on the extension line (straight line L) of the probe light 45.

【0007】同様に図18の右上方に設置された受発光
手段41からもプローブ光を照射し、プローブ光48に
対応する再帰光が受光されないことを検出することによ
って、プローブ光48の延長線(直線R)上に指示物体
が挿入されたことを検出することができる。直線Lおよ
び直線Rを求めることができれば、この交点座標を演算
により算出することにより、手などの指示物体42が挿
入された座標位置を得ることができる。
Similarly, the probe light is emitted from the light receiving / emitting means 41 provided at the upper right of FIG. 18 and the extension of the probe light 48 is detected by detecting that the return light corresponding to the probe light 48 is not received. It is possible to detect that the pointing object has been inserted on (straight line R). If the straight line L and the straight line R can be obtained, the coordinates of the intersection where the pointing object 42 such as a hand is inserted can be obtained by calculating the intersection coordinates by calculation.

【0008】次に、受発光手段41の構成と、プローブ
光L1〜Lmの内、どのプローブ光が遮断されたかを検出
する機構について説明する。図19は、受発光手段41
の内部の構成を示す。図19は、図18の座標入力領域
43に取り付けられた受発光手段41を、座標入力領域
43の面に対して垂直な方向から見た図である。ここで
は簡単のため、座標入力領域43の面に平行な2次元平
面で説明する。
Next, the configuration of the light emitting / receiving means 41 and a mechanism for detecting which probe light among the probe lights L 1 to L m has been blocked will be described. FIG.
2 shows the internal configuration of FIG. FIG. 19 is a diagram of the light emitting / receiving unit 41 attached to the coordinate input area 43 of FIG. 18 as viewed from a direction perpendicular to the plane of the coordinate input area 43. Here, for simplicity, a two-dimensional plane parallel to the plane of the coordinate input area 43 will be described.

【0009】受発光手段41は、点光源61、集光レン
ズ51および受光素子50から構成されている。点光源
61は光源から見て受光素子50と反対の方向に扇形に
光を出射するものとする。点光源61から出射された扇
形の光は、矢印53、58の方向、その他の方向に進行
するビームの集合であると考える。矢印53方向に進行
したビームは再帰性反射部材55で反射されて、再帰反
射光54が集光レンズ51を通り、受光素子50上の位
置57に到達する。
The light receiving / emitting means 41 comprises a point light source 61, a condenser lens 51 and a light receiving element 50. The point light source 61 emits light in a fan shape in a direction opposite to the light receiving element 50 when viewed from the light source. The fan-shaped light emitted from the point light source 61 is considered to be a set of beams traveling in the directions of arrows 53 and 58 and other directions. The beam traveling in the direction of the arrow 53 is reflected by the retroreflective member 55, and the retroreflected light 54 passes through the condenser lens 51 and reaches a position 57 on the light receiving element 50.

【0010】また、進行方向58に沿って進行したビー
ムは再帰性反射部材55によって反射されて、再帰反射
光59が受光素子50上の位置56に到達する。このよ
うに点光源61から出射し、再帰性反射部材55で反射
され同じ経路を戻ってきた光は、集光レンズ51の作用
によって、それぞれ受光素子50上のそれぞれ異なる位
置56、57に到達する。
The beam traveling in the traveling direction 58 is reflected by the retroreflective member 55, and the retroreflected light 59 reaches a position 56 on the light receiving element 50. The light emitted from the point light source 61 and reflected by the retroreflective member 55 and returning on the same path reaches the different positions 56 and 57 on the light receiving element 50 by the action of the condenser lens 51, respectively. .

【0011】従って、ある位置に指示物体が挿入され、
あるビームが遮断されると、そのビームに対応する受光
素子50上の点に光が到達しなくなる。このことから、
受光素子50上の光強度の分布を調べることによって、
どのビームが遮られたかを知ることができる。
Accordingly, the pointing object is inserted at a certain position,
When a certain beam is cut off, light does not reach a point on the light receiving element 50 corresponding to the beam. From this,
By examining the distribution of light intensity on the light receiving element 50,
You can see which beam was blocked.

【0012】図20は、指示物体が挿入されてビームが
遮断されたときの動作を説明する図である。図20にお
いて、受光素子50は集光レンズ51の焦点面に設けら
れているものとする。点光源61から図20の右側に向
けて出射した光は、再帰性反射部材55によって反射さ
れて同じ経路を戻ってくる。従って、点光源61の位置
に再び集光する。集光レンズ51の中心は点光源位置と
一致するように設けられている。再帰性反射部材か55
から戻った再帰光は、集光レンズ51の中心を通るの
で、レンズ後方(受光素子側)に対称の経路で進行す
る。
FIG. 20 is a diagram for explaining the operation when the pointing object is inserted and the beam is cut off. In FIG. 20, the light receiving element 50 is provided on the focal plane of the condenser lens 51. Light emitted from the point light source 61 toward the right side in FIG. 20 is reflected by the retroreflective member 55 and returns along the same path. Therefore, the light is condensed again at the position of the point light source 61. The center of the condenser lens 51 is provided so as to coincide with the point light source position. Retroreflective member or 55
Since the returning light from the lens passes through the center of the condenser lens 51, it travels in a symmetrical path behind the lens (on the light receiving element side).

【0013】このとき、受光素子50上の光強度分布を
調べると、指示物体60が挿入されていなければ、受光
素子50上の光強度分布はほぼ一定であるが、図20に
示すように、光を遮る指示物体60が挿入された場合、
ここを通過するビームは遮られ、受光素子50上では位
置Dnの位置に、光強度が弱い領域(暗点)が生じる。
At this time, when the light intensity distribution on the light receiving element 50 is examined, if the pointing object 60 is not inserted, the light intensity distribution on the light receiving element 50 is almost constant, but as shown in FIG. When the pointing object 60 that blocks light is inserted,
Blocked the beam passing therethrough, the position of the position D n is on the light receiving element 50, the light intensity is weak area (dark spot) occurs.

【0014】この位置Dnは、遮られたビームの出射/
入射角θnと対応していて、Dnを検出することによりθ
nを算出することができる。すなわちθnはDnの関数と
して θn=arctan(Dn/f) 式(1) と表すことができる。ただし、fは図20に示すよう
に、集光レンズ51と受光素子50との間の距離で、集
光レンズ51の焦点距離に該当する。
This position D n is determined by the emission /
And corresponds to the incident angle theta n, theta by detecting the D n
n can be calculated. That theta n can be represented as theta n = arctan as a function of D n (D n / f) Equation (1). Here, f is the distance between the condenser lens 51 and the light receiving element 50, as shown in FIG. 20, and corresponds to the focal length of the condenser lens 51.

【0015】ここで、特に図18の左上方の受発光手段
41におけるθnをθnL、DnをDnLと置き換える。さら
に、座標位置の算出方法を説明する図21において、受
発光手段41と座標入力領域43との幾何学的な相対位
置関係の変換gにより、指示物体60と座標入力領域4
3のx軸とのなす角θLは、式(1)で求められるDnL
の関数として、 θL=g(θnL) ただし θnL=arctan(DnL/f) 式(2) と表すことができる。
[0015] replacing Here, especially theta a n theta nL in the light receiving and emitting unit 41 in the upper left side of FIG. 18, the D n and D nL. Further, in FIG. 21 for explaining the method of calculating the coordinate position, the pointing object 60 and the coordinate input area 4 are converted by the conversion g of the geometric relative positional relationship between the light emitting / receiving means 41 and the coordinate input area 43.
Angle theta L of the x-axis of 3, D nL obtained by the formula (1)
Θ L = g (θ nL ) where θ nL = arctan (D nL / f).

【0016】同様に、図18の右上方の受発光手段41
についても、上記した式のL記号をR記号に置き換え
て、右側の受発光手段41と座標入力領域43との幾何
学的な相対位置関係の変換hにより、 θR=h(θnR) ただし θnR=arctan(DnR/f) 式(3) と表すことができる。
Similarly, the light receiving / emitting means 41 at the upper right of FIG.
Is also replaced by the R symbol in the above equation, and the conversion h of the geometric relative positional relationship between the light emitting / receiving means 41 and the coordinate input area 43 on the right side gives θ R = h (θ nR ). θ nR = arctan (D nR / f) Equation (3) can be expressed.

【0017】図21に示すように、座標入力領域43に
おいて受発光手段41の取り付け間隔をwとし、座標入
力領域43の左角を原点70とし、x、y座標を図21
に示すようにとれば、座標入力領域43上の指示物体6
0で指示した点の座標(x,y)は、 x=wtanθR/(tanθL+tanθR) 式(4) y=wtanθL・tanθR/(tanθL+tanθR) 式(5) となり、式(2)、(3)、(4)、(5)からx、y
は、DnL、DnRの関数として表すことができる。
As shown in FIG. 21, in the coordinate input area 43, the mounting interval of the light receiving / emitting means 41 is set to w, the left corner of the coordinate input area 43 is set to the origin 70, and the x and y coordinates are set to FIG.
The pointing object 6 on the coordinate input area 43
The coordinates (x, y) of the point designated by 0 are as follows: x = wtan θ R / (tan θ L + tan θ R ) Expression (4) y = wt tan θ L · tan θ R / (tan θ L + tan θ R ) Expression (5) X, y from (2), (3), (4), (5)
Can be expressed as a function of D nL , D nR .

【0018】すなわち、左右の受発光手段41の受光素
子50上の暗点の位置DnL、DnRを検出し、受発光手段
41の幾何学的配置を考慮することにより、指示物体6
0で指示した点の座標を算出することができる。上記説
明した座標算出方法は、三角測量の原理に基づくもので
あり、例えば特開平9−91094号公報に記載されて
いる。
That is, by detecting the positions D nL and D nR of the dark spots on the light receiving elements 50 of the left and right light emitting / receiving means 41 and considering the geometrical arrangement of the light receiving / emitting means 41, the pointing object 6 is detected.
The coordinates of the point designated by 0 can be calculated. The above-described coordinate calculation method is based on the principle of triangulation and is described in, for example, Japanese Patent Application Laid-Open No. 9-91094.

【0019】[0019]

【発明が解決しようとする課題】上記した従来の座標入
力装置では、受発光手段の幾何学配置を基に座標を算出
している。このため、以下のような幾何学配置を表すパ
ラメータが既知の場合に座標入力領域の座標を求めるこ
とができる。上記した「受発光手段」を、以下の説明で
は「センサヘッド」という。
In the above-mentioned conventional coordinate input device, the coordinates are calculated based on the geometric arrangement of the light receiving and emitting means. Therefore, the coordinates of the coordinate input area can be obtained when the following parameters representing the geometrical arrangement are known. The above-mentioned "light receiving / emitting means" is referred to as "sensor head" in the following description.

【0020】図22は、センサヘッドを座標入力領域の
近傍に配置した例を示す図である。この図において、式
(2)〜(5)から求められる座標x,yは、点Pを原
点とする座標である。この座標を算出する段階で、既に
wおよび両センサヘッドL、Rの光軸と両センサヘッド
中心を結ぶ線分がなす角度θoffL、θoffRが既知である
必要がある。θoffL、θoffRは、それぞれ式(2)およ
び式(3)のgおよびhの変換に必要なパラメータとな
る。
FIG. 22 is a diagram showing an example in which the sensor head is arranged near the coordinate input area. In this figure, the coordinates x and y obtained from the equations (2) to (5) are coordinates having the point P as the origin. At the stage of calculating these coordinates, it is necessary that the angles θ offL and θ offR formed by w and the line segment connecting the optical axes of the sensor heads L and R to the centers of the sensor heads are already known. θ offL and θ offR are parameters necessary for the conversion of g and h in equations (2) and (3), respectively.

【0021】さらに、PおよびQを原点とする座標系に
おける、平行移動によるオフセットdx、dyと回転に
よるオフセットθ0が既知であることによって、式
(2)〜(5)から求められるPを原点とする座標x、
yを、座標入力領域のQを原点とする座標系に変換する
ことができる。したがって、w、θoffL、θoffR、d
x、dy、θ0が既知であるようにセンサヘッドの機械
的位置を決定する必要がある。
Further, since the offsets dx and dy due to the parallel movement and the offset θ 0 due to the rotation in the coordinate system having the origins P and Q are known, the P obtained from the equations (2) to (5) can be used as the origin. Coordinates x,
y can be converted to a coordinate system with Q as the origin of the coordinate input area. Therefore, w, θ offL , θ offR , d
It is necessary to determine the mechanical position of the sensor head so that x, dy, θ 0 are known.

【0022】しかし、一般にこれらすべてのパラメータ
を所定の値になるようにセンサヘッドを組み付けること
は装置製造工程上のコストを押し上げてしまう。また、
これらのパラメータが甘い公差内に収まるように組み付
けを行い、組み付け後にこれらのパラメータを測定し、
演算に反映するという方法もある。しかしこの方法で
は、組み付け後にパラメータの測定を行う困難さを伴
い、実用的ではない。
However, in general, assembling the sensor head so that all of these parameters have predetermined values increases the cost in the apparatus manufacturing process. Also,
Assemble these parameters within a tight tolerance, measure these parameters after assembly,
There is also a method of reflecting it in the calculation. However, this method is not practical because it involves difficulty in measuring parameters after assembly.

【0023】また、運搬時の振動などにより、上記のパ
ラメータが出荷時の設定値からずれてしまい、納品時に
正しい座標入力動作ができなくなるといった不具合があ
る。さらに、運搬および梱包の都合上、受発光手段を分
割して運搬する場合などでも、組み付け時に設計時の所
定の位置精度を維持して受発光手段を座標入力面(ディ
スプレイ面や黒板面など)に再び取り付ける必要があ
る。
In addition, there is a problem that the above parameters are deviated from the set values at the time of shipment due to vibration during transportation and the like, and a correct coordinate input operation cannot be performed at the time of delivery. Further, even when the light emitting / receiving device is divided and transported for transportation and packing, the light emitting / receiving device is moved to a coordinate input surface (display surface, blackboard surface, etc.) while maintaining a predetermined positional accuracy at the time of assembly. Need to be re-attached.

【0024】しかし、一般のユーザーが精度を維持して
再度、取り付けを行うことは難しいか、または特殊な治
具、機構が必要となり、コストを押し上げてしまう。こ
れに加えて、例えば受発光手段が構成するセンサヘッド
部分を分割可搬型として、任意の座標入力面にユーザー
が取り付けて使うようなアプリケーションを考えた場
合、従来の三角測量演算による方法では同様の問題が生
じ、実現が困難となる。
However, it is difficult for a general user to re-attach while maintaining accuracy, or special jigs and mechanisms are required, which increases costs. In addition to this, for example, when an application is considered in which the sensor head portion formed by the light receiving and emitting means is divided into a portable type and the user attaches it to an arbitrary coordinate input surface and is used, a conventional triangulation calculation method is similar. Problems arise and are difficult to implement.

【0025】本発明は、上記したような座標入力装置の
問題点に鑑みてなされたものであり、本発明の目的は、
座標入力面における受発光手段の取り付け位置の自由度
を高めた座標入力装置およびセンサヘッド取り付け方法
を提供することにある。
The present invention has been made in view of the problems of the coordinate input device as described above.
It is an object of the present invention to provide a coordinate input device and a sensor head mounting method in which the degree of freedom of the mounting position of the light receiving / emitting means on the coordinate input surface is increased.

【0026】本発明の他の目的は、受発光手段の座標入
力面における取り付け位置すなわち前述したパラメータ
が未知の場合でも、使用する前の簡単なキャリブレーシ
ョン動作によって座標入力面での座標を正しく入力する
ことができる座標入力装置を提供することにある。
Another object of the present invention is to provide a simple calibration operation before use to correctly input coordinates on the coordinate input surface even when the mounting position of the light emitting / receiving means on the coordinate input surface, ie, when the above-mentioned parameters are unknown. It is an object of the present invention to provide a coordinate input device capable of performing such operations.

【0027】本発明の他の目的は、簡単な行列計算ある
いは連立方程式の求解で実行可能なキャリブレーション
を行う座標入力装置を提供することにある。
Another object of the present invention is to provide a coordinate input device for performing calibration which can be executed by simple matrix calculation or solution of simultaneous equations.

【0028】本発明の他の目的は、キャリブレーション
を行うために所定の座標に挿入された光遮断手段によっ
て遮断された光の位置に対応する情報を、受光素子上の
幾何学的な位置、あるいは受光素子を走査するタイミン
グ信号など任意の信号で演算することができ、遮断され
た光の位置を遮断手段の見込みの角度などに変換する処
理を省くことができ、大幅に演算を効率化すると共に、
装置の設計自由度を向上させ、また座標演算精度の向上
を図った座標入力装置を提供することにある。
Another object of the present invention is to provide information corresponding to the position of light blocked by the light blocking means inserted at a predetermined coordinate for performing calibration, on a geometric position on the light receiving element, Alternatively, the calculation can be performed by an arbitrary signal such as a timing signal for scanning the light receiving element, and the process of converting the position of the blocked light into the expected angle of the blocking unit can be omitted, thereby greatly improving the efficiency of the calculation. Along with
An object of the present invention is to provide a coordinate input device that improves the degree of freedom in designing the device and improves the accuracy of coordinate calculation.

【0029】本発明の他の目的は、光の遮断位置に対応
する情報として受光素子上の物理的位置などを用いるこ
とにより、変換テーブルや変換式を作成する処理を必要
とせず、また上記した作成処理で発生する誤差要因を排
除することができ、さらに受光素子上の遮断された光の
位置に対応する信号として、受光素子上の物理的な位置
の他に、受光素子の電気的な走査のタイミング信号な
ど、他の物理量でも演算が可能であり、設計上の自由度
を大幅に向上させた座標入力装置を提供することにあ
る。
Another object of the present invention is to use a physical position on a light receiving element as information corresponding to a light blocking position, thereby eliminating the need for a process of creating a conversion table or a conversion formula. Error factors generated in the creation process can be eliminated, and furthermore, as a signal corresponding to the position of the blocked light on the light receiving element, in addition to the physical position on the light receiving element, electrical scanning of the light receiving element Another object of the present invention is to provide a coordinate input device that can perform calculations using other physical quantities such as the timing signal described above, and that greatly improves the degree of freedom in design.

【0030】本発明の他の目的は、キャリブレーション
時に光遮断手段が挿入された所定の座標とこれに対応す
る遮断された光の位置情報の関係を記述する関係式の係
数を演算する際に、係数が必ず演算できる条件として、
連立方程式の係数行列が必ず正則となる必要があるの
で、基準となる座標点の数とその配置の仕方を限定する
ことにより、係数行列を必ず正則とした座標入力装置お
よびセンサヘッド取り付け方法を提供することにある。
Another object of the present invention is to calculate a coefficient of a relational expression describing a relationship between predetermined coordinates at which the light blocking means is inserted at the time of calibration and corresponding positional information of the blocked light. , As a condition that the coefficient can always be calculated,
Since the coefficient matrix of the simultaneous equations must always be regular, a coordinate input device and a sensor head mounting method are provided in which the coefficient matrix is always regular by limiting the number of reference coordinate points and the arrangement method. Is to do.

【0031】本発明の他の目的は、構造が簡単で、かつ
高精度に座標を入力できる座標入力装置付き表示装置を
提供することにある。
Another object of the present invention is to provide a display device with a coordinate input device which has a simple structure and can input coordinates with high accuracy.

【0032】本発明のさらに他の目的は、キャリブレー
ションモードと座標入力モードを設けることにより、使
用中に受発光手段の位置がずれた場合あるいは運搬直後
などに、ユーザが任意でモードを切り替えてユーザ自身
でキャリブレーションできる座標入力装置および記録媒
体を提供することにある。
Still another object of the present invention is to provide a calibration mode and a coordinate input mode so that the user can arbitrarily switch modes when the position of the light receiving / emitting means is shifted during use or immediately after transportation. An object of the present invention is to provide a coordinate input device and a recording medium which can be calibrated by a user himself.

【0033】[0033]

【課題を解決するための手段】本発明では、キャリブレ
ーション時に、基準点に指示物体を挿入したときのセン
サヘッドにおける光遮断位置情報と基準点座標とを基
に、光遮断位置情報と基準点座標との関係を記述する関
係式の係数を算出する。座標入力時に挿入された光遮断
物体によって、各センサヘッドに生じた光の遮断位置に
対応する情報と、先に算出された係数を用いて所定の演
算を行うことにより、光遮断物体が挿入された座標を出
力する。
According to the present invention, the light blocking position information and the reference point are set based on the light blocking position information and the reference point coordinates of the sensor head when the pointing object is inserted into the reference point during calibration. Calculate the coefficients of the relational expression describing the relation with the coordinates. The light-blocking object inserted at the time of inputting coordinates is used to perform a predetermined calculation using the information corresponding to the light-blocking position of light generated in each sensor head and the previously calculated coefficient, thereby inserting the light-blocking object. Output coordinates.

【0034】また、本発明では、光遮断位置情報とし
て、受光手段の像面における光強度分布から得られる物
理的な位置などを用いる。
In the present invention, a physical position obtained from the light intensity distribution on the image plane of the light receiving means is used as the light blocking position information.

【0035】さらに、本発明では、キャリブレーション
時に係数を算出する際に、係数行列が正則である必要が
あるので、基準座標の点数を5点とし、かつそれら5点
の座標は、受光手段の中心と各点の座標とを結ぶ直線が
互いに一致しないように配置されている。
Further, according to the present invention, when calculating the coefficients at the time of calibration, the coefficient matrix needs to be regular, so that the number of reference coordinates is set to 5 and the coordinates of these 5 points are determined by the light receiving means. They are arranged so that straight lines connecting the center and the coordinates of each point do not coincide with each other.

【0036】[0036]

【発明の実施の形態】以下、本発明の一実施例を図面を
用いて具体的に説明する。 (実施例1)図1は、本発明の実施例1の構成を示す。
図2は、本発明の実施例1に係る処理フローチャートで
ある。本実施例は、図18〜20で説明した再帰光射影
方式の光学式座標入力装置に適用される。本実施例の2
つのセンサヘッド1、2は、図22で説明したように座
標入力領域43の外側の近傍に配置されている。また、
キャリブレーションのための基準点の座標は、座標入力
領域上の既知の座標であり、これを(x1,y1)、(x
2,y2)...(x5,y5)とする(ステップ10
1)。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be specifically described below with reference to the drawings. (Embodiment 1) FIG. 1 shows the configuration of Embodiment 1 of the present invention.
FIG. 2 is a processing flowchart according to the first embodiment of the present invention. This embodiment is applied to the optical coordinate input device of the retroreflective projection system described with reference to FIGS. Example 2
The two sensor heads 1 and 2 are arranged near the outside of the coordinate input area 43 as described with reference to FIG. Also,
The coordinates of the reference point for calibration are known coordinates on the coordinate input area, and are represented by (x 1 , y 1 ), (x
2, y 2). . . (X 5 , y 5 ) (Step 10
1).

【0037】上記した各基準点(x1,y1)、(x2
2)...(x5,y5)には、指など光を遮断する指
示物体が挿入される。例えば、基準点(x1,y1)に指
を挿入した場合、指でプローブ光が遮られることにより
生じるセンサヘッド1での光束の遮断位置(図20の
A)に相当する情報をu11とする。同様にセンサヘッド
2での光束の遮断位置をu12とする(ステップ10
2)。
Each of the reference points (x 1 , y 1 ), (x 2 ,
y 2 ). . . The (x 5, y 5), the pointing object that blocks light fingers are inserted. For example, when a finger is inserted at the reference point (x 1 , y 1 ), information corresponding to the light blocking position (A in FIG. 20) of the sensor head 1 caused by the probe light being blocked by the finger is represented by u 11. And Likewise the blocking position of the light beam in the sensor head 2 and u 12 (Step 10
2).

【0038】uの第1の添字は基準点の添字に相当し、
第2の添字はセンサヘッドの番号に相当する。uとして
は、図20で示した光束の遮断位置に相当する情報を用
いる。例えば、図20で受光素子50がCCDである場
合には、後述するように、uとしては光束の遮断位置に
対応するCCDの画素添字(画素位置番号)などを用い
ることができる。uは画素添字の他にCCDを走査する
信号のタイミングすなわちCCDを走査開始してから光
遮断位置に至るまでの時間でもよい。また、これらには
所定の係数やオフセットがかかっていてもよく、装置の
設計上都合のよいパラメータを任意に使用できる。
The first subscript of u corresponds to the subscript of the reference point,
The second subscript corresponds to the number of the sensor head. As u, information corresponding to the light blocking position shown in FIG. 20 is used. For example, when the light receiving element 50 is a CCD in FIG. 20, as will be described later, u can be a pixel suffix (pixel position number) of the CCD corresponding to the light blocking position, or the like. u may be the timing of a signal for scanning the CCD, that is, the time from the start of scanning the CCD to the light blocking position, in addition to the pixel subscript. In addition, these may have a predetermined coefficient or offset, and parameters convenient for the design of the apparatus can be arbitrarily used.

【0039】基準点(x1,y1)、(x2,y2)...
(x5,y5)に、それぞれ指示物体を挿入したときの、
センサヘッド1およびセンサヘッド2における光遮断位
置情報(u11,u21,...,u51)および(u12,u
22,...,u52)と基準点の座標とを、第1記憶部
3、4にそれぞれ記憶する(ステップ103)。
Reference points (x 1 , y 1 ), (x 2 , y 2 ). . .
(X 5 , y 5 )
Light blocking position information (u 11 , u 21 ,..., U 51 ) and (u 12 , u 12 ) in the sensor heads 1 and 2
22,. . . , U 52 ) and the coordinates of the reference point are stored in the first storage units 3 and 4, respectively (step 103).

【0040】第1記憶部3、4に記憶された基準点座標
および光遮断位置情報は、係数算出手段5、6に読み込
まれる。係数算出手段5、6は、後述する式(11)に
従ってそれぞれのセンサヘッド毎に係数(c11
21,...,c51)および(c12,c22,...,c
52)を算出し(ステップ104)、第2記憶部7、8に
記憶する(ステップ105)。
The reference point coordinates and the light shielding position information stored in the first storage units 3 and 4 are read into the coefficient calculation units 5 and 6. The coefficient calculating means 5 and 6 calculate the coefficient (c 11 ,
c 21 ,. . . , C 51 ) and (c 12 , c 22 ,..., C
52 ) is calculated (step 104) and stored in the second storage units 7 and 8 (step 105).

【0041】ここまでの動作がキャリブレーション動作
モードであり、これを図1中に太い矢印で示す。これら
の一連の動作は、ユーザが座標入力装置を使用する前
に、あるいは座標入力装置を設置するときなどに、実行
される動作である。
The operation up to this point is the calibration operation mode, which is indicated by thick arrows in FIG. These series of operations are performed before the user uses the coordinate input device or when the user installs the coordinate input device.

【0042】キャリブレーション動作モードに続いて、
座標入力を行う動作モードとなる。以下、座標入力動作
について説明する。
Following the calibration operation mode,
This is an operation mode for inputting coordinates. Hereinafter, the coordinate input operation will be described.

【0043】座標入力領域に挿入された指など光遮断物
体により、各センサヘッド1、2で光の遮断が生じる。
つまり、キャリブレーションモードで説明したと同様に
して、光束の遮断位置に対応する情報u1、u2が各セン
サヘッド1、2で取得される(ステップ106)。
Light is blocked in each of the sensor heads 1 and 2 by a light blocking object such as a finger inserted in the coordinate input area.
That is, in the same manner as described in the calibration mode, the information u 1 and u 2 corresponding to the light blocking position are acquired by the sensor heads 1 and 2 (step 106).

【0044】さらに、前述したキャリブレーション動作
モードにおいて第2記憶部7、8に記憶された係数(c
11,c21,...,c51)および(c12
22,...,c52)が読み出され(ステップ10
7)、座標演算部9は、u1,u2と(c11
21,...,c51)および(c12,c22,...,c
52)を用いて後述する式(14)に従って座標を演算し
(ステップ108)、指など光遮断物体が挿入された座
標(x、y)を、図示しないパソコンなどに出力する
(ステップ109)。
Further, the coefficients (c) stored in the second storage units 7 and 8 in the above-described calibration operation mode
11 , c21 ,. . . , C 51 ) and (c 12 ,
c 22 ,. . . , C 52 ) is read out (step 10).
7), the coordinate calculator 9 calculates u 1 , u 2 and (c 11 ,
c 21 ,. . . , C 51 ) and (c 12 , c 22 ,..., C
The coordinates (x, y) at which the light-blocking object such as a finger is inserted are output to a personal computer (not shown) or the like (step 109).

【0045】なお、図2の処理フローチャートにおいて
は、例えばセンサヘッド1側のキャリブレーション動作
モード(ステップ101〜105)とセンサヘッド2側
のキャリブレーション動作モード(ステップ101〜1
05)とが並列に行われ、その後、座標演算モード(ス
テップ106〜109)が実行されるが、センサヘッド
1側のキャリブレーション動作モードを実行し、次い
で、センサヘッド2側のキャリブレーション動作モード
を実行し、その後に座標演算モードを実行するようにし
てもよい。
In the processing flowchart of FIG. 2, for example, the calibration operation mode on the sensor head 1 side (steps 101 to 105) and the calibration operation mode on the sensor head 2 side (steps 101 to 1)
05) are performed in parallel, and then the coordinate calculation mode (steps 106 to 109) is executed. The calibration operation mode of the sensor head 1 is executed, and then the calibration operation mode of the sensor head 2 is executed. And then execute the coordinate calculation mode.

【0046】以下に、前述した係数の算出と座標の演算
について詳述する。一般にカメラ系では、3次元空間の
物体を撮影し、2次元のフィルム面にその像を記録す
る。図3は、カメラ系の概念を説明する図である。
(x,y,z)は物体空間座標で、p(x,y,z)は
物体の位置とする。また、(u,v)は像空間座標で、
像面上の像の位置を表す座標系である。また点rはレン
ズの主点位置とする。3次元の物体空間上の点pは、レ
ンズを経て、写像fにより2次元の像空間上の点qへ変
換される。すなわち
Hereinafter, the calculation of the coefficients and the calculation of the coordinates will be described in detail. In general, a camera system shoots an object in a three-dimensional space and records the image on a two-dimensional film surface. FIG. 3 is a diagram illustrating the concept of a camera system.
(X, y, z) is the object space coordinates, and p (x, y, z) is the position of the object. (U, v) is the image space coordinates,
This is a coordinate system representing the position of the image on the image plane. The point r is the principal point position of the lens. The point p in the three-dimensional object space is converted into a point q in the two-dimensional image space by a mapping f via a lens. Ie

【数5】 このときの写像fが推定できれば、これの逆写像を用い
て、2次元のフィルム面上の像の位置から3次元の物体
空間の物体の位置を推定することができる。
(Equation 5) If the mapping f at this time can be estimated, the position of the object in the three-dimensional object space can be estimated from the position of the image on the two-dimensional film surface by using the inverse mapping of the mapping f.

【0047】一般に写像fは、式(6)、式(7)で表
される(例えば、徐 剛、3次元ビジョン、p79、共
立出版、1998年を参照)。
In general, the mapping f is represented by Expressions (6) and (7) (for example, see Xu Jiang, 3D Vision, p79, Kyoritsu Shuppan, 1998).

【0048】[0048]

【数6】 (Equation 6)

【数7】 (Equation 7)

【0049】ここで、本発明が適用される、前述した光
学式座標入力装置における座標入力系を考える。この座
標系は、物体空間が2次元であり、像空間が1次元と考
えることができる。すなわち、物体空間は座標入力領域
であり、平面上に拘束される。また像空間は1次元CC
D上であり、CCD画素の配列に沿って直線上に拘束さ
れる。
Here, a coordinate input system in the above-described optical coordinate input device to which the present invention is applied will be considered. In this coordinate system, the object space is two-dimensional, and the image space is one-dimensional. That is, the object space is a coordinate input area and is constrained on a plane. The image space is one-dimensional CC
D and is constrained on a straight line along the array of CCD pixels.

【0050】すなわち、式(6)、(7)の一般式に対
して、像空間のu軸は物体空間のx−y平面と同一平面
内にあると仮定する。従って、式(6)、(7)は、係
数c4,c9,c10を、c3,c4,c5と書き換えて式
(8)のように表され、さらに展開して式(9)を得
る。
That is, for the general formulas (6) and (7), it is assumed that the u axis in the image space is in the same plane as the xy plane in the object space. Therefore, Expressions (6) and (7) are expressed as Expression (8) by rewriting the coefficients c 4 , c 9 , and c 10 as c 3 , c 4 , and c 5. 9) is obtained.

【数8】 1x+c2y+c3−c4ux−c5uy=u 式(9)(Equation 8) c 1 x + c 2 y + c 3 −c 4 ux−c 5 uu = u Equation (9)

【0051】式(9)は、指など物体が挿入された座標
入力領域上の座標(x,y)と、センサヘッドの受光素
子上の光束の遮断位置(光束の遮断位置に相当する情
報)uを関係付ける式である。ここで、c1,c2
3,c4,c5は係数であり、センサヘッド毎にそれぞ
れ存在する。前述したキャリブレーション動作モードで
は、この係数をセンサヘッド毎に決定する。
Equation (9) is obtained by calculating coordinates (x, y) on the coordinate input area where an object such as a finger is inserted, and a light blocking position on the light receiving element of the sensor head (information corresponding to the light blocking position). This is an expression relating u. Where c 1 , c 2 ,
c 3 , c 4 , and c 5 are coefficients and exist for each sensor head. In the above-described calibration operation mode, this coefficient is determined for each sensor head.

【0052】以下、これら係数の決定方法を説明する。
n番目のセンサヘッドの係数c1n,c2n,...c
5nは、以下のようにして求める。すなわち、m個の既知
の点p1(x1,y1),p2(x2,y2),...p
m(xm,ym)と、それに対応するn番目のセンサヘッ
ドにおける像位置q1n(u1n),q2n(u2n),...
mn(umn)に対して、式(9)より、以下の連立方程
式が得られる。
Hereinafter, a method of determining these coefficients will be described.
The coefficients c 1n , c 2n ,. . . c
5n is obtained as follows. That is, m known points p 1 (x 1 , y 1 ), p 2 (x 2 , y 2 ),. . . p
m (x m , y m ) and the corresponding image positions q 1n (u 1n ), q 2n (u 2n ),. . .
For q mn (u mn ), the following simultaneous equations are obtained from equation (9).

【数9】 未知係数が5個なので、式(10)でm=5とし、5個
の既知の点pに対して、それぞれに対応する像面位置q
を求める。図1における係数算出部5、6では、式(1
0)を解いた式(11)に従って、係数ベクトル
{c1n,c2n,...c5n}をセンサヘッド毎に演算
し、第2記憶部7、8に記憶する。
(Equation 9) Since there are five unknown coefficients, m = 5 in equation (10), and the image plane position q corresponding to each of the five known points p
Ask for. In the coefficient calculation units 5 and 6 in FIG.
0), the coefficient vectors {c 1n , c 2n ,. . . c 5n } is calculated for each sensor head and stored in the second storage units 7 and 8.

【0053】[0053]

【数10】 (Equation 10)

【0054】次に、座標入力動作モードにおける座標の
演算方法を説明する。センサヘッドの数をnとし、それ
ぞれのセンサヘッドに対する係数をc1i,c2i,c3i
4i,c5i(i=1,2,...n)とする。また、n
個のセンサヘッドにおける像位置(測定値)をu1
2,...un とする。
Next, a method of calculating coordinates in the coordinate input operation mode will be described. Let n be the number of sensor heads and the coefficients for each sensor head be c 1i , c 2i , c 3i ,
Let c 4i , c 5i (i = 1, 2,... n). Also, n
The image positions (measured values) of the sensor heads are u 1 ,
u 2 ,. . . u n .

【0055】式(9)より、物体空間座標(座標入力領
域上の座標)(x,y)は、式(12)の連立方程式を
満たす。
From the equation (9), the object space coordinates (coordinates on the coordinate input area) (x, y) satisfy the simultaneous equations of the equation (12).

【数11】 従って、座標入力領域上の物体座標(x,y)は、式
(12)を解いて、式(13)で求められる。
[Equation 11] Therefore, the object coordinates (x, y) on the coordinate input area can be obtained by solving equation (12) and using equation (13).

【0056】[0056]

【数12】 (Equation 12)

【0057】本発明の座標入力装置ではセンサヘッド数
は2個であるので、n=2とする。図1の座標演算部9
では、式(13)でn=2とした、式(14)に従っ
て、指などの指示物体が挿入された座標入力面上の座標
(x,y)を演算し、出力する。
In the coordinate input device of the present invention, since the number of sensor heads is two, n = 2. The coordinate calculation unit 9 in FIG.
Then, according to equation (14), where n = 2 in equation (13), the coordinates (x, y) on the coordinate input surface where the pointing object such as a finger is inserted are calculated and output.

【数13】 (Equation 13)

【0058】(実施例2)従来技術では、前述したよう
に、光遮断手段によって遮断された光の受光手段上での
位置(DnL、DnR)を基に、光遮断手段の受発光手段か
らの見込みの角度(θL、θR)に変換する必要があり、
変換テーブルあるいは変換式を予め求めておく必要があ
った。
(Embodiment 2) In the prior art, as described above, the light receiving / emitting means of the light blocking means is based on the position (D nL , D nR ) of the light blocked by the light blocking means on the light receiving means. Needs to be converted to the expected angles from (θ L , θ R ),
It was necessary to obtain a conversion table or a conversion formula in advance.

【0059】これに対して本発明では、光の遮断位置に
対応する情報として受光素子上の物理的位置、受光素子
の電気的な走査のタイミング信号など他の物理量を用い
ることにより、装置設計上の自由度を大幅に向上させて
いる。
On the other hand, in the present invention, by using other physical quantities such as a physical position on the light receiving element and a timing signal for electrical scanning of the light receiving element as information corresponding to the light blocking position, the apparatus design is improved. The degree of freedom has been greatly improved.

【0060】実施例2は、光の遮断位置(以下、ディッ
プ位置)を検出する実施例である。図4は、実施例2の
構成を示す。実施例1と相違する点は、ディップ位置情
報検出部10、11を設けた点である。他の構成要素は
実施例1と同様であり、実施例1と同様に、再帰光射影
方式の光学式座標入力装置に適用される。また、図5
は、実施例2に係る処理フローチャートである。図5の
ステップ202は、図2のステップ102に対応し、図
5のステップ203は、図2のステップ103に対応
し、図5のステップ206は、図2のステップ106に
対応し、つまり、図2の光遮断位置情報を図5のディッ
プ位置情報に置き換えたものである。
The second embodiment is an embodiment for detecting a light blocking position (hereinafter, a dip position). FIG. 4 shows the configuration of the second embodiment. The difference from the first embodiment is that dip position information detection units 10 and 11 are provided. The other components are the same as those in the first embodiment, and are applied to the optical coordinate input device of the retroreflective projection system as in the first embodiment. FIG.
9 is a processing flowchart according to the second embodiment. Step 202 in FIG. 5 corresponds to step 102 in FIG. 2, step 203 in FIG. 5 corresponds to step 103 in FIG. 2, and step 206 in FIG. 5 corresponds to step 106 in FIG. The light blocking position information of FIG. 2 is replaced with the dip position information of FIG.

【0061】すなわち、基準点(x1,y1)、(x2
2)...(x5,y5)に、それぞれ指示物体を挿入
したときの、センサヘッド1およびセンサヘッド2のデ
ィップ位置情報検出部10、11で検出されたディップ
位置情報(u11,u21,...,u51)および(u12
22,...,u52)と基準点の座標とを、第1記憶部
3、4にそれぞれ記憶する(ステップ203)。
That is, the reference points (x 1 , y 1 ), (x 2 ,
y 2 ). . . The dip position information (u 11 , u 21 ,...) Detected by the dip position information detectors 10 and 11 of the sensor head 1 and the sensor head 2 when the pointing object is inserted into (x 5 , y 5 ), respectively. , U 51 ) and (u 12 ,
u 22 ,. . . , U 52 ) and the coordinates of the reference point are stored in the first storage units 3 and 4, respectively (step 203).

【0062】第1記憶部3、4に記憶された基準点座標
およびディップ位置情報は、係数算出手段5、6に読み
込まれ、それぞれのセンサヘッド毎に係数(c11
21,...,c51)および(c12,c22,...,c
52)を算出し(ステップ204)、第2記憶部7、8に
記憶する(ステップ205)。
The reference point coordinates and the dip position information stored in the first storage units 3 and 4 are read into coefficient calculation means 5 and 6, and the coefficients (c 11 ,
c 21 ,. . . , C 51 ) and (c 12 , c 22 ,..., C
52 ) is calculated (step 204) and stored in the second storage units 7 and 8 (step 205).

【0063】実施例1と同様に、ここまでの動作がキャ
リブレーション動作モードであり、ユーザが座標入力装
置を使用する前に、あるいは座標入力装置を設置すると
きなどに、実行される動作である。キャリブレーション
動作モードに続いて、座標入力を行う動作モードとな
る。
As in the first embodiment, the operation up to this point is the calibration operation mode, which is an operation executed before the user uses the coordinate input device or when installing the coordinate input device. . Subsequent to the calibration operation mode, the operation mode is for inputting coordinates.

【0064】座標入力領域に挿入された指など光遮断物
体により、各センサヘッド1、2で光の遮断によるディ
ップが生じる。センサヘッド1およびセンサヘッド2の
ディップ位置情報検出部10、11では、光の遮断位置
に対応するディップ位置情報u1、u2を検出する(ステ
ップ206)。
A light blocking object such as a finger inserted into the coordinate input area causes a dip in each of the sensor heads 1 and 2 due to light blocking. The dip position information detectors 10 and 11 of the sensor head 1 and the sensor head 2 detect dip position information u 1 and u 2 corresponding to the light blocking position (step 206).

【0065】さらに、前述したキャリブレーション動作
モードにおいて第2記憶部7、8に記憶された係数(c
11,c21,...,c51)および(c12
22,...,c52)が読み出され(ステップ20
7)、座標演算部9は、u1,u2と(c11
21,...,c51)および(c12,c22,...,c
52)を用いて実施例1と同様にして演算し(ステップ2
08)、指など光遮断物体が挿入された座標(x、y)
を出力する(ステップ209)。
Further, in the above-described calibration operation mode, the coefficients (c
11 , c21 ,. . . , C 51 ) and (c 12 ,
c 22 ,. . . , C 52 ) are read out (step 20).
7), the coordinate calculator 9 calculates u 1 , u 2 and (c 11 ,
c 21 ,. . . , C 51 ) and (c 12 , c 22 ,..., C
52 ) in the same manner as in the first embodiment (step 2).
08), coordinates (x, y) at which a light blocking object such as a finger is inserted
Is output (step 209).

【0066】ディップ位置情報検出部10、11では、
例えば、図20で受光素子50がCCDである場合に
は、ディップ位置情報uとして、光の遮断位置に対応す
るCCDの画素添字(つまり画素位置番号)を用いる。
In the dip position information detecting units 10 and 11,
For example, when the light receiving element 50 is a CCD in FIG. 20, the pixel subscript (that is, pixel position number) of the CCD corresponding to the light blocking position is used as the dip position information u.

【0067】図6は、受光素子の画素配列を示す。受光
素子は1次元CCD21であり、図6は、2048画素
からなるCCDの例である。図6では、CCD上の画素
22には0番から2047番までのインデックスが付け
られている。例えばAで示すディップ位置が図6で示す
100番のインデックスが付いた画素位置にあるとした
場合、ディップ位置情報または式(8)中のuは、図6
のDnに相当するCCDの中心を原点とするCCD面上
での物理的なサイズで表現する必要はなく、uとしては
100というインデックス番号をそのまま代入して計算
すればよい。
FIG. 6 shows a pixel arrangement of the light receiving element. The light receiving element is a one-dimensional CCD 21, and FIG. 6 is an example of a CCD having 2048 pixels. In FIG. 6, the pixels 22 on the CCD are indexed from No. 0 to No. 2047. For example, when it is assumed that the dip position indicated by A is located at a pixel position with an index of 100 shown in FIG. 6, the dip position information or u in equation (8) is equal to that in FIG.
Of need not be expressed in physical size on the CCD plane with the origin at the center of the CCD corresponding to D n, may be calculated by directly substituting the index number of 100 as u.

【0068】ただし、係数決定時にインデックスを用い
た場合は、測定時もインデックスを用い、係数決定時に
CCDの中心を原点とするCCD上の物理的な実サイズ
を用いた場合は、測定時も同様に実サイズを用いる。こ
のように、係数決定時と測定時で同様のパラメータを用
いる必要がある。なお、上記したインデックスには、所
定の係数やオフセットがかかっていてもよく、装置の設
計上都合の良いパラメータを任意に使用することができ
る。
However, if the index is used when determining the coefficient, the index is also used during measurement, and if the actual physical size on the CCD whose origin is at the center of the CCD is used when determining the coefficient, the same applies when measuring. Use the actual size. Thus, it is necessary to use the same parameters at the time of coefficient determination and at the time of measurement. The above-mentioned index may be given a predetermined coefficient or offset, and any parameter convenient for the design of the apparatus can be arbitrarily used.

【0069】上記した画素インデックスを用いる場合、
画素インデックスは例えば以下のような方法で取得する
ことができる。すなわち、ある時刻でのCCD上の光強
度分布をCCD画素に対応させて配列に読み込む。配列
には画素インデックスと同じインデックスが付与されて
いる。例えば配列をbuf[0]、buf
[1]、...buf[2047]とすると、100番
のインデックスが付与されたCCD画素における光強度
はbuf[100]に記憶され、101番のインデック
スが付与されたCCD画素の光強度はbuf[101]
に記憶される。
When using the above pixel index,
The pixel index can be obtained, for example, by the following method. That is, the light intensity distribution on the CCD at a certain time is read into an array corresponding to the CCD pixels. The same index as the pixel index is given to the array. For example, if the array is buf [0], buf
[1],. . . Assuming that buf [2047], the light intensity of the CCD pixel with the 100th index is stored in buf [100], and the light intensity of the CCD pixel with the 101st index is buf [101].
Is stored.

【0070】このようにして光強度を記憶した配列上で
ソフトウェア処理により、例えば後述する方法によって
ディップ位置を決定し、ディップ位置の配列のインデッ
クスをuに代入して座標を計算すればよい。
The dip position may be determined by software processing on the array storing the light intensities in this manner, for example, by a method described later, and the coordinates of the dip position array may be substituted for u to calculate the coordinates.

【0071】CCD画素のインデックスを得る他の方法
として、CCD転送クロックをカウントする方法を用い
ることもできる。図7は、CCD転送クロック、走査ク
ロックおよびCCD画素に配置されたフォトダイオード
のサンプルホールド出力すなわちCCDビデオ出力を示
すタイムチャートである。
As another method of obtaining the index of the CCD pixel, a method of counting the CCD transfer clock can be used. FIG. 7 is a time chart showing a CCD transfer clock, a scan clock, and a sample / hold output of a photodiode arranged at a CCD pixel, that is, a CCD video output.

【0072】転送クロック23は、各画素のフォトダイ
オードの電荷をCCDによって転送するためのCCD駆
動のためのクロックである。簡単のため、この例では1
つの転送クロックだけ示したが、実際には図示した周期
の1/2の周期で位相が反転した2つのクロックを必要
とする素子もあり、図示したクロックの動作はその一例
である。
The transfer clock 23 is a clock for driving the CCD for transferring the charge of the photodiode of each pixel by the CCD. For simplicity, this example uses 1
Although only one transfer clock is shown, some elements actually require two clocks whose phases are inverted at a half of the illustrated period, and the operation of the illustrated clock is one example.

【0073】図8は、カウンタを用いてCCD画素イン
デックスを取得する構成を示す。転送クロック1周期毎
に、各画素の電荷がCCD21により転送され、サンプ
ルホールドされて出力端子に逐次出力される。走査クロ
ック24は、一度のCCDによる走査毎に、走査開始時
に1パルスだけCCD素子に入力される。転送クロック
23をカウンタ26によってカウントすることで何番目
の画素における電荷が出力されたかを知ることができ
る。
FIG. 8 shows a configuration for acquiring a CCD pixel index using a counter. The charge of each pixel is transferred by the CCD 21 every cycle of the transfer clock, sampled and held, and sequentially output to the output terminal. The scanning clock 24 is input to the CCD element by one pulse at the start of scanning for each scanning by the CCD. By counting the transfer clock 23 by the counter 26, it is possible to know at what pixel the charge has been output.

【0074】転送クロック23はCCD21に入力され
るとともにカウンタ26の入力端子に入力される。さら
に、カウンタ26は走査クロック24でリセットされ
る。従って、カウンタ26の出力27はCCD21が走
査開始されてから、現在何番目の画素の電荷が出力され
ているかを示している。このカウンタ出力27は、上記
説明した画素のインデックスに相当するものである。
The transfer clock 23 is inputted to the CCD 21 and also to the input terminal of the counter 26. Further, the counter 26 is reset by the scanning clock 24. Accordingly, the output 27 of the counter 26 indicates the number of the pixel whose charge is currently being output since the CCD 21 started scanning. This counter output 27 corresponds to the above-described pixel index.

【0075】ディップ位置の検出をハードウェアロジッ
クで構成する場合には、カウンタ出力を画素のインデッ
クスとして用いる方が、回路構成が簡単化され、都合が
良い。本発明では、回路やソフトウェアの設計上、都合
のよいパラメータを設計者が任意に用いることができ、
設計の自由度が高く、設計工数やコストの削減に特に効
果的である。図9は、ディップ位置情報検出部における
ディップ位置の検出方法を説明する図である。
When the detection of the dip position is configured by hardware logic, it is convenient to use the counter output as the pixel index, because the circuit configuration is simplified. In the present invention, a convenient parameter can be arbitrarily used by a designer in designing a circuit or software.
It has a high degree of freedom in design and is particularly effective in reducing design man-hours and costs. FIG. 9 is a diagram illustrating a method of detecting a dip position in the dip position information detection unit.

【0076】ディップは光強度分布中の光遮断による暗
点の位置を示す。図9は、CCDサンプルホールド出力
のディップ近傍の波形を示す。横軸はCCDの画素もし
くはCCDの画素に対応して記憶した配列である。ui
は前述したようにCCD画素に対応するインデックスで
あり、配列のインデックスまたはカウンタのカウント値
などである。
The dip indicates the position of the dark spot due to light blocking in the light intensity distribution. FIG. 9 shows a waveform near the dip of the CCD sample hold output. The horizontal axis is a CCD pixel or an array stored corresponding to the CCD pixel. ui
Is an index corresponding to the CCD pixel as described above, such as an index of an array or a count value of a counter.

【0077】ディップ位置の第1の検出方法では、CC
D出力値を逐次走査し、所定のしきい値より小さい値が
現れたときのインデックスをuiとする。さらに走査を
続け再びしきい値を越える直前の出力値のインデックス
をui+nとする。このときディップ位置を式(15)
に従って算出する。
In the first method of detecting the dip position, CC
The D output value is sequentially scanned, and an index when a value smaller than a predetermined threshold value appears is defined as ui. The scanning is further continued, and the index of the output value immediately before the threshold value is again exceeded is set to ui + n. At this time, the dip position is calculated by equation (15).
Calculated according to

【数14】 [Equation 14]

【0078】ディップ位置の第2の検出方法では、CC
D出力値を逐次走査し、所定のしきい値より小さい値が
現れたときのインデックスをui,ui+1,ui+
2...ui+nとする。このときディップ位置を式
(16)に従って算出する。
In the second method for detecting the dip position, the CC
D output values are sequentially scanned, and when a value smaller than a predetermined threshold value appears, the index is set to ui, ui + 1, ui +
2. . . ui + n. At this time, the dip position is calculated according to equation (16).

【数15】 (Equation 15)

【0079】(実施例3)実施例3は、センサヘッドの
配置方法に係る実施例である。図10は、ディスプレイ
上に本発明の座標入力装置を配置した構成を示し、
(a)はその平面図であり、(b)はその側面図であ
る。
(Embodiment 3) Embodiment 3 is an embodiment relating to a method of arranging a sensor head. FIG. 10 shows a configuration in which the coordinate input device of the present invention is arranged on a display,
(A) is a plan view thereof, and (b) is a side view thereof.

【0080】ディスプレイ31の表示面32と同一平面
となるように、支持筐体33が設けられ、その支持筐体
33上にセンサヘッド1、2が配置されている。また、
支持筐体33上には再帰反射板34も設置されている。
なお、係数算出部、座標演算部、記憶部などを含む制御
部は、例えば図10に示すセンサヘッドの機構部内に組
み込まれている。
A support case 33 is provided so as to be flush with the display surface 32 of the display 31, and the sensor heads 1 and 2 are arranged on the support case 33. Also,
A retroreflective plate 34 is also provided on the support housing 33.
The control unit including the coefficient calculation unit, the coordinate calculation unit, the storage unit, and the like is incorporated in, for example, the mechanical unit of the sensor head illustrated in FIG.

【0081】座標入力領域35内の点p1,p2,p
3,p4,p5は、座標が既知である、前述したキャリ
ブレーション用の基準点である。また、点oは複数のセ
ンサヘッドの内、1つのセンサヘッドの中心である。正
確には受光レンズの物体側主点である。
Points p1, p2, p in the coordinate input area 35
Reference numerals 3, p4 and p5 are the reference points for calibration described above whose coordinates are known. Point o is the center of one of the plurality of sensor heads. More precisely, it is the object-side principal point of the light receiving lens.

【0082】実施例1で説明したように、式(10)で
係数を演算する際に、係数が必ず演算できる条件とし
て、連立方程式の係数行列が必ず正則となる必要があ
る。キャリブレーション用の基準点を5点とし、かつそ
の配置を限定することにより、係数行列を正則とする。
As described in the first embodiment, when the coefficients are calculated by equation (10), the coefficient matrix of the simultaneous equations must be regular as a condition that the coefficients can always be calculated. The coefficient matrix is made regular by setting five reference points for calibration and limiting the arrangement.

【0083】上記した条件を満たすように、センサヘッ
ドを以下のようにして支持筐体33上に配置する。すな
わち、点oと各点を結ぶ線分o−p1,o−p2,0−
p3,o−p4,o−p5がすべて一致しないように、
センサヘッド2と基準点を配置する。他方のセンサヘッ
ド1についても同様に、そのセンサヘッドにおいて受光
レンズ主点と基準点を結ぶ線分がすべて一致しないよう
に基準点とセンサヘッドを配置する。
The sensor head is arranged on the support housing 33 as described below so as to satisfy the above conditions. That is, line segments op-p1, op-p2, 0-
so that p3, op4 and op5 do not all match,
The sensor head 2 and the reference point are arranged. Similarly, for the other sensor head 1, the reference point and the sensor head are arranged such that all the line segments connecting the principal point of the light receiving lens and the reference point do not coincide with each other.

【0084】図11は、センサヘッドの取り付け機構の
一例を示す図である。センサヘッドの図示しない突起部
を支持筐体33の基準穴36と長穴37に挿入する。そ
の後、上記したようにセンサヘッドの中心と各点p1〜
p5を結ぶ線分が全て一致しないように、センサヘッド
の向きを調整し、調整後の位置をネジなどで止める。
FIG. 11 is a diagram showing an example of a sensor head mounting mechanism. A not-shown protrusion of the sensor head is inserted into the reference hole 36 and the long hole 37 of the support housing 33. Then, as described above, the center of the sensor head and each point p1 to p1
The direction of the sensor head is adjusted so that all the segments connecting p5 do not match, and the adjusted position is stopped with a screw or the like.

【0085】図12は、センサヘッドの取り付け機構の
他の例を示す図である。図12のセンサヘッドは、着脱
式となっていて、センサヘッドが吸盤などの着脱手段3
8によって支持筐体33に取り付けられる。なお、この
例におけるセンサヘッドの取り付け方法は、図10で説
明したものと同様である。また、本発明の座標入力装置
は、上記したディスプレイの他に、例えばプロジェクタ
を投影するスクリーン面上に設置してもよい。
FIG. 12 is a view showing another example of a sensor head mounting mechanism. The sensor head of FIG. 12 is of a detachable type, and the sensor head is provided with detachable means 3 such as a suction cup.
8 attaches to the support housing 33. The method of mounting the sensor head in this example is the same as that described with reference to FIG. Further, the coordinate input device of the present invention may be installed on a screen surface on which a projector is projected, for example, in addition to the display described above.

【0086】(実施例4)実施例4は、キャリブレーシ
ョン用の基準点の表示方法に係る実施例である。図13
は、本発明の座標入力装置を例えば電子ディスプレイ上
に設置した場合の基準点の表示方法を説明する図であ
る。
(Embodiment 4) Embodiment 4 relates to a method of displaying a reference point for calibration. FIG.
FIG. 3 is a diagram illustrating a method of displaying a reference point when the coordinate input device of the present invention is installed on, for example, an electronic display.

【0087】これらの基準点は、キャリブレーション動
作時にのみ、ディスプレイ上に所定の印として表示され
る。あるいはディスプレイ表面32に基準点を刻印して
おく。
These reference points are displayed as predetermined marks on the display only during the calibration operation. Alternatively, a reference point is marked on the display surface 32.

【0088】図14は、基準点の表示方法の他の例を説
明する図である。図14では、基準点を印刷した基準チ
ャート39などをディスプレイ表面32に貼っている。
この基準チャート39は、座標入力時には不要であるの
で、ディスプレイ表面32から取り除かれる。
FIG. 14 is a diagram for explaining another example of a method of displaying a reference point. In FIG. 14, a reference chart 39 on which reference points are printed is stuck on the display surface 32.
Since the reference chart 39 is unnecessary at the time of inputting coordinates, it is removed from the display surface 32.

【0089】なお、本発明の座標入力装置をプロジェク
タを投影するスクリーン面上に設置した場合にも、上記
した表示方法を同様に適用することができる。
The above-described display method can be similarly applied to a case where the coordinate input device of the present invention is installed on a screen on which a projector is projected.

【0090】(実施例5)実施例5は、キャリブレーシ
ョンモードと座標入力モードを切り替える実施例であ
る。すなわち、座標入力装置を使用中に、センサヘッド
(受発光手段)の位置がずれたりした場合や、運搬直後
など、ユーザが任意でモードを切り替えて、ユーザ自身
でキャリブレーションができるように構成した実施例で
ある。
(Embodiment 5) Embodiment 5 is an embodiment in which the calibration mode and the coordinate input mode are switched. That is, when the position of the sensor head (light receiving / emitting means) is shifted during use of the coordinate input device, or immediately after transportation, the user can switch the mode arbitrarily and perform calibration by himself / herself. This is an example.

【0091】図15は、実施例5の構成を示す。実施例
1と異なる点は、操作状態を切り替える切替手段12〜
17を設けた点である。これらの切替手段12〜17
は、動作状態指示手段18からの指示によって全て連動
して作動する。切替手段12〜17が図示した状態にあ
るときは、キャリブレーション動作モードにある。切替
手段12〜17が切り替わったときは、座標入力動作モ
ードとなる。この動作状態指示手段18としては、例え
ばユーザからの切替手段に対する指示などの方法を採
る。
FIG. 15 shows the structure of the fifth embodiment. The difference from the first embodiment is that the switching means 12 to switch the operation state
17 is provided. These switching means 12 to 17
Operate in conjunction with each other in accordance with an instruction from the operation state instruction means 18. When the switching means 12 to 17 are in the state shown in the figure, the apparatus is in the calibration operation mode. When the switching means 12 to 17 are switched, the mode is the coordinate input operation mode. As the operation state instructing means 18, for example, a method of instructing the switching means from a user or the like is adopted.

【0092】図16は、実施例5に係る処理フローチャ
ートである。スタート1は2つのセンサヘッドのそれぞ
れのキャリブレーション動作モードの起点を示す。スタ
ート2は通常の座標入力動作モードの起点を示す。
FIG. 16 is a processing flowchart according to the fifth embodiment. Start 1 indicates the starting point of each calibration operation mode of the two sensor heads. Start 2 indicates the starting point of the normal coordinate input operation mode.

【0093】スタートは処理の起点を表す。通常の座標
入力動作モードは、少なくとも一回のキャリブレーショ
ン動作モードによる第2記憶部7、8への係数書き込み
動作がなされた後で実行されるものとする。
Start indicates the starting point of the process. It is assumed that the normal coordinate input operation mode is executed after the coefficient writing operation to the second storage units 7 and 8 is performed at least once in the calibration operation mode.

【0094】スタートで処理が開始後、キャリブレーシ
ョン動作モードか通常座標入力モードであるかの動作状
態を判断する(ステップ301)。これは、例えば切替
手段12〜17の状態をユーザが判断することによって
行う。あるいは、切替手段12〜17の状態に対応した
フラグを参照することにより判断するなどの方法を採る
こともできる。
After the processing is started at the start, it is determined whether the operation mode is the calibration operation mode or the normal coordinate input mode (step 301). This is performed, for example, by the user determining the state of the switching units 12 to 17. Alternatively, a method of making a determination by referring to flags corresponding to the states of the switching units 12 to 17 can be adopted.

【0095】キャリブレーション動作モードと判断され
た場合は、スタート1の動作に入りキャリブレーション
動作を行い(ステップ302〜306)、それ以外の場
合はスタート2の動作に入り、通常の座標入力動作を行
う(ステップ307〜310)。各動作の一回の動作が
終了すると再びスタートに戻りキャリブレーションモー
ドか否かを判断し、同様の動作を行う。
If it is determined that the operation mode is the calibration operation mode, the operation enters a start 1 and performs a calibration operation (steps 302 to 306). Otherwise, the operation enters a start 2 and a normal coordinate input operation is performed. (Steps 307 to 310). When one operation of each operation is completed, the operation returns to the start again, determines whether or not the operation is in the calibration mode, and performs the same operation.

【0096】(実施例6)実施例6は、本発明をソフト
ウェアによって実現する実施例であり、図17は、その
システム構成例を示す。システム構成において、座標入
力部80は、例えば図1に示すセンサヘッドで構成され
ている。CPU81は、キャリブレーション動作時に前
述した実施例の処理ステップや処理機能を実行すること
により係数を算出し、座標入力時に前述した実施例の処
理ステップや処理機能を実行することにより座標を算出
し、例えば入力された座標データから描画データを生成
して、文字などを表示装置83に表示する。
(Embodiment 6) Embodiment 6 is an embodiment in which the present invention is realized by software, and FIG. 17 shows an example of the system configuration. In the system configuration, the coordinate input unit 80 includes, for example, the sensor head shown in FIG. The CPU 81 calculates the coefficients by executing the processing steps and processing functions of the above-described embodiment during the calibration operation, and calculates the coordinates by executing the processing steps and processing functions of the above-described embodiment when inputting the coordinates, For example, drawing data is generated from the input coordinate data, and characters and the like are displayed on the display device 83.

【0097】上記した処理を実行するプログラムは、C
D−ROM85などの記録媒体に記録されていて、媒体
に記録されたプログラムをCD−ROM装置84から読
み込み、システムにインストールすることによって実行
され、上記実施例で説明した処理機能が実現される。ま
た、上記したプログラムは、媒体の他、通信装置86、
ネットワーク87を介してサーバなどからダウンロード
することによっても提供される。
The program for executing the above processing is C
The program recorded on a recording medium such as the D-ROM 85 is read from the CD-ROM device 84 and installed in the system to be executed, thereby realizing the processing functions described in the above embodiments. In addition to the medium, the program described above includes a communication device 86,
It is also provided by downloading from a server or the like via the network 87.

【0098】以上、本発明を再帰光射影方式に適用した
場合について説明したが、本発明はこれに限定されず、
撮像方式を採るセンサヘッド(図23)や、ポリゴンミ
ラーによって座標入力面を走査し、再帰反射シートによ
って反射されたビームをフォトディテクター(PD)で
検出し、指等の遮断物で座標入力面上でビームが遮断さ
れた場合、その点に対応するビームがPDで検出され
ず、検出されなかったビームに相当する位置を三角測量
によって算出する光走査方式(例えば特開平11−11
0116号公報を参照)にも適用できる。
The case where the present invention is applied to the retroreflective projection method has been described above, but the present invention is not limited to this.
The coordinate input surface is scanned by a sensor head (FIG. 23) employing an imaging method or a polygon mirror, the beam reflected by the retroreflective sheet is detected by a photodetector (PD), and the coordinate input surface is blocked by a finger or the like. In the case where the beam is interrupted by the above method, the beam corresponding to that point is not detected by the PD, and the position corresponding to the undetected beam is calculated by triangulation.
No. 0116).

【0099】[0099]

【発明の効果】以上、説明したように、請求項1記載の
発明によれば、座標入力面における受発光手段の取り付
け位置に関するパラメータが未知の場合あるいは取り付
け時に既知であっても何らかの理由でパラメータが変わ
ってしまって場合でも、装置を使用する前の簡単なキャ
リブレーション動作によって座標入力面での座標を正し
く入力することができるので、信頼性が高くまた利便性
が向上する。
As described above, according to the first aspect of the present invention, if the parameter relating to the mounting position of the light receiving / emitting means on the coordinate input surface is unknown or is known at the time of mounting, the parameter may be unknown for some reason. Even if is changed, the coordinates on the coordinate input surface can be correctly input by a simple calibration operation before using the device, so that the reliability and convenience are improved.

【0100】請求項2記載の発明によれば、係数演算お
よび座標演算を、簡単な行列計算あるいは連立方程式の
求解で実行することが可能であるので、演算機能を座標
入力装置のファームフェアに搭載したり、座標入力装置
を制御するパソコンなどの外部制御機器に簡単にインプ
リメントすることができる。
According to the second aspect of the present invention, since the coefficient calculation and the coordinate calculation can be executed by simple matrix calculation or solution of simultaneous equations, the calculation function is mounted on the firmware of the coordinate input device. Or an external control device such as a personal computer for controlling the coordinate input device.

【0101】請求項3記載の発明によれば、受光手段に
おける光学的な位置情報として、光遮断位置に対応した
受光面の物理的な位置を用いているので、従来の三角測
量の手法に必要な変換テーブルあるいは変換式を作成す
る処理を省くことができる。従って、この処理で発生す
る変換誤差がなくなり、座標演算精度が著しく向上す
る。
According to the third aspect of the present invention, since the physical position of the light receiving surface corresponding to the light blocking position is used as the optical position information in the light receiving means, it is necessary for the conventional triangulation method. A process for creating a simple conversion table or conversion formula can be omitted. Therefore, the conversion error generated in this processing is eliminated, and the coordinate calculation accuracy is significantly improved.

【0102】請求項4記載の発明によれば、光遮断位置
に対応した受光面の物理的な位置として、光遮断位置に
対応した受光面上の光強度分布から算出される位置を用
いているので、演算を大幅に効率化できると共に、装置
設計上の自由度を向上させることができる。
According to the fourth aspect of the present invention, the position calculated from the light intensity distribution on the light receiving surface corresponding to the light blocking position is used as the physical position of the light receiving surface corresponding to the light blocking position. Therefore, it is possible to greatly improve the efficiency of the calculation and improve the degree of freedom in designing the device.

【0103】請求項5記載の発明によれば、受光手段が
CCDで構成されているとき、光学的な位置情報とし
て、光遮断位置に対応したCCDの画素番号を用いてい
るので、装置設計上の自由度を大幅に向上させることが
できる。
According to the fifth aspect of the present invention, when the light receiving means is constituted by a CCD, the pixel number of the CCD corresponding to the light blocking position is used as the optical position information. Can be greatly improved.

【0104】請求項6記載の発明によれば、5点の座標
の配置の仕方を限定することにより、連立方程式の係数
行列が必ず正則となり、従ってキャリブレーション時の
行列演算時に、必ず解が求められるようになり、処理エ
ラーが回避され、システムの安定性が確保される。
According to the sixth aspect of the present invention, by limiting the way of arranging the coordinates of the five points, the coefficient matrix of the simultaneous equations is always regular, so that the solution is always obtained at the time of matrix calculation at the time of calibration. Processing errors are avoided and system stability is ensured.

【0105】請求項7記載の発明によれば、座標入力面
におけるセンサヘッド(受発光手段)の取り付け位置の
自由度を高めることができ、また装置の利便性を向上さ
せることができる。
According to the seventh aspect of the present invention, the degree of freedom of the mounting position of the sensor head (light receiving / emitting means) on the coordinate input surface can be increased, and the convenience of the device can be improved.

【0106】請求項8記載の発明によれば、ユーザが必
要に応じてセンサヘッド(受発光手段)を着脱できるの
で、使用中に受発光手段の位置がずれたりした場合や、
運搬直後などに、ユーザ自身でキャリブレーションする
ことができ、従ってメンテナンスを容易に行うことがで
きる。
According to the eighth aspect of the present invention, the user can attach / detach the sensor head (light emitting / receiving means) as needed, so that when the position of the light emitting / receiving means is shifted during use,
Calibration can be performed by the user himself / herself immediately after transportation, and thus maintenance can be easily performed.

【0107】請求項9記載の発明によれば、表示装置上
に座標入力装置を設置する場合に、高い機械的精度を必
要とせず、しかも高精度に座標位置を入力することがで
きる。
According to the ninth aspect of the present invention, when the coordinate input device is installed on the display device, the coordinate position can be input with high accuracy without requiring high mechanical accuracy.

【0108】請求項10記載の発明によれば、表示面上
に基準となる5点が表示または刻印されているので、ユ
ーザ自身で簡単にキャリブレーションすることができ
る。
According to the tenth aspect, the reference five points are displayed or engraved on the display surface, so that the user can easily perform calibration.

【0109】請求項11記載の発明によれば、基準点を
印刷したチャートを用いているので、低コストでキャリ
ブレーションすることができる。
According to the eleventh aspect of the present invention, since a chart printed with reference points is used, calibration can be performed at low cost.

【0110】請求項12記載の発明によれば、2次元の
座標空間を所定の変換式に従って1次元の像空間に変換
する機能を用いて、2次元の座標空間上の所定座標を算
出しているので、種々の方式を採る座標入力装置に適用
することができ、汎用性の高いプログラムを記録した記
録媒体を提供することができる。
According to the twelfth aspect of the present invention, a predetermined coordinate on a two-dimensional coordinate space is calculated by using a function of converting a two-dimensional coordinate space into a one-dimensional image space according to a predetermined conversion formula. Therefore, the present invention can be applied to a coordinate input device employing various methods, and can provide a recording medium on which a highly versatile program is recorded.

【0111】請求項13記載の発明によれば、キャリブ
レーションモードと座標入力モードを設けているので、
モードを自由に切り替えて何れかのモードのプログラム
を実行することができる。
According to the thirteenth aspect, since the calibration mode and the coordinate input mode are provided,
The mode can be freely switched to execute a program in any mode.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a first exemplary embodiment of the present invention.

【図2】本発明の実施例1に係る処理フローチャートで
ある。
FIG. 2 is a processing flowchart according to the first embodiment of the present invention.

【図3】カメラ系の概念を説明する図である。FIG. 3 is a diagram illustrating the concept of a camera system.

【図4】本発明の実施例2の構成を示す図である。FIG. 4 is a diagram illustrating a configuration of a second exemplary embodiment of the present invention.

【図5】本発明の実施例2に係る処理フローチャートで
ある。
FIG. 5 is a processing flowchart according to a second embodiment of the present invention.

【図6】受光素子の画素配列を示す図である。FIG. 6 is a diagram showing a pixel array of a light receiving element.

【図7】CCD転送クロック、走査クロックおよびCC
D画素に配置されたフォトダイオードのサンプルホール
ド出力すなわちCCDビデオ出力を示すタイムチャート
である。
FIG. 7: CCD transfer clock, scan clock and CC
5 is a time chart showing a sample hold output of a photodiode arranged in a D pixel, that is, a CCD video output.

【図8】カウンタを用いてCCD画素インデックスを取
得する構成を示す図である。
FIG. 8 is a diagram showing a configuration for acquiring a CCD pixel index using a counter.

【図9】ディップ位置情報検出部におけるディップ位置
の検出方法を説明する図である。
FIG. 9 is a diagram illustrating a method of detecting a dip position in a dip position information detection unit.

【図10】ディスプレイ上に本発明の座標入力装置を配
置した構成を示し、(a)はその平面図であり、(b)
はその側面図である。
10A and 10B show a configuration in which the coordinate input device of the present invention is arranged on a display, FIG. 10A is a plan view thereof, and FIG.
Is a side view thereof.

【図11】センサヘッドの取り付け機構の一例を示す図
である。
FIG. 11 is a diagram illustrating an example of a sensor head mounting mechanism.

【図12】センサヘッドの取り付け機構の他の例を示す
図である。
FIG. 12 is a diagram showing another example of a sensor head mounting mechanism.

【図13】本発明の座標入力装置を例えば電子ディスプ
レイ上に設置した場合の基準点の表示方法を説明する図
である。
FIG. 13 is a diagram illustrating a method of displaying a reference point when the coordinate input device of the present invention is installed on, for example, an electronic display.

【図14】基準点の表示方法の他の例を説明する図であ
る。
FIG. 14 is a diagram illustrating another example of a method of displaying a reference point.

【図15】本発明の実施例5の構成を示す図である。FIG. 15 is a diagram showing a configuration of a fifth embodiment of the present invention.

【図16】本発明の実施例5に係る処理フローチャート
である。
FIG. 16 is a processing flowchart according to a fifth embodiment of the present invention.

【図17】本発明の実施例6の構成を示す図である。FIG. 17 is a diagram showing a configuration of a sixth embodiment of the present invention.

【図18】本発明が適用される光学式の座標入力装置の
構成を示す図である。
FIG. 18 is a diagram showing a configuration of an optical coordinate input device to which the present invention is applied.

【図19】図18の受発光手段の内部の構成を示す図で
ある。
19 is a diagram showing an internal configuration of the light emitting / receiving means of FIG. 18;

【図20】指示物体が挿入されてビームが遮断されたと
きの動作を説明する図である。
FIG. 20 is a diagram illustrating an operation when the pointing object is inserted and the beam is cut off.

【図21】三角測量の原理を基に座標位置を算出する方
法を説明する図である。
FIG. 21 is a diagram illustrating a method of calculating a coordinate position based on the principle of triangulation.

【図22】センサヘッドを座標入力領域の近傍に配置し
た例を示す図である。
FIG. 22 is a diagram showing an example in which a sensor head is arranged near a coordinate input area.

【図23】撮像方式を採るセンサヘッドを示す図であ
る。
FIG. 23 is a diagram showing a sensor head employing an imaging method.

【符号の説明】[Explanation of symbols]

1、2 センサヘッド 3、4 第1記憶部 5、6 係数算出部 7、8 第2記憶部 9 座標算出部 10、11 ディップ位置情報検出部 12〜17 切替手段 18 動作状態指示手段 21、50 受光素子 22 画素 23 転送クロック 24 走査クロック 25 フォトダイオードサンプルホールド出力 26 カウンタ 27 カウンタ出力 31 ディスプレイ 32 表示面 33 支持筐体 34 再帰反射板 35、43 座標入力領域 36 基準穴 37 長穴 38 着脱手段 39 基準点チャート 40 座標入力装置 41 受発光手段 42 手の位置 44 、55 再帰性反射部材 45、48 プローブ光 46、54、59 再帰反射光 47、53、58 ビーム 51 集光レンズ 56、57 受光位置 60 指示物体 61 点光源 62 撮像手段 70 原点 80 座標入力部 81 CPU 82 メモリ 83 表示装置 84 CD−ROM装置 85 CD−ROM 86 通信装置 87 ネットワーク 1, 2 Sensor head 3, 4 First storage unit 5, 6 Coefficient calculation unit 7, 8 Second storage unit 9 Coordinate calculation unit 10, 11 Dip position information detection unit 12-17 Switching means 18 Operating state instruction means 21, 50 Light receiving element 22 Pixel 23 Transfer clock 24 Scan clock 25 Photodiode sample hold output 26 Counter 27 Counter output 31 Display 32 Display surface 33 Support housing 34 Retroreflective plate 35, 43 Coordinate input area 36 Reference hole 37 Slot 38 Attachment / detachment means 39 Reference point chart 40 Coordinate input device 41 Light emitting / receiving means 42 Hand position 44, 55 Retroreflective member 45, 48 Probe light 46, 54, 59 Retroreflective light 47, 53, 58 Beam 51 Condensing lens 56, 57 Light receiving position 60 pointing object 61 point light source 62 imaging means 70 origin 80 coordinate input Unit 81 CPU 82 memory 83 display device 84 CD-ROM device 85 CD-ROM 86 communication device 87 network

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 複数の発光手段と、該発光手段から出射
した光を、前記発光手段の方向に向けて反射する反射手
段と、該反射手段によって反射した光を受光する複数の
受光手段とを備え、前記出射光と反射光の光路によって
形成される入力領域において、所定の光遮断手段が前記
入力領域に挿入されることによって前記光路が遮断され
たとき、前記光遮断手段が挿入された座標位置を算出し
て入力する座標入力装置であって、前記光遮断手段が挿
入された所定の座標位置と、該所定の座標位置に対応す
る前記複数の受光手段における光学的な位置情報との関
係が所定の関係式によって対応付けられ、前記光遮断手
段が挿入された複数の特定の座標位置と、該特定の座標
位置に対応する前記複数の受光手段における光学的な位
置情報とを基に、前記関係式を満たす所定の係数を算出
する係数算出手段と、前記所定の座標位置を、該所定の
座標位置に対応する前記複数の受光手段における光学的
な位置情報と前記所定の係数とを用いた所定の演算によ
って算出する演算手段とを備えたことを特徴とする座標
入力装置。
1. A plurality of light emitting means, a reflecting means for reflecting light emitted from the light emitting means toward the light emitting means, and a plurality of light receiving means for receiving light reflected by the reflecting means. A coordinate at which the light blocking means is inserted when the light path is blocked by inserting a predetermined light blocking means into the input area in an input area formed by the light path of the emitted light and the reflected light. A coordinate input device for calculating and inputting a position, wherein a relationship between a predetermined coordinate position in which the light blocking unit is inserted and optical position information in the plurality of light receiving units corresponding to the predetermined coordinate position. Are associated by a predetermined relational expression, based on a plurality of specific coordinate positions where the light blocking means is inserted, and optical position information in the plurality of light receiving means corresponding to the specific coordinate positions, Previous Coefficient calculating means for calculating a predetermined coefficient that satisfies the relational expression; and using the predetermined coordinate position by using optical position information and the predetermined coefficient in the plurality of light receiving units corresponding to the predetermined coordinate position. And a calculating means for calculating by a predetermined calculation.
【請求項2】 前記所定の座標位置を(x、y)とし、
前記所定の座標位置に対応するn番目の受光手段におけ
る光学的な位置情報をuとしたとき、所定の関係式は、 【数1】 であり、 ここで、c1n〜c5nはn番目の受光手段における所定の
係数である前記複数の特定の座標位置をm個の(x1
1)〜(xm、ym)とし、前記特定の座標位置に対応
するn番目の受光手段における光学的な位置情報をu1n
〜umnとしたとき、 前記係数算出手段は、前記所定の係数c1n〜c5nを、 【数2】 に従って求め、前記受光手段の数をNとし、前記所定の
座標位置(x、y)に対応するN個の受光手段における
光学的な位置情報をu1〜uNとしたとき、前記演算手段
は、前記所定の座標位置(x、y)を、 【数3】 に従って算出することを特徴とする請求項1記載の座標
入力装置。
2. The method according to claim 1, wherein the predetermined coordinate position is (x, y),
When the optical position information at the n-th light receiving unit corresponding to the predetermined coordinate position is u, the predetermined relational expression is: Where c 1n to c 5n are m (x 1 ,
y 1 ) to (x m , y m ), and optical position information at the n-th light receiving unit corresponding to the specific coordinate position is u 1n
U u mn , the coefficient calculating means calculates the predetermined coefficients c 1n to c 5n as When the number of the light receiving means is N and the optical position information of the N light receiving means corresponding to the predetermined coordinate position (x, y) is u 1 to u N , the calculating means , The predetermined coordinate position (x, y) is given by: The coordinate input device according to claim 1, wherein the coordinate is calculated according to
【請求項3】 前記受光手段における光学的な位置情報
として、光遮断位置に対応した受光面の物理的な位置を
用いることを特徴とする請求項1または2記載の座標入
力装置。
3. The coordinate input device according to claim 1, wherein a physical position of a light receiving surface corresponding to a light blocking position is used as optical position information in said light receiving means.
【請求項4】 前記物理的な位置として、光遮断位置に
対応した受光面上の光強度分布から算出される位置を用
いることを特徴とする請求項3記載の座標入力装置。
4. The coordinate input device according to claim 3, wherein a position calculated from a light intensity distribution on a light receiving surface corresponding to a light blocking position is used as the physical position.
【請求項5】 前記受光手段が受光素子アレイで構成さ
れているとき、前記光学的な位置情報として、光遮断位
置に対応した受光素子アレイの画素番号を用いることを
特徴とする請求項1または2記載の座標入力装置。
5. The method according to claim 1, wherein when the light receiving means is constituted by a light receiving element array, a pixel number of the light receiving element array corresponding to a light blocking position is used as the optical position information. 2. The coordinate input device according to 2.
【請求項6】 前記複数の受光手段は少なくとも2つの
受光手段であり、前記複数の特定の座標位置は、前記2
つの受光手段の光学中心と前記複数の特定の座標位置と
を結ぶ直線が互いに一致しない少なくとも5点の座標位
置であることを特徴とする請求項1または2記載の座標
入力装置。
6. The plurality of light receiving units are at least two light receiving units, and the plurality of specific coordinate positions are the two light receiving units.
3. The coordinate input device according to claim 1, wherein a straight line connecting the optical center of one light receiving unit and the plurality of specific coordinate positions is at least five coordinate positions that do not coincide with each other.
【請求項7】 請求項1記載の入力領域の外側の支持手
段の所定の取り付け位置に、請求項1記載の受発光手段
を含むセンサヘッドを取り付ける方法であって、前記所
定の取り付け位置は、前記センサヘッドの光学中心と請
求項6記載の5点の座標位置とを結ぶ直線が互いに一致
しない位置であることを特徴とするセンサヘッド取り付
け方法。
7. A method for mounting a sensor head including a light emitting / receiving means according to claim 1 at a predetermined mounting position of a support means outside the input area according to claim 1, wherein the predetermined mounting position is: 7. A method according to claim 6, wherein straight lines connecting the optical center of the sensor head and the five coordinate positions according to claim 6 do not coincide with each other.
【請求項8】 前記支持手段の前記取り付け位置に、前
記センサヘッドを着脱可能に取り付けることを特徴とす
る請求項7記載のセンサヘッド取り付け方法。
8. The method according to claim 7, wherein the sensor head is detachably attached to the attachment position of the support means.
【請求項9】 画像を表示する表示装置と、該表示装置
の表示面上に入力領域が設けられた座標入力装置とを備
えた座標入力装置付き表示装置であって、前記座標入力
装置は請求項1〜6のいずれか一つに記載の座標入力装
置であることを特徴とする座標入力装置付き表示装置。
9. A display device with a coordinate input device, comprising: a display device for displaying an image; and a coordinate input device having an input area provided on a display surface of the display device. Item 7. A display device with a coordinate input device, which is the coordinate input device according to any one of Items 1 to 6.
【請求項10】 座標入力装置を使用する前のキャリブ
レーション動作時において、前記表示装置の表示面に、
請求項6または7記載の5点の位置を示す所定の印が表
示または刻印されていることを特徴とする請求項9記載
の座標入力装置付き表示装置。
10. During a calibration operation before using a coordinate input device, a display surface of the display device may include:
The display device with a coordinate input device according to claim 9, wherein predetermined marks indicating the positions of the five points according to claim 6 or 7 are displayed or engraved.
【請求項11】 座標入力装置を使用する前のキャリブ
レーション動作時において、前記表示装置の表示面に、
請求項6または7記載の5点の位置を示す所定の印を印
刷したチャートが貼り付けられていることを特徴とする
請求項9記載の座標入力装置付き表示装置。
11. During a calibration operation before using a coordinate input device, the display surface of the display device may include:
10. The display device with a coordinate input device according to claim 9, wherein a chart printed with predetermined marks indicating the positions of the five points according to claim 6 or 7 is attached.
【請求項12】 2次元の座標空間を所定の変換式に従
って1次元の像空間に変換する機能を用いて前記2次元
の座標空間上の所定座標を算出する機能をコンピュータ
に実現させるためのプログラムを記録したコンピュータ
読み取り可能な記録媒体であって、前記2次元の座標空
間をx、yとし、1次元の像空間をuとしたとき、前記
所定の変換式が 【数4】 で表され、ここで、c1〜c5は所定係数前記2次元の座
標空間上の複数の特定座標に対応した前記像空間上の位
置を測定し、前記複数の特定座標と前記像空間上の位置
を基に、前記変換式の所定係数を算出する第1のモード
を実行する機能と、前記2次元の座標空間上の所定座標
に対応した前記像空間上の位置を測定し、前記所定座標
に対応した前記像空間上の位置と前記所定係数とを演算
することによって前記所定座標を算出する第2のモード
を実行する機能をコンピュータに実現させるためのプロ
グラムを記録したコンピュータ読み取り可能な記録媒
体。
12. A program for causing a computer to realize a function of calculating predetermined coordinates in a two-dimensional coordinate space by using a function of converting a two-dimensional coordinate space into a one-dimensional image space according to a predetermined conversion formula. Wherein the two-dimensional coordinate space is x, y, and the one-dimensional image space is u, the predetermined conversion formula is Where c 1 to c 5 are predetermined coefficients that measure positions in the image space corresponding to a plurality of specific coordinates on the two-dimensional coordinate space, and calculate the plurality of specific coordinates and the positions on the image space. A function of executing a first mode of calculating a predetermined coefficient of the conversion equation based on the position of the conversion formula; measuring a position in the image space corresponding to predetermined coordinates in the two-dimensional coordinate space; A computer-readable recording recording a program for causing a computer to execute a second mode of calculating the predetermined coordinates by calculating a position in the image space corresponding to coordinates and the predetermined coefficient. Medium.
【請求項13】 前記第1のモードはキャリブレーショ
ン時に実行される機能であり、前記第2のモードは座標
入力時に実行される機能である請求項12記載の記録媒
体。
13. The recording medium according to claim 12, wherein the first mode is a function executed at the time of calibration, and the second mode is a function executed at the time of inputting coordinates.
JP2000075212A 2000-03-17 2000-03-17 Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium Pending JP2001265517A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000075212A JP2001265517A (en) 2000-03-17 2000-03-17 Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000075212A JP2001265517A (en) 2000-03-17 2000-03-17 Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007096928A Division JP4340302B2 (en) 2007-04-02 2007-04-02 Coordinate input device

Publications (1)

Publication Number Publication Date
JP2001265517A true JP2001265517A (en) 2001-09-28

Family

ID=18593132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000075212A Pending JP2001265517A (en) 2000-03-17 2000-03-17 Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium

Country Status (1)

Country Link
JP (1) JP2001265517A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004104810A1 (en) * 2003-05-19 2004-12-02 Eit Co., Ltd. Position sensor using area image sensor
JP2008131515A (en) * 2006-11-22 2008-06-05 Sharp Corp Information processor, information processing method and program
US8013598B2 (en) 2006-06-19 2011-09-06 Newcom, Inc. Object detecting device for detecting object using electromagnetic induction
JP2012221060A (en) * 2011-04-05 2012-11-12 Hitachi Solutions Ltd Installation supporting method for retroreflective material in portable electronic blackboard system and program
JP2013210951A (en) * 2012-03-30 2013-10-10 Canon Inc Coordinate input device
US8563880B2 (en) 2006-10-24 2013-10-22 Newcom, Inc. Operating tool with conductor pieces
US9140540B2 (en) 2012-12-07 2015-09-22 Ricoh Company, Ltd. Coordinate detector and electronic information board system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004104810A1 (en) * 2003-05-19 2004-12-02 Eit Co., Ltd. Position sensor using area image sensor
CN100458670C (en) * 2003-05-19 2009-02-04 株式会社伊特 Location detecting apparatus using area image sensor
US8330726B2 (en) 2003-05-19 2012-12-11 Xiroku, Inc. Position detection apparatus using area image sensor
US8013598B2 (en) 2006-06-19 2011-09-06 Newcom, Inc. Object detecting device for detecting object using electromagnetic induction
US8563880B2 (en) 2006-10-24 2013-10-22 Newcom, Inc. Operating tool with conductor pieces
JP2008131515A (en) * 2006-11-22 2008-06-05 Sharp Corp Information processor, information processing method and program
JP2012221060A (en) * 2011-04-05 2012-11-12 Hitachi Solutions Ltd Installation supporting method for retroreflective material in portable electronic blackboard system and program
JP2013210951A (en) * 2012-03-30 2013-10-10 Canon Inc Coordinate input device
US9140540B2 (en) 2012-12-07 2015-09-22 Ricoh Company, Ltd. Coordinate detector and electronic information board system

Similar Documents

Publication Publication Date Title
JP3934846B2 (en) Coordinate input / detection device, electronic blackboard system, light receiving element positional deviation correction method, and storage medium
JP4094794B2 (en) Coordinate detection apparatus, information storage medium, and coordinate detection method
TWI610064B (en) Light distribution characteristic measurement apparatus and light distribution characteristic measurement method
US9971455B2 (en) Spatial coordinate identification device
US7864341B2 (en) Coordinate detection apparatus and method, and computer program
JP2000066825A (en) Optical scanning touch panel
JP4340302B2 (en) Coordinate input device
JP2013012113A (en) Indicating member, optical position detector and display system with input function
JP2022136224A (en) Targets, Survey Methods and Programs
JP2002062979A (en) Position detecting device and position detecting method
KR20010051563A (en) Optical digitizer using curved mirror
JP2001265517A (en) Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium
JP2013210956A (en) Display device
JP2002268807A (en) Coordinate input device, program for performing coordinate input function and recording medium with the program recorded
JP5797995B2 (en) Sheet with reflection frame
JP4560224B2 (en) Information input device, information input / output system, program, and storage medium
JP4968915B2 (en) Coordinate input device, coordinate detection method, and computer program
JP2000322201A (en) Coordinate input device
JP2001175415A (en) Coordinate inputting/detecting device
JP2003186616A (en) Information input device, information input and output system, program, and recording medium
JP3946936B2 (en) Optical digitizer
JP2002342015A (en) Information input device and information input/output system
JP2002268809A (en) Information input-output system, information controlling method, program and recording medium
JP6315127B2 (en) Input device, aerial image interaction system, and input method
JP4142963B2 (en) Information input device and information input / output system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071003