JP2002268807A - Coordinate input device, program for performing coordinate input function and recording medium with the program recorded - Google Patents

Coordinate input device, program for performing coordinate input function and recording medium with the program recorded

Info

Publication number
JP2002268807A
JP2002268807A JP2001073026A JP2001073026A JP2002268807A JP 2002268807 A JP2002268807 A JP 2002268807A JP 2001073026 A JP2001073026 A JP 2001073026A JP 2001073026 A JP2001073026 A JP 2001073026A JP 2002268807 A JP2002268807 A JP 2002268807A
Authority
JP
Japan
Prior art keywords
coordinates
light
coordinate
coordinate system
coordinate input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001073026A
Other languages
Japanese (ja)
Inventor
Katsuyuki Omura
克之 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001073026A priority Critical patent/JP2002268807A/en
Publication of JP2002268807A publication Critical patent/JP2002268807A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To drastically improve the degree of freedom of installation without having to recognize the absolute position of a mapping means. SOLUTION: Optical interruption position information (u11 ,...u51 ) and (u12 ,...u52 ) in sensor heads 1 and 2 at the time when objects are inserted at reference points (x1 and y1 ),...(x5 and y5 ), and reference point coordinates area stored in first storing parts 3 and 4. Coefficient calculating means 5 and 6 calculate coefficients (c11 ,...c51 ) and (c12 ,...c52 ) in each of the sensor heads on the basis of the reference point coordinates and the optical interruption position information and store the coefficients (c11 ,...c51 ) and (c12 ,...c52 ) in second storing part 7 and 8. A prescribed arithmetic operation 9 is performed by using pieces u1 and u2 of information corresponding to optical interruption positions that occur on the respective sensor heads 1 and 2 by the optical interruption objects inserted at the time when coordinates are inputted and the coefficients stored in the second storing parts, and the coordinates (x and y) at which the optical interruption objects are inserted are outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、座標入力装置に関
し、特にパーソナルコンピュータ等において、情報を入
力したり選択するためにペン等の指示部材や指等によっ
て指示された座標位置を入力するいわゆるタッチパネル
方式の座標入力装置に関する。この座標入力装置は、電
子黒板や大型のディスプレイと共に一体化して利用され
たり、壁面、机上の紙面や従来の黒板など、電子的な表
示装置と一体化する形態に限らず、そこに書き込まれた
情報をディジタイズする装置などに利用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coordinate input device, and more particularly to a so-called touch panel for inputting a coordinate position indicated by a pointing member such as a pen or a finger to input or select information in a personal computer or the like. The present invention relates to a coordinate input device. This coordinate input device is used integrally with an electronic blackboard and a large display, and is not limited to a form integrated with an electronic display device, such as a wall surface, a paper surface on a desk, or a conventional blackboard, but is written there. Used for devices that digitize information.

【0002】[0002]

【従来の技術】図10は、電子黒板システム601の外
観を示す図である。図10に示すように、情報入力/表
示システムである電子黒板システム601は、表示装置
であるプラズマディスプレイパネル(PDP)602及
び座標入力/検出装置603で構成される電子黒板部6
04と、機器収納部605とから構成されている。
2. Description of the Related Art FIG. 10 is a diagram showing an appearance of an electronic blackboard system 601. As shown in FIG. 10, an electronic blackboard system 601 as an information input / display system includes an electronic blackboard unit 6 including a plasma display panel (PDP) 602 as a display device and a coordinate input / detection device 603.
04 and a device storage unit 605.

【0003】機器収納部605には、制御装置であるパ
ーソナルコンピュータ等のコンピュータ、原稿の画像を
読み取るためのスキャナ、画像データを記録紙に出力す
るプリンタ 、ビデオプレイヤー(図11)が収納され
ている。なお、PDP602としては、電子黒板として
利用可能な大画面タイプ(例えば、100インチ以上)
のものが用いられている。PDP602及び座標入力/
検出装置603は、PDP602のディスプレイ面60
2a側に位置するようにして一体化され、PDP602
のディスプレイ面602aに座標入力/検出装置603
の座標入力/検出領域603aが略一致するようにして
電子黒板部604を形成している。このように、電子黒
板部604はPDP602及び座標入力/検出装置60
3を収納して、電子黒板システム601の表示面(PD
P602のディスプレイ面602a)及び書き込み面
(座標入力/検出領域603a)を構成している。
[0003] The device housing section 605 houses a computer such as a personal computer as a control device, a scanner for reading an image of a document, a printer for outputting image data to recording paper, and a video player (FIG. 11). . The PDP 602 is a large screen type (for example, 100 inches or more) that can be used as an electronic blackboard.
Is used. PDP 602 and coordinate input /
The detecting device 603 is provided on the display surface 60 of the PDP 602.
PDP 602
Input / detection device 603 on display surface 602a
The electronic blackboard part 604 is formed such that the coordinate input / detection areas 603a of the electronic blackboard substantially coincide with each other. As described above, the electronic blackboard unit 604 includes the PDP 602 and the coordinate input / detection device 60.
3 is stored and the display surface of the electronic blackboard system 601 (PD
P602 constitutes a display surface 602a) and a writing surface (coordinate input / detection area 603a).

【0004】なお、座標入力/検出装置603には、少
なくとも2以上の光源(図示せず)から放射状または扇
形状に投光される光束膜によって形成される座標入力/
検出面である座標入力/検出領域603aを有し、この
座標入力/検出領域603aに指先やペン等の指示部材
である指示手段を挿入することで座標入力/検出領域6
03a内の光束を遮ることにより、CCD 等の受光素
子(図示せず)における受光位置に基づく三角測量の手
法によってその指示位置を検出し、文字等の入力を可能
にする光学遮蔽式の座標入力/検出装置が適用されてい
る。このような光学遮蔽式の座標入力/検出装置603
は、座標入力面(タッチパネル面)のような物理的な面
を有さないので、座標入力/検出装置603をPDP6
02のディスプレイ面602aに装着して使用した場合
には視認性に優れる電子黒板システムを提供することが
でき、また、特殊な材料・機構を必要としないので、安
価な電子黒板システムを提供することができる。
The coordinate input / detection device 603 is provided with a coordinate input / detection device formed by a light flux film projected from at least two or more light sources (not shown) in a radial or fan shape.
It has a coordinate input / detection area 603a, which is a detection surface, and inserts pointing means, such as a fingertip or a pen, into the coordinate input / detection area 603a to insert the coordinate input / detection area 6
By intercepting the light beam in the light receiving element 03a, the designated position is detected by a triangulation method based on the light receiving position of a light receiving element (not shown) such as a CCD, and an optical shielding type coordinate input that enables input of characters and the like. / Detection device is applied. Such an optical shielding type coordinate input / detection device 603
Does not have a physical surface such as a coordinate input surface (touch panel surface).
02 can provide an electronic blackboard system with excellent visibility when used by attaching to the display surface 602a of the display device 02, and provide an inexpensive electronic blackboard system because special materials and mechanisms are not required. Can be.

【0005】さらに、図示しないが、PDP602には
ビデオ入力端子やスピーカーが設けられており、ビデオ
プレイヤーをはじめ、その他レーザディスクプレイヤ
ー、DVDプレイヤー、ビデオカメラ等の各種情報機器
やAV 機器を接続し、PDP602を大画面モニタと
して利用することが可能な構成になっている。また、P
DP602には、PDP602の表示位置、幅、高さ、
歪等についての調整を行うための調整手段(図示せず)
も設けられている。
Further, although not shown, the PDP 602 is provided with a video input terminal and a speaker, and is connected to various information devices and AV devices such as a video player, a laser disk player, a DVD player, and a video camera. The configuration is such that the PDP 602 can be used as a large screen monitor. Also, P
The DP 602 has a display position, width, height,
Adjusting means (not shown) for adjusting distortion and the like
Is also provided.

【0006】次に、電子黒板システム601に内蔵され
る各部の電気的接続について図11を参照して説明す
る。図11に示すように、電子黒板システム601は、
コンピュータにPDP、スキャナ、プリンタ、ビデオプ
レイヤーをそれぞれ接続し、コンピュータによってシス
テム全体を制御するようにしている。つまり、PDPと
コンピュータにより、表示システムが構成されている。
また、コンピュータには、指示手段で指示された座標入
力/検出領域603a内の座標位置の演算等を行う座標
入力/検出装置603に設けられるコントローラが接続
されており、このコントローラを介して座標入力/検出
装置もコンピュータに接続されている。また、コンピュ
ータを介して電子黒板システム601をネットワークに
接続することができ、ネットワーク上に接続された他の
コンピュータで作成したデータをPDPに表示したり、
電子黒板システム601で作成したデータを他のコンピ
ュータに転送することも可能になっている。
Next, the electrical connection of each part built in the electronic whiteboard system 601 will be described with reference to FIG. As shown in FIG. 11, the electronic blackboard system 601 includes:
A PDP, a scanner, a printer, and a video player are connected to the computer, and the entire system is controlled by the computer. That is, a display system is configured by the PDP and the computer.
The computer is connected to a controller provided in a coordinate input / detection device 603 for calculating the coordinate position in the coordinate input / detection area 603a designated by the instruction means. The / detection device is also connected to the computer. The electronic whiteboard system 601 can be connected to a network via a computer, and data created by another computer connected to the network can be displayed on a PDP,
The data created by the electronic blackboard system 601 can be transferred to another computer.

【0007】図12は、コンピュータ内の構成を示す。
図12に示すように、コンピュータは、システム全体を
制御するCPUと、起動プログラム等を記憶したROM
と、CPUのワークエリアとして使用されるRAMと、
文字・数値・各種指示等の入力を行うためのキーボード
と、カーソルの移動や範囲選択等を行うためのマウス
と、ハードディスクと、PDPに接続されておりそのP
DPに対する画像の表示を制御するグラフィックス・ボ
ードと、ネットワークに接続するためのネットワーク・
カード(またはモデム)と、コントローラ、スキャナ、
プリンタ等を接続するためのインタフェース(I/F
)と、上記各部を接続するためのバスとを備えてい
る。
FIG. 12 shows the configuration inside the computer.
As shown in FIG. 12, a computer has a CPU that controls the entire system, and a ROM that stores a startup program and the like.
And a RAM used as a work area of the CPU;
A keyboard for inputting characters, numerical values, various instructions, etc., a mouse for moving a cursor and selecting a range, a hard disk, and a PDP connected to the PDP.
A graphics board that controls the display of images to the DP and a network board to connect to the network
Card (or modem), controller, scanner,
Interface (I / F) for connecting a printer etc.
) And a bus for connecting the above components.

【0008】ハードディスクには、オペレーティング・
システム(OS)と、コントローラを介してコンピュー
タ上で座標入力/検出装置を動作させるためのデバイス
ドライバと、描画ソフト、ワードプロセッサソフト、表
計算ソフト、プレゼンテーションソフト等の各種アプリ
ケーションプログラムとが格納されている。
[0008] The hard disk has an operating system
A system (OS), a device driver for operating a coordinate input / detection device on a computer via a controller, and various application programs such as drawing software, word processor software, spreadsheet software, and presentation software are stored. .

【0009】また、コンピュータには、OS、デバイス
ドライバや各種アプリケーションプログラム等の各種の
プログラムコード(制御プログラム)を記憶した記憶媒
体、すなわち、フロッピー(登録商標)ディスク、ハー
ドディスク、光ディスク(CD−ROM,CD−R ,
CD−R/W ,DVD−ROM ,DVD−RAMな
ど)、光磁気ディスク(MO )、メモリカードなどに
記憶されているプログラムコードを読み取る装置である
フロッピーディスクドライブ装置、CD−ROMドライ
ブ装置、MOドライブ装置等のプログラム読取装置が搭
載されている。
Further, the computer has a storage medium storing various program codes (control programs) such as an OS, a device driver and various application programs, that is, a floppy (registered trademark) disk, a hard disk, an optical disk (CD-ROM, CD-R,
CD-R / W, DVD-ROM, DVD-RAM, etc.), a magneto-optical disk (MO), a floppy disk drive, a CD-ROM drive, and a MO that read program codes stored in a memory card or the like. A program reading device such as a drive device is mounted.

【0010】各種アプリケーションプログラムは、コン
ピュータへの電源の投入に応じて起動するOSによる制
御の下、CPUによって実行される。例えば、キーボー
ドやマウスの所定の操作によって描画ソフトを起動した
場合には、PDPにグラフィックス・ボードを介して描
画ソフトに基づく所定の画像が表示される。また、デバ
イスドライバもOSとともに起動され、コントローラを
介した座標入力/検出装置からのデータ入力が可能な状
態になる。このように描画ソフトを起動した状態で座標
入力/検出装置603の座標入力/検出領域603aに
操作者が指示手段を挿入して文字や図形を描いた場合、
座標情報が指示手段の記述に基づく画像データとしてコ
ンピュータに入力され、例えばPDP602に表示され
ている画面上の画像に対して上書き画像として重ねて表
示される。より詳細には、コンピュータのCPUは、入
力された画像データに基づいて線や文字を描画するため
の描画情報を生成し、入力された座標情報に基づく座標
位置に併せてグラフィックス・ボードに設けられるビデ
オメモリに書き込んでいく。その後、グラフィックス・
ボードが、ビデオメモリに書き込まれた描画情報を画像
信号としてPDP602に送信することにより、操作者
が描いた文字と同一の文字が、PDP602に表示され
ることになる。つまり、コンピュータは座標入力/検出
装置603をマウスのようなポインティングデバイスと
して認識しているため、コンピュータでは、描画ソフト
上でマウスを用いて文字を描いた場合と同様な処理が行
われることになる。
Various application programs are executed by the CPU under the control of the OS which is started when the power of the computer is turned on. For example, when drawing software is started by a predetermined operation of a keyboard or a mouse, a predetermined image based on the drawing software is displayed on the PDP via a graphics board. The device driver is also started up together with the OS, and enters a state in which data can be input from the coordinate input / detection device via the controller. When the operator inserts the indicating means into the coordinate input / detection area 603a of the coordinate input / detection device 603 in a state where the drawing software is activated, a character or a figure is drawn.
The coordinate information is input to the computer as image data based on the description of the instruction unit, and is displayed as an overwrite image on an image on the screen displayed on the PDP 602, for example. More specifically, the CPU of the computer generates drawing information for drawing a line or character based on the input image data, and provides the drawing information on the graphics board in accordance with the coordinate position based on the input coordinate information. Write to the video memory. After that, graphics
When the board transmits the drawing information written in the video memory to the PDP 602 as an image signal, the same characters as the characters drawn by the operator are displayed on the PDP 602. That is, since the computer recognizes the coordinate input / detection device 603 as a pointing device such as a mouse, the computer performs the same processing as when a character is drawn using a mouse on drawing software. .

【0011】(本発明が適用される第1の実施形態)図
13は、本発明が適用される光学式の座標入力装置(第
1の実施形態)の構成を示す図である。光学式の座標入
力装置40は、受発光手段41と座標入力領域43と再
帰性反射部材44から構成されている。座標入力領域4
3は四角形の形状であり、例えば電子的に文字や画像を
表示するディスプレイ表面やマーカー等のペンで書き込
むホワイトボードなどが座標入力領域となる。
(First Embodiment to Which the Present Invention is Applied) FIG. 13 is a diagram showing the configuration of an optical coordinate input device (first embodiment) to which the present invention is applied. The optical coordinate input device 40 includes a light receiving / emitting unit 41, a coordinate input area 43, and a retroreflective member 44. Coordinate input area 4
Reference numeral 3 denotes a rectangular shape, for example, a display surface for electronically displaying characters and images, a whiteboard written with a pen such as a marker, or the like is a coordinate input area.

【0012】光学式の座標入力装置40は、座標入力領
域43上を光学的に不透明な材質からなるユーザの手、
指やペン、支持棒などの指示物体42で触ったときの指
示物体42の座標位置を検出して、その位置情報をパー
ソナルコンピュータ等に入力する装置である。
The optical coordinate input device 40 includes a user's hand made of an optically opaque material on the coordinate input area 43.
This device detects the coordinate position of the pointing object 42 when touched by the pointing object 42 such as a finger, a pen, or a support rod, and inputs the position information to a personal computer or the like.

【0013】座標入力領域43の上方両端には受発光手
段41が設けられている。受発光手段41からは座標入
力領域43に向けて、L1、L2、L3、...Lmの光ビ
ームの束(プローブ光)が照射されている。実際には点
光源61から拡がる、座標入力領域の面に平行に進行す
る扇形板状の光波である。
Light receiving and emitting means 41 are provided at both upper ends of the coordinate input area 43. From the light receiving / emitting means 41 toward the coordinate input area 43, L 1 , L 2 , L 3 ,. . . L m of the light beam bundle (probe light) is irradiated. Actually, it is a fan-shaped plate-like light wave that spreads from the point light source 61 and travels in parallel to the plane of the coordinate input area.

【0014】また、座標入力領域43の周辺部分には、
再帰性反射部材44が再帰反射面を座標入力領域43の
中央に向けて設けられている。再帰性反射部材44は、
入射した光を、入射角度によらずに同じ方向に反射する
特性をもった部材である。例えば、受発光手段41から
発した扇形板状の光波の内、ある一つのビーム47に注
目すると、ビーム47は再帰性反射部材44によって反
射されて再び同じ光路を再帰反射光46として受発光手
段41に向かって戻るように進行する。受発光手段41
には、後述するように受光手段が設置されていて、プロ
ーブ光L1〜Lmのそれぞれに対して、その再帰光が受発
光手段41に再帰したか否かを検出することができる。
Further, in the peripheral portion of the coordinate input area 43,
A retroreflective member 44 is provided with the retroreflective surface facing the center of the coordinate input area 43. The retroreflective member 44 is
It is a member having the property of reflecting incident light in the same direction regardless of the angle of incidence. For example, when focusing on a certain beam 47 out of the fan-shaped plate-like light waves emitted from the light emitting / receiving means 41, the beam 47 is reflected by the retroreflecting member 44, and the same light path is again returned as the retroreflected light 46 as the light receiving / emitting means. Proceed back to 41. Light receiving and emitting means 41
Is provided with a light receiving means, as will be described later, and can detect whether or not the return light of each of the probe lights L 1 to L m has returned to the light receiving / emitting means 41.

【0015】いま、ユーザーが手で位置42を触った場
合を考える。このときプローブ光45は位置42で手に
遮られて再帰性反射部材44には到達しない。従ってプ
ローブ光45の再帰光は受発光手段41には到達せず、
プローブ光45に対応する再帰光が受光されないことを
検出することによって、プローブ光45の延長線(直線
L)上に指示物体が挿入されたことを検出することがで
きる。
Now, consider a case where the user touches the position 42 by hand. At this time, the probe light 45 is blocked by the hand at the position 42 and does not reach the retroreflective member 44. Therefore, the return light of the probe light 45 does not reach the light receiving / emitting means 41,
By detecting that the return light corresponding to the probe light 45 is not received, it is possible to detect that the pointing object is inserted on the extension line (straight line L) of the probe light 45.

【0016】同様に図13の右上方に設置された受発光
手段41からもプローブ光を照射し、プローブ光48に
対応する再帰光が受光されないことを検出することによ
って、プローブ光48の延長線(直線R)上に指示物体
が挿入されたことを検出することができる。直線Lおよ
び直線Rを求めることができれば、この交点座標を演算
により算出することにより、手などの指示物体42が挿
入された座標位置を得ることができる。
Similarly, the probe light is emitted from the light receiving / emitting means 41 installed at the upper right of FIG. 13 to detect that the return light corresponding to the probe light 48 is not received. It is possible to detect that the pointing object has been inserted on (straight line R). If the straight line L and the straight line R can be obtained, the coordinates of the intersection where the pointing object 42 such as a hand is inserted can be obtained by calculating the intersection coordinates by calculation.

【0017】次に、受発光手段41の構成と、プローブ
光L1〜Lmの内、どのプローブ光が遮断されたかを検出
する機構について説明する。図14は、受発光手段41
の内部の構成を示す。図14は、図13の座標入力領域
43に取り付けられた受発光手段41を、座標入力領域
43の面に対して垂直な方向から見た図である。ここで
は簡単のため、座標入力領域43の面に平行な2次元平
面で説明する。
Next, the configuration of the light receiving / emitting means 41 and a mechanism for detecting which probe light among the probe lights L 1 to L m has been blocked will be described. FIG.
2 shows the internal configuration of FIG. FIG. 14 is a diagram of the light emitting / receiving unit 41 attached to the coordinate input area 43 of FIG. 13 when viewed from a direction perpendicular to the plane of the coordinate input area 43. Here, for simplicity, a two-dimensional plane parallel to the plane of the coordinate input area 43 will be described.

【0018】受発光手段41は、点光源61、集光レン
ズ51および受光素子50から構成されている。点光源
61は光源から見て受光素子50と反対の方向に扇形に
光を出射するものとする。点光源61から出射された扇
形の光は、矢印53、58の方向、その他の方向に進行
するビームの集合であると考える。矢印53方向に進行
したビームは再帰性反射部材55で反射されて、再帰反
射光54が集光レンズ51を通り、受光素子50上の位
置57に到達する。
The light receiving / emitting means 41 comprises a point light source 61, a condenser lens 51 and a light receiving element 50. The point light source 61 emits light in a fan shape in a direction opposite to the light receiving element 50 when viewed from the light source. The fan-shaped light emitted from the point light source 61 is considered to be a set of beams traveling in the directions of arrows 53 and 58 and other directions. The beam traveling in the direction of the arrow 53 is reflected by the retroreflective member 55, and the retroreflected light 54 passes through the condenser lens 51 and reaches a position 57 on the light receiving element 50.

【0019】また、進行方向58に沿って進行したビー
ムは再帰性反射部材55によって反射されて、再帰反射
光59が受光素子50上の位置56に到達する。このよ
うに点光源61から出射し、再帰性反射部材55で反射
され同じ経路を戻ってきた光は、集光レンズ51の作用
によって、それぞれ受光素子50上のそれぞれ異なる位
置56、57に到達する。
The beam traveling along the traveling direction 58 is reflected by the retroreflective member 55, and the retroreflected light 59 reaches the position 56 on the light receiving element 50. The light emitted from the point light source 61 and reflected by the retroreflective member 55 and returning on the same path reaches the different positions 56 and 57 on the light receiving element 50 by the action of the condenser lens 51, respectively. .

【0020】従って、ある位置に指示物体が挿入され、
あるビームが遮断されると、そのビームに対応する受光
素子50上の点に光が到達しなくなる。このことから、
受光素子50上の光強度の分布を調べることによって、
どのビームが遮られたかを知ることができる。
Therefore, the pointing object is inserted at a certain position,
When a certain beam is cut off, light does not reach a point on the light receiving element 50 corresponding to the beam. From this,
By examining the distribution of light intensity on the light receiving element 50,
You can see which beam was blocked.

【0021】図15は、指示物体が挿入されてビームが
遮断されたときの動作を説明する図である。図15にお
いて、受光素子50は集光レンズ51の焦点面に設けら
れているものとする。点光源61から図15の右側に向
けて出射した光は、再帰性反射部材55によって反射さ
れて同じ経路を戻ってくる。従って、点光源61の位置
に再び集光する。集光レンズ51の中心は点光源位置と
一致するように設けられている。再帰性反射部材か55
から戻った再帰光は、集光レンズ51の中心を通るの
で、レンズ後方(受光素子側)に対称の経路で進行す
る。
FIG. 15 is a diagram for explaining the operation when the pointing object is inserted and the beam is cut off. In FIG. 15, the light receiving element 50 is provided on the focal plane of the condenser lens 51. Light emitted from the point light source 61 toward the right side in FIG. 15 is reflected by the retroreflective member 55 and returns along the same path. Therefore, the light is condensed again at the position of the point light source 61. The center of the condenser lens 51 is provided so as to coincide with the point light source position. Retroreflective member or 55
Since the returning light from the lens passes through the center of the condenser lens 51, it travels in a symmetrical path behind the lens (on the light receiving element side).

【0022】このとき、受光素子50上の光強度分布を
調べると、指示物体60が挿入されていなければ、受光
素子50上の光強度分布はほぼ一定であるが、図15に
示すように、光を遮る指示物体60が挿入された場合、
ここを通過するビームは遮られ、受光素子50上では位
置Dnの位置に、光強度が弱い領域(暗点)が生じる。
At this time, when the light intensity distribution on the light receiving element 50 is examined, if the pointing object 60 is not inserted, the light intensity distribution on the light receiving element 50 is almost constant, but as shown in FIG. When the pointing object 60 that blocks light is inserted,
Blocked the beam passing therethrough, the position of the position D n is on the light receiving element 50, the light intensity is weak area (dark spot) occurs.

【0023】この位置Dnは、遮られたビームの出射/
入射角θnと対応していて、Dnを検出することによりθ
nを算出することができる。すなわちθnはDnの関数と
して θn=arctan(Dn/f) 式(1) と表すことができる。ただし、fは図15に示すよう
に、集光レンズ51と受光素子50との間の距離で、集
光レンズ51の焦点距離に該当する。
This position D n is determined by the emission /
And corresponds to the incident angle theta n, theta by detecting the D n
n can be calculated. That theta n can be represented as theta n = arctan as a function of D n (D n / f) Equation (1). Here, f is the distance between the condenser lens 51 and the light receiving element 50 as shown in FIG. 15, and corresponds to the focal length of the condenser lens 51.

【0024】ここで、特に図13の左上方の受発光手段
41におけるθnをθnL、DnをDnLと置き換える。さら
に、座標位置の算出方法を説明する図16において、受
発光手段41と座標入力領域43との幾何学的な相対位
置関係の変換gにより、指示物体60と座標入力領域4
3のx軸とのなす角θLは、式(1)で求められるDn L
の関数として、 θL=g(θnL) ただし θnL=arctan(DnL/f) 式(2) と表すことができる。
Here, in particular, θ n in the light receiving / emitting means 41 at the upper left of FIG. 13 is replaced with θ nL , and D n is replaced with D nL . Further, in FIG. 16 illustrating a method of calculating a coordinate position, the pointing object 60 and the coordinate input area 4 are converted by the conversion g of the geometric relative positional relationship between the light emitting / receiving means 41 and the coordinate input area 43.
Angle theta L of the x-axis of 3, D n L obtained by formula (1)
Θ L = g (θ nL ) where θ nL = arctan (D nL / f).

【0025】同様に、図13の右上方の受発光手段41
についても、上記した式のL記号をR記号に置き換え
て、右側の受発光手段41と座標入力領域43との幾何
学的な相対位置関係の変換hにより、 θR=h(θnR) ただし θnR=arctan(DnR/f) 式(3) と表すことができる。
Similarly, the light receiving / emitting means 41 at the upper right of FIG.
Is also replaced by the R symbol in the above equation, and the conversion h of the geometric relative positional relationship between the light emitting / receiving means 41 and the coordinate input area 43 on the right side gives θ R = h (θ nR ). θ nR = arctan (D nR / f) Equation (3) can be expressed.

【0026】(本発明が適用される第2の実施形態)次
に、本発明が適用される光学式の座標入力装置(第2の
実施形態)について説明する。第1の実施形態で用いた
図13で説明する。座標入力領域43は四角形の形状で
あり、例えば電子的に文字や画像を表示するディスプレ
イ表面やマーカー等のペンで書き込むホワイトボードな
どが座標入力領域となる。
(Second Embodiment to Which the Present Invention is Applied) Next, an optical coordinate input device (a second embodiment) to which the present invention is applied will be described. This will be described with reference to FIG. 13 used in the first embodiment. The coordinate input area 43 has a quadrangular shape. For example, the coordinate input area may be a display surface that electronically displays characters or images, a whiteboard written with a pen such as a marker, or the like.

【0027】光学式の座標入力装置40は、座標入力領
域43上を光学的に不透明な材質からなるユーザの手、
指やペン、支持棒などの指示物体42で触ったときの指
示物体42の座標位置を検出して、その位置情報をパー
ソナルコンピュータ等に入力する装置である。
The optical coordinate input device 40 includes a user's hand made of an optically opaque material on the coordinate input area 43.
This device detects the coordinate position of the pointing object 42 when touched by the pointing object 42 such as a finger, a pen, or a support rod, and inputs the position information to a personal computer or the like.

【0028】座標入力領域43の上方両端には受発光手
段41が設けられている。受発光手段41からは座標入
力領域43に向けて、L1、L2、L3、...Lmの光ビ
ームの束(プローブ光)が照射されている。実際には点
光源61で示した位置を略中心に、後述する走査手段に
よって回転走査される光ビームの束である。
Light receiving / emitting means 41 is provided at both upper ends of the coordinate input area 43. From the light receiving / emitting means 41 toward the coordinate input area 43, L 1 , L 2 , L 3 ,. . . L m of the light beam bundle (probe light) is irradiated. Actually, it is a bundle of light beams that are rotated and scanned by a scanning unit, which will be described later, about the position indicated by the point light source 61.

【0029】また、座標入力領域43の周辺部分には、
再帰性反射部材44が再帰反射面を座標入力領域43の
中央に向けて設けられている。再帰性反射部材44は、
入射した光を、入射角度によらずに同じ方向に反射する
特性をもった部材である。例えば、受発光手段41から
発した扇形板状の光波の内、ある一つのビーム47に注
目すると、ビーム47は再帰性反射部材44によって反
射されて再び同じ光路を再帰反射光46として受発光手
段41に向かって戻るように進行する。受発光手段41
には、後述するように受光手段が設置されていて、プロ
ーブ光L1〜Lmのそれぞれに対して、その再帰光が受発
光手段41に再帰したか否かを検出することができる。
Further, in the peripheral portion of the coordinate input area 43,
A retroreflective member 44 is provided with the retroreflective surface facing the center of the coordinate input area 43. The retroreflective member 44 is
It is a member having the property of reflecting incident light in the same direction regardless of the angle of incidence. For example, when focusing on a certain beam 47 out of the fan-shaped plate-like light waves emitted from the light emitting / receiving means 41, the beam 47 is reflected by the retroreflecting member 44, and the same light path is again returned as the retroreflected light 46 as the light receiving / emitting means. Proceed back to 41. Light receiving and emitting means 41
Is provided with a light receiving means, as will be described later, and can detect whether or not the return light of each of the probe lights L 1 to L m has returned to the light receiving / emitting means 41.

【0030】いま、ユーザーが手で位置42を触った場
合を考える。このときプローブ光45は位置42で手に
遮られて再帰性反射部材44には到達しない。従ってプ
ローブ光45の再帰光は受発光手段41には到達せず、
プローブ光45に対応する再帰光が受光されないことを
検出することによって、プローブ光45の延長線(直線
L)上に指示物体が挿入されたことを検出することがで
きる。
Now, consider a case where the user touches the position 42 by hand. At this time, the probe light 45 is blocked by the hand at the position 42 and does not reach the retroreflective member 44. Therefore, the return light of the probe light 45 does not reach the light receiving / emitting means 41,
By detecting that the return light corresponding to the probe light 45 is not received, it is possible to detect that the pointing object is inserted on the extension line (straight line L) of the probe light 45.

【0031】同様に図13の右上方に設置された受発光
手段41からもプローブ光を照射し、プローブ光48に
対応する再帰光が受光されないことを検出することによ
って、プローブ光48の延長線(直線R)上に指示物体
が挿入されたことを検出することができる。直線Lおよ
び直線Rを求めることができれば、この交点座標を演算
により算出することにより、手などの指示物体42が挿
入された座標位置を得ることができる。
Similarly, the probe light is emitted from the light receiving / emitting means 41 provided at the upper right of FIG. 13 and the extension of the probe light 48 is detected by detecting that the return light corresponding to the probe light 48 is not received. It is possible to detect that the pointing object has been inserted on (straight line R). If the straight line L and the straight line R can be obtained, the coordinates of the intersection where the pointing object 42 such as a hand is inserted can be obtained by calculating the intersection coordinates by calculation.

【0032】次に、受発光手段41の構成と、プローブ
光L1〜Lmの内、どのプローブ光が遮断されたかを検出
する機構について説明する。図17は、受発光手段41
の内部の構成を示す。図17は、図13の座標入力領域
43に取り付けられた受発光手段41を、座標入力領域
43の面に対して垂直な方向から見た図である。ここで
は簡単のため、座標入力領域43の面に平行な2次元平
面で説明する。
Next, the structure of the light receiving / emitting means 41 and a mechanism for detecting which probe light among the probe lights L 1 to L m has been blocked will be described. FIG.
2 shows the internal configuration of FIG. FIG. 17 is a diagram of the light emitting / receiving unit 41 attached to the coordinate input area 43 of FIG. 13 when viewed from a direction perpendicular to the plane of the coordinate input area 43. Here, for simplicity, a two-dimensional plane parallel to the plane of the coordinate input area 43 will be described.

【0033】受発光手段41の内部は、光源、ポリゴン
ミラーおよび受光素子から構成されている。光源は、レ
ーザー光源であり、所定のビーム幅にコリメートされた
ビームを発する。ビーム径は数ミリ程度である。光源か
ら射出されたビームは、ハーフミラーで折り返されてポ
リゴンミラーに入射する。ポリゴンミラーは所定の角速
度ωtで回転しており、光源から発せられたビームを再
帰性反射素子に向けて回転走査する。再帰性反射素子に
入射したビームは、入射と同一の経路を逆に戻り、ポリ
ゴンミラーで反射されハーフミラーに到達する。ハーフ
ミラーに到達した光のうち、ハーフミラーを通過した光
は、受光素子に到達し、電気信号に変換される。
The inside of the light emitting / receiving means 41 is composed of a light source, a polygon mirror and a light receiving element. The light source is a laser light source and emits a collimated beam having a predetermined beam width. The beam diameter is on the order of a few millimeters. The beam emitted from the light source is reflected by the half mirror and enters the polygon mirror. The polygon mirror rotates at a predetermined angular velocity ωt, and rotates and scans the beam emitted from the light source toward the retroreflective element. The beam incident on the retroreflective element returns on the same path as the incident direction, and is reflected by the polygon mirror to reach the half mirror. Of the light that has reached the half mirror, the light that has passed through the half mirror reaches the light receiving element and is converted into an electric signal.

【0034】図18は、受光素子の出力信号の例を示
す。時刻t=t0はポリゴンミラーの回転の基準位置
で、回転走査されるビームが所定の角度に達した時点で
ある。座標入力領域に指示物体が挿入されていない場
合、図18の光強度はI=I1 を示すが、光を遮断する
指示物体が座標入力領域に挿入されると受光素子に再帰
光が戻らなくなるため、光強度はI=I0となる。I=
0となった時刻がt=t1であるとすれば、座標入力領
域に挿入された指示物体の、センサからの見かけの角度
θはωΔtとなる。左右それぞれのセンサに対して、t
=t0で表されるポリゴンミラーの回転の基準位置を、
センサと座標入力領域との相対位置関係を考慮して適当
に選ぶことにより、図16におけるθLおよびθRを得
ることができる。
FIG. 18 shows an example of the output signal of the light receiving element. Time t = t0 is the reference position for the rotation of the polygon mirror, and is the time when the beam to be rotationally scanned reaches a predetermined angle. If the pointing object on the coordinate input region is not inserted, the light intensity of Figure 18 shows the I = I 1, the light receiving element pointing object that blocks light is inserted into the coordinate input region is return light not return Therefore, the light intensity becomes I = I 0 . I =
Assuming that the time when I 0 is t = t 1 , the apparent angle θ from the sensor of the pointing object inserted into the coordinate input area is ωΔt. For each of the left and right sensors, t
= T 0 is the reference position for the rotation of the polygon mirror,
By appropriately selecting in consideration of the relative positional relationship between the sensor and the coordinate input area, θL and θR in FIG. 16 can be obtained.

【0035】(本発明が適用される第3の実施形態)次
に、本発明が適用される光学式の座標入力装置(第3の
実施形態)について説明する。図19は、第3の実施形
態に係る光学式の座標入力装置を示す。座標入力領域は
四角形の形状であり、電子的に画像を表示するディスプ
レイ表面やマーカー等のペンで書き込むホワイトボード
などが座標入力領域となる。この座標入力領域上を光学
的に不透明な材質からなるユーザの手指やペン、支持棒
などの指示物体で触ったときの指示物体の座標位置を検
出して、その位置情報をパーソナルコンピュータ等に入
力する装置が光学式の座標入力装置である。
(Third Embodiment to Which the Present Invention is Applied) Next, an optical coordinate input device (third embodiment) to which the present invention is applied will be described. FIG. 19 shows an optical coordinate input device according to the third embodiment. The coordinate input area has a quadrangular shape, and the coordinate input area is a display surface for electronically displaying an image, a whiteboard written with a pen such as a marker, or the like. By detecting the coordinate position of the pointing object when touching the coordinate input area with the pointing object such as a user's finger, pen, or support rod made of an optically opaque material, the position information is input to a personal computer or the like. Is an optical coordinate input device.

【0036】座標入力領域の上方両端に撮像カメラが装
着されている。カメラは撮像画角がおよそ90度であ
り、それぞれが座標入力領域を撮影範囲となるように設
置されている。このとき撮像カメラの光軸は座標入力面
に平行で、座標入力面から所定の距離となるように設置
されている。座標入力領域の周辺部分には、背景板が座
標入力領域の中央にその面を向けて、また座標入力領域
面に対して垂直に装着されている。背景板は一様な黒色
などが望ましい。
Imaging cameras are mounted on both upper ends of the coordinate input area. The cameras have an imaging angle of view of about 90 degrees, and are installed such that each of them has a coordinate input area as an imaging range. At this time, the optical axis of the imaging camera is parallel to the coordinate input surface and is set at a predetermined distance from the coordinate input surface. In the peripheral part of the coordinate input area, a background plate is mounted with its surface facing the center of the coordinate input area and perpendicular to the coordinate input area surface. The background plate is desirably uniform black.

【0037】撮像カメラの信号と指示物体との関係を図
20に示す。指示物体が座標入力面に挿入された場合、
これが撮像カメラで撮影され、指示物体の像が撮像カメ
ラの撮像素子上に形成される。背景板が黒色で、指示物
体が指の場合、指は背景板に比べて高い反射率を有する
ので、指示物体に相当する部分に明るい像ができる。図
20に示す光強度分布は、黒色背景板を用いて、指示物
体として指が挿入された場合の、撮像素子(CCD)上
の像の光強度分布を表している。
FIG. 20 shows the relationship between the signal of the imaging camera and the pointing object. When the pointing object is inserted into the coordinate input surface,
This is photographed by the imaging camera, and an image of the pointing object is formed on the imaging element of the imaging camera. When the background plate is black and the pointing object is a finger, the finger has a higher reflectance than the background plate, so that a bright image is formed on a portion corresponding to the pointing object. The light intensity distribution shown in FIG. 20 represents the light intensity distribution of an image on an image sensor (CCD) when a finger is inserted as a pointing object using a black background plate.

【0038】このとき、撮像カメラの光軸中心と指示物
体に相当する明るい像との像面での距離Dは、撮像レン
ズ主点からの指示物体の見かけの角度に相当し、tan
θ=D/fの関係にある。従ってDを求めることによ
り、撮像レンズ中心からの指示物体の見かけの距離を求
めることができる。指示物体は自身が発光する発光素子
付きの専用ペンでもよい。
At this time, the distance D on the image plane between the center of the optical axis of the imaging camera and the bright image corresponding to the pointing object corresponds to the apparent angle of the pointing object from the principal point of the imaging lens.
θ = D / f. Therefore, by finding D, the apparent distance of the pointing object from the center of the imaging lens can be found. The pointing object may be a dedicated pen with a light emitting element that emits light.

【0039】図19に示す左右の撮像カメラに対して、
それぞれ上述した撮像カメラレンズ主点からの指示物体
の見かけの角度を求め、次に撮像カメラと座標入力面と
の相対的位置関係を考慮して適当な幾何学的な変換を行
うことにより、θL、θRを求めることができる。 (本発明が適用される第4の実施形態)次に、本発明が
適用される光学式の座標入力装置(第4の実施形態)に
ついて説明する。図21は、第4の実施形態に係る光学
式の座標入力装置を示す。座標入力領域は四角形の形状
であり、電子的に画像を表示するディスプレイ表面やマ
ーカー等のペンで書き込むホワイトボードなどが座標入
力領域となる。この座標入力領域上を光学的に不透明な
材質からなるユーザの手指やペン、支持棒などの指示物
体で触ったときの指示物体の座標位置を検出して、その
位置情報をパーソナルコンピュータ等に入力する装置が
光学式の座標入力装置である。
With respect to the left and right imaging cameras shown in FIG.
By determining the apparent angle of the pointing object from the principal point of the imaging camera lens described above, and then performing an appropriate geometric transformation in consideration of the relative positional relationship between the imaging camera and the coordinate input surface, θL , ΘR can be obtained. (Fourth Embodiment to Which the Present Invention is Applied) Next, an optical coordinate input device (fourth embodiment) to which the present invention is applied will be described. FIG. 21 shows an optical coordinate input device according to the fourth embodiment. The coordinate input area has a quadrangular shape, and the coordinate input area is a display surface for electronically displaying an image, a whiteboard written with a pen such as a marker, or the like. By detecting the coordinate position of the pointing object when touching the coordinate input area with the pointing object such as a user's finger, pen, or support rod made of an optically opaque material, the position information is input to a personal computer or the like. Is an optical coordinate input device.

【0040】座標入力領域の上方両端に受発光手段が装
着されている。受発光手段は、第1の実施形態で示した
図14の構成と同様の構成を採ることができる。また、
第2の実施形態で示した図17の構成と同様の構成を採
ってもよい。
Light receiving and emitting means are mounted on both upper ends of the coordinate input area. The light receiving and emitting means can have the same configuration as the configuration of FIG. 14 shown in the first embodiment. Also,
A configuration similar to the configuration of FIG. 17 shown in the second embodiment may be adopted.

【0041】再帰反射性指示物体の具体的な構成例を図
22に示す。指示物体はペン状の形状をしており、光沢
のある金属製よりもゴムやプラスチックなどの材質が望
ましい。指示物体の先端近傍に再帰性反射素子が設置さ
れている。指示物体の傾きなどで再帰性反射素子に入射
する光の入射角が変動しても、再帰性により入射光の経
路を逆方向に光を反射する。従って、図21の受発光手
段から発せられた光が指示物体の再帰性反射素子に到達
した場合、光は再帰的に反射され受発光手段の受光部に
到達する。
FIG. 22 shows a specific configuration example of the retroreflective pointing object. The pointing object has a pen-like shape, and is preferably made of a material such as rubber or plastic rather than a glossy metal. A retroreflective element is provided near the tip of the pointing object. Even if the incident angle of the light incident on the retroreflective element fluctuates due to the inclination of the pointing object or the like, the light is reflected in the reverse direction on the path of the incident light by the retroreflection. Therefore, when the light emitted from the light receiving / emitting means in FIG. 21 reaches the retroreflective element of the pointing object, the light is reflected recursively and reaches the light receiving portion of the light receiving / emitting means.

【0042】受発光手段が図14で示す構成を採る場合
の信号の例を図23に示す。点光源61から射出された
扇形の光は図23で右方向に進行するビームの集合であ
る。扇形に進行するビームの中に指示物体が挿入されて
いない場合、ビームの集合は反射されず、受光素子50
には到達しない。再帰反射性を有する指示物体60がビ
ーム中に挿入された場合、指示物体に到達したビームだ
けが反射され、受光素子50上に到達する。従って、ビ
ーム到達点に対応した受光素子上の位置に明るいピーク
が形成される。受光レンズ51の光軸上と受光素子の交
点を基準とした、受光素子上のピーク位置をDとする。
Dは、受光レンズ主点からの指示物体の見かけの角度に
相当し、tanθ=D/fの関係にある。従って、Dを
求めることにより受光レンズ中心からの指示物体の見か
けの距離を求めることができる。図21に示す左右の受
発光手段に対して、それぞれ上述した受光レンズ主点か
らの指示物体の見かけの角度を求め、次に受発光手段と
座標入力面との相対的位置関係を考慮して適当な幾何学
的な変換を行うことにより、θL、θRを求めることが
できる。
FIG. 23 shows an example of a signal when the light receiving / emitting means has the configuration shown in FIG. The fan-shaped light emitted from the point light source 61 is a set of beams traveling rightward in FIG. If the pointing object is not inserted in the fan-shaped beam, the set of beams is not reflected and the light receiving element 50
Does not reach. When the pointing object 60 having retroreflectivity is inserted into the beam, only the beam that has reached the pointing object is reflected and reaches the light receiving element 50. Therefore, a bright peak is formed at a position on the light receiving element corresponding to the beam arrival point. Let D be the peak position on the light receiving element with reference to the intersection between the light receiving lens 51 on the optical axis and the light receiving element.
D corresponds to the apparent angle of the pointing object from the principal point of the light receiving lens, and has a relationship of tan θ = D / f. Therefore, by determining D, the apparent distance of the pointing object from the center of the light receiving lens can be determined. For each of the left and right light emitting and receiving means shown in FIG. 21, the apparent angle of the pointing object from the above-described light receiving lens principal point is obtained, and then the relative positional relationship between the light receiving and emitting means and the coordinate input surface is considered. By performing an appropriate geometric transformation, θL and θR can be obtained.

【0043】受発光手段が図17で示す構成を採る場合
の信号の例を図24に示す。t=t0はポリゴンミラー
の回転の基準位置で、回転走査されるビームが所定の角
度に達した時点である。座標入力領域に指示物体が挿入
されていない場合、図24の光強度はI=I0を示す
が、光を再帰的に反射する指示物体が座標入力領域に挿
入されると、受光素子に再帰光が到達するため、光強度
はI=I1となる。I=I1となった時刻がt=t1で
あるとすれば、座標入力領域に挿入された指示物体の、
センサからの見かけの角度θはωΔtとなる。左右それ
ぞれのセンサに対して、t=t0となるポリゴンミラー
の回転の基準位置を、センサと座標入力領域との相対位
置関係を考慮して適当に選ぶことにより、図21におけ
るθLおよびθRを得ることができる。
FIG. 24 shows an example of a signal when the light receiving / emitting means has the configuration shown in FIG. t = t0 is a reference position for the rotation of the polygon mirror, and is a point in time when the beam scanned and rotated reaches a predetermined angle. When the pointing object is not inserted in the coordinate input area, the light intensity in FIG. 24 indicates I = I0. However, when the pointing object that reflects light recursively is inserted in the coordinate input area, the light is returned to the light receiving element. Arrives, the light intensity becomes I = I1. Assuming that the time when I = I1 is t = t1, the pointing object inserted into the coordinate input area is:
The apparent angle θ from the sensor is ωΔt. The reference positions for rotation of the polygon mirror where t = t0 for each of the left and right sensors are appropriately selected in consideration of the relative positional relationship between the sensors and the coordinate input area, thereby obtaining θL and θR in FIG. be able to.

【0044】上記した第1、第2、第3および第4の実
施形態において、適当な座標変換により座標入力領域上
の受発光手段の取り付け間隔を図16に示すようにwと
し、座標入力領域の左角を原点とし、x、y座標系を図
16に示すようにとれば、座標入力領域43上の指示手
段60で指示した点の座標(x,y)は、 x=wtanθR/(tanθL+tanθR) 式(4) y=wtanθL・tanθR/(tanθL+tanθR) 式(5) となり、式(2)、(3)、(4)、(5)からx、y
は、DnL、DnRの関数として表すことができる。
In the above-described first, second, third and fourth embodiments, the spacing between the light receiving and emitting means on the coordinate input area is set to w as shown in FIG. If the x, y coordinate system is as shown in FIG. 16 with the left corner of the origin as shown in FIG. 16, the coordinates (x, y) of the point designated by the pointing means 60 on the coordinate input area 43 are: x = wtan θ R / ( tan θ L + tan θ R ) Expression (4) y = wtan θ L · tan θ R / (tan θ L + tan θ R ) Expression (5), and x, y are obtained from Expressions (2), (3), (4), and (5).
Can be expressed as a function of D nL , D nR .

【0045】すなわち、左右の受発光手段41の受光素
子50上の暗点の位置DnL、DnRを検出し、受発光手段
41の幾何学的配置を考慮することにより、指示物体6
0で指示した点の座標を算出することができる。上記説
明した座標算出方法は、三角測量の原理に基づくもので
あり、例えば特開平9−91094号公報に記載されて
いる。
That is, the positions D nL and D nR of the dark spots on the light receiving element 50 of the left and right light emitting / receiving means 41 are detected, and the geometrical arrangement of the light receiving / emitting means 41 is taken into consideration.
The coordinates of the point designated by 0 can be calculated. The above-described coordinate calculation method is based on the principle of triangulation and is described in, for example, Japanese Patent Application Laid-Open No. 9-91094.

【0046】[0046]

【発明が解決しようとする課題】上記した従来の座標入
力装置では、受発光手段の幾何学配置を基に座標を算出
している。このため、以下のような幾何学配置を表すパ
ラメータが既知の場合に座標入力領域の座標を求めるこ
とができる。なお、前述した各実施形態で説明した「受
発光手段」および「撮像カメラ」を、以下の説明では
「センサヘッド」という。
In the above-mentioned conventional coordinate input device, the coordinates are calculated based on the geometric arrangement of the light receiving and emitting means. Therefore, the coordinates of the coordinate input area can be obtained when the following parameters representing the geometrical arrangement are known. The “light receiving / emitting unit” and the “imaging camera” described in each of the above-described embodiments are referred to as “sensor heads” in the following description.

【0047】図25は、センサヘッドを座標入力領域の
近傍に配置した例を示す図である。この図において、式
(2)〜(5)から求められる座標x,yは、点Pを原
点とする座標である。この座標を算出する段階で、既に
wおよび両センサヘッドL、Rの光軸と両センサヘッド
中心を結ぶ線分がなす角度θoffL、θoffRが既知である
必要がある。θoffL、θoffRは、それぞれ式(2)およ
び式(3)のgおよびhの変換に必要なパラメータとな
る。
FIG. 25 is a diagram showing an example in which the sensor head is arranged near the coordinate input area. In this figure, the coordinates x and y obtained from the equations (2) to (5) are coordinates having the point P as the origin. At the stage of calculating these coordinates, it is necessary that the angles θ offL and θ offR formed by w and the line segment connecting the optical axes of the sensor heads L and R to the centers of the sensor heads are already known. θ offL and θ offR are parameters necessary for the conversion of g and h in equations (2) and (3), respectively.

【0048】さらに、PおよびQを原点とする座標系に
おける、平行移動によるオフセットdx、dyと回転に
よるオフセットθ0が既知であることによって、式
(2)〜(5)から求められるPを原点とする座標x、
yを、座標入力領域のQを原点とする座標系に変換する
ことができる。したがって、w、θoffL、θoffR、d
x、dy、θ0が既知であるようにセンサヘッドの機械
的位置を決定する必要がある。
Further, since the offsets dx and dy due to the parallel movement and the offset θ 0 due to the rotation in the coordinate system having the origins P and Q are known, the P obtained from the equations (2) to (5) can be used as the origin. Coordinates x,
y can be converted to a coordinate system with Q as the origin of the coordinate input area. Therefore, w, θ offL , θ offR , d
It is necessary to determine the mechanical position of the sensor head so that x, dy, θ 0 are known.

【0049】しかし、一般にこれらすべてのパラメータ
を所定の値になるようにセンサヘッドを組み付けること
は装置製造工程上のコストを押し上げてしまう。また、
これらのパラメータが甘い公差内に収まるように組み付
けを行い、組み付け後にこれらのパラメータを測定し、
演算に反映するという方法もある。しかしこの方法で
は、組み付け後にパラメータの測定を行う困難さを伴
い、実用的ではない。
However, in general, assembling the sensor head so that all of these parameters have predetermined values increases the cost in the process of manufacturing the device. Also,
Assemble these parameters within a tight tolerance, measure these parameters after assembly,
There is also a method of reflecting it in the calculation. However, this method is not practical because it involves difficulty in measuring parameters after assembly.

【0050】また、運搬時の振動などにより、上記のパ
ラメータが出荷時の設定値からずれてしまい、納品時に
正しい座標入力動作ができなくなるといった不具合があ
る。さらに、運搬および梱包の都合上、受発光手段を分
割して運搬する場合などでも、組み付け時に設計時の所
定の位置精度を維持して受発光手段を座標入力面(ディ
スプレイ面や黒板面など)に再び取り付ける必要があ
る。
In addition, there is a problem that the above parameters are deviated from the set values at the time of shipment due to vibrations during transportation, and the correct coordinate input operation cannot be performed at the time of delivery. Further, even when the light emitting / receiving device is divided and transported for transportation and packing, the light emitting / receiving device is moved to a coordinate input surface (display surface, blackboard surface, etc.) while maintaining a predetermined positional accuracy at the time of assembly. Need to be re-attached.

【0051】しかし、一般のユーザーが精度を維持して
再度、取り付けを行うことは難しいか、または特殊な治
具、機構が必要となり、コストを押し上げてしまう。こ
れに加えて、例えば受発光手段が構成するセンサヘッド
部分を分割可搬型として、任意の座標入力面にユーザー
が取り付けて使うようなアプリケーションを考えた場
合、従来の三角測量演算による方法では同様の問題が生
じ、実現が困難となる。
However, it is difficult for a general user to perform the mounting again while maintaining the accuracy, or a special jig and mechanism are required, which increases the cost. In addition to this, for example, when an application is considered in which the sensor head portion formed by the light receiving and emitting means is divided into a portable type and the user attaches it to an arbitrary coordinate input surface and is used, a conventional triangulation calculation method is similar. Problems arise and are difficult to implement.

【0052】本発明は、上記したような座標入力装置の
問題点に鑑みてなされたものであり、本発明の目的は、
写像手段の絶対位置を知る必要がなく設置自由度を大幅
に高め、かつ信頼性の高い座標入力装置を提供すること
にある。
The present invention has been made in view of the problems of the coordinate input device as described above.
It is an object of the present invention to provide a highly reliable coordinate input device that does not require the absolute position of the mapping means to be known and greatly increases the freedom of installation.

【0053】本発明の他の目的は、写像手段の絶対位置
を知る必要がなく設置自由度を大幅に高め、かつ信頼性
の高い座標入力装置を構築することが可能であるととも
に、簡単な行列計算あるいは連立方程式の求解で実行可
能なキャリブレーション動作を行う座標入力装置を提供
することにある。
Another object of the present invention is to make it possible to construct a highly reliable coordinate input device without having to know the absolute position of the mapping means, to greatly increase the degree of freedom in installation, and to use a simple matrix. An object of the present invention is to provide a coordinate input device that performs a calibration operation that can be executed by calculation or solving a simultaneous equation.

【0054】本発明の他の目的は、座標入力面における
受発光手段の取り付け位置の自由度を高め、また受発光
手段の座標入力面における取り付け位置が未知の場合で
も、使用する前の簡単なキャリブレーション動作によっ
て座標入力面での座標を正しく入力することができ、再
帰光射影方式、ポリゴンミラー方式に適用される座標入
力装置を提供することにある。
Another object of the present invention is to increase the degree of freedom of the mounting position of the light receiving / emitting means on the coordinate input surface, and to make it easy to use even before the mounting position of the light receiving / emitting means on the coordinate input surface is unknown. An object of the present invention is to provide a coordinate input device that can correctly input coordinates on a coordinate input surface by a calibration operation and is applicable to a retroreflective projection method and a polygon mirror method.

【0055】本発明の他の目的は、座標入力面における
画像入力手段の取り付け位置の自由度を高め、また受発
光手段の座標入力面における取り付け位置が未知の場合
でも、使用する前の簡単なキャリブレーション動作によ
って座標入力面での座標を正しく入力することができ、
撮像方式に適用される座標入力装置を提供することにあ
る。
Another object of the present invention is to increase the degree of freedom of the mounting position of the image input means on the coordinate input surface, and even if the mounting position of the light emitting and receiving means on the coordinate input surface is unknown, a simple operation before use. The coordinates on the coordinate input surface can be correctly input by the calibration operation,
An object of the present invention is to provide a coordinate input device applied to an imaging method.

【0056】本発明の他の目的は、座標入力面における
受光手段または発光手段の取り付け位置の自由度を高
め、また受光手段または発光手段の座標入力面における
取り付け位置が未知の場合でも、使用する前の簡単なキ
ャリブレーション動作によって座標入力面での座標を正
しく入力することができ、反射板付きペンに適用される
座標入力装置を提供することにある。
Another object of the present invention is to increase the degree of freedom of the mounting position of the light receiving means or the light emitting means on the coordinate input surface, and to use the light receiving means or the light emitting means even when the mounting position on the coordinate input surface is unknown. An object of the present invention is to provide a coordinate input device which can correctly input coordinates on a coordinate input surface by the previous simple calibration operation and is applied to a pen with a reflection plate.

【0057】本発明の他の目的は、座標入力面における
受発光手段の取り付け位置の自由度を高め、また受発光
手段の座標入力面における取り付け位置すなわち前述し
たパラメータが未知の場合でも、使用する前の簡単なキ
ャリブレーション動作によって座標入力面での座標を正
しく入力することができるとともに、簡単な行列計算あ
るいは連立方程式の求解で実行可能なキャリブレーショ
ン動作を行い、さらに、キャリブレーションのための所
定の座標に挿入された光遮断手段によって遮断された光
の位置に対応する情報を、受光素子上の幾何学的な位置
あるいは受光素子を走査するタイミング信号など任意の
信号で演算することができ、遮断された光の位置を遮断
手段の見込みの角度などに変換する処理も省くことがで
き、大幅な演算の効率化、装置の設計自由度の向上、座
標演算精度の向上を図った、再帰光射影方式、ポリゴン
ミラー方式に適用される座標入力装置を提供することに
ある。
Another object of the present invention is to increase the degree of freedom of the mounting position of the light emitting and receiving means on the coordinate input surface, and to use the mounting position of the light receiving and emitting means on the coordinate input surface, that is, even when the aforementioned parameters are unknown. With the previous simple calibration operation, the coordinates on the coordinate input surface can be correctly input, and a calibration operation that can be executed by simple matrix calculation or solution of simultaneous equations is performed. The information corresponding to the position of the light blocked by the light blocking means inserted in the coordinates of the, can be calculated by any signal such as a geometric position on the light receiving element or a timing signal for scanning the light receiving element, The process of converting the position of the blocked light into the expected angle of the blocking means and the like can also be omitted. Streamlining, improvement in design freedom of the device, thereby improving the coordinate calculation precision, returning light projection method is to provide a coordinate input apparatus which is applied to the polygon mirror method.

【0058】本発明の他の目的は、座標入力面における
画像入力手段の取り付け位置の自由度を高め、また画像
入力手段の座標入力面における取り付け位置すなわち前
述したパラメータが未知の場合でも、使用する前の簡単
なキャリブレーション動作によって座標入力面での座標
を正しく入力することができるとともに、簡単な行列計
算あるいは連立方程式の求解で実行可能なキャリブレー
ション動作を行い、さらに、キャリブレーションのため
の所定の座標に挿入された指示手段に対応する画像入力
手段で入力された画像入力手段の像面での情報を、受光
素子上の幾何学的な位置あるいは受光素子を走査するタ
イミング信号など任意の信号で演算することができ、画
像入力手段の像面での情報の位置を指示手段の見込みの
角度などに変換する処理も省くことができ、大幅な演算
の効率化、装置の設計自由度の向上、座標演算精度の向
上を図った、撮像方式に適用される座標入力装置を提供
することにある。
Another object of the present invention is to increase the degree of freedom of the mounting position of the image input means on the coordinate input surface and to use the image input means even when the mounting position of the image input means on the coordinate input surface, that is, the above-mentioned parameter is unknown. With the previous simple calibration operation, the coordinates on the coordinate input surface can be correctly input, and a calibration operation that can be executed by simple matrix calculation or solution of simultaneous equations is performed. The information on the image plane of the image input means input by the image input means corresponding to the indicating means inserted at the coordinates of the coordinate is an arbitrary signal such as a geometric position on the light receiving element or a timing signal for scanning the light receiving element. And converts the position of the information on the image plane of the image input means into the expected angle of the indicating means. Process can also be omitted, the efficiency of significant operations, improving design flexibility of the device, thereby improving the coordinate calculation precision is to provide a coordinate input apparatus which is applied to an imaging system.

【0059】本発明の他の目的は、座標入力面における
受光手段または発光手段の取り付け位置の自由度を高
め、また受光手段または発光手段の座標入力面における
取り付け位置すなわち前述したパラメータが未知の場合
でも、使用する前の簡単なキャリブレーション動作によ
って座標入力面での座標を正しく入力することができる
とともに、簡単な行列計算あるいは連立方程式の求解で
実行可能なキャリブレーション動作を行い、さらにキャ
リブレーションのための所定の座標に挿入された反射手
段によって反射された光の位置に対応する情報を、受光
素子上の幾何学的な位置あるいは受光素子を走査するタ
イミング信号など任意の信号で演算することができ、反
射された光の位置を反射手段の見込みの角度などに変換
する処理も省くことができ、大幅な演算の効率化、装置
の設計自由度の向上、座標演算精度の向上を図った、反
射板付きペンに適用される座標入力装置を提供すること
にある。
Another object of the present invention is to increase the degree of freedom of the mounting position of the light receiving means or light emitting means on the coordinate input surface, and to improve the mounting position of the light receiving means or light emitting means on the coordinate input surface, that is, when the aforementioned parameters are unknown. However, a simple calibration operation before use allows the correct input of coordinates on the coordinate input surface, and a calibration operation that can be performed by simple matrix calculation or solution of simultaneous equations. The information corresponding to the position of the light reflected by the reflecting means inserted at the predetermined coordinates is calculated using an arbitrary signal such as a geometrical position on the light receiving element or a timing signal for scanning the light receiving element. It is possible to omit the process of converting the position of the reflected light into the expected angle of the reflection means, etc. Can, efficiency greatly operations, improving design flexibility of the device, thereby improving the coordinate calculation precision is to provide a coordinate input apparatus which is applied to the reflection plate with a pen.

【0060】従来の技術では、指示手段によって指示さ
れた座標の受光手段または画像入力手段上での位置か
ら、指示手段の受発光手段または画像入力手段からの見
込みの角度に変換する必要があり、変換テーブルあるい
は変換式をあらかじめ求めておく必要があった。
In the prior art, it is necessary to convert the position indicated by the pointing means on the light receiving means or the image input means into an expected angle from the light emitting / receiving means of the pointing means or the image input means. It was necessary to obtain a conversion table or conversion formula in advance.

【0061】本発明の他の目的は、指示手段の受光手段
または画像入力手段の像面位置に対応する情報、すなわ
ち受光素子上の物理的位置(像面のディップ/ピーク/
像の位置)などを用いることにより、変換テーブルや変
換式を作成する処理が省けること、この処理で発生する
誤差要因を排除することができること、さらに受光素子
上の指示手段の像の位置に対応する信号ならばこれの物
理的な位置の他に、受光素子の電気的な走査のタイミン
グ信号など、他の物理量でも演算が可能であり、設計上
の自由度を大幅に向上させることができる座標入力装置
を提供することにある。
Another object of the present invention is to provide information corresponding to the image plane position of the light receiving means of the pointing means or the image input means, that is, the physical position (dip / peak / image plane / image plane) on the light receiving element.
By using (image position) and the like, it is possible to omit the process of creating a conversion table and a conversion formula, to eliminate an error factor generated in this process, and to correspond to the position of the image of the pointing means on the light receiving element. In addition to the physical position of this signal, the coordinates can be calculated using other physical quantities, such as the timing signal for electrical scanning of the light-receiving element, greatly improving the degree of freedom in design. An input device is provided.

【0062】従来の技術では、指示手段によって指示さ
れた座標の受光手段上での位置から、指示手段の受発光
手段からの見込みの角度に変換する必要があり、変換テ
ーブルあるいは変換式をあらかじめ求めておく必要があ
った。
In the prior art, it is necessary to convert the position indicated by the pointing means on the light receiving means into an expected angle from the light emitting / receiving means of the pointing means, and a conversion table or conversion formula is obtained in advance. Had to be kept.

【0063】本発明の他の目的は、指示手段の受光手段
の像面位置に対応する情報、すなわち受光素子上の物理
的位置(像面の光強度の時間変化における分布形状部
分)などを用いることにより、変換テーブルや変換式を
作成する処理が省けること、この処理で発生する誤差要
因を排除することができること、さらに受光素子上の指
示手段の像の位置に対応する信号ならばこれの物理的な
位置の他に、受光素子の電気的な走査のタイミング信号
など、他の物理量でも演算が可能であり、設計上の自由
度を大幅に向上させることができる座標入力装置を提供
することにある。
Another object of the present invention is to use information corresponding to the image plane position of the light receiving means of the pointing means, that is, the physical position on the light receiving element (the distribution shape portion in the time change of the light intensity of the image plane). As a result, it is possible to omit the process of creating the conversion table and the conversion formula, to eliminate the error factors generated in this process, and to use a signal corresponding to the position of the image of the pointing means on the light receiving element. To provide a coordinate input device capable of performing calculations with other physical quantities such as a timing signal for electrical scanning of a light receiving element, in addition to a general position, and greatly improving the degree of freedom in design. is there.

【0064】本発明の他の目的は、第1の座標系におけ
る任意の点と写像手段により写像された第2の座標系上
の点の関係を記述する関係式の係数を演算する際に、係
数が必ず演算できる条件として、連立方程式の係数行列
が必ず正則となる必要があるので、所定の基準となる座
標の配置の仕方を限定することにより、この係数行列を
必ず正則とした座標入力装置を提供することにある。
Another object of the present invention is to calculate a coefficient of a relational expression describing a relation between an arbitrary point in the first coordinate system and a point on the second coordinate system mapped by the mapping means. As a condition under which the coefficients can always be calculated, the coefficient matrix of the simultaneous equations must be non-singular. Therefore, by restricting the way of arranging predetermined reference coordinates, a coordinate input device that always makes this coefficient matrix non-singular Is to provide.

【0065】本発明のさらに他の目的は、キャリブレー
ションモードと座標入力モードを設けることにより、使
用中に写像手段の位置がずれたりした場合あるいは運搬
直後などに、ユーザが任意でモードを切り替えてユーザ
自身でキャリブレーションできる座標入力装置を提供す
ることにある。
Still another object of the present invention is to provide a calibration mode and a coordinate input mode so that the user can arbitrarily switch the mode when the position of the mapping means shifts during use or immediately after transportation. It is to provide a coordinate input device that can be calibrated by a user himself.

【0066】[0066]

【課題を解決するための手段】本発明では、2次元また
は3次元の第1の座標系上の点を、前記第1の座標系と
異なる2次元または1次元の第2の座標系上の点に写像
する複数の写像手段と、前記第1の座標系上の複数の所
定の座標を前記複数の写像手段によって前記第2の座標
系上に写像した位置と、前記第1の座標系上の複数の所
定の座標とを関連づけて記憶する第1の記憶手段と、前
記第1の記憶手段に記憶された前記第1の座標系上の複
数の所定の座標と前記第2の座標系上に写像した位置と
を基に、前記第1の座標系上の任意の座標と、前記任意
の座標に対応する前記写像手段によって前記第2の座標
系上に写像した位置との関係を記述する関係式の係数を
算出する係数算出手段と、前記算出された係数を記憶す
る第2の記憶手段と、前記第1の座標系上の任意の座標
に対応する前記第2の座標系上に写像した位置と、前記
第2の記憶手段に記憶された前記係数と、前記関係式を
用いて、前記第1の座標系上の任意の座標を算出する座
標算出手段とを備えている。
According to the present invention, a point on a two-dimensional or three-dimensional first coordinate system is defined on a two-dimensional or one-dimensional second coordinate system different from the first coordinate system. A plurality of mapping means for mapping to a point; a position where a plurality of predetermined coordinates on the first coordinate system are mapped on the second coordinate system by the plurality of mapping means; A plurality of predetermined coordinates on the first coordinate system stored in the first storage means and a plurality of predetermined coordinates on the second coordinate system stored in the first storage means. The relationship between arbitrary coordinates on the first coordinate system and positions mapped on the second coordinate system by the mapping means corresponding to the arbitrary coordinates is described based on the position mapped to the second coordinate system. Coefficient calculating means for calculating the coefficient of the relational expression, and second storing means for storing the calculated coefficient Using a position mapped on the second coordinate system corresponding to an arbitrary coordinate on the first coordinate system, the coefficient stored in the second storage means, and the relational expression, Coordinate calculation means for calculating arbitrary coordinates on the first coordinate system.

【0067】本発明の一実施例では、キャリブレーショ
ン時に、基準点に指示物体を挿入したときのセンサヘッ
ドにおける光遮断位置情報と基準点座標とを基に、光遮
断位置情報と基準点座標との関係を記述する関係式の係
数を算出する。座標入力時に挿入された光遮断物体によ
って、各センサヘッドに生じた光の遮断位置に対応する
情報と、先に算出された係数を用いて所定の演算を行う
ことにより、光遮断物体が挿入された座標を出力する。
In one embodiment of the present invention, the light blocking position information and the reference point coordinates are based on the light blocking position information and the reference point coordinates of the sensor head when the pointing object is inserted into the reference point during calibration. Calculate the coefficient of the relational expression describing the relation. The light-blocking object inserted at the time of inputting coordinates is used to perform a predetermined calculation using the information corresponding to the light-blocking position of light generated in each sensor head and the previously calculated coefficient, thereby inserting the light-blocking object. Output coordinates.

【0068】また、本発明の一実施例では、光遮断位置
情報として、受光手段の像面における光強度分布から得
られる物理的な位置などを用いる。
In one embodiment of the present invention, a physical position obtained from the light intensity distribution on the image plane of the light receiving means is used as the light blocking position information.

【0069】さらに、本発明の一実施例では、キャリブ
レーション時に係数を算出する際に、係数行列が正則で
ある必要があるので、基準座標の点数を5点とし、かつ
それら5点の座標は、受光手段の中心と各点の座標とを
結ぶ直線が互いに一致しないように配置されている。
Further, in one embodiment of the present invention, when calculating the coefficients at the time of calibration, the coefficient matrix needs to be regular, so that the number of reference coordinates is set to 5 and the coordinates of these 5 points are Are arranged so that straight lines connecting the center of the light receiving means and the coordinates of each point do not coincide with each other.

【0070】[0070]

【発明の実施の形態】以下、本発明の一実施例を図面を
用いて具体的に説明する。 (実施例1)図1は、本発明の実施例1の構成を示す。
図2は、本発明の実施例1に係る処理フローチャートで
ある。本実施例の構成は、第1の実施形態である図1
3、図14、図15で説明した光学式座標入力装置、お
よび第2の実施形態である図13、図17、図18で説
明した光学式座標入力装置に適用される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be specifically described below with reference to the drawings. (Embodiment 1) FIG. 1 shows the configuration of Embodiment 1 of the present invention.
FIG. 2 is a processing flowchart according to the first embodiment of the present invention. The configuration of the present embodiment is similar to that of the first embodiment shown in FIG.
The optical coordinate input device described in FIGS. 3, 14 and 15 and the optical coordinate input device described in FIGS. 13, 17 and 18, which are the second embodiment, are applied.

【0071】以下の説明における「センサヘッド」は、
前述した第1、第2の実施形態における受発光手段に相
当するものとする。図1は、センサヘッドが図25で示
したように2つ設置されている例を示す。図25のセン
サヘッドLおよびセンサヘッドRを、説明の都合上、セ
ンサヘッド1、センサヘッド2という。
The “sensor head” in the following description is
It corresponds to the light emitting and receiving means in the first and second embodiments described above. FIG. 1 shows an example in which two sensor heads are installed as shown in FIG. The sensor head L and the sensor head R in FIG. 25 are referred to as a sensor head 1 and a sensor head 2 for convenience of description.

【0072】キャリブレーションのための基準点の座標
は、座標入力面上の既知の座標であり、これを(x1
1)、(x2,y2)...(x5,y5)とする(ステ
ップ101)。
The coordinates of the reference point for calibration are known coordinates on the coordinate input surface, and are represented by (x 1 ,
y 1 ), (x 2 , y 2 ). . . (X 5, y 5) and (step 101).

【0073】例えば、本発明の座標入力装置を電子ディ
スプレイ上やプロジェクタを投影するスクリーン面上に
設置した構成例では、これらの基準点は、キャリブレー
ション動作時にディスプレイ上あるいはスクリーン面上
に所定の印として表示される。また、従来のホワイトボ
ード、黒板などでは、所定の座標を印刷した基準チャー
トなどを表面に張ったり、あらかじめ盤面に刻印などを
表記しておく方法などが考えられる。
For example, in a configuration example in which the coordinate input device of the present invention is installed on an electronic display or on a screen on which a projector is projected, these reference points are provided on a display or on a screen when calibration is performed. Will be displayed as Further, in a conventional whiteboard, blackboard, or the like, a method of setting a reference chart or the like on which predetermined coordinates are printed on the surface, or previously engraving a mark or the like on the board may be considered.

【0074】上記した各基準点(x1,y1)、(x2
2)...(x5,y5)には、指など光を遮断する指
示物体が挿入される。例えば、基準点(x1,y1)に指
を挿入した場合、指でプローブ光が遮られることにより
生じるセンサヘッド1での光束の遮断位置(図15、図
18のA)に相当する情報をu11とする。同様にセンサ
ヘッド2での光束の遮断位置をu12とする(ステップ1
02)。
Each of the reference points (x 1 , y 1 ), (x 2 ,
y 2 ). . . The (x 5, y 5), the pointing object that blocks light fingers are inserted. For example, when a finger is inserted at the reference point (x 1 , y 1 ), information corresponding to the light-blocking position (A in FIGS. 15 and 18) of the sensor head 1 caused by the probe light being blocked by the finger. As u 11 . Likewise the blocking position of the light beam in the sensor head 2 and u 12 (Step 1
02).

【0075】uの第1の添字は基準点の添字に相当し、
第2の添字はセンサヘッドの番号に相当する。uとして
は、図15で示した光束の遮断位置に相当する情報であ
れば何を用いてもよい。
The first subscript of u corresponds to the subscript of the reference point,
The second subscript corresponds to the number of the sensor head. As u, any information may be used as long as it is information corresponding to the light blocking position shown in FIG.

【0076】例えば、第1の実施形態の場合、図15で
受光素子50がCCDである場合には、uとしては光束
の遮断位置に対応するCCDの画素添字(画素位置番
号)などを用いることができる。uは画素添字の他にC
CDを走査する信号のタイミングすなわちCCDを走査
開始してから光遮断位置に至るまでの時間でもよい。
For example, in the case of the first embodiment, when the light receiving element 50 is a CCD in FIG. 15, as u, a pixel subscript (pixel position number) of the CCD corresponding to the light blocking position is used. Can be. u is C in addition to the pixel subscript
The timing of the signal for scanning the CD, that is, the time from the start of scanning the CCD to the light blocking position may be used.

【0077】また、第2の実施形態の場合、図18で示
したA部分に相当する時間Δtまたは時刻t1に対して
ftanωΔtおよびftanωt1の変換を施した値
をuとする。ここで、fは受光レンズの焦点距離、ωは
ポリゴンミラーの回転角速度である。
In the case of the second embodiment, u is a value obtained by performing conversion of ftan ωΔt and ftan ωt1 on the time Δt or time t1 corresponding to the portion A shown in FIG. Here, f is the focal length of the light receiving lens, and ω is the rotational angular velocity of the polygon mirror.

【0078】また、これらには所定の係数やオフセット
がかかっていてもよく、装置の設計上都合のよいパラメ
ータを任意に使用できる。これを考慮すると、特に第2
の実施形態では、Δtを用いてもt1を用いてもよく、
さらに焦点距離fを考慮せずに、例えばtanωt1を
uとおいて差し支えない。
Further, these may be given a predetermined coefficient or offset, and parameters convenient for the design of the apparatus can be arbitrarily used. Considering this, especially the second
In the embodiment of the present invention, Δt or t1 may be used,
Further, tan ωt1 may be set to u without considering the focal length f.

【0079】基準点(x1,y1)、(x2,y2)...
(x5,y5)に、それぞれ指示物体を挿入したときの、
センサヘッド1およびセンサヘッド2における光遮断位
置情報(u11,u21,...,u51)および(u12,u
22,...,u52)と基準点の座標とを、第1記憶部
3、4にそれぞれ記憶する(ステップ103)。
Reference points (x 1 , y 1 ), (x 2 , y 2 ). . .
(X 5 , y 5 )
Light blocking position information (u 11 , u 21 ,..., U 51 ) and (u 12 , u 12 ) in the sensor heads 1 and 2
22,. . . , U 52 ) and the coordinates of the reference point are stored in the first storage units 3 and 4, respectively (step 103).

【0080】第1記憶部3、4に記憶された基準点座標
および光遮断位置情報は、係数算出部5、6に読み込ま
れる。係数算出部5、6は、後述する式(11)に従っ
てそれぞれのセンサヘッド毎に係数(c11
21,...,c51)および(c12,c 22,...,c
52)を算出し(ステップ104)、第2記憶部7、8に
記憶する(ステップ105)。
Reference point coordinates stored in first storage units 3 and 4
And the light blocking position information are read into the coefficient calculating units 5 and 6.
It is. The coefficient calculation units 5 and 6 calculate the coefficient according to Expression (11) described later.
The coefficient (c11,
ctwenty one,. . . , C51) And (c)12, C twenty two,. . . , C
52) Is calculated (step 104) and stored in the second storage units 7 and 8.
It is stored (step 105).

【0081】ここまでの動作がキャリブレーション動作
モードであり、これを図1中に太い矢印で示す。これら
の一連の動作は、ユーザが座標入力装置を使用する前
に、あるいは座標入力装置を設置するときなどに、実行
される動作である。
The operation up to this point is the calibration operation mode, which is indicated by thick arrows in FIG. These series of operations are performed before the user uses the coordinate input device or when the user installs the coordinate input device.

【0082】キャリブレーション動作モードに続いて、
座標入力を行う動作モードとなる。以下、座標入力動作
について説明する。
Following the calibration operation mode,
This is an operation mode for inputting coordinates. Hereinafter, the coordinate input operation will be described.

【0083】座標入力面に挿入された指など光遮断物体
により、各センサヘッド1、2で光の遮断が生じる。つ
まり、キャリブレーションモードで説明したと同様にし
て、光束の遮断位置に対応する情報u1、u2が各センサ
ヘッド1、2で取得される(ステップ106)。
Light is blocked by the sensor heads 1 and 2 by a light blocking object such as a finger inserted into the coordinate input surface. That is, in the same manner as described in the calibration mode, the information u 1 and u 2 corresponding to the light blocking position are acquired by the sensor heads 1 and 2 (step 106).

【0084】さらに、前述したキャリブレーション動作
モードにおいて第2記憶部7、8に記憶された係数(c
11,c21,...,c51)および(c12
22,...,c 52)が読み出され(ステップ10
7)、座標演算部9は、u1,u2と(c11
21,...,c51)および(c12,c22,...,c
52)を用いて後述する式(14)に従って座標を演算し
(ステップ108)、指など光遮断物体が挿入された座
標(x、y)を、図示しないパソコンなどに出力する
(ステップ109)。
Further, the above-described calibration operation
In the mode, the coefficient (c) stored in the second storage units 7 and 8
11, Ctwenty one,. . . , C51) And (c)12,
ctwenty two,. . . , C 52) Is read (step 10)
7), the coordinate calculator 9 calculates u1, UTwoAnd (c11,
c twenty one,. . . , C51) And (c)12, Ctwenty two,. . . , C
52) Is used to calculate the coordinates according to equation (14) described below.
(Step 108), a seat into which a light blocking object such as a finger is inserted
Outputs the mark (x, y) to a personal computer (not shown)
(Step 109).

【0085】なお、図2の処理フローチャートにおいて
は、例えばセンサヘッド1側のキャリブレーション動作
モード(ステップ101〜105)とセンサヘッド2側
のキャリブレーション動作モード(ステップ101〜1
05)とが並列に行われ、その後、座標演算モード(ス
テップ106〜109)が実行されるが、センサヘッド
1側のキャリブレーション動作モードを実行し、次い
で、センサヘッド2側のキャリブレーション動作モード
を実行し、その後に座標演算モードを実行するようにし
てもよい。
In the processing flowchart of FIG. 2, for example, the calibration operation mode of the sensor head 1 (steps 101 to 105) and the calibration operation mode of the sensor head 2 (steps 101 to 1)
05) are performed in parallel, and then the coordinate calculation mode (steps 106 to 109) is executed. The calibration operation mode of the sensor head 1 is executed, and then the calibration operation mode of the sensor head 2 is executed. And then execute the coordinate calculation mode.

【0086】(実施例2)図1は、本発明の実施例2の
構成を示し、実施例1と同様である。図2は、本発明の
実施例2に係る処理フローチャートであり、実施例1と
同様である。本実施例の構成は、第3の実施形態である
図19で説明した光学式座標入力装置に適用される。
(Embodiment 2) FIG. 1 shows the configuration of Embodiment 2 of the present invention, which is the same as Embodiment 1. FIG. 2 is a processing flowchart according to the second embodiment of the present invention, which is similar to the first embodiment. The configuration of the present example is applied to the optical coordinate input device described in the third embodiment with reference to FIG.

【0087】以下の説明における「センサヘッド」は、
前述した第3の実施形態における撮像カメラに相当する
ものとする。図1は、センサヘッドが図25で示したよ
うに2つ設置されている例を示す。図25のセンサヘッ
ドLおよびセンサヘッドRを、説明の都合上、センサヘ
ッド1、センサヘッド2という。
The “sensor head” in the following description is
It is assumed that it corresponds to the imaging camera in the third embodiment described above. FIG. 1 shows an example in which two sensor heads are installed as shown in FIG. The sensor head L and the sensor head R in FIG. 25 are referred to as a sensor head 1 and a sensor head 2 for convenience of description.

【0088】キャリブレーションのための基準点の座標
は、座標入力面上の既知の座標であり、これを(x1
1)、(x2,y2)...(x5,y5)とする(ステ
ップ101)。
The coordinates of the reference point for calibration are known coordinates on the coordinate input surface, and are represented by (x 1 ,
y 1 ), (x 2 , y 2 ). . . (X 5, y 5) and (step 101).

【0089】例えば、本発明の座標入力装置を電子ディ
スプレイ上やプロジェクタを投影するスクリーン面上に
設置した構成例では、これらの基準点は、キャリブレー
ション動作時にディスプレイ上あるいはスクリーン面上
に所定の印として表示される。また、従来のホワイトボ
ード、黒板などでは、所定の座標を印刷した基準チャー
トなどを表面に張ったり、あらかじめ盤面に刻印などを
表記しておく方法などが考えられる。
For example, in a configuration example in which the coordinate input device of the present invention is installed on an electronic display or on a screen on which a projector is projected, these reference points are provided on a display or on a screen when calibration is performed. Will be displayed as Further, in a conventional whiteboard, blackboard, or the like, a method of setting a reference chart or the like on which predetermined coordinates are printed on the surface, or previously engraving a mark or the like on the board may be considered.

【0090】上記した各基準点(x1,y1)、(x2
2)...(x5,y5)には、指など光を遮断する指
示物体が挿入される。例えば、基準点(x1,y1)に指
を挿入した場合、センサヘッド1の撮像面に形成される
像位置(図20のA)に相当する情報をu11とする。同
様に、センサヘッド2での指示物体の像位置をu12とす
る(ステップ102)。
Each of the reference points (x 1 , y 1 ), (x 2 ,
y 2 ). . . The (x 5, y 5), the pointing object that blocks light fingers are inserted. For example, when a finger is inserted at the reference point (x 1 , y 1 ), let u 11 be information corresponding to an image position (A in FIG. 20) formed on the imaging surface of the sensor head 1. Similarly, the image position of the pointing of the sensor head 2 and u 12 (step 102).

【0091】uの第1の添字は基準点の添字に相当し、
第2の添字はセンサヘッドの番号に相当する。uとして
は、図20で示した指示物体の像位置に相当する情報で
あれば何を用いてもよい。
The first subscript of u corresponds to the subscript of the reference point,
The second subscript corresponds to the number of the sensor head. As u, any information may be used as long as it corresponds to the image position of the pointing object shown in FIG.

【0092】例えば、第3の実施形態の場合、図20で
受光素子がCCDである場合には、uとしては指示物体
の像位置に対応するCCDの画素添字(画素位置番号)
などを用いることができる。uは画素添字の他にCCD
を走査する信号のタイミングすなわちCCDを走査開始
してから指示物体の像位置に至るまでの時間でもよい。
For example, in the case of the third embodiment, when the light receiving element is a CCD in FIG. 20, u represents a pixel subscript (pixel position number) of the CCD corresponding to the image position of the pointing object.
Etc. can be used. u is a CCD in addition to the pixel subscript
, Or the time from the start of scanning the CCD to the image position of the pointing object.

【0093】また、これらには所定の係数やオフセット
がかかっていてもよく、装置の設計上都合のよいパラメ
ータを任意に使用できる。
Further, these may be given a predetermined coefficient or offset, and parameters convenient for the design of the apparatus can be arbitrarily used.

【0094】基準点(x1,y1)、(x2,y2)...
(x5,y5)に、それぞれ指示物体を挿入したときの、
センサヘッド1およびセンサヘッド2における指示物体
の像位置情報(u11,u21,...,u51)および(u
12,u22,...,u52)と基準点の座標とを、第1記
憶部3、4にそれぞれ記憶する(ステップ103)。
Reference points (x 1 , y 1 ), (x 2 , y 2 ). . .
(X 5 , y 5 )
The image position information (u 11 , u 21 ,..., U 51 ) of the pointing object in the sensor heads 1 and 2 and (u 11 )
12, u 22,. . . , U 52 ) and the coordinates of the reference point are stored in the first storage units 3 and 4, respectively (step 103).

【0095】第1記憶部3、4に記憶された基準点座標
および指示物体の像位置情報は、係数算出部5、6に読
み込まれる。係数算出部5、6は、後述する式(11)
に従ってそれぞれのセンサヘッド毎に係数(c11
21,...,c51)および(c 12,c22,...,c
52)を算出し(ステップ104)、第2記憶部7、8に
記憶する(ステップ105)。
Reference point coordinates stored in first storage units 3 and 4
And the image position information of the pointing object are read by the coefficient calculation units 5 and 6.
It is impregnated. The coefficient calculators 5 and 6 calculate the following equation (11).
And the coefficient (c11,
ctwenty one,. . . , C51) And (c) 12, Ctwenty two,. . . , C
52) Is calculated (step 104) and stored in the second storage units 7 and 8.
It is stored (step 105).

【0096】ここまでの動作がキャリブレーション動作
モードであり、これを図1中に太い矢印で示す。これら
の一連の動作は、ユーザが座標入力装置を使用する前
に、あるいは座標入力装置を設置するときなどに、実行
される動作である。
The operation up to this point is the calibration operation mode, which is indicated by thick arrows in FIG. These series of operations are performed before the user uses the coordinate input device or when the user installs the coordinate input device.

【0097】キャリブレーション動作モードに続いて、
座標入力を行う動作モードとなる。以下、座標入力動作
について説明する。
Following the calibration operation mode,
This is an operation mode for inputting coordinates. Hereinafter, the coordinate input operation will be described.

【0098】座標入力面に挿入された指など指示物体に
より、各センサヘッド1、2での像面で指示物体の像が
生じる。つまり、キャリブレーションモードで説明した
と同様にして、指示物体の像位置に対応する情報u1
2が各センサヘッド1、2で取得される(ステップ1
06)。
The pointing object such as a finger inserted into the coordinate input surface generates an image of the pointing object on the image plane of each of the sensor heads 1 and 2. That is, in the same manner as described in the calibration mode, information u 1 corresponding to the image position of the pointing object,
u 2 is acquired by each of the sensor heads 1 and 2 (step 1).
06).

【0099】さらに、前述したキャリブレーション動作
モードにおいて第2記憶部7、8に記憶された係数(c
11,c21,...,c51)および(c12
22,...,c 52)が読み出され(ステップ10
7)、座標演算部9は、u1,u2と(c11
21,...,c51)および(c12,c22,...,c
52)を用いて後述する式(14)に従って座標を演算し
(ステップ108)、指など指示物体が挿入された座標
(x、y)を、図示しないパソコンなどに出力する(ス
テップ109)。
Further, the above-described calibration operation
In the mode, the coefficient (c) stored in the second storage units 7 and 8
11, Ctwenty one,. . . , C51) And (c)12,
ctwenty two,. . . , C 52) Is read (step 10)
7), the coordinate calculator 9 calculates u1, UTwoAnd (c11,
c twenty one,. . . , C51) And (c)12, Ctwenty two,. . . , C
52) Is used to calculate the coordinates according to equation (14) described below.
(Step 108), coordinates where the pointing object such as a finger is inserted
(X, y) is output to a personal computer (not shown).
Step 109).

【0100】(実施例3)図1は、本発明の実施例3の
構成を示し、実施例1、2と同様である。図2は、本発
明の実施例3に係る処理フローチャートであり、実施例
1、2と同様である。本実施例の構成は、第4の実施形
態である図21で説明した光学式座標入力装置に適用さ
れる。
(Embodiment 3) FIG. 1 shows the configuration of Embodiment 3 of the present invention, which is the same as Embodiments 1 and 2. FIG. 2 is a processing flowchart according to the third embodiment of the present invention, which is similar to the first and second embodiments. The configuration of the present embodiment is applied to the optical coordinate input device described in the fourth embodiment with reference to FIG.

【0101】以下の説明における「センサヘッド」は、
前述した第4の実施形態における受発光手段に相当する
ものとする。図1は、センサヘッドが図25で示したよ
うに2つ設置されている例を示す。図25のセンサヘッ
ドLおよびセンサヘッドRを、説明の都合上、センサヘ
ッド1、センサヘッド2という。
The “sensor head” in the following description is
It corresponds to the light receiving / emitting means in the fourth embodiment described above. FIG. 1 shows an example in which two sensor heads are installed as shown in FIG. The sensor head L and the sensor head R in FIG. 25 are referred to as a sensor head 1 and a sensor head 2 for convenience of description.

【0102】キャリブレーションのための基準点の座標
は、座標入力面上の既知の座標であり、これを(x1
1)、(x2,y2)...(x5,y5)とする(ステ
ップ101)。
The coordinates of the reference point for calibration are known coordinates on the coordinate input surface, and are represented by (x 1 ,
y 1 ), (x 2 , y 2 ). . . (X 5, y 5) and (step 101).

【0103】例えば、本発明の座標入力装置を電子ディ
スプレイ上やプロジェクタを投影するスクリーン面上に
設置した構成例では、これらの基準点は、キャリブレー
ション動作時にディスプレイ上あるいはスクリーン面上
に所定の印として表示される。また、従来のホワイトボ
ード、黒板などでは、所定の座標を印刷した基準チャー
トなどを表面に張ったり、あらかじめ盤面に刻印などを
表記しておく方法などが考えられる。
For example, in a configuration example in which the coordinate input device of the present invention is installed on an electronic display or on a screen on which a projector is projected, these reference points are set to predetermined marks on the display or on the screen during the calibration operation. Will be displayed as Further, in a conventional whiteboard, blackboard, or the like, a method of setting a reference chart or the like on which predetermined coordinates are printed on the surface, or previously engraving a mark or the like on the board may be considered.

【0104】上記した各基準点(x1,y1)、(x2
2)...(x5,y5)には、再帰性反射素子を設置
した指示物体が挿入される。例えば、基準点(x1
1)に指示物体を挿入した場合、センサヘッド1の像
面に形成される指示物体の位置(図23のA)に相当す
る反射光位置情報をu11とする。同様に、センサヘッド
2での像面に形成される指示物体の位置に対応する反射
光位置情報をu12とする(ステップ102)。
Each of the reference points (x 1 , y 1 ), (x 2 ,
y 2 ). . . At (x 5 , y 5 ), the pointing object provided with the retroreflective element is inserted. For example, the reference point (x 1 ,
When the pointing object is inserted into y 1 ), the reflected light position information corresponding to the position (A in FIG. 23) of the pointing object formed on the image plane of the sensor head 1 is denoted by u 11 . Similarly, the reflected light position information corresponding to the position of the pointing formed on the image plane of the sensor head 2 and u 12 (step 102).

【0105】uの第1の添字は基準点の添字に相当し、
第2の添字はセンサヘッドの番号に相当する。uとして
は、図23で示した指示物体の位置に相当する情報であ
れば何を用いてもよい。
The first subscript of u corresponds to the subscript of the reference point,
The second subscript corresponds to the number of the sensor head. As u, any information may be used as long as it corresponds to the position of the pointing object shown in FIG.

【0106】例えば、第4の実施形態の場合、図23で
受光素子がCCDである場合には、uとしては指示物体
の位置(図23のA)に対応するCCDの画素添字(画
素位置番号)などを用いることができる。uは画素添字
の他にCCDを走査する信号のタイミングすなわちCC
Dを走査開始してから指示物体の像位置に至るまでの時
間でもよい。
For example, in the case of the fourth embodiment, when the light receiving element is a CCD in FIG. 23, u is a pixel subscript (pixel position number) of the CCD corresponding to the position of the pointing object (A in FIG. 23). ) Can be used. u is the timing of the signal for scanning the CCD, that is, CC
The time from the start of scanning of D to the position of the image of the pointing object may be used.

【0107】また、これらには所定の係数やオフセット
がかかっていてもよく、装置の設計上都合のよいパラメ
ータを任意に使用できる。
Further, these may be given a predetermined coefficient or offset, and parameters convenient for the design of the apparatus can be arbitrarily used.

【0108】基準点(x1,y1)、(x2,y2)...
(x5,y5)に、それぞれ指示物体を挿入したときの、
センサヘッド1およびセンサヘッド2における指示物体
の位置に対応する反射光位置情報(u11
21,...,u51)および(u12,u22,...,u
52)と基準点の座標とを、第1記憶部3、4にそれぞれ
記憶する(ステップ103)。
Reference points (x 1 , y 1 ), (x 2 , y 2 ). . .
(X 5 , y 5 )
The reflected light position information (u 11 ,
u 21 ,. . . , U 51 ) and (u 12 , u 22 ,.
52 ) and the coordinates of the reference point are stored in the first storage units 3 and 4, respectively (step 103).

【0109】第1記憶部3、4に記憶された基準点座標
および反射光位置情報は、係数算出手段5、6に読み込
まれる。係数算出手段5、6は、後述する式(11)に
従ってそれぞれのセンサヘッド毎に係数(c11
21,...,c51)および(c12,c22,...,c
52)を算出し(ステップ104)、第2記憶部7、8に
記憶する(ステップ105)。
The reference point coordinates and the reflected light position information stored in the first storage units 3 and 4 are read into the coefficient calculation means 5 and 6. The coefficient calculating means 5 and 6 calculate the coefficient (c 11 ,
c 21 ,. . . , C 51 ) and (c 12 , c 22 ,..., C
52 ) is calculated (step 104) and stored in the second storage units 7 and 8 (step 105).

【0110】ここまでの動作がキャリブレーション動作
モードであり、これを図1中に太い矢印で示す。これら
の一連の動作は、ユーザが座標入力装置を使用する前
に、あるいは座標入力装置を設置するときなどに、実行
される動作である。
The operation up to this point is the calibration operation mode, which is indicated by thick arrows in FIG. These series of operations are performed before the user uses the coordinate input device or when the user installs the coordinate input device.

【0111】キャリブレーション動作モードに続いて、
座標入力を行う動作モードとなる。以下、座標入力動作
について説明する。
Following the calibration operation mode,
This is an operation mode for inputting coordinates. Hereinafter, the coordinate input operation will be described.

【0112】座標入力面に挿入された帰性反射素子が設
置された指示物体により、各センサヘッド1、2で光の
再帰反射が生じる。つまり、キャリブレーションモード
で説明したと同様にして、指示物体の位置に対応する情
報u1、u2が各センサヘッド1、2で取得される(ステ
ップ106)。
A retroreflecting light is generated at each of the sensor heads 1 and 2 by the pointing object having the retroreflective element inserted into the coordinate input surface. That is, information u 1 and u 2 corresponding to the position of the pointing object are acquired by the sensor heads 1 and 2 in the same manner as described in the calibration mode (step 106).

【0113】さらに、前述したキャリブレーション動作
モードにおいて第2記憶部7、8に記憶された係数(c
11,c21,...,c51)および(c12
22,...,c 52)が読み出され(ステップ10
7)、座標演算部9は、u1,u2と(c11
21,...,c51)および(c12,c22,...,c
52)を用いて後述する式(14)に従って座標を演算し
(ステップ108)、指など指示物体が挿入された座標
(x、y)を、図示しないパソコンなどに出力する(ス
テップ109)。
Further, the above-described calibration operation
In the mode, the coefficient (c) stored in the second storage units 7 and 8
11, Ctwenty one,. . . , C51) And (c)12,
ctwenty two,. . . , C 52) Is read (step 10)
7), the coordinate calculator 9 calculates u1, UTwoAnd (c11,
c twenty one,. . . , C51) And (c)12, Ctwenty two,. . . , C
52) Is used to calculate the coordinates according to equation (14) described below.
(Step 108), coordinates where the pointing object such as a finger is inserted
(X, y) is output to a personal computer (not shown).
Step 109).

【0114】以下に、前述した係数の算出と座標の演算
について詳述する。一般にカメラ系では、3次元空間の
物体を撮影し、2次元のフィルム面にその像を記録す
る。図3は、カメラ系の概念を説明する図である。
(x,y,z)は物体空間座標で、p(x,y,z)は
物体の位置とする。また、(u,v)は像空間座標で、
像面上の像の位置を表す座標系である。また点rはレン
ズの主点位置とする。3次元の物体空間上の点pは、レ
ンズを経て、写像fにより2次元の像空間上の点qへ変
換される。すなわち
The calculation of the coefficients and the calculation of the coordinates will be described in detail below. In general, a camera system shoots an object in a three-dimensional space and records the image on a two-dimensional film surface. FIG. 3 is a diagram illustrating the concept of a camera system.
(X, y, z) is the object space coordinates, and p (x, y, z) is the position of the object. (U, v) is the image space coordinates,
This is a coordinate system representing the position of the image on the image plane. The point r is the principal point position of the lens. The point p in the three-dimensional object space is converted into a point q in the two-dimensional image space by a mapping f via a lens. Ie

【数7】 このときの写像fが推定できれば、これの逆写像を用い
て、2次元のフィルム面上の像の位置から3次元の物体
空間の物体の位置を推定することができる。
(Equation 7) If the mapping f at this time can be estimated, the position of the object in the three-dimensional object space can be estimated from the position of the image on the two-dimensional film surface by using the inverse mapping of the mapping f.

【0115】ここでカメラ系とは、前述した第1の実施
形態、第3の実施形態で説明した受光レンズ系および撮
像カメラ系に相当する。さらに第2の実施形態で示した
回転走査系に関しても、実施例1で説明したように、図
18で示したAに相当する時間Δtまたは時刻t1に対
してftanωΔtまたはftanωt1の変換を施し
た値をuとすることで、これをカメラ系と同等に扱うこ
とができ、以下の説明による写像の推定および推定され
た写像から座標を演算することができる。
Here, the camera system corresponds to the light receiving lens system and the imaging camera system described in the first and third embodiments. Further, as described in the first embodiment, the value obtained by performing the conversion of ftanωΔt or ftanωt1 with respect to the time Δt or time t1 corresponding to A shown in FIG. 18 also in the rotary scanning system described in the second embodiment. By setting u to u, it is possible to treat this as equivalent to the camera system, and it is possible to estimate the mapping according to the following description and calculate the coordinates from the estimated mapping.

【0116】一般に写像fは、式(6)、式(7)で表
される(例えば、徐 剛、3次元ビジョン、p79、共
立出版、1998年を参照)。
In general, the mapping f is represented by Expressions (6) and (7) (for example, see Xu Jiang, 3D Vision, p79, Kyoritsu Shuppan, 1998).

【0117】[0117]

【数8】 (Equation 8)

【数9】 ここで、本発明が適用される、前述した光学式座標入力
装置における座標入力系を考える。この座標系は、物体
空間が2次元であり、像空間が1次元と考えることがで
きる。すなわち、物体空間は座標入力領域であり、平面
上に拘束される。また、第1、第3の実施形態では、像
空間は1次元CCDまたは2次元CCD上の座標入力面
に平行な直線上であり、CCD画素の配列に沿って直線
上に拘束される。第2の実施形態では、回転走査によ
る、受光素子上の信号の時系列変化がuであるから、こ
れも1次元に拘束される。
(Equation 9) Here, a coordinate input system in the above-described optical coordinate input device to which the present invention is applied will be considered. In this coordinate system, the object space is two-dimensional, and the image space is one-dimensional. That is, the object space is a coordinate input area and is constrained on a plane. In the first and third embodiments, the image space is a straight line parallel to the coordinate input surface on the one-dimensional CCD or the two-dimensional CCD, and is constrained on a straight line along the CCD pixel array. In the second embodiment, since the time-series change of the signal on the light receiving element due to the rotational scanning is u, this is also restricted to one dimension.

【0118】すなわち、式(6)、(7)の一般式に対
して、像空間のu軸は物体空間のx−y平面と同一平面
内にあると仮定する。従って、式(6)、(7)は、係
数c 4,c9,c10を、c3,c4,c5と書き換えて式
(8)のように表され、さらに展開して式(9)を得
る。
That is, the general formulas (6) and (7)
Then, the u axis of the image space is the same plane as the xy plane of the object space.
Assume that Therefore, equations (6) and (7) are
Number c Four, C9, CTenAnd cThree, CFour, CFiveAnd rewritten as
It is expressed as (8) and further expanded to obtain equation (9)
You.

【数10】 1x+c2y+c3−c4ux−c5uy=u 式(9)(Equation 10) c 1 x + c 2 y + c 3 −c 4 ux−c 5 uu = u Equation (9)

【0119】式(9)は、座標入力面上の座標(x,
y)と、本発明が適用される実施形態のセンサヘッドか
ら得られるuを関係付ける式である。ここで、c1
2,c3,c4,c5は係数であり、センサヘッド毎にそ
れぞれ存在する。前述したキャリブレーション動作モー
ドでは、この係数をセンサヘッド毎に決定する。
The equation (9) is expressed by the coordinates (x,
This is an equation that relates y) to u obtained from the sensor head of the embodiment to which the present invention is applied. Where c 1 ,
c 2 , c 3 , c 4 , and c 5 are coefficients, and exist for each sensor head. In the above-described calibration operation mode, this coefficient is determined for each sensor head.

【0120】以下、これら係数の決定方法を説明する。
n番目のセンサヘッドの係数c1n,c2n,...c
5nは、以下のようにして求める。すなわち、m個の既知
の点p1(x1,y1),p2(x2,y2),...p
m(xm,ym)と、それに対応するn番目のセンサヘッ
ドにおける像位置q1n(u 1n),q2n(u2n),...
mn(umn)に対して、式(9)より、以下の連立方程
式が得られる。
Hereinafter, the method of determining these coefficients will be described.
Coefficient c of the n-th sensor head1n, C2n,. . . c
5nIs obtained as follows. That is, m known
The point p1(X1, Y1), PTwo(XTwo, YTwo) ,. . . p
m(Xm, Ym) And the corresponding n-th sensor head.
Image position q1n(U 1n), Q2n(U2n) ,. . .
qmn(Umn), From equation (9), the following simultaneous equations
An expression is obtained.

【数11】 未知係数が5個なので、式(10)でm=5とし、5個
の既知の点pに対して、それぞれに対応する像面位置q
を求める。図1における係数算出部5、6では、式(1
0)を解いた式(11)に従って、係数ベクトル
{c1n,c2n,...c 5n}をセンサヘッド毎に演算
し、第2記憶部7、8に記憶する。
[Equation 11]Since there are five unknown coefficients, m = 5 in equation (10) and five
For the known point p, the corresponding image plane position q
Ask for. In the coefficient calculation units 5 and 6 in FIG.
0) according to equation (11)
{C1n, C2n,. . . c 5n演算 is calculated for each sensor head
Then, the data is stored in the second storage units 7 and 8.

【数12】 (Equation 12)

【0121】次に、座標入力動作モードにおける座標の
演算方法を説明する。センサヘッドの数をnとし、それ
ぞれのセンサヘッドに対する係数をc1i,c2i,c3i
4i,c5i(i=1,2,...n)とする。また、n
個のセンサヘッドにおける像位置をu1,u2,...u
nとする。
Next, a method of calculating coordinates in the coordinate input operation mode will be described. Let n be the number of sensor heads and the coefficients for each sensor head be c 1i , c 2i , c 3i ,
Let c 4i , c 5i (i = 1, 2,... n). Also, n
The image positions in the sensor heads are denoted by u 1 , u 2 ,. . . u
Let it be n .

【0122】式(9)より、物体空間座標(座標入力面
上の座標)(x,y)は、式(12)の連立方程式を満
たす。
From equation (9), the object space coordinates (coordinates on the coordinate input plane) (x, y) satisfy the simultaneous equations of equation (12).

【数13】 従って、座標入力領域上の物体座標(x,y)は、式
(12)を解いて、式(13)で求められる。
(Equation 13) Therefore, the object coordinates (x, y) on the coordinate input area can be obtained by solving equation (12) and using equation (13).

【数14】 [Equation 14]

【0123】本発明が適用される実施形態例において、
座標入力装置ではセンサヘッド数は2個であるので、n
=2とする。図1の座標演算部9では、式(13)でn
=2とした、式(14)に従って、指などの指示物体が
挿入された座標入力面上の座標(x,y)を演算し、出
力する。
In the embodiment to which the present invention is applied,
Since the coordinate input device has two sensor heads, n
= 2. In the coordinate calculation unit 9 of FIG.
= 2, the coordinates (x, y) on the coordinate input surface where the pointing object such as a finger is inserted are calculated and output in accordance with Expression (14).

【数15】 (実施例4)図4は、本発明の実施例4の構成を示す。
図5は、本発明の実施例4に係る処理フローチャートで
ある。本実施例の構成は、第1の実施形態である図1
3、14、15で説明した光学式座標入力装置に適用さ
れる。図4は、センサヘッドが図25で示したように2
つ設置されている例を示す。
(Equation 15) (Embodiment 4) FIG. 4 shows the configuration of Embodiment 4 of the present invention.
FIG. 5 is a processing flowchart according to the fourth embodiment of the present invention. The configuration of the present embodiment is similar to that of the first embodiment shown in FIG.
This is applied to the optical coordinate input device described in 3, 14, and 15. FIG. 4 shows the case where the sensor head is 2 as shown in FIG.
The following shows an example in which one is installed.

【0124】キャリブレーションのための基準点の座標
は、座標入力面上の既知の座標であり、これを(x1
1)、(x2,y2)...(x5,y5)とする(ステ
ップ201)。
The coordinates of the reference point for calibration are known coordinates on the coordinate input surface, and are represented by (x 1 ,
y 1 ), (x 2 , y 2 ). . . (X 5, y 5) and (step 201).

【0125】例えば、本発明の座標入力装置を電子ディ
スプレイ上やプロジェクタを投影するスクリーン面上に
設置した構成例では、これらの基準点は、キャリブレー
ション動作時にディスプレイ上あるいはスクリーン面上
に所定の印として表示される。また、従来のホワイトボ
ード、黒板などでは、所定の座標を印刷した基準チャー
トなどを表面に張ったり、あらかじめ盤面に刻印などを
表記しておく方法などが考えられる。
For example, in a configuration example in which the coordinate input device of the present invention is installed on an electronic display or on a screen on which a projector is projected, these reference points are provided at predetermined marks on the display or on the screen during the calibration operation. Will be displayed as Further, in a conventional whiteboard, blackboard, or the like, a method of setting a reference chart or the like on which predetermined coordinates are printed on the surface, or previously engraving a mark or the like on the board may be considered.

【0126】これらの各基準点(x1,y1)、(x2
2)...(x5,y5)に、それぞれ指など光を遮断
する物体を指示手段として挿入する。このときセンサヘ
ッドからはセンサヘッド像面の光強度分布(図15)が
出力される。出力された強度分布はディップ位置情報検
出部10、11に送られ、ここでディップ位置情報が得
られる。ディップは光強度分布中の光遮断による暗い点
の位置を示す。ディップ位置情報の取得は、例えば所定
のしきい値を設け、光強度がしきい値と交差する点の受
光素子上での位置を2カ所探索し、この位置の平均をデ
ィップ位置とする方法が考えられる。また、他の方法と
して、所定のしきい値より光強度が大きくなった点の受
光素子上での位置を加算し、加算回数で割って、ディッ
プ位置の重心を求めるなどの方法が考えられる。
Each of these reference points (x 1 , y 1 ), (x 2 ,
y 2 ). . . To (x 5, y 5), to insert an object, each blocking light finger as indicating means. At this time, the light intensity distribution (FIG. 15) on the sensor head image plane is output from the sensor head. The output intensity distribution is sent to the dip position information detecting units 10 and 11, where the dip position information is obtained. The dip indicates the position of a dark spot due to light blocking in the light intensity distribution. The dip position information can be obtained by, for example, setting a predetermined threshold value, searching for two positions on the light receiving element at a point where the light intensity crosses the threshold value, and using the average of the positions as the dip position. Conceivable. Further, as another method, a method of adding the position on the light receiving element of the point where the light intensity becomes larger than the predetermined threshold value and dividing the sum by the number of additions to obtain the center of gravity of the dip position can be considered.

【0127】前述した光強度分布の横軸に相当する、受
光素子面上での位置に相当する情報は、受光素子面上で
の実スケールの位置である必要はなく、光束の遮断位置
に相当する情報であれば何を用いてもよい。また、uに
は任意の係数やオフセットがかかっていてもよく、装置
の設計上都合の良いパラメータを任意に使用することが
できる。
The information corresponding to the position on the light receiving element surface corresponding to the horizontal axis of the light intensity distribution described above does not need to be the actual scale position on the light receiving element surface, but corresponds to the light blocking position. Any information may be used as long as the information is provided. Further, u may be given an arbitrary coefficient or offset, and any parameter convenient for the design of the apparatus can be arbitrarily used.

【0128】基準点(x1,y1)に指を挿入した場合、
ディップ位置情報検出部10で出力される情報をu11
する。同様にセンサヘッド2での光束の遮断位置をu12
とする。uの第一の添字は基準点の添字に相当し、第二
の添字はセンサヘッドの番号に相当する。
When a finger is inserted at the reference point (x 1 , y 1 ),
The information output by the dip position information detecting unit 10 and u 11. Similarly, the light blocking position of the sensor head 2 is set to u 12
And The first subscript of u corresponds to the reference point subscript, and the second subscript corresponds to the sensor head number.

【0129】基準点(x1,y1)、(x2,y2)...
(x5,y5)に、それぞれ物体を挿入したときの、セン
サヘッド1およびセンサヘッド2のディップ位置情報検
出部10、11で検出されたディップ位置情報(u11
21,...,u51)および(u12,u22,...,u
52)と基準点の座標とを、第1記憶部3、4にそれぞれ
記憶する(ステップ203)。
Reference points (x 1 , y 1 ), (x 2 , y 2 ). . .
Dip position information (u 11 , u 11) detected by the dip position information detection units 10 and 11 of the sensor head 1 and the sensor head 2 when an object is inserted into (x 5 , y 5 ), respectively.
u 21 ,. . . , U 51 ) and (u 12 , u 22 ,.
52 ) and the coordinates of the reference point are stored in the first storage units 3 and 4, respectively (step 203).

【0130】第1記憶部3、4に記憶された基準点座標
およびディップ位置情報は、係数算出手段5、6に読み
込まれ、それぞれのセンサヘッド毎に係数(c11
21,...,c51)および(c12,c22,...,c
52)を算出し(ステップ204)、第2記憶部7、8に
記憶する(ステップ205)。
The reference point coordinates and the dip position information stored in the first storage units 3 and 4 are read by the coefficient calculating means 5 and 6, and the coefficient (c 11 ,
c 21 ,. . . , C 51 ) and (c 12 , c 22 ,..., C
52 ) is calculated (step 204) and stored in the second storage units 7 and 8 (step 205).

【0131】ここまでの動作がキャリブレーション動作
モードであり、ユーザが座標入力装置を使用する前に、
あるいは座標入力装置を設置するときなどに、実行され
る動作である。キャリブレーション動作モードに続い
て、座標入力を行う動作モードとなる。
The operation up to this point is the calibration operation mode. Before the user uses the coordinate input device,
Alternatively, the operation is performed when a coordinate input device is installed. Subsequent to the calibration operation mode, the operation mode is for inputting coordinates.

【0132】座標入力面に挿入された指など光遮断物体
により、各センサヘッド1、2で光の遮断によるディッ
プが生じる。センサヘッド1およびセンサヘッド2のデ
ィップ位置情報検出部10、11では、光速の遮断位置
に対応するディップ位置情報u1、u2を検出する(ステ
ップ206)。
A light blocking object such as a finger inserted into the coordinate input surface causes a dip in each of the sensor heads 1 and 2 due to light blocking. The dip position information detection units 10 and 11 of the sensor head 1 and the sensor head 2 detect dip position information u 1 and u 2 corresponding to the light speed cutoff position (step 206).

【0133】さらに、前述したキャリブレーション動作
モードにおいて第2記憶部7、8に記憶された係数(c
11,c21,...,c51)および(c12
22,...,c 52)が読み出され(ステップ20
7)、座標演算部9は、u1,u2と(c11
21,...,c51)および(c12,c22,...,c
52)を用いて、前述した各実施例と同様にして演算し
(ステップ208)、指など光遮断物体が挿入された座
標(x、y)を出力する(ステップ209)。
Furthermore, the above-described calibration operation
In the mode, the coefficient (c) stored in the second storage units 7 and 8
11, Ctwenty one,. . . , C51) And (c)12,
ctwenty two,. . . , C 52) Is read (step 20)
7), the coordinate calculator 9 calculates u1, UTwoAnd (c11,
c twenty one,. . . , C51) And (c)12, Ctwenty two,. . . , C
52) Is calculated in the same manner as in each of the above-described embodiments.
(Step 208) A seat into which a light blocking object such as a finger is inserted.
The target (x, y) is output (step 209).

【0134】(実施例5)図6は、本発明の実施例5の
構成を示す。図5は、本発明の実施例5に係る処理フロ
ーチャートであり、実施例4と同様である。本実施例の
構成は、第3の実施形態である図19、20で説明した
光学式座標入力装置に適用される。図6は、センサヘッ
ドが図25で示したように2つ設置されている例を示
す。
(Embodiment 5) FIG. 6 shows the configuration of Embodiment 5 of the present invention. FIG. 5 is a processing flowchart according to the fifth embodiment of the present invention, which is similar to the fourth embodiment. The configuration of this example is applied to the optical coordinate input device described in the third embodiment with reference to FIGS. FIG. 6 shows an example in which two sensor heads are installed as shown in FIG.

【0135】キャリブレーションのための基準点の座標
は、座標入力面上の既知の座標であり、これを(x1
1)、(x2,y2)...(x5,y5)とする(ステ
ップ201)。
The coordinates of the reference point for calibration are known coordinates on the coordinate input surface, and are represented by (x 1 ,
y 1 ), (x 2 , y 2 ). . . (X 5, y 5) and (step 201).

【0136】例えば、本発明の座標入力装置を電子ディ
スプレイ上やプロジェクタを投影するスクリーン面上に
設置した構成例では、これらの基準点は、キャリブレー
ション動作時にディスプレイ上あるいはスクリーン面上
に所定の印として表示される。また、従来のホワイトボ
ード、黒板などでは、所定の座標を印刷した基準チャー
トなどを表面に張ったり、あらかじめ盤面に刻印などを
表記しておく方法などが考えられる。
For example, in a configuration example in which the coordinate input device of the present invention is installed on an electronic display or on a screen on which a projector is projected, these reference points are provided on a display or on a screen when calibration is performed. Will be displayed as Further, in a conventional whiteboard, blackboard, or the like, a method of setting a reference chart or the like on which predetermined coordinates are printed on the surface, or previously engraving a mark or the like on the board may be considered.

【0137】これら基準点に、それぞれ指など指示物体
を指示手段として挿入する。このときセンサヘッド1、
2からはセンサヘッド像面の光強度分布(図20)が出
力される。出力された強度分布はピーク位置情報検出部
19、20に送られ、ここでピーク位置情報が得られ
る。ピークは光強度分布中の指示物体の像による明るい
点の位置を示す。ピーク位置情報の取得は、例えば所定
のしきい値を設け、光強度がしきい値と交差する点の受
光素子上での位置を2カ所探索し、この位置の平均をピ
ーク位置とする方法が考えられる。また、他の方法とし
て、所定のしきい値より光強度が大きくなった点の受光
素子上での位置を加算し、加算回数で割って、ピーク位
置の重心を求めるなどの方法が考えられる。
At each of these reference points, a pointing object such as a finger is inserted as pointing means. At this time, the sensor head 1,
2 outputs the light intensity distribution on the image plane of the sensor head (FIG. 20). The output intensity distribution is sent to peak position information detectors 19 and 20, where peak position information is obtained. The peak indicates the position of a bright point in the light intensity distribution due to the image of the pointing object. The peak position information can be obtained by, for example, setting a predetermined threshold value, searching for two positions on the light receiving element at a point where the light intensity crosses the threshold value, and using the average of the positions as the peak position. Conceivable. As another method, a method of adding the position on the light receiving element of the point where the light intensity becomes larger than the predetermined threshold value and dividing the sum by the number of additions to obtain the center of gravity of the peak position can be considered.

【0138】前述した光強度分布の横軸に相当する、受
光素子面上での位置に相当する情報は、受光素子面上で
の実スケールの位置である必要はなく、光束の遮断位置
に相当する情報であれば何を用いてもよい。uとしては
任意の係数やオフセットがかかっていてもよく、装置の
設計上都合の良いパラメータを任意に使用することがで
きる。
The information corresponding to the position on the light receiving element surface corresponding to the horizontal axis of the light intensity distribution described above does not need to be the actual scale position on the light receiving element surface, but corresponds to the light blocking position. Any information may be used as long as the information is provided. As u, any coefficient or offset may be applied, and parameters convenient for the design of the apparatus can be arbitrarily used.

【0139】基準点(x1,y1)に指を挿入した場合、
ピーク位置情報検出部19で出力される情報をu11とす
る。同様にセンサヘッド2でのピーク位置をu12とす
る。uの第一の添字は基準点の添字に相当し、第二の添
字はセンサヘッドの番号に相当する。
When a finger is inserted at the reference point (x 1 , y 1 ),
The information output by the peak position information detecting unit 19 and u 11. Similarly the peak position of the sensor head 2 and u 12. The first subscript of u corresponds to the reference point subscript, and the second subscript corresponds to the sensor head number.

【0140】基準点(x1,y1)、(x2,y2)...
(x5,y5)に、それぞれ物体を挿入したときの、セン
サヘッド1およびセンサヘッド2のピーク位置情報検出
部19、20で検出されたピーク位置情報(u11
21,...,u51)および(u 12,u22,...,u
52)と基準点の座標とを、第1記憶部3、4にそれぞれ
記憶する(ステップ203)。
The reference point (x1, Y1), (XTwo, YTwo). . .
(XFive, YFive), When each object is inserted,
Peak position information detection of sub head 1 and sensor head 2
The peak position information (u11,
utwenty one,. . . , U51) And (u) 12, Utwenty two,. . . , U
52) And the coordinates of the reference point are stored in the first storage units 3 and 4, respectively.
It is stored (step 203).

【0141】第1記憶部3、4に記憶された基準点座標
およびピーク位置情報は、係数算出手段5、6に読み込
まれ、それぞれのセンサヘッド毎に係数(c11
21,...,c51)および(c12,c22,...,c
52)を算出し(ステップ204)、第2記憶部7、8に
記憶する(ステップ205)。
The reference point coordinates and the peak position information stored in the first storage units 3 and 4 are read by the coefficient calculation means 5 and 6, and the coefficient (c 11 ,
c 21 ,. . . , C 51 ) and (c 12 , c 22 ,..., C
52 ) is calculated (step 204) and stored in the second storage units 7 and 8 (step 205).

【0142】ここまでの動作がキャリブレーション動作
モードであり、ユーザが座標入力装置を使用する前に、
あるいは座標入力装置を設置するときなどに、実行され
る動作である。キャリブレーション動作モードに続い
て、座標入力を行う動作モードとなる。
The operation up to this point is the calibration operation mode, and before the user uses the coordinate input device,
Alternatively, the operation is performed when a coordinate input device is installed. Subsequent to the calibration operation mode, the operation mode is for inputting coordinates.

【0143】座標入力面に挿入された指など光遮断物体
により、各センサヘッド1、2で指示物体の像による光
強度のピークが生じる。センサヘッド1およびセンサヘ
ッド2のピーク位置情報検出部19、20では、指示物
体の像位置に対応する情報u 1、u2を検出する(ステッ
プ206)。
Light blocking object such as a finger inserted into the coordinate input surface
Light from the image of the pointing object by each sensor head 1 and 2
An intensity peak occurs. Sensor head 1 and sensor
In the peak position information detection units 19 and 20 of the
Information u corresponding to the image position of the body 1, UTwoIs detected (step
206).

【0144】さらに、前述したキャリブレーション動作
モードにおいて第2記憶部7、8に記憶された係数(c
11,c21,...,c51)および(c12
22,...,c 52)が読み出され(ステップ20
7)、座標演算部9は、u1,u2と(c11
21,...,c51)および(c12,c22,...,c
52)を用いて、前述した各実施例と同様にして演算し
(ステップ208)、指など指示物体が挿入された座標
(x、y)を出力する(ステップ209)。
Further, the above-described calibration operation
In the mode, the coefficient (c) stored in the second storage units 7 and 8
11, Ctwenty one,. . . , C51) And (c)12,
ctwenty two,. . . , C 52) Is read (step 20)
7), the coordinate calculator 9 calculates u1, UTwoAnd (c11,
c twenty one,. . . , C51) And (c)12, Ctwenty two,. . . , C
52) Is calculated in the same manner as in each of the above-described embodiments.
(Step 208), coordinates where the pointing object such as a finger is inserted
(X, y) is output (step 209).

【0145】(実施例6)図4は、本発明の実施例6の
構成を示す。本実施例では、指示手段によって指示され
た座標に対応する情報として、受光手段における光強度
の時間変化において、所定の分布形状を有する部分を用
いる実施例である。本実施例の構成は、第2の実施形態
である図13、17、18で説明した光学式座標入力装
置に適用される。図4は、センサヘッドが図25で示し
たように2つ設置されている例を示す。
(Embodiment 6) FIG. 4 shows the configuration of Embodiment 6 of the present invention. In the present embodiment, a portion having a predetermined distribution shape in the time change of the light intensity in the light receiving means is used as the information corresponding to the coordinates designated by the designation means. The configuration of this embodiment is applied to the optical coordinate input device described in the second embodiment with reference to FIGS. FIG. 4 shows an example in which two sensor heads are installed as shown in FIG.

【0146】キャリブレーションのための基準点の座標
は、座標入力面上の既知の座標であり、これを(x1
1)、(x2,y2)...(x5,y5)とする。
The coordinates of the reference point for calibration are known coordinates on the coordinate input surface, and are represented by (x 1 ,
y 1 ), (x 2 , y 2 ). . . And (x 5, y 5).

【0147】例えば、本発明の座標入力装置を電子ディ
スプレイ上やプロジェクタを投影するスクリーン面上に
設置した構成例では、これらの基準点は、キャリブレー
ション動作時にディスプレイ上あるいはスクリーン面上
に所定の印として表示される。また、従来のホワイトボ
ード、黒板などでは、所定の座標を印刷した基準チャー
トなどを表面に張ったり、あらかじめ盤面に刻印などを
表記しておく方法などが考えられる。
For example, in a configuration example in which the coordinate input device of the present invention is installed on an electronic display or on a screen on which a projector is projected, these reference points are provided at predetermined marks on the display or on the screen during the calibration operation. Will be displayed as Further, in a conventional whiteboard, blackboard, or the like, a method of setting a reference chart or the like on which predetermined coordinates are printed on the surface, or previously engraving a mark or the like on the board may be considered.

【0148】これらの各基準点(x1,y1)、(x2
2)...(x5,y5)に、それぞれ指など光を遮断
する物体を指示手段として挿入する。このときセンサヘ
ッドからはセンサヘッド像面の光強度分布(図18)が
出力される。出力された強度分布はディップ位置情報検
出部に送られ、ここでディップ位置情報が得られる。デ
ィップは光強度分布中の光遮断による暗点の位置(光強
度の時間変化における所定の分布形状を有する部分)を
示す。ディップ位置情報の取得は、例えば所定のしきい
値を設け、光強度がしきい値と交差する点の受光素子上
での位置を2カ所探索し、この位置の平均をディップ位
置とする方法が考えられる。また、他の方法として、所
定のしきい値より光強度が大きくなった点の受光素子上
での位置を加算し、加算回数で割って、ディップ位置の
重心を求めるなどの方法が考えられる。
Each of these reference points (x 1 , y 1 ), (x 2 ,
y 2 ). . . To (x 5, y 5), to insert an object, each blocking light finger as indicating means. At this time, the light intensity distribution (FIG. 18) on the sensor head image plane is output from the sensor head. The output intensity distribution is sent to the dip position information detecting unit, where the dip position information is obtained. The dip indicates a position of a dark spot (a portion having a predetermined distribution shape in a temporal change in light intensity) due to light blocking in the light intensity distribution. The dip position information can be obtained by, for example, setting a predetermined threshold value, searching for two positions on the light receiving element at a point where the light intensity crosses the threshold value, and using the average of the positions as the dip position. Conceivable. Further, as another method, a method of adding the position on the light receiving element of the point where the light intensity becomes larger than the predetermined threshold value and dividing the sum by the number of additions to obtain the center of gravity of the dip position can be considered.

【0149】前述した光強度分布の横軸に相当する、受
光素子面上での位置に相当する情報は、受光素子面上で
の実スケールの位置である必要はなく、光束の遮断位置
に相当する情報であれば何を用いてもよい。例えば、図
18で光束の遮断位置に対応する時刻t1を変換しta
nωt1をuとして用いることができる。また、uには
任意の係数やオフセットがかかっていてもよく、装置の
設計上都合の良いパラメータを任意に使用することがで
きる。
The information corresponding to the position on the light receiving element surface corresponding to the horizontal axis of the light intensity distribution described above does not need to be the actual scale position on the light receiving element surface, but corresponds to the light blocking position. Any information may be used as long as the information is provided. For example, in FIG. 18, the time t1 corresponding to the light-blocking position is converted to ta.
nωt1 can be used as u. Further, u may be given an arbitrary coefficient or offset, and any parameter convenient for the design of the apparatus can be arbitrarily used.

【0150】基準点(x1,y1)に指を挿入した場合、
ディップ位置情報検出部で出力される情報をu11とす
る。同様にセンサヘッド2での光束の遮断位置をu12
する。uの第一の添字は基準点の添字に相当し、第二の
添字はセンサヘッドの番号に相当する。
When a finger is inserted at the reference point (x 1 , y 1 ),
The information output by the dip position information detection unit and u 11. Likewise the blocking position of the light beam in the sensor head 2 and u 12. The first subscript of u corresponds to the reference point subscript, and the second subscript corresponds to the sensor head number.

【0151】基準点(x1,y1)、(x2,y2)...
(x5,y5)に、それぞれ物体を挿入したときの、セン
サヘッド1およびセンサヘッド2のディップ位置情報検
出部10、11で検出されたディップ位置情報(u11
21,...,u51)および(u12,u22,...,u
52)と基準点の座標とを、第1記憶部3、4にそれぞれ
記憶する。
Reference points (x 1 , y 1 ), (x 2 , y 2 ). . .
Dip position information (u 11 , u 11) detected by the dip position information detection units 10 and 11 of the sensor head 1 and the sensor head 2 when an object is inserted into (x 5 , y 5 ), respectively.
u 21 ,. . . , U 51 ) and (u 12 , u 22 ,.
52 ) and the coordinates of the reference point are stored in the first storage units 3 and 4, respectively.

【0152】第1記憶部3、4に記憶された基準点座標
およびディップ(暗点)位置情報は、係数算出手段5、
6に読み込まれ、それぞれのセンサヘッド毎に係数(c
11,c21,...,c51)および(c12
22,...,c52)を算出し、第2記憶部7、8に記
憶する。
The reference point coordinates and dip (dark point) position information stored in the first storage units 3 and 4 are stored in the coefficient calculating unit 5.
6 and a coefficient (c
11 , c21 ,. . . , C 51 ) and (c 12 ,
c 22 ,. . . , C 52 ) are calculated and stored in the second storage units 7 and 8.

【0153】ここまでの動作がキャリブレーション動作
モードであり、ユーザが座標入力装置を使用する前に、
あるいは座標入力装置を設置するときなどに、実行され
る動作である。キャリブレーション動作モードに続い
て、座標入力を行う動作モードとなる。
The operation up to this point is the calibration operation mode. Before the user uses the coordinate input device,
Alternatively, the operation is performed when a coordinate input device is installed. Subsequent to the calibration operation mode, the operation mode is for inputting coordinates.

【0154】座標入力面に挿入された指など光遮断物体
により、各センサヘッド1、2で光の遮断によるディッ
プが生じる。センサヘッド1およびセンサヘッド2のデ
ィップ位置情報検出部10、11では、光速の遮断位置
に対応するディップ位置情報u1、u2を検出する。
A light blocking object such as a finger inserted into the coordinate input surface causes a dip in each of the sensor heads 1 and 2 due to light blocking. The dip position information detectors 10 and 11 of the sensor head 1 and the sensor head 2 detect dip position information u 1 and u 2 corresponding to the cutoff position of the speed of light.

【0155】さらに、前述したキャリブレーション動作
モードにおいて第2記憶部7、8に記憶された係数(c
11,c21,...,c51)および(c12
22,...,c 52)が読み出され、座標演算部9は、
1,u2と(c11,c21,...,c51)および
(c12,c22,...,c52)を用いて、前述した各実
施例と同様にして演算し、指など光遮断物体が挿入され
た座標(x、y)を出力する。
Further, the above-described calibration operation
In the mode, the coefficient (c) stored in the second storage units 7 and 8
11, Ctwenty one,. . . , C51) And (c)12,
ctwenty two,. . . , C 52) Is read out, and the coordinate calculation unit 9
u1, UTwoAnd (c11, Ctwenty one,. . . , C51)and
(C12, Ctwenty two,. . . , C52) Using
Calculation is performed in the same manner as in the embodiment, and a light blocking object such as a finger is inserted.
The coordinates (x, y) are output.

【0156】(実施例7)実施例7は、キャリブレーシ
ョン点の数とセンサヘッドの配置に関わる実施例であ
る。図7は、実施例7を説明する図である。図におい
て、紙面は座標入力面に相当する。
(Embodiment 7) Embodiment 7 is an embodiment relating to the number of calibration points and the arrangement of sensor heads. FIG. 7 is a diagram illustrating the seventh embodiment. In the figure, the paper surface corresponds to the coordinate input surface.

【0157】座標入力面内の点p1,p2,p3,p
4,p5は、座標が既知である、前述したキャリブレー
ション用の基準点である。また、点oは複数のセンサヘ
ッドの内、1つのセンサヘッドの中心である。正確には
受光レンズの物体側主点である。
Points p1, p2, p3, p on the coordinate input plane
Reference numerals 4 and p5 are the reference points for calibration described above whose coordinates are known. Point o is the center of one of the plurality of sensor heads. More precisely, it is the object-side principal point of the light receiving lens.

【0158】前述したように、式(10)で係数を演算
する際に、係数が必ず演算できる条件として、連立方程
式の係数行列が必ず正則となる必要がある。キャリブレ
ーション用の基準点を5点とし、かつその配置を限定す
ることにより、係数行列を正則とする。
As described above, when the coefficients are calculated by the equation (10), the condition that the coefficients can always be calculated is that the coefficient matrix of the simultaneous equations must be regular. The coefficient matrix is made regular by setting five reference points for calibration and limiting the arrangement.

【0159】上記した条件を満たすように、センサヘッ
ドを以下のようにして配置する。すなわち、点oと各点
を結ぶ線分o−p1,o−p2,0−p3,o−p4,
o−p5がすべて一致しないように、点oと点p1,p
2,p3,p4,p5(センサヘッド2と基準点)を配
置する。複数のセンサヘッドのうち上記センサヘッド以
外の少なくとも1つのセンサヘッド(他方のセンサヘッ
ド1)についても同様に、そのセンサヘッドにおいて受
光レンズ主点と基準点を結ぶ線分がすべて一致しないよ
うに基準点とセンサヘッドを配置する。
The sensor heads are arranged as follows so as to satisfy the above conditions. That is, line segments op-p1, op-p2, 0-p3, op-p4 connecting the point o and each point.
The points o and p1 and p1, p
2, p3, p4, p5 (sensor head 2 and reference point) are arranged. Similarly, for at least one sensor head (the other sensor head 1) other than the above-mentioned sensor head among the plurality of sensor heads, the reference is made such that all the line segments connecting the principal point of the light receiving lens and the reference point do not coincide with each other. Position the points and the sensor head.

【0160】(実施例8)実施例8は、キャリブレーシ
ョンモードと座標入力モードを切り替える実施例であ
る。すなわち、座標入力装置を使用中に、写像手段の位
置がずれたりした場合や、運搬直後など、ユーザが任意
でモードを切り替えて、ユーザ自身でキャリブレーショ
ンができるように構成した実施例である。
(Eighth Embodiment) An eighth embodiment is an embodiment in which the calibration mode and the coordinate input mode are switched. In other words, this embodiment is configured such that the user can switch the mode arbitrarily, such as when the position of the mapping means shifts during use of the coordinate input device or immediately after transportation, and perform calibration by himself.

【0161】図8は、実施例8の構成を示す。本実施例
の構成は、第1、第2、第3、第4の実施形態で説明し
た光学式座標入力装置に適用される。実施例1と異なる
点は、操作状態を切り替える切替手段12〜17を設け
た点である。これらの切替手段12〜17は、動作状態
指示手段18からの指示によって全て連動して作動す
る。切替手段12〜17が図示した状態にあるときは、
キャリブレーション動作モードにある。切替手段12〜
17が切り替わったときは、座標入力動作モードとな
る。この動作状態指示手段18としては、例えばユーザ
からの切替手段に対する指示などの方法を採る。
FIG. 8 shows the structure of the eighth embodiment. The configuration of this example is applied to the optical coordinate input device described in the first, second, third, and fourth embodiments. The difference from the first embodiment is that switching means 12 to 17 for switching the operation state are provided. These switching units 12 to 17 all operate in conjunction with each other in accordance with an instruction from the operation state instruction unit 18. When the switching means 12 to 17 are in the illustrated state,
It is in the calibration operation mode. Switching means 12-
When the number 17 is switched, a coordinate input operation mode is set. As the operation state instructing means 18, for example, a method of instructing the switching means from a user or the like is adopted.

【0162】図9は、実施例8の処理フローチャートで
ある。スタート1は2つのセンサヘッドのそれぞれのキ
ャリブレーション動作モードの起点を示す。スタート2
は通常の座標入力動作モードの起点を示す。
FIG. 9 is a processing flowchart of the eighth embodiment. Start 1 indicates the starting point of each calibration operation mode of the two sensor heads. Start 2
Indicates the starting point of the normal coordinate input operation mode.

【0163】スタートは処理の起点を表す。通常の座標
入力動作モードは、少なくとも一回のキャリブレーショ
ン動作モードによる第2記憶部7、8への係数書き込み
動作がなされた後で実行されるものとする。
The start indicates the starting point of the processing. It is assumed that the normal coordinate input operation mode is executed after the coefficient writing operation to the second storage units 7 and 8 is performed at least once in the calibration operation mode.

【0164】スタートで処理が開始後、キャリブレーシ
ョン動作モードか通常座標入力モードであるかの動作状
態を判断する(ステップ301)。これは、例えば切替
手段12〜17の状態をユーザが判断することによって
行う。あるいは、切替手段12〜17の状態に対応した
フラグを参照することにより判断するなどの方法を採る
こともできる。
After the processing is started at the start, it is determined whether the operation mode is the calibration operation mode or the normal coordinate input mode (step 301). This is performed, for example, by the user determining the state of the switching units 12 to 17. Alternatively, a method of making a determination by referring to flags corresponding to the states of the switching units 12 to 17 can be adopted.

【0165】キャリブレーション動作モードと判断され
た場合は、スタート1の動作に入りキャリブレーション
動作を行い(ステップ302〜306)、それ以外の場
合はスタート2の動作に入り、通常の座標入力動作を行
う(ステップ307〜310)。各動作の一回の動作が
終了すると再びスタートに戻りキャリブレーションモー
ドか否かを判断し、同様の動作を行う。
If it is determined that the operation mode is the calibration operation mode, the operation proceeds to start 1 and the calibration operation is performed (steps 302 to 306). Otherwise, the operation proceeds to start 2 and normal coordinate input operation is performed. (Steps 307 to 310). When one operation of each operation is completed, the operation returns to the start again, determines whether or not the operation is in the calibration mode, and performs the same operation.

【0166】図8は、センサヘッドが図25で示したよ
うに2つ設置されている例である。キャリブレーション
のための基準点の座標は、座標入力面上の既知の座標で
あり(x1,y1)、(x2,y2)...(x5,y5
とする。例えば、本発明の座標入力装置を電子ディスプ
レイ上やプロジェクタを投影するスクリーン面上に設置
した構成例では、これらの基準点は、キャリブレーショ
ン動作時にディスプレイ上あるいはスクリーン面上に所
定の印として表示される。従来のホワイトボード、黒板
などでは、所定の座標を印刷した基準チャートなどを表
面に張ったり、あらかじめ盤面に刻印などを表記してお
く方法などが考えられる。
FIG. 8 shows an example in which two sensor heads are installed as shown in FIG. The coordinates of the reference point for calibration are known coordinates on the coordinate input surface (x 1 , y 1 ), (x 2 , y 2 ). . . (X 5, y 5)
And For example, in a configuration example in which the coordinate input device of the present invention is installed on an electronic display or a screen surface that projects a projector, these reference points are displayed as predetermined marks on the display or on the screen surface during the calibration operation. You. In a conventional whiteboard, blackboard, or the like, a method of setting a reference chart or the like on which predetermined coordinates are printed on the surface, or engraving a mark or the like on the board in advance may be considered.

【0167】キャリブレーション動作モードでは、各基
準点にそれぞれ指示物体を挿入する。例えば、基準点
(x1,y1)に指示物体を挿入した場合、センサヘッド
1での指示物体の写像位置(図15A、図18A、図2
0A、図24A)に相当する情報をu11 とする。同様
にセンサヘッド2での指示物体の写像位置をu12とす
る。uの第一の添字は基準点の添字に相当し、第二の添
字はセンサヘッドの番号に相当する。uは図15A、図
18A、図20A、図24Aで示した指示物体の写像位
置に相当する情報であれば何を用いてもよい。
In the calibration operation mode, a pointing object is inserted at each reference point. For example, when the pointing object is inserted at the reference point (x 1 , y 1 ), the mapping position of the pointing object on the sensor head 1 (FIG. 15A, FIG. 18A, FIG.
0A, the corresponding information in FIG. 24A) and u 11. Similarly the mapping position of the pointing object on the sensor head 2 and u 12. The first subscript of u corresponds to the reference point subscript, and the second subscript corresponds to the sensor head number. u may be any information as long as it corresponds to the mapping position of the pointing object shown in FIGS. 15A, 18A, 20A, and 24A.

【0168】例えば、第1の実施形態の図15で受光素
子50がCCDの場合、uは光束の遮断位置に対応する
CCDの画素添字を用いることができる。uは画素添字
の他にCCDを走査する信号のタイミングすなわちCC
Dを走査開始してから暗点位置に至るまでの時間でもよ
い。また、第2の実施形態の場合、図18で示したA部
分に相当する時間Δtまたは時刻t1に対してftan
ωΔtおよびftanωt1の変換を施した値をuとす
る。ここでfは受光レンズの焦点距離、ωはポリゴンミ
ラーの回転角速度である。これらには任意の係数やオフ
セットがかかっていてもよく、装置の設計上都合の良い
パラメータを任意に使用することができる。
For example, when the light receiving element 50 is a CCD in FIG. 15 of the first embodiment, u can use a pixel suffix of the CCD corresponding to the light blocking position. u is the timing of the signal for scanning the CCD, that is, CC
It may be the time from the start of scanning D to the position of the dark spot. In the case of the second embodiment, the time Δt or the time t1 corresponding to the portion A shown in FIG.
Let u be the value obtained by converting ωΔt and ftan ωt1. Here, f is the focal length of the light receiving lens, and ω is the rotational angular velocity of the polygon mirror. These may be given an arbitrary coefficient or offset, and any parameter convenient for the design of the apparatus can be arbitrarily used.

【0169】基準点(x1,y1)、(x2,y2)...
(x5,y5)に、それぞれ物体を挿入したときの、セン
サヘッド1およびセンサヘッド2における指示物体の写
像位置情報(u11,u21,...,u51)および
(u12,u22,...,u52)と基準点の座標とを、第
1記憶部3、4にそれぞれ記憶する(ステップ30
4)。
Reference points (x 1 , y 1 ), (x 2 , y 2 ). . .
(X 5 , y 5 ), when the object is inserted, the mapping position information (u 11 , u 21 ,..., U 51 ) of the pointing object in the sensor head 1 and the sensor head 2 and (u 12 , u 22 ,..., u 52 ) and the coordinates of the reference point are stored in the first storage units 3 and 4, respectively (step 30).
4).

【0170】第1記憶部3、4に記憶された基準点座標
および指示物体の写像位置情報は、係数算出手段5、6
に読み込まれ、それぞれのセンサヘッド毎に係数
(c11,c 21,...,c51)および(c12
22,...,c52)を算出し(ステップ305)、第
2記憶部7、8に記憶する(ステップ306)。
Reference point coordinates stored in first storage units 3 and 4
And the mapping position information of the pointing object are calculated by coefficient calculating means 5 and 6.
And read the coefficient for each sensor head.
(C11, C twenty one,. . . , C51) And (c)12,
ctwenty two,. . . , C52) Is calculated (step 305).
2 are stored in the storage units 7 and 8 (step 306).

【0171】続いて、座標入力を行う動作モードとな
る。座標入力面に挿入された指示物体により、各センサ
ヘッド1、2で指示物体の写像が生じる。センサヘッド
1およびセンサヘッド2では、指示物体の位置に対応す
る情報u1、u2を検出する(ステップ307)。
Subsequently, an operation mode for inputting coordinates is entered. The pointing object inserted into the coordinate input surface causes a mapping of the pointing object in each of the sensor heads 1 and 2. The sensor heads 1 and 2 detect information u 1 and u 2 corresponding to the position of the pointing object (step 307).

【0172】さらに、前述したキャリブレーション動作
モードにおいて第2記憶部7、8に記憶された係数(c
11,c21,...,c51)および(c12
22,...,c 52)が読み出され(ステップ30
8)、座標演算部9は、u1,u2と(c11
21,...,c51)および(c12,c22,...,c
52)を用いて、前述した各実施例と同様にして演算し
(ステップ309)、指示物体が挿入された座標(x、
y)を出力する(ステップ310)。
Further, the above-described calibration operation
In the mode, the coefficient (c) stored in the second storage units 7 and 8
11, Ctwenty one,. . . , C51) And (c)12,
ctwenty two,. . . , C 52) Is read (step 30)
8), the coordinate calculator 9 calculates u1, UTwoAnd (c11,
c twenty one,. . . , C51) And (c)12, Ctwenty two,. . . , C
52) Is calculated in the same manner as in each of the above-described embodiments.
(Step 309), the coordinates (x,
y) is output (step 310).

【0173】本発明はソフトウェアによっても実現でき
る。図12に示すシステム構成において、CPUは、キ
ャリブレーション動作時に前述した各実施例の処理ステ
ップや処理機能を実行することにより係数を算出し、座
標入力時に前述した各実施例の処理ステップや処理機能
を実行することにより座標を算出し、例えば入力された
座標データから描画データを生成して、文字などを表示
装置に表示する。
The present invention can also be realized by software. In the system configuration shown in FIG. 12, the CPU calculates a coefficient by executing the processing steps and processing functions of the above-described embodiments at the time of the calibration operation, and performs the processing steps and processing functions of the above-described embodiments at the time of inputting the coordinates. Is executed, the drawing data is generated from the input coordinate data, and characters and the like are displayed on the display device.

【0174】上記した処理を実行するプログラムは、C
D−ROMなどの記録媒体に記録されていて、媒体に記
録されたプログラムをCD−ROM装置から読み込み、
システムにインストールすることによって実行され、上
記実施例で説明した処理機能が実現される。また、上記
したプログラムは、媒体の他、通信装置、ネットワーク
を介してサーバなどからダウンロードすることによって
も提供される。
The program for executing the above processing is C
A program recorded on a recording medium such as a D-ROM is read from a CD-ROM device,
It is executed by installing it in the system, and realizes the processing functions described in the above embodiments. In addition, the above-described program is provided by being downloaded from a server or the like via a communication device or a network in addition to a medium.

【0175】[0175]

【発明の効果】以上、説明したように、本発明によれ
ば、以下のような効果が得られる。 (1)写像手段の絶対位置を知る必要がなく設置自由度
を大幅に高めることができ、信頼性の高い座標入力装置
を構築することが可能となる。 (2)簡単な行列計算あるいは連立方程式の求解で、キ
ャリブレーション動作が実行可能となる。 (3)再帰光射影方式、ポリゴンミラー方式に適用した
場合、座標入力面における受発光手段の取り付け位置の
自由度を高めることができ、また、受発光手段の座標入
力面における取り付け位置が未知の場合でも、使用する
前の簡単なキャリブレーション動作によって座標入力面
での座標を正しく入力することができる。 (4)撮像方式に適用した場合、座標入力面における画
像入力手段の取り付け位置の自由度を高めることがで
き、また、受発光手段の座標入力面における取り付け位
置が未知の場合でも、使用する前の簡単なキャリブレー
ション動作によって座標入力面での座標を正しく入力す
ることができる。 (5)反射板付きペンに適用した場合、座標入力面にお
ける受光手段または発光手段の取り付け位置の自由度を
高めることができ、また、受光手段または発光手段の座
標入力面における取り付け位置が未知の場合でも、使用
する前の簡単なキャリブレーション動作によって座標入
力面での座標を正しく入力することができる。 (6)再帰光射影方式、ポリゴンミラー方式に適用した
場合、座標入力面における受発光手段の取り付け位置の
自由度を高めることができ、また、受発光手段の座標入
力面における取り付け位置すなわち前述したパラメータ
が未知の場合でも、使用する前の簡単なキャリブレーシ
ョン動作によって座標入力面での座標を正しく入力する
ことができるとともに、簡単な行列計算あるいは連立方
程式の求解で、キャリブレーション動作を実行すること
が可能となり、さらに、キャリブレーションのための所
定の座標に挿入された光遮断手段によって遮断された光
の位置に対応する情報を、受光素子上の幾何学的な位
置、あるいは受光素子を走査するタイミング信号など任
意の信号で演算することができ、遮断された光の位置を
遮断手段の見込みの角度などに変換する処理も省くこと
ができ、大幅な演算の効率化、装置の設計自由度の向
上、座標演算精度の向上を図ることができる。 (7)撮像方式に適用した場合、座標入力面における画
像入力手段の取り付け位置の自由度を高めることがで
き、また、画像入力手段の座標入力面における取り付け
位置すなわち前述したパラメータが未知の場合でも、使
用する前の簡単なキャリブレーション動作によって座標
入力面での座標を正しく入力することができるととも
に、簡単な行列計算あるいは連立方程式の求解で、キャ
リブレーション動作を実行することが可能となり、さら
に、キャリブレーションのための所定の座標に挿入され
た指示手段に対応する画像入力手段で入力された像面で
の情報を、受光素子上の幾何学的な位置、あるいは受光
素子を走査するタイミング信号など任意の信号で演算す
ることができ、画像入力手段の像面での情報の位置を指
示手段の見込みの角度などに変換する処理も省くことが
でき、大幅な演算の効率化、装置の設計自由度の向上、
座標演算精度の向上を図ることができる。 (8)反射板付きペンに適用した場合、座標入力面にお
ける受光手段または発光手段の取り付け位置の自由度を
高めることができ、また、受光手段または発光手段の座
標入力面における取り付け位置すなわち前述したパラメ
ータが未知の場合でも、使用する前の簡単なキャリブレ
ーション動作によって座標入力面での座標を正しく入力
することができるとともに、簡単な行列計算あるいは連
立方程式の求解で、キャリブレーション動作を実行する
ことが可能となり、さらに、キャリブレーションのため
の所定の座標に挿入された反射手段によって反射された
光の位置に対応する情報を、受光素子上の幾何学的な位
置、あるいは受光素子を走査するタイミング信号など任
意の信号で演算することができ、反射された光の位置を
反射手段の見込みの角度などに変換する処理も省くこと
ができ、大幅な演算の効率化、装置の設計自由度の向
上、座標演算精度の向上を図ることができる。 (9)指示手段の受光手段または画像入力手段の像面位
置に対応する情報すなわち、受光素子上の物理的位置
(像面のディップ/ピーク/像の位置)などを用いてい
るので、変換テーブルや変換式を作成する処理を省くこ
とができ、またこの処理で発生する誤差要因を排除する
ことができる。さらに、受光素子上の指示手段の像の位
置に対応する信号ならばこれの物理的な位置の他に、受
光素子の電気的な走査のタイミング信号など、他の物理
量でも演算が可能であり、設計上の自由度を大幅に向上
させることができる。 (10)指示手段の受光手段の像面位置に対応する情報
すなわち、受光素子上の物理的位置(像面の光強度の時
間変化における分布形状部分)などを用いているので、
変換テーブルや変換式を作成する処理を省くことがで
き、この処理で発生する誤差要因を排除することができ
る。さらに、受光素子上の指示手段の像の位置に対応す
る信号ならばこれの物理的な位置の他に、受光素子の電
気的な走査のタイミング信号など、他の物理量でも演算
が可能であり、設計上の自由度を大幅に向上させること
ができる。 (11)キャリブレーション点の数と基準となる座標の
配置の仕方を限定することにより、連立方程式の係数行
列を必ず正則とすることができる。 (12)キャリブレーションモードと座標入力モードを
設けているので、使用中に写像手段の位置がずれたりし
た場合や運搬直後など、ユーザが任意でモードを切り替
えて、ユーザ自身でキャリブレーションすることができ
る。
As described above, according to the present invention, the following effects can be obtained. (1) It is not necessary to know the absolute position of the mapping means, so that the degree of freedom in installation can be greatly increased, and a highly reliable coordinate input device can be constructed. (2) Calibration operation can be performed by simple matrix calculation or solution of simultaneous equations. (3) When the present invention is applied to the retro-light projection method or the polygon mirror method, the degree of freedom of the mounting position of the light receiving and emitting means on the coordinate input surface can be increased, and the mounting position of the light receiving and emitting means on the coordinate input surface is unknown. Even in this case, the coordinates on the coordinate input surface can be correctly input by a simple calibration operation before use. (4) When applied to the imaging method, the degree of freedom of the mounting position of the image input means on the coordinate input surface can be increased, and even if the mounting position of the light receiving and emitting means on the coordinate input surface is unknown, before use. With the simple calibration operation, the coordinates on the coordinate input surface can be correctly input. (5) When applied to a pen with a reflector, the degree of freedom of the mounting position of the light receiving means or the light emitting means on the coordinate input surface can be increased, and the mounting position of the light receiving means or the light emitting means on the coordinate input surface is unknown. Even in this case, the coordinates on the coordinate input surface can be correctly input by a simple calibration operation before use. (6) When the present invention is applied to the retroreflective projection system or the polygon mirror system, the degree of freedom of the mounting position of the light receiving and emitting means on the coordinate input surface can be increased, and the mounting position of the light receiving and emitting means on the coordinate input surface, that is, as described above. Even if the parameters are unknown, the coordinates on the coordinate input surface can be correctly input by a simple calibration operation before use, and the calibration operation is performed by simple matrix calculation or solving simultaneous equations Further, the information corresponding to the position of the light blocked by the light blocking unit inserted at the predetermined coordinates for the calibration is scanned with the geometric position on the light receiving element or the light receiving element. It can be calculated with any signal such as a timing signal, and the position of the blocked light can be estimated by the blocking means. Process of converting such to degrees can also be omitted, the efficiency of significant operations, improving design flexibility of the device, it is possible to improve the coordinate calculation precision. (7) When applied to the imaging method, the degree of freedom of the mounting position of the image input means on the coordinate input surface can be increased, and even when the mounting position of the image input means on the coordinate input surface, that is, the aforementioned parameter is unknown. In addition to being able to correctly input the coordinates on the coordinate input surface by a simple calibration operation before use, it is possible to execute the calibration operation by a simple matrix calculation or solving a simultaneous equation, The information on the image plane input by the image input means corresponding to the instruction means inserted at the predetermined coordinates for calibration is used as a geometrical position on the light receiving element, or a timing signal for scanning the light receiving element. The position of the information on the image plane of the image input means can be calculated by an arbitrary signal, and the angle of the expected value of the indicating means can be calculated. Process for conversion etc. can also be omitted, the efficiency of significant operations, improving design flexibility of the device,
The accuracy of coordinate calculation can be improved. (8) When the present invention is applied to a pen with a reflecting plate, the degree of freedom of the mounting position of the light receiving means or the light emitting means on the coordinate input surface can be increased. Even if the parameters are unknown, the coordinates on the coordinate input surface can be correctly input by a simple calibration operation before use, and the calibration operation is performed by simple matrix calculation or solving simultaneous equations Further, information corresponding to the position of the light reflected by the reflecting means inserted at the predetermined coordinates for the calibration is used as the geometrical position on the light receiving element, or the timing of scanning the light receiving element. The signal can be calculated using any signal, such as a signal, and the position of the reflected light is estimated by the reflection means. Process of converting such an angle can also be omitted, the efficiency of significant operations, improving design flexibility of the device, it is possible to improve the coordinate calculation precision. (9) Since information corresponding to the image plane position of the light receiving unit or the image input unit of the instruction unit, that is, the physical position (dip / peak / image position on the image plane) on the light receiving element is used, the conversion table is used. In addition, it is possible to omit a process of creating a conversion formula or a conversion formula, and to eliminate an error factor generated in this process. Furthermore, if it is a signal corresponding to the position of the image of the pointing means on the light receiving element, in addition to its physical position, it is also possible to calculate other physical quantities, such as a timing signal for electrical scanning of the light receiving element, The degree of freedom in design can be greatly improved. (10) Since information corresponding to the image plane position of the light receiving means of the indicating means, that is, the physical position on the light receiving element (the distribution shape portion in the time change of the light intensity of the image plane) is used,
It is possible to omit a process of creating a conversion table and a conversion formula, and it is possible to eliminate an error factor generated in this process. Furthermore, if it is a signal corresponding to the position of the image of the pointing means on the light receiving element, in addition to its physical position, it is also possible to calculate other physical quantities, such as a timing signal for electrical scanning of the light receiving element, The degree of freedom in design can be greatly improved. (11) By limiting the number of calibration points and the method of arranging the reference coordinates, the coefficient matrix of the simultaneous equations can always be regular. (12) Since the calibration mode and the coordinate input mode are provided, the user can switch the mode arbitrarily, such as when the position of the mapping means shifts during use or immediately after transportation, and perform calibration by himself. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1〜3の構成を示す図である。FIG. 1 is a diagram showing a configuration of Embodiments 1 to 3 of the present invention.

【図2】本発明の実施例1〜3に係る処理フローチャー
トである。
FIG. 2 is a processing flowchart according to Embodiments 1 to 3 of the present invention.

【図3】カメラ系の概念を説明する図である。FIG. 3 is a diagram illustrating the concept of a camera system.

【図4】本発明の実施例4の構成を示す図である。FIG. 4 is a diagram illustrating a configuration of a fourth embodiment of the present invention.

【図5】本発明の実施例4、5に係る処理フローチャー
トである。
FIG. 5 is a processing flowchart according to Embodiments 4 and 5 of the present invention.

【図6】本発明の実施例5の構成を示す図である。FIG. 6 is a diagram showing a configuration of a fifth embodiment of the present invention.

【図7】基準点とセンサヘッドの配置を説明する図であ
る。
FIG. 7 is a diagram illustrating the arrangement of a reference point and a sensor head.

【図8】本発明の実施例8の構成を示す図である。FIG. 8 is a diagram illustrating a configuration of an eighth embodiment of the present invention.

【図9】本発明の実施例8に係る処理フローチャートで
ある。
FIG. 9 is a processing flowchart according to an eighth embodiment of the present invention.

【図10】電子黒板システムの外観図である。FIG. 10 is an external view of an electronic blackboard system.

【図11】電子黒板システムの構成を示す図である。FIG. 11 is a diagram illustrating a configuration of an electronic blackboard system.

【図12】電子黒板システムを制御するコンピュータ内
の構成を示す図である。
FIG. 12 is a diagram illustrating a configuration in a computer that controls the electronic blackboard system.

【図13】本発明が適用される第1の実施形態の光学式
座標入力装置を示す図である。
FIG. 13 is a diagram illustrating an optical coordinate input device according to a first embodiment to which the present invention is applied.

【図14】図13の受発光手段の内部の構成を示す図で
ある。
FIG. 14 is a diagram showing an internal configuration of the light receiving / emitting means of FIG.

【図15】指示物体が挿入されてビームが遮断されたと
きの動作を説明する図である。
FIG. 15 is a diagram illustrating an operation when the pointing object is inserted and the beam is cut off.

【図16】三角測量の原理を基に座標位置を算出する方
法を説明する図である。
FIG. 16 is a diagram illustrating a method of calculating a coordinate position based on the principle of triangulation.

【図17】本発明が適用される第2の実施形態の光学式
座標入力装置を示す図である。
FIG. 17 is a diagram illustrating an optical coordinate input device according to a second embodiment to which the present invention is applied.

【図18】受光素子の出力信号例を示す図である。FIG. 18 is a diagram illustrating an example of an output signal of a light receiving element.

【図19】本発明が適用される第3の実施形態の光学式
座標入力装置を示す図である。
FIG. 19 is a diagram showing an optical coordinate input device according to a third embodiment to which the present invention is applied.

【図20】撮像カメラの信号と指示物体との関係を示す
図である。
FIG. 20 is a diagram illustrating a relationship between a signal of an imaging camera and a pointing object.

【図21】本発明が適用される第4の実施形態の光学式
座標入力装置を示す図である。
FIG. 21 is a diagram showing an optical coordinate input device according to a fourth embodiment to which the present invention is applied.

【図22】再帰反射性指示物体の構成例を示す図であ
る。
FIG. 22 is a diagram illustrating a configuration example of a retroreflective pointing object.

【図23】受発光手段が図14に示す構成をとる場合の
出力信号の例を図である。
FIG. 23 is a diagram illustrating an example of an output signal when the light receiving / emitting unit has the configuration illustrated in FIG. 14;

【図24】受発光手段が図17に示す構成をとる場合の
出力信号の例を図である。
FIG. 24 is a diagram showing an example of an output signal when the light receiving / emitting means has the configuration shown in FIG. 17;

【図25】センサヘッドを座標入力領域の近傍に配置し
た例を示す図である。
FIG. 25 is a diagram showing an example in which a sensor head is arranged near a coordinate input area.

【符号の説明】[Explanation of symbols]

1、2 センサヘッド 3、4 第1記憶部 5、6 係数算出部 7、8 第2記憶部 9 座標演算部 1, 2 sensor head 3, 4 first storage section 5, 6 coefficient calculation section 7, 8 second storage section 9 coordinate calculation section

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 2次元または3次元の第1の座標系上の
点を、前記第1の座標系と異なる2次元または1次元の
第2の座標系上の点に写像する複数の写像手段と、前記
第1の座標系上の複数の所定の座標を前記複数の写像手
段によって前記第2の座標系上に写像した位置と、前記
第1の座標系上の複数の所定の座標とを関連づけて記憶
する第1の記憶手段と、前記第1の記憶手段に記憶され
た前記第1の座標系上の複数の所定の座標と前記第2の
座標系上に写像した位置とを基に、前記第1の座標系上
の任意の座標と、前記任意の座標に対応する前記写像手
段によって前記第2の座標系上に写像した位置との関係
を記述する関係式の係数を算出する係数算出手段と、前
記算出された係数を記憶する第2の記憶手段と、前記第
1の座標系上の任意の座標に対応する前記第2の座標系
上に写像した位置と、前記第2の記憶手段に記憶された
前記係数と、前記関係式を用いて、前記第1の座標系上
の任意の座標を算出する座標算出手段とを備えたことを
特徴とする座標入力装置。
1. A plurality of mapping means for mapping a point on a two-dimensional or three-dimensional first coordinate system to a point on a two-dimensional or one-dimensional second coordinate system different from the first coordinate system. And a position where a plurality of predetermined coordinates on the first coordinate system are mapped on the second coordinate system by the plurality of mapping means, and a plurality of predetermined coordinates on the first coordinate system. First storage means for storing in association with a plurality of predetermined coordinates on the first coordinate system stored in the first storage means and a position mapped on the second coordinate system; A coefficient for calculating a coefficient of a relational expression describing a relationship between an arbitrary coordinate on the first coordinate system and a position mapped on the second coordinate system by the mapping means corresponding to the arbitrary coordinate. Calculating means, second storing means for storing the calculated coefficient, and an arbitrary value on the first coordinate system. Using the position mapped on the second coordinate system corresponding to the coordinates, the coefficient stored in the second storage means, and the relational expression, an arbitrary coordinate on the first coordinate system A coordinate input device comprising:
【請求項2】 前記複数の写像手段の内、n番目の写像
手段において、2次元の前記第1の座標系上の任意の座
標を(x、y)とし、1次元の前記第2の座標系上に写
像した位置をuとし、c1n〜c5nをn番目の写像手段に
おける係数としたとき、前記任意の座標(x、y)と前
記位置uとの関係を記述する前記関係式は、 【数1】 であり、前記2次元の第1の座標系上の複数の所定の座
標をm個の(x1、y1)〜(xm、ym)とし、前記m個
の座標(x1、y1)〜(xm、ym)に対応するn番目の
写像手段によって前記第2の座標系上に写像した位置を
1n〜umn としたとき、前記係数算出手段は、前記係
数c1n〜c5nを、 【数2】 に従って算出し、前記写像手段の数をNとし、前記任意
の座標(x、y)に対応するN個の写像手段によって前
記第2の座標系上に写像した位置をu1〜uNとしたと
き、前記座標算出手段は、前記2次元の第1の座標系上
の任意の座標(x、y)を、 【数3】 に従って算出することを特徴とする請求項1記載の座標
入力装置。
2. An n-th mapping means of the plurality of mapping means, wherein an arbitrary coordinate on the two-dimensional first coordinate system is (x, y), and the one-dimensional second coordinate is Assuming that the position mapped on the system is u and c 1n to c 5n are coefficients in the n-th mapping means, the relational expression describing the relation between the arbitrary coordinate (x, y) and the position u is , [Equation 1] Where a plurality of predetermined coordinates on the two-dimensional first coordinate system are m (x 1 , y 1 ) to (x m , y m ), and the m coordinates (x 1 , y 1 ) When the positions mapped on the second coordinate system by the n-th mapping means corresponding to (x m , y m ) on the second coordinate system are u 1n to u mn , the coefficient calculation means calculates the coefficient c 1n To c 5n , The number of the mapping means is defined as N, and the positions mapped on the second coordinate system by the N mapping means corresponding to the arbitrary coordinates (x, y) are defined as u 1 to u N. At this time, the coordinate calculating means calculates an arbitrary coordinate (x, y) on the two-dimensional first coordinate system by: The coordinate input device according to claim 1, wherein the coordinate is calculated according to
【請求項3】 前記写像手段は、所定の座標入力装置に
おける複数の発光手段と複数の受光手段からなることを
特徴とする請求項1または2記載の座標入力装置。
3. The coordinate input device according to claim 1, wherein said mapping means comprises a plurality of light emitting means and a plurality of light receiving means in a predetermined coordinate input device.
【請求項4】 前記写像手段は、所定の座標入力装置に
おける複数の画像入力手段からなることを特徴とする請
求項1または2記載の座標入力装置。
4. The coordinate input device according to claim 1, wherein said mapping means comprises a plurality of image input means in a predetermined coordinate input device.
【請求項5】 前記所定の座標入力装置は、複数の発光
手段と複数の受光手段と、前記発光手段から出射した光
を前記発光手段の方向とほぼ同一方向に向けて反射する
反射手段と、前記反射手段によって反射した光を受光で
きる位置に前記受光手段を配置し、前記発光と受光の光
路内に光遮断手段が挿入されることによって前記光路が
遮断されたとき、前記光遮断手段が挿入された2次元座
標を算出して入力することを特徴とする請求項3記載の
座標入力装置。
5. The coordinate input device, comprising: a plurality of light emitting units, a plurality of light receiving units, and a reflecting unit configured to reflect light emitted from the light emitting units in a direction substantially the same as the direction of the light emitting units. The light receiving unit is arranged at a position where the light reflected by the reflecting unit can be received, and the light blocking unit is inserted when the light blocking unit is inserted into the light emitting and receiving light paths. The coordinate input device according to claim 3, wherein the calculated two-dimensional coordinates are input.
【請求項6】 前記所定の座標入力装置は、複数の発光
手段と、前記発光手段に対応し近接して設けられた複数
の受光手段と、前記発光手段から出射した光を前記発光
手段とほぼ同じ位置に反射させ、前記受光手段に導く再
帰性反射部を有する指示手段からなり、前記発光と受光
の光路内に前記指示手段が挿入されることによって前記
出射した光を反射させ、前記指示手段が挿入された2次
元座標を算出して入力することを特徴とする請求項3記
載の座標入力装置。
6. A predetermined coordinate input device, comprising: a plurality of light emitting means; a plurality of light receiving means provided in close proximity to the light emitting means; and a light emitted from the light emitting means substantially corresponding to the light emitting means. An indicator having a retroreflecting portion for reflecting the light at the same position and leading to the light-receiving means, and reflecting the emitted light by inserting the indicator into an optical path of the light emission and the light reception; 4. The coordinate input device according to claim 3, wherein the input device calculates and inputs the two-dimensional coordinates into which the is inserted.
【請求項7】 前記所定の座標入力装置は、座標入力領
域に挿入された指示手段を撮影して入力する複数の画像
入力手段からなり、前記指示手段が挿入された2次元座
標を算出して入力することを特徴とする請求項4記載の
座標入力装置。
7. The predetermined coordinate input device comprises a plurality of image input means for photographing and inputting an instruction means inserted into a coordinate input area, and calculating the two-dimensional coordinates at which the instruction means is inserted. The coordinate input device according to claim 4, wherein the input is performed.
【請求項8】 前記複数の写像手段の内、少なくとも2
つの写像手段において、前記複数の所定の座標は、前記
2つの写像手段の略中心と前記所定の座標とを結ぶ直線
が互いに一致しない少なくとも5点の座標であることを
特徴とする請求項1または2記載の座標入力装置。
8. At least two of said plurality of mapping means
2. A method according to claim 1, wherein the plurality of predetermined coordinates are coordinates of at least five points where a straight line connecting the approximate center of the two mapping means and the predetermined coordinates does not coincide with each other. 2. The coordinate input device according to 2.
【請求項9】 複数の所定の座標に挿入された指示手段
によって、前記複数の写像手段上に形成される前記指示
手段の写像情報と、前記複数の所定の座標とを関連づけ
て前記第1の記憶手段に記憶する動作と、前記第1の記
憶手段に記憶された前記複数の所定の座標と前記指示手
段の写像情報とを基に、前記指示手段が任意の座標に挿
入されたときの座標と、前記任意の座標に対応する前記
複数の写像手段によって写像された写像情報との関係を
記述する関係式の係数を算出する動作と、前記算出され
た係数を第2の記憶手段に記憶する動作とを実行する第
1の動作モードと、前記指示手段が任意の座標に挿入さ
れたとき、前記任意の座標に対応する前記写像手段によ
って写像される写像情報と、前記第2の記憶手段に記憶
された前記係数と、前記関係式を用いて、前記指示手段
が挿入された任意の座標を算出する第2の動作モード
と、を排他的に切り替える手段をさらに備えたことを特
徴とする請求項1記載の座標入力装置。
9. A method according to claim 1, wherein said instruction information inserted into said plurality of predetermined coordinates associates mapping information of said instruction means formed on said plurality of mapping means with said plurality of predetermined coordinates. Based on the operation to be stored in the storage means and the plurality of predetermined coordinates stored in the first storage means and the mapping information of the pointing means, the coordinates when the pointing means is inserted at any coordinates. And an operation of calculating a coefficient of a relational expression describing a relationship between the mapping information corresponding to the arbitrary coordinates and the mapping information mapped by the plurality of mapping means, and storing the calculated coefficient in the second storage means. A first operation mode for executing an operation, mapping information to be mapped by the mapping means corresponding to the arbitrary coordinates when the instruction means is inserted at arbitrary coordinates, and Said stored coefficients; 2. The coordinate input device according to claim 1, further comprising a unit that exclusively switches between a second operation mode in which the pointing unit calculates an inserted arbitrary coordinate using the relational expression. .
【請求項10】 前記第1の動作モードは、キャリブレ
ーション時に実行されるモードであり、前記第2のモー
ドは座標入力時に実行されるモードであることを特徴と
する請求項9記載の画像入力装置。
10. The image input device according to claim 9, wherein the first operation mode is a mode executed at the time of calibration, and the second mode is a mode executed at the time of inputting coordinates. apparatus.
【請求項11】 複数の発光手段と複数の受光手段と、
前記発光手段から出射した光を前記発光手段の方向とほ
ぼ同一方向に向けて反射する反射手段と、前記反射手段
によって反射した光を受光できる位置に前記受光手段を
配置し、前記発光と受光の光路内に光遮断手段が挿入さ
れることによって前記光路が遮断されたとき、前記光遮
断手段が挿入された2次元座標を算出して入力する請求
項5記載の座標入力装置であって、前記光遮断手段が挿
入された複数の所定の座標と、前記複数の所定の座標に
対応する前記複数の受光手段における光学的な位置情報
とを関連づけて記憶する第1の記憶手段と、前記第1の
記憶手段に記憶された前記所定の座標と前記光学的な位
置情報とを基に、前記光遮断手段が任意の座標に挿入さ
れたときの座標と、前記任意の座標に対応する前記複数
の受光手段における光学的な位置情報との関係を記述す
る関係式の係数を算出する係数算出手段と、前記算出さ
れた係数を記憶する第2の記憶手段と、前記光遮断手段
が任意の座標に挿入されたとき、前記任意の座標に対応
する前記複数の受光手段における光学的な位置情報と、
前記第2の記憶手段に記憶された前記係数と、前記関係
式を用いて、前記光遮断手段が挿入された任意の座標を
算出する座標算出手段とを備えたことを特徴とする座標
入力装置。
11. A plurality of light emitting means and a plurality of light receiving means,
Reflecting means for reflecting light emitted from the light emitting means in a direction substantially the same as the direction of the light emitting means, and arranging the light receiving means at a position where the light reflected by the reflecting means can be received. 6. The coordinate input device according to claim 5, wherein, when the light path is interrupted by inserting the light shielding means into the light path, the light shielding means calculates and inputs the inserted two-dimensional coordinates. A first storage unit configured to store a plurality of predetermined coordinates into which the light blocking unit is inserted and optical position information in the plurality of light receiving units corresponding to the plurality of predetermined coordinates in association with each other; Based on the predetermined coordinates and the optical position information stored in the storage means, the coordinates when the light blocking means is inserted at arbitrary coordinates, and the plurality of coordinates corresponding to the arbitrary coordinates. In the light receiving means A coefficient calculating unit for calculating a coefficient of a relational expression describing a relationship with optical position information, a second storage unit for storing the calculated coefficient, and the light blocking unit inserted at arbitrary coordinates. When, optical position information in the plurality of light receiving means corresponding to the arbitrary coordinates,
A coordinate input device comprising: a coefficient calculating unit that calculates an arbitrary coordinate at which the light blocking unit is inserted, using the coefficient stored in the second storage unit and the relational expression. .
【請求項12】 複数の発光手段と、前記発光手段に対
応し近接して設けられた複数の受光手段と、前記発光手
段から出射した光を前記発光手段とほぼ同じ位置に反射
させ、前記受光手段に導く再帰性反射部を有する指示手
段からなり、前記発光と受光の光路内に前記指示手段が
挿入されることによって前記出射した光を反射させ、前
記指示手段が挿入された2次元座標を算出して入力する
請求項6記載の座標入力装置であって、前記指示手段が
挿入された複数の所定の座標と、前記複数の所定の座標
に対応する前記複数の受光手段における反射光の位置情
報とを関連づけて記憶する第1の記憶手段と、前記第1
の記憶手段に記憶された前記所定の座標と前記反射光の
位置情報とを基に、前記指示手段が任意の座標に挿入さ
れたときの座標と、前記任意の座標に対応する前記複数
の受光手段における反射光の位置情報との関係を記述す
る関係式の係数を算出する係数算出手段と、前記算出さ
れた係数を記憶する第2の記憶手段と、前記指示手段が
任意の座標に挿入されたとき、前記任意の座標に対応す
る前記複数の受光手段における反射光の位置情報と、前
記第2の記憶手段に記憶された前記係数と、前記関係式
を用いて、前記指示手段が挿入された任意の座標を算出
する座標算出手段とを備えたことを特徴とする座標入力
装置。
12. A plurality of light emitting means, a plurality of light receiving means provided adjacent to and corresponding to the light emitting means, and light emitted from the light emitting means is reflected at substantially the same position as the light emitting means. Indicating means having a retroreflective portion leading to the means, and reflecting the emitted light by inserting the indicating means in the light path of the light emission and light reception, and converting the two-dimensional coordinates into which the indicating means is inserted. 7. The coordinate input device according to claim 6, wherein said input is performed by calculating a plurality of predetermined coordinates into which said indicating means is inserted, and positions of reflected light in said plurality of light receiving means corresponding to said plurality of predetermined coordinates. First storage means for storing information in association with the information;
The coordinates when the indicating means is inserted at arbitrary coordinates, and the plurality of light receptions corresponding to the arbitrary coordinates, based on the predetermined coordinates and the position information of the reflected light stored in the storage means. A coefficient calculating means for calculating a coefficient of a relational expression describing a relation between the reflected light and the position information in the means, a second storage means for storing the calculated coefficient, and the indicating means inserted at arbitrary coordinates. When the pointing means is inserted using the positional information of the reflected light at the plurality of light receiving means corresponding to the arbitrary coordinates, the coefficient stored in the second storage means, and the relational expression. A coordinate calculating means for calculating arbitrary coordinates.
【請求項13】 座標入力領域に挿入された指示手段を
撮影して入力する複数の画像入力手段からなり、前記指
示手段が挿入された2次元座標を算出して入力する請求
項7記載の座標入力装置であって、前記指示手段が挿入
された複数の所定座標と、前記複数の所定の座標に対応
する前記複数の画像入力手段における前記指示手段の像
位置情報とを関連づけて記憶する第1の記憶手段と、前
記第1の記憶手段に記憶された前記所定の座標と前記指
示手段の像位置情報とを基に、前記指示手段が任意の座
標に挿入されたときの座標と、前記任意の座標に対応す
る前記複数の画像入力手段における前記指示手段の像位
置情報との関係を記述する関係式の係数を算出する係数
算出手段と、前記算出された係数を記憶する第2の記憶
手段と、前記指示手段が任意の座標に挿入されたとき、
前記任意の座標に対応する前記複数の画像入力手段にお
ける前記指示手段の像位置情報と、前記第2の記憶手段
に記憶された前記係数と、前記関係式を用いて、前記指
示手段が挿入された任意の座標を算出する座標算出手段
とを備えたことを特徴とする座標入力装置。
13. The coordinates according to claim 7, comprising a plurality of image input means for photographing and inputting the pointing means inserted into the coordinate input area, wherein said pointing means calculates and inputs the inserted two-dimensional coordinates. An input device, wherein a plurality of predetermined coordinates into which the indicating means is inserted and image position information of the indicating means in the plurality of image input means corresponding to the plurality of predetermined coordinates are stored in association with each other. Based on the predetermined coordinates stored in the first storage and the image position information of the pointing means, the coordinates when the pointing means is inserted at arbitrary coordinates, Coefficient calculating means for calculating a coefficient of a relational expression describing a relationship between the plurality of image input means and the image position information of the indicating means corresponding to the coordinates of the plurality of image input means, and a second storage means for storing the calculated coefficient And the pointer When a column is inserted at any coordinate,
The pointing means is inserted using the image position information of the pointing means in the plurality of image input means corresponding to the arbitrary coordinates, the coefficient stored in the second storage means, and the relational expression. A coordinate calculating means for calculating arbitrary coordinates.
【請求項14】 前記光学的な位置情報として、前記受
光手段の像面における光強度分布中の所定の分布形状を
有する部分の位置を用いることを特徴とする請求項11
記載の画像入力装置。
14. The optical position information according to claim 11, wherein a position of a portion having a predetermined distribution shape in a light intensity distribution on an image plane of said light receiving means is used.
The image input device according to the above.
【請求項15】 前記反射光の位置情報として、前記受
光手段の像面における光強度分布中の所定の分布形状を
有する部分の位置を用いることを特徴とする請求項12
記載の座標入力装置。
15. The method according to claim 12, wherein a position of a portion having a predetermined distribution shape in a light intensity distribution on an image plane of the light receiving means is used as the position information of the reflected light.
Coordinate input device as described.
【請求項16】 前記像位置情報として、前記画像入力
手段の像面における光強度分布中の所定の分布形状を有
する部分の位置を用いることを特徴とする請求項13記
載の座標入力装置。
16. The coordinate input device according to claim 13, wherein a position of a portion having a predetermined distribution shape in a light intensity distribution on an image plane of said image input means is used as said image position information.
【請求項17】 前記光学的な位置情報として、前記受
光手段における光強度の時間変化において、所定の分布
形状を有する部分を用いることを特徴とする請求項11
記載の画像入力装置。
17. The optical position information according to claim 11, wherein a portion having a predetermined distribution shape is used in a temporal change of the light intensity in the light receiving means.
The image input device according to the above.
【請求項18】 前記反射光の位置情報として、前記受
光手段における光強度の時間変化において、所定の分布
形状を有する部分を用いることを特徴とする請求項12
記載の座標入力装置。
18. The method according to claim 12, wherein a portion having a predetermined distribution shape is used as the positional information of the reflected light in the time change of the light intensity in the light receiving means.
Coordinate input device as described.
【請求項19】 前記像位置情報として、前記画像入力
手段における光強度の時間変化において、所定の分布形
状を有する部分を用いることを特徴とする請求項13記
載の座標入力装置。
19. The coordinate input device according to claim 13, wherein a portion having a predetermined distribution shape is used as the image position information in the time change of the light intensity in the image input means.
【請求項20】 2次元または3次元の第1の座標系上
の点を、前記第1の座標系と異なる2次元または1次元
の第2の座標系上の点に写像する複数の写像処理機能で
写像された第2の座標系上の情報から、前記第1の座標
系上の点を推定する機能をコンピュータに実行させるた
めのプログラムであって、前記第1の座標系上の複数の
所定の座標を前記複数の写像処理機能によって前記第2
の座標系上に写像した座標と、前記第1の座標系上の前
記複数の所定の座標とを関連づけて記憶する第1の記憶
処理機能と、前記第1の記憶処理機能で記憶された前記
第1の座標系上の複数の所定の座標と前記第2の座標系
上に写像された座標とを基に、前記第1の座標系上の任
意の座標と、前記任意の座標に対応する前記写像処理機
能によって第2の座標系上に写像された座標との関係を
記述する関係式の係数を算出する係数算出処理機能と、
前記算出された係数を記憶する第2の記憶処理機能と、
前記第1の座標系上の任意の座標に対応する前記複数の
写像処理機能によって前記第2の座標系上に写像された
任意の座標と、前記第2の記憶処理機能で記憶された前
記係数と、前記関係式を用いて、前記第1の座標系上の
任意の座標を算出する座標算出処理機能をコンピュータ
に実行させるためのプログラム。
20. A plurality of mapping processes for mapping a point on a two-dimensional or three-dimensional first coordinate system to a point on a two-dimensional or one-dimensional second coordinate system different from the first coordinate system. A program for causing a computer to execute a function of estimating a point on the first coordinate system from information on a second coordinate system mapped by a function, the program comprising a plurality of functions on the first coordinate system. The predetermined coordinates are converted into the second coordinates by the plurality of mapping processing functions.
A first storage processing function for storing the coordinates mapped on the coordinate system and the plurality of predetermined coordinates on the first coordinate system, and the first storage processing function storing the first storage processing function. Based on a plurality of predetermined coordinates on a first coordinate system and coordinates mapped on the second coordinate system, the coordinates correspond to arbitrary coordinates on the first coordinate system and the arbitrary coordinates. A coefficient calculation processing function for calculating a coefficient of a relational expression describing a relation with the coordinates mapped on the second coordinate system by the mapping processing function;
A second storage processing function for storing the calculated coefficient;
An arbitrary coordinate mapped onto the second coordinate system by the plurality of mapping processing functions corresponding to an arbitrary coordinate on the first coordinate system; and the coefficient stored by the second storage processing function And a program for causing a computer to execute a coordinate calculation processing function of calculating arbitrary coordinates on the first coordinate system using the relational expression.
【請求項21】 前記複数の写像処理機能の内、n番目
の写像処理機能において、2次元の前記第1の座標系上
の任意の座標を(x、y)とし、1次元の前記第2の座
標系上に写像した位置をuとし、c1n〜c5nをn番目の
写像処理機能における係数としたとき、前記任意の座標
(x、y)と前記位置uとの関係を記述する前記関係式
は、 【数4】 であり、前記2次元の第1の座標系上の複数の所定の座
標をm個の(x1、y1)〜(xm、ym)とし、前記m個
の座標(x1、y1)〜(xm、ym)に対応するn番目の
写像処理機能によって前記第2の座標系上に写像した位
置をu1n〜umn としたとき、前記係数算出処理機能
は、前記係数c1n〜c5nを、 【数5】 に従って算出し、前記写像処理機能の数をNとし、前記
任意の座標(x、y)に対応するN個の写像処理機能に
よって前記第2の座標系上に写像した位置をu1〜uN
したとき、前記座標算出処理機能は、前記2次元の第1
の座標系上の任意の座標(x、y)を、 【数6】 に従って算出する、請求項20記載のプログラム。
21. An n-th mapping processing function among the plurality of mapping processing functions, wherein arbitrary coordinates on the two-dimensional first coordinate system are (x, y), and the one-dimensional second Where u is the position mapped on the coordinate system and c 1n to c 5n are coefficients in the n-th mapping processing function, the relationship between the arbitrary coordinate (x, y) and the position u is described. The relational expression is: Where a plurality of predetermined coordinates on the two-dimensional first coordinate system are m (x 1 , y 1 ) to (x m , y m ), and the m coordinates (x 1 , y 1 ) When the positions mapped on the second coordinate system by the n-th mapping processing function corresponding to (x m , y m ) are u 1n to u mn , the coefficient calculation processing function c 1n to c 5n are given by: And the number of the mapping processing functions is N, and the positions mapped on the second coordinate system by the N mapping processing functions corresponding to the arbitrary coordinates (x, y) are u 1 to u N. , The coordinate calculation processing function performs the two-dimensional first
An arbitrary coordinate (x, y) on the coordinate system of The program according to claim 20, wherein the program is calculated according to:
【請求項22】 請求項20または21記載のプログラ
ムを記録したコンピュータ読み取り可能な記録媒体。
22. A computer-readable recording medium on which the program according to claim 20 is recorded.
JP2001073026A 2001-03-14 2001-03-14 Coordinate input device, program for performing coordinate input function and recording medium with the program recorded Pending JP2002268807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001073026A JP2002268807A (en) 2001-03-14 2001-03-14 Coordinate input device, program for performing coordinate input function and recording medium with the program recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001073026A JP2002268807A (en) 2001-03-14 2001-03-14 Coordinate input device, program for performing coordinate input function and recording medium with the program recorded

Publications (1)

Publication Number Publication Date
JP2002268807A true JP2002268807A (en) 2002-09-20

Family

ID=18930514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001073026A Pending JP2002268807A (en) 2001-03-14 2001-03-14 Coordinate input device, program for performing coordinate input function and recording medium with the program recorded

Country Status (1)

Country Link
JP (1) JP2002268807A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004104810A1 (en) * 2003-05-19 2004-12-02 Eit Co., Ltd. Position sensor using area image sensor
US8013598B2 (en) 2006-06-19 2011-09-06 Newcom, Inc. Object detecting device for detecting object using electromagnetic induction
JP2013045449A (en) * 2011-08-19 2013-03-04 Trendon Touch Technology Corp Optical touch system and position determination method
JP2013054449A (en) * 2011-09-01 2013-03-21 Hitachi Solutions Ltd Installation method for coordinate detection device, and coordinate detection device
US8563880B2 (en) 2006-10-24 2013-10-22 Newcom, Inc. Operating tool with conductor pieces
JP2014048959A (en) * 2012-08-31 2014-03-17 Canon Inc Coordinate input device, and control method therefor
US10146331B2 (en) 2014-11-28 2018-12-04 Ricoh Company, Ltd. Information processing system for transforming coordinates of a position designated by a pointer in a virtual image to world coordinates, information processing apparatus, and method of transforming coordinates

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004104810A1 (en) * 2003-05-19 2004-12-02 Eit Co., Ltd. Position sensor using area image sensor
CN100458670C (en) * 2003-05-19 2009-02-04 株式会社伊特 Location detecting apparatus using area image sensor
US8330726B2 (en) 2003-05-19 2012-12-11 Xiroku, Inc. Position detection apparatus using area image sensor
US8013598B2 (en) 2006-06-19 2011-09-06 Newcom, Inc. Object detecting device for detecting object using electromagnetic induction
US8563880B2 (en) 2006-10-24 2013-10-22 Newcom, Inc. Operating tool with conductor pieces
JP2013045449A (en) * 2011-08-19 2013-03-04 Trendon Touch Technology Corp Optical touch system and position determination method
JP2013054449A (en) * 2011-09-01 2013-03-21 Hitachi Solutions Ltd Installation method for coordinate detection device, and coordinate detection device
JP2014048959A (en) * 2012-08-31 2014-03-17 Canon Inc Coordinate input device, and control method therefor
US10146331B2 (en) 2014-11-28 2018-12-04 Ricoh Company, Ltd. Information processing system for transforming coordinates of a position designated by a pointer in a virtual image to world coordinates, information processing apparatus, and method of transforming coordinates

Similar Documents

Publication Publication Date Title
JP4094794B2 (en) Coordinate detection apparatus, information storage medium, and coordinate detection method
JP3934846B2 (en) Coordinate input / detection device, electronic blackboard system, light receiving element positional deviation correction method, and storage medium
US7176904B2 (en) Information input/output apparatus, information input/output control method, and computer product
US9971455B2 (en) Spatial coordinate identification device
CN102067075A (en) Detecting the locations of a plurality of objects on a touch surface
JP4054847B2 (en) Optical digitizer
JP2022136224A (en) Target, method for survey, and program
JP4340302B2 (en) Coordinate input device
JP2002268807A (en) Coordinate input device, program for performing coordinate input function and recording medium with the program recorded
JP2007206935A (en) Coordinate detection system, coordinate detection device, coordinate detection method and touch pen
JP2013210956A (en) Display device
JP2003241872A (en) Drawing processing method, program thereby, and storage medium storing its program
JP2001265517A (en) Coordinate input device, mounting method for sensor head, display device with coordinate input device and recording medium
JP2001175415A (en) Coordinate inputting/detecting device
JP4560224B2 (en) Information input device, information input / output system, program, and storage medium
JPH1185376A (en) Information display device with optical position detecting device
JP4335468B2 (en) Information input / output system, information control method, program, and recording medium
JP2001306257A (en) Coordinate inputting device and position adjusting method
JP6315127B2 (en) Input device, aerial image interaction system, and input method
JP4256555B2 (en) Coordinate input / detection device, electronic blackboard system, coordinate position detection method, and storage medium
JP4603183B2 (en) Information input / output system, display control method, storage medium, and program
JP2001318759A (en) Coordinate input/detection device, electronic blackboard system, coordinate detection method and storage medium
JP4320101B2 (en) Light blocking detection device and information display system
JP4175715B2 (en) Optical scanning touch panel
JP2002163071A (en) Photodetector