JP4590296B2 - Coordinate input device - Google Patents

Coordinate input device Download PDF

Info

Publication number
JP4590296B2
JP4590296B2 JP2005118979A JP2005118979A JP4590296B2 JP 4590296 B2 JP4590296 B2 JP 4590296B2 JP 2005118979 A JP2005118979 A JP 2005118979A JP 2005118979 A JP2005118979 A JP 2005118979A JP 4590296 B2 JP4590296 B2 JP 4590296B2
Authority
JP
Japan
Prior art keywords
light
coordinate input
unit
sensor
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005118979A
Other languages
Japanese (ja)
Other versions
JP2006301743A (en
JP2006301743A5 (en
Inventor
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005118979A priority Critical patent/JP4590296B2/en
Priority to US11/401,389 priority patent/US7538894B2/en
Publication of JP2006301743A publication Critical patent/JP2006301743A/en
Publication of JP2006301743A5 publication Critical patent/JP2006301743A5/ja
Application granted granted Critical
Publication of JP4590296B2 publication Critical patent/JP4590296B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、座標入力領域上の指示位置を検出する座標入力装置に関するものである。   The present invention relates to a coordinate input device that detects a designated position on a coordinate input area.

座標入力面に、指示具(例えば、専用入力ペン、指等)によって指示して座標を入力することにより、接続されたコンピュータを制御したり、文字や図形などを書き込むために用いられる座標入力装置が存在する。   A coordinate input device used to control a connected computer or to write characters, figures, etc. by inputting coordinates on a coordinate input surface by pointing with a pointing tool (for example, a dedicated input pen, finger, etc.) Exists.

従来より、この種の座標入力装置としては、タッチパネルとして、各種方式のものが提案、または製品化されており、特殊な器具などを用いずに、画面上でパーソナルコンピュータ等の端末の操作が簡単にできるため、広く用いられている。   Conventionally, as this type of coordinate input device, various types of touch panels have been proposed or commercialized, and it is easy to operate terminals such as personal computers on the screen without using special equipment. Since it can be used, it is widely used.

座標入力方式としては、抵抗膜を用いたもの、また、超音波を用いたものなど、さまざまなものがあるが、光を用いたものとして、例えば、特許文献1がある。この特許文献1では、座標入力領域の外側に再帰性反射シートを設け、座標入力領域の角端部に配置された光を照明する照明部と光を受光する受光部とにより、座標入力領域内において指等の光を遮蔽する遮蔽物と受光部間の角度を検出し、その検出結果に基づいて、その遮蔽物の指示位置を決定する構成が開示されている。   There are various coordinate input methods such as those using a resistive film and those using ultrasonic waves. For example, Patent Document 1 discloses a method using light. In Patent Document 1, a retroreflective sheet is provided outside the coordinate input area, and an illumination unit that illuminates light disposed at a corner end of the coordinate input area and a light receiving unit that receives the light are used in the coordinate input area. Discloses a configuration in which an angle between a light shielding unit and a light shielding unit that shields light such as a finger is detected, and an instruction position of the shielding material is determined based on the detection result.

また、特許文献2や3等にあるように、再帰反射部材を座標入力領域周辺に構成し、再帰反射光が遮光される部分(遮光部分)の座標を検出する座標入力装置が開示されている。   Further, as disclosed in Patent Documents 2 and 3 and the like, a coordinate input device is disclosed in which a retroreflective member is configured around a coordinate input region to detect the coordinates of a portion (light shielding portion) where the retroreflected light is shielded. .

これらの装置において、例えば、特許文献2では、微分等の波形処理演算によって受光部が受光する遮蔽物による遮光部分のピークを検出することにより、受光部に対する遮光部分の角度を検出し、その検出結果からその遮蔽物の座標を算出している。また、特許文献3では、特定のレベルパターンとの比較によって遮光部位の一方の端と他方の端を検出し、それらの座標の中心を検出する構成が示されている。   In these apparatuses, for example, in Patent Document 2, the angle of the light-shielding part relative to the light-receiving part is detected by detecting the peak of the light-shielding part by the shielding object received by the light-receiving part by waveform processing calculation such as differentiation, and the detection The coordinates of the shielding object are calculated from the result. Patent Document 3 discloses a configuration in which one end and the other end of a light shielding part are detected by comparison with a specific level pattern, and the center of those coordinates is detected.

ここで、特許文献1乃至3のような、遮光位置を検出して座標を算出する方式を、以下、遮光方式と称する。   Here, a method of detecting coordinates and calculating coordinates as in Patent Documents 1 to 3 is hereinafter referred to as a light shielding method.

また、更に、このような遮光方式の座標入力装置においては、特に、その座標入力領域のサイズが大きい場合には、複数の操作者が同時に入力することを許容して、利便性を向上し、より効率的な会議等の用途での要求がある。そのため、複数の同時入力に対応する座標入力装置が考案されている。   Furthermore, in such a coordinate input device of the light shielding method, in particular, when the size of the coordinate input area is large, a plurality of operators are allowed to input simultaneously, improving convenience, There is a demand for more efficient applications such as meetings. Therefore, a coordinate input device corresponding to a plurality of simultaneous inputs has been devised.

複数の座標を同時に入力するために、特許文献4〜特許文献6では、一つの受光センサで複数の遮光部分の角度を検出し、各センサの角度の組み合わせから数点の入力座標候補を算出し、更に、その入力座標候補から実際に入力した座標を判別する技術が開示されている。   In Patent Documents 4 to 6, in order to input a plurality of coordinates simultaneously, the angles of a plurality of light shielding portions are detected by one light receiving sensor, and several input coordinate candidates are calculated from combinations of the angles of the respective sensors. Furthermore, a technique for discriminating the actually input coordinates from the input coordinate candidates is disclosed.

例えば、2点入力の場合には、入力座標候補として最大4点の座標を算出し、この4点の内、実際に入力した座標2点を判定し、出力する。つまり、この判定は、複数の入力座標候補の中から、実際の入力座標と虚偽の入力座標を選別して、最終的な入力座標を判定する。そして、この判定を、ここでは「虚実判定」と呼ぶことにする。   For example, in the case of two-point input, the coordinates of a maximum of four points are calculated as input coordinate candidates, and two of the four points actually input are determined and output. That is, in this determination, actual input coordinates and false input coordinates are selected from a plurality of input coordinate candidates, and the final input coordinates are determined. This determination will be referred to as “false determination” here.

この虚実判定の具体的な方法としては、特許文献5や特許文献6では、従来の座標入力領域の一辺の両端に、座標入力領域内で指示された座標を精度良く算出するに十分な距離を隔てて設置される第1及び第2センサの他に、これも、第1及び第2センサから入力領域内で指示された座標を精度良く算出するに十分な距離を隔てて第1及び第2センサの間の位置に設置される第3センサを設ける。そして、この第3センサにおける第1及び第2センサの角度情報とは異なる角度情報に基づいて、第1及び第2センサで検出された複数の角度情報に対し、この虚実判定を行う技術が開示されている。   As a concrete method of this truth determination, in Patent Document 5 and Patent Document 6, a distance sufficient to accurately calculate the coordinates instructed in the coordinate input area at both ends of one side of the conventional coordinate input area. In addition to the first and second sensors installed apart from each other, the first and second sensors are separated from each other by a distance sufficient to accurately calculate the coordinates indicated in the input area from the first and second sensors. A third sensor is provided at a position between the sensors. And the technique which performs this truth determination with respect to several angle information detected by the 1st and 2nd sensor based on the angle information different from the angle information of the 1st and 2nd sensor in this 3rd sensor is disclosed. Has been.

一方で、複数のセンサユニットを所定間隔空けて座標入力領域上の周囲に配置し、ほぼ同じ方向、ほぼ同じ領域を観測させることにより、複数の遮光影が重複した場合でも、一方の影が他方の影に完全に隠れて検出されることを回避する方法が提案されている。また、複数の影が重複したとき、其々の影の一方の端部を観測することにより、影が存在する方向を其々検出する方法が提案されている。
米国特許第4507557号公報 特開2000−105671号公報 特開2001−142642号公報 特開2002−055770号公報 特開2003−303046号公報 特許登録第2896183号
On the other hand, by arranging a plurality of sensor units around the coordinate input area with a predetermined interval and observing almost the same direction and almost the same area, even if a plurality of shading shadows overlap, A method has been proposed to avoid detection that is completely hidden behind the shadow of the camera. Also, a method has been proposed in which when a plurality of shadows overlap, the direction in which the shadow exists is detected by observing one end of each shadow.
U.S. Pat. No. 4,507,557 JP 2000-105671 A JP 2001-142642 A JP 2002-055570 A JP 2003-303046 A Patent registration No. 2896183

上述の遮光方式の座標入力装置では、光を遮ることによって形成された影を、その数、位置、影の強度とも全てのセンサが互いに矛盾のない基準で正確に検出しなければならない。しかるに、センサと再帰反射部材との位置関係、及びセンサにおける投光部と受光部の位置関係等から、それぞれのセンサから見た影の強度(遮光による光強度の低下率)は、常に、必ずしもそれぞれのセンサで互いに同じ値にはならない。   In the above-described light shielding type coordinate input apparatus, all sensors must accurately detect shadows formed by blocking light based on standards consistent with each other in terms of the number, position, and shadow intensity. However, due to the positional relationship between the sensor and the retroreflective member, and the positional relationship between the light projecting unit and the light receiving unit in the sensor, the intensity of the shadow viewed from each sensor (the rate of decrease in light intensity due to light shielding) is not always necessarily. Each sensor does not have the same value.

以下、影の強度(遮光による光強度の低下率)を、「遮光深さ」、「遮光比率」、「遮光率」等と表現する。   Hereinafter, the intensity of the shadow (light intensity reduction rate due to light shielding) is expressed as “light shielding depth”, “light shielding ratio”, “light shielding ratio”, and the like.

このように、影の遮光深さに違いがあると、例えば、本来、所定の複数のセンサから同時に検知されるべき影が、特定のセンサにおいては所定の位置に検知されるにもかかわらず、他の特定のセンサにおいては所定の位置に検知されるべき影が検知されず、すなわち見逃してしまうということが発生する可能性がある。   In this way, if there is a difference in the shading depth of the shadow, for example, a shadow that should originally be detected simultaneously from a plurality of predetermined sensors is detected at a predetermined position in a specific sensor. In other specific sensors, there is a possibility that a shadow to be detected at a predetermined position is not detected, that is, missed.

このように、何れか1つののセンサで本来検出すべき影を検出できなかった場合、入力された座標を正しく検出することができなくなる。また、特に、この問題は、複数の指示具で同時に、複数の入力を行った場合に影響が大きい。例えば、あるセンサで本来検知できるべき影が検知でき無い場合、そのセンサから見て、その影が他の影と重複していると誤認識してしまうこととなる。その結果、実際に指示具によって入力された位置とは異なる本来ありえない位置、即ち、誤った位置の座標を検出してしまう可能性がある。   In this way, if any one of the sensors cannot detect a shadow that should be detected, the input coordinates cannot be detected correctly. In particular, this problem has a great effect when a plurality of inputs are performed simultaneously with a plurality of pointing devices. For example, when a shadow that should be detected by a certain sensor cannot be detected, it is erroneously recognized that the shadow overlaps with other shadows as viewed from the sensor. As a result, there is a possibility of detecting a position that is not originally possible and that is different from the position actually input by the pointing tool, that is, the coordinates of an incorrect position.

また、複数のセンサで、本来、検知できるはずの影を検知できない場合、座標をあやまると同時に影の数すなわち入力の数を誤る可能性もある。   In addition, when a plurality of sensors cannot detect a shadow that should originally be detected, there is a possibility that the number of shadows, that is, the number of inputs may be mistaken at the same time that the coordinates are distorted.

本発明は上記の課題を解決するためになされたものであり、入力された座標を精度良く検出することができる座標入力装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a coordinate input device that can accurately detect input coordinates.

上記の目的を達成するための本発明による座標入力装置は以下の構成を備える。即ち、
座標入力領域上の指示位置を検出する座標入力装置であって、
前記座標入力領域に対し光を投光する投光部と、到来光を受光する受光部とを備える、前記座標入力領域の周辺に設けられた複数のセンサ手段と、
前記座標入力領域の周辺に設けられ、入射光を再帰的に反射する複数の再帰反射手段と、
指示手段による指示によって、前記複数のセンサ手段それぞれから得られる、光量分布に基づいて、前記指示手段の指示位置の座標を算出する算出手段とを備え、
前記再帰反射手段を構成する部材の上辺が共通の第一の平面を成し、前記部材の下辺が共通の第二の平面を成し、かつ、前記センサ手段の遮光検知範囲である遮光検知窓の上端部が前記第一の平面上に位置し、該遮光検知窓の下端部が前記第二の平面上に位置するように、前記センサ手段及び前記再帰反射手段が配置され、
前記複数のセンサ手段に関わる三次元的遮光検出領域が、前記第一の平面と前記第二の平面に挟まれる空間であって、前記座標入力領域に対応する共通の三次元的立体形状である。
In order to achieve the above object, a coordinate input device according to the present invention comprises the following arrangement. That is,
A coordinate input device for detecting a designated position on a coordinate input area,
A plurality of sensor means provided around the coordinate input area, comprising: a light projecting unit that projects light to the coordinate input area; and a light receiving unit that receives incoming light;
A plurality of retroreflective means provided around the coordinate input region and recursively reflecting incident light;
Calculation means for calculating the coordinates of the indicated position of the instruction means based on the light amount distribution obtained from each of the plurality of sensor means by an instruction by the instruction means;
A light shielding detection window in which the upper side of the member constituting the retroreflective means forms a common first plane, and the lower side of the member forms a common second plane, and is a light shielding detection range of the sensor means The sensor means and the retroreflective means are arranged such that the upper end portion of the light shielding detection window is located on the first plane and the lower end portion of the light shielding detection window is located on the second plane,
The three-dimensional shading detection area related to the plurality of sensor means is a space sandwiched between the first plane and the second plane, and has a common three-dimensional solid shape corresponding to the coordinate input area. .

また、好ましくは、前記三次元的遮光検出領域は、前記センサ手段に対向する再帰反射手段の形状と、前記遮光検知窓によって規定される三次元的立体である。 In a preferred embodiment, the three-dimensional shielding detection region, the shape of the retroreflector facing the sensor means is a three-dimensional solid defined by the light shielding sensing window.

また、好ましくは、前記遮光検知窓は、前記センサ手段が備える投光部の投光範囲である投光窓の下端と、該センサ手段が備える受光部の受光範囲である受光窓の下端の何れか高い方の位置を下端とし、かつ前記投光窓の上端と、前記受光窓の上端の何れか高い方の位置を上端とすることにより定義される。   Preferably, the light shielding detection window is either a lower end of a light projecting window that is a light projecting range of a light projecting unit provided in the sensor means or a lower end of a light receiving window that is a light receiving range of a light receiving unit provided in the sensor means. The higher position is defined as the lower end, and the upper end of the light projecting window or the upper end of the light receiving window is defined as the upper end.

また、好ましくは、前記センサ手段は、前記座標入力領域に垂直な方向に関して、前記投光部の視野範囲が該センサ手段に関わる再帰反射手段を包含し、かつ前記受光部の視野範囲が該センサ手段に関わる再帰反射手段を包含する。   Preferably, the sensor means includes a retroreflective means related to the sensor means with respect to a direction perpendicular to the coordinate input area, and the visual field range of the light receiving part is the sensor. Includes retroreflective means associated with the means.

また、好ましくは、前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを1つ備える。   Preferably, the sensor means includes one optical unit including the light projecting unit and the light receiving unit.

また、好ましくは、前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを2つ備える。   Preferably, the sensor means includes two optical units including the light projecting unit and the light receiving unit.

本発明によれば、入力された座標を精度良く検出することができる座標入力装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the coordinate input device which can detect the input coordinate accurately can be provided.

以下、本発明の実施の形態について図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<実施形態1>
図1Aは本発明の実施形態1の座標入力装置の外観構成を示す図である。
図1Aにおいて、L1及びL2はそれぞれ投光部および受光部を有する光学ユニットであり、これらの2組の光学ユニットによって、センサユニット1Lが構成されている。同様に、R1及びR2はそれぞれ投光部および受光部を有する光学ユニットであり、これらの2組の光学ユニットによって、センサユニット1Rが構成されている。
また、センサユニット1L内の光学ユニットL1及びL2は、ほぼ同一の方向、同一の視野で、投光/受光を行い、所定の視差をもって到来光を観測するように配置されている。同様に、センサユニット1R内の光学ユニットR1及びR2は、ほぼ同一の方向、同一の視野で、投光/受光を行い、所定の視差をもって到来光を観測するように配置されている。
更に、センサユニット1L及び1Rは、図示の如く座標入力面であるところの座標入力有効領域3のX軸に平行に、かつY軸に対称な位置に、所定距離離れて配置されている。センサユニット1L及び1Rは、制御・演算ユニット2に接続され、制御信号を制御・演算ユニット2から受信すると共に、検出した信号を制御・演算ユニット2に送信する。
4a〜4cは入射光を到来方向に反射する再帰反射面を有する再帰反射部であり、座標入力有効領域3の外側3辺に図示が如く配置され、それぞれのセンサユニット1L及び1Rから略90°範囲に投光された光を、センサユニット1L及び1Rに向けて再帰反射する。
<Embodiment 1>
FIG. 1A is a diagram showing an external configuration of a coordinate input device according to Embodiment 1 of the present invention.
In FIG. 1A, L1 and L2 are optical units each having a light projecting unit and a light receiving unit, and a sensor unit 1L is constituted by these two sets of optical units. Similarly, R1 and R2 are optical units each having a light projecting unit and a light receiving unit, and a sensor unit 1R is configured by these two sets of optical units.
In addition, the optical units L1 and L2 in the sensor unit 1L are arranged so as to project / receive light in substantially the same direction and the same field of view, and observe the incoming light with a predetermined parallax. Similarly, the optical units R1 and R2 in the sensor unit 1R are arranged to project / receive light in substantially the same direction and the same field of view, and observe the incoming light with a predetermined parallax.
Further, the sensor units 1L and 1R are arranged at a predetermined distance apart in parallel to the X axis of the coordinate input effective area 3 which is a coordinate input surface as shown in the drawing and symmetrical to the Y axis. The sensor units 1L and 1R are connected to the control / arithmetic unit 2, receive a control signal from the control / arithmetic unit 2, and transmit the detected signal to the control / arithmetic unit 2.
Reference numerals 4a to 4c denote retroreflective portions having retroreflective surfaces for reflecting incident light in the direction of arrival, which are arranged on the three outer sides of the coordinate input effective area 3 as shown in the figure, and are approximately 90 ° from the respective sensor units 1L and 1R. The light projected in the range is retroreflected toward the sensor units 1L and 1R.

尚、再帰反射部4a〜4cは、ミクロ的に見て三次元的な構造を有し、現在では、主にビーズタイプの再帰反射テープ、或いはコーナキューブを機械加工等により規則正しく配列することで再帰現象を起こす再帰反射テープが知られている。   The retroreflective portions 4a to 4c have a three-dimensional structure as viewed microscopically. At present, the retroreflective portions 4a to 4c are recursively arranged by regularly arranging mainly bead-type retroreflective tape or corner cubes. Retroreflective tape that causes the phenomenon is known.

再帰反射部4a〜4cで再帰反射された光は、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)によって1次元的に検出され、その光量分布が制御・演算ユニット2に送信される。   The light retroreflected by the retroreflecting units 4a to 4c is detected one-dimensionally by the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2), and the light quantity distribution is controlled / calculated unit 2. Sent to.

座標入力有効領域3は、PDPやリアプロジェクタ、LCDパネルなどの表示装置の表示画面で構成することで、インタラクティブな入力装置として、利用可能となっている。   The coordinate input effective area 3 is configured as a display screen of a display device such as a PDP, a rear projector, or an LCD panel, and can be used as an interactive input device.

このような構成において、座標入力有効領域3に指や指示具等の指示手段による入力指示がなされると、センサユニット1L及び1R内のそれぞれの、光学ユニットL1及びL2と光学ユニットR1及びR2の投光部から投光された光が遮られ(遮光部分)、センサユニット1L及び1R内のそれぞれの、光学ユニットL1及びL2と光学ユニットR1及びR2の受光部ではその遮光部分の光(再帰反射による反射光)を検出できないので、その結果、どの方向からの光が検出できなかったかを判別することが可能となる。   In such a configuration, when an input instruction is given to the coordinate input effective area 3 by an instruction means such as a finger or an indicator, the optical units L1 and L2 and the optical units R1 and R2 in the sensor units 1L and 1R, respectively. The light projected from the light projecting part is blocked (light-shielding part), and the light of the light-shielding part (recursive reflection) is received at the light-receiving parts of the optical units L1 and L2 and the optical units R1 and R2 in the sensor units 1L and 1R, respectively. As a result, it is possible to determine from which direction the light could not be detected.

そこで、制御・演算ユニット2は、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)が検出する光量変化から、指示具によって入力指示された部分の複数の遮光範囲を検出し、その遮光範囲の情報から、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)それぞれに対する遮光範囲の端部の方向(角度)をそれぞれ算出する。また、指示具が信号発信部を有する場合には、その指示具からのペン信号をペン信号受信部5が受信する。   Therefore, the control / arithmetic unit 2 detects a plurality of light-shielding ranges of the portion instructed to be input by the pointing tool from the light amount change detected by the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2). Then, the direction (angle) of the end of the light shielding range with respect to each of the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2) is calculated from the information on the light shielding range. When the pointing tool has a signal transmission unit, the pen signal receiving unit 5 receives a pen signal from the pointing tool.

そして、検出された遮光範囲の数に基づいて、座標算出に用いる遮光範囲から得られるデータを決定し、それぞれ算出された方向(角度)、及びセンサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)間の距離情報等から、座標入力有効領域3上の指示具の遮光位置を幾何学的に算出し、表示装置に接続されているホストコンピュータ等の外部端末に、インタフェース7(例えば、USB、IEEE1394等)を経由してその座標値を出力する。   Then, based on the number of detected light shielding ranges, data obtained from the light shielding ranges used for coordinate calculation is determined, and the calculated direction (angle), sensor unit 1L (optical units L1 and L2) and 1R ( From the distance information between the optical units R1 and R2), the light shielding position of the pointing tool on the coordinate input effective area 3 is geometrically calculated, and the interface 7 is connected to an external terminal such as a host computer connected to the display device. The coordinate value is output via USB (for example, USB, IEEE1394, etc.).

このようにして、指示具によって、画面上に線を描画したり、表示装置に表示されるアイコンを操作する等の外部端末の操作が可能になる。   In this way, the operation of the external terminal such as drawing a line on the screen or operating an icon displayed on the display device can be performed by the pointing tool.

尚、以下の説明では、座標入力有効領域3に垂直な方向を高さ方向(Z方向)とし、座標入力有効領域3に近い場合を「下」、遠い場合を「上」と表現する。また、図1Aにおいて、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)は、遮光を実効的に検知する範囲(遮光範囲)、即ち、遮光検知窓の実態的存在として表現される。特に、高さ方向の幅は、この遮光検知窓の上端下端の幅を意味する。   In the following description, the direction perpendicular to the coordinate input effective area 3 is defined as the height direction (Z direction), and the case close to the coordinate input effective area 3 is expressed as “down” and the case distant from the coordinate input effective area 3 is expressed as “upper”. Further, in FIG. 1A, the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2) are areas where light shielding is effectively detected (light shielding range), that is, the actual existence of a light shielding detection window. Expressed. In particular, the width in the height direction means the width of the upper and lower ends of the light shielding detection window.

即ち、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)の半円筒形状の厚さ(Z方向)が高さ方向に定義される実効的遮光検知窓の大きさである。   That is, the thickness of the semi-cylindrical shape (Z direction) of the sensor units 1L (optical units L1 and L2) and 1R (optical units R1 and R2) is the size of the effective light shielding detection window defined in the height direction. .

特に、実施形態1においては、図1Bに示すように、再帰反射部4a〜4cの夫々の上辺と、センサユニット1L及び1Rの実効的上端とが略同一の平面S_topを構成している。また、再帰反射部4a〜4cの夫々の下辺と、センサユニット1L及び1Rの実効的下端とが略同一の平面S_botomを構成している。   In particular, in the first embodiment, as shown in FIG. 1B, the upper sides of the retroreflective portions 4a to 4c and the effective upper ends of the sensor units 1L and 1R form substantially the same plane S_top. Further, the lower sides of the retroreflective portions 4a to 4c and the effective lower ends of the sensor units 1L and 1R constitute substantially the same plane S_bottom.

このように、構成することにより、指示具によって遮光された場合に、センサユニット1L及び1Rでは、常に互いに略同一レベルの遮光比率で影を検出することができる。   By configuring in this way, when the light is shielded by the pointing tool, the sensor units 1L and 1R can always detect a shadow with a light shielding ratio of substantially the same level.

尚、図1A及び図1Bでは、1つのセンサユニット内に、2つの光学ユニットを内蔵する複眼(二眼)構成の例を挙げているが、図2A及び図2Bに示すように、1つのセンサユニット内に1つの光学ユニットを内蔵する単眼構成とすることも可能である。   In FIGS. 1A and 1B, an example of a compound eye (two-lens) configuration in which two optical units are built in one sensor unit is shown. However, as shown in FIGS. 2A and 2B, one sensor A monocular configuration in which one optical unit is built in the unit is also possible.

そこで、以下では、説明を簡単にするために、図3〜図23では、図2A及び図2Bの単眼構成の場合を例に挙げて説明するが、図1A及び図1Bの複眼(二眼)構成、あるいは、1つのセンサユニット内に3個以上の光学ユニットを内蔵する複眼構成であっても、本発明を適用することができる。   Therefore, in the following, in order to simplify the description, in FIGS. 3 to 23, the case of the monocular configuration of FIGS. 2A and 2B will be described as an example, but the compound eye (two eyes) of FIGS. 1A and 1B will be described. The present invention can also be applied to a configuration or a compound eye configuration in which three or more optical units are built in one sensor unit.

但し、複眼構成の場合は、センサユニットを構成する各光学ユニットに対して、以下の説明が適用される。つまり、単眼構成の場合、センサユニットとそれが内蔵する1つの光学ユニットは同一視して説明することができるが、複眼構成の場合、センサユニットを構成する複数の光学ユニットそれぞれに対して、図3〜図23の説明が適用されることに注意されたい。   However, in the case of a compound eye configuration, the following description is applied to each optical unit constituting the sensor unit. In other words, in the case of a monocular configuration, the sensor unit and one optical unit incorporated therein can be described with the same view. However, in the case of a compound eye configuration, each of the plurality of optical units constituting the sensor unit is illustrated. Note that the description of 3 to 23 applies.

<課題の説明>
ここで、本発明における、課題を再度、図を用いて詳しく説明する。
<Explanation of issues>
Here, the problem in the present invention will be described again in detail with reference to the drawings.

図3は本発明における課題を説明するための図である。   FIG. 3 is a diagram for explaining the problem in the present invention.

従来より、センサユニット1L及び1R、および再帰反射部4(4a〜4c)は、できるだけ座標入力面に近づけるよう設計されてきた。また、上記特許文献2等で見られるように、センサユニットにおいて、反射ミラー等の光学部材を用いることにより、投光位置と受光位置をできるだけ、同じ位置、高さにすること、できるだけ座標入力面に近づけること、また、投光/受光ともできる限り平行にする(コリメートする)ことを想定した座標入力装置について言及されている。   Conventionally, the sensor units 1L and 1R and the retroreflective portion 4 (4a to 4c) have been designed to be as close to the coordinate input surface as possible. Further, as can be seen in the above-mentioned Patent Document 2, etc., in the sensor unit, by using an optical member such as a reflection mirror, the light projection position and the light reception position can be set to the same position and height as much as possible. And a coordinate input device that is assumed to be as parallel (collimated) as possible with respect to light projection / light reception.

ここで、仮に、投光/受光が厚み方向(ここで厚み方向とは、座標入力面(座標入力有効領域3)に垂直な方向(Z方向)を意味する)に完全に平行にされていて、再帰反射部が投光の指向範囲(視野範囲)、受光の指向範囲(視野範囲)を厚み方向において包含するような形と大きさに設定されているのであれば、三次元的遮光検知領域は、再帰反射部の形状にはよらず、投光あるいは受光の光路のみで決まるということができる。   Here, it is assumed that the light projection / light reception is completely parallel to the thickness direction (here, the thickness direction means a direction (Z direction) perpendicular to the coordinate input surface (coordinate input effective area 3)). If the retroreflective part is set to have a shape and size so as to include the light directivity range (field range) and the light reception directivity range (field range) in the thickness direction, a three-dimensional shading detection region It can be said that this is determined only by the light path of light projection or light reception, regardless of the shape of the retroreflective portion.

しかしながら、実際には、例えば、エコーバックを表示する表示画面との関わり、装置全体の構造などにより、実装制限を受ける、またコスト、精度などの制限により多くの場合、投光/受光とも厚み方向に十分なコリメートができると状態にあるとは言えない。   However, in practice, for example, there are mounting restrictions due to the relationship with the display screen that displays the echo back, the overall structure of the apparatus, etc., and in many cases both the light projection and the light reception are in the thickness direction due to cost and accuracy restrictions. It cannot be said that it is in a state when sufficient collimation is possible.

このため、多くの場合、現実的には、再帰反射部の幅(厚み方向の幅)より、光学ユニットの投光の指向範囲/受光の指向範囲を厚み方向において広く、即ち、投光/受光の厚み方向の指向範囲が再帰反射部を包含するように構成することにより、三次元的遮光検知領域は、再帰反射部の形状によって決まるように構成されている。   For this reason, in many cases, in reality, the light emitting directivity range / light receiving directivity range of the optical unit is wider in the thickness direction than the width of the retroreflective portion (width in the thickness direction), that is, the light projecting / receiving light. By configuring the directivity range in the thickness direction to include the retroreflective portion, the three-dimensional light shielding detection region is configured to be determined by the shape of the retroreflective portion.

このため、夫々のセンサユニットから見た三次元的遮光検知領域は妥協的な形となり、センサユニット1L及び1Rの三次元的遮光検知領域は、共通領域とは必ずしもなっていないのが現状である。   For this reason, the three-dimensional shading detection areas viewed from the respective sensor units are compromised, and the three-dimensional shading detection areas of the sensor units 1L and 1R are not necessarily common areas. .

本発明は、このような構成において発生する問題を解決する手法を提案するものである。   The present invention proposes a technique for solving the problems that occur in such a configuration.

以下、図3を例に、課題を説明する。   The problem will be described below with reference to FIG.

図3では、センサユニット1L及び1Rは、座標入力面である座標入力有効領域3に対し、再帰反射部4a〜4cと比べて、より高い位置に設置されている。   In FIG. 3, the sensor units 1 </ b> L and 1 </ b> R are installed at higher positions with respect to the coordinate input effective area 3 that is the coordinate input surface as compared with the retroreflective portions 4 a to 4 c.

実際、表示装置に、この種の遮光方式の座標入力装置を組み込むあるいはオーバーレイする場合、このような構成配置になることが多い。   In fact, when such a light-shielding coordinate input device is incorporated into or overlaid on a display device, this arrangement is often used.

センサユニット1L及び1Rは、一定の大きさがあるので、表示画面の黒枠(表示面と同一平面で実際には表示されない外側の部分)に設置することができない。そのため、表示装置の外枠(表示面より一段飛び出した部分、いわゆる額縁)に乗り上げるような配置となる。   Since the sensor units 1L and 1R have a certain size, they cannot be installed in the black frame of the display screen (the outer portion that is not displayed on the same plane as the display surface). For this reason, the arrangement is such that it rides on the outer frame of the display device (a part protruding from the display surface, a so-called frame).

一方、座標入力装置としては、違和感のない書き味にするためには、遮光検知領域をできるだけ座標入力面に近づけたいという要望がある。そのため、細長い形状の再帰反射部は、表示画面の黒枠に収める、即ち、表示面に接近した配置となる。   On the other hand, there is a demand for the coordinate input device to make the light-shielding detection region as close as possible to the coordinate input surface in order to make the writing feeling uncomfortable. For this reason, the elongated retroreflective portions are accommodated in the black frame of the display screen, that is, arranged close to the display surface.

ここで、センサユニット1L及び1R夫々の三次元的遮光検知領域を考えてみる。   Here, consider the three-dimensional shading detection area of each of the sensor units 1L and 1R.

まず、センサユニット1Lに関しては、センサユニット1Lから投光される光は、再帰反射部4a及び4cのみにおいて、再帰反射して再度、センサユニット1Lに戻る。ここで、センサユニット1Lの投光/受光の光学系が座標入力面に沿って相当にコリメートされていない限り、現実的には、図4に示すような三次元的な遮光検知領域を形成することとなる。   First, regarding the sensor unit 1L, the light projected from the sensor unit 1L is retroreflected only at the retroreflective portions 4a and 4c and returns to the sensor unit 1L again. Here, as long as the light projecting / receiving optical system of the sensor unit 1L is not substantially collimated along the coordinate input surface, a three-dimensional shading detection region as shown in FIG. 4 is practically formed. It will be.

同様に、センサユニット1Rに関しても、図5に示すような三次元的遮光検知領域を形成することとなる。   Similarly, a three-dimensional shading detection region as shown in FIG. 5 is also formed for the sensor unit 1R.

ここで、図4及び図5から明らかなように、センサユニット1Lに関わる三次元的遮光領域と、センサユニット1Rに関わる三次元的遮光領域とでは、立体的に異なる。即ち、両者間では、略同一の三次元遮光検知領域を構成しているわけではない。   Here, as is apparent from FIGS. 4 and 5, the three-dimensional light-shielding region related to the sensor unit 1L and the three-dimensional light-shielding region related to the sensor unit 1R are three-dimensionally different. That is, the same three-dimensional shading detection area is not constituted between the two.

ここで、図3のC点に指示具を挿入することを考える。   Here, consider inserting an indicator at point C in FIG.

C点では、図4に示すように、センサユニット1Lに関する三次元的遮光検知領域は、センサユニット1Lに近いため、比較的高い位置(座標入力面から離れた位置)にある。   At point C, as shown in FIG. 4, the three-dimensional shading detection area related to the sensor unit 1L is close to the sensor unit 1L, and therefore is at a relatively high position (position away from the coordinate input surface).

一方、図5に示すように、センサユニット1Rに関する三次元的遮光検知領域は、C点では、近傍の再帰反射部4cの高さに近い高さ、即ち、比較的低い位置(座標入力面に接近した位置)にある。   On the other hand, as shown in FIG. 5, the three-dimensional shading detection region relating to the sensor unit 1R is close to the height of the nearby retroreflective portion 4c at point C, that is, a relatively low position (on the coordinate input surface). Close position).

ここで、図6に示すような、「ペン先高さ 対 遮光率」特性を考える。図6において、横軸は、ペン先高さH(即ち、指示具の実効的先端と座標入力面との距離)である。一方、縦軸は、センサユニットにおける遮光率であり、例えば、指示具を座標入力面に近づけて行く場合は、図6において、右から左に移動することとなる。   Here, the “pen tip height vs. light blocking ratio” characteristic as shown in FIG. 6 is considered. In FIG. 6, the horizontal axis is the pen tip height H (that is, the distance between the effective tip of the pointing tool and the coordinate input surface). On the other hand, the vertical axis represents the light shielding ratio of the sensor unit. For example, when the pointing tool is moved closer to the coordinate input surface, the vertical axis moves from right to left in FIG.

指示具が挿入されていない時点は、遮光率は0%(規格化光強度100%)であり、座標入力面に対しある高さ位置まで近づくと、遮光率は上昇し始め(規格化光強度は低下し始め)、さらにある位置でおよそ100%近くに達し、その後、一定となる。   When the pointing device is not inserted, the light shielding rate is 0% (standardized light intensity 100%), and when approaching a certain height position with respect to the coordinate input surface, the light shielding rate starts to increase (standardized light intensity). Begins to decrease) and reaches approximately 100% at a certain position, and then becomes constant.

C点の位置において、指示具の挿入操作を行った場合、破線がセンサユニット1Lに関する遮光率の変位を示す軌跡であり、実線がセンサユニット1Rに関するものである。   When the pointing tool is inserted at the point C, the broken line is a locus indicating the displacement of the light shielding rate related to the sensor unit 1L, and the solid line is related to the sensor unit 1R.

C点の近傍において、センサユニット1Lに関する三次元的遮光検知領域は高い位置にあるので、図6で示す破線の軌跡が大きく変化する部分は右に寄っている。   In the vicinity of the point C, the three-dimensional shading detection region related to the sensor unit 1L is at a high position, so the portion where the broken line locus shown in FIG.

一方、センサユニット1Rに関する三次元的遮光検知領域は低い位置にあるので、図6中で示す実線の軌跡が大きく変化する部分は左に寄っている。   On the other hand, since the three-dimensional shading detection region related to the sensor unit 1R is at a low position, the part where the solid line locus shown in FIG.

そして、何れもこの大きく変化する部分が、センサユニット1L及び1Rの各センサユニットの三次元遮光検知領域を通過する部分であるということができる。   And it can be said that the part which changes greatly is a part which passes the three-dimensional shading detection area | region of each sensor unit of the sensor units 1L and 1R.

また、これらの図3〜図5に示す構成の場合、C点の近傍において、センサユニット1Lに関する三次元的遮光検知領域は、センサユニット1Rに関する三次元的遮光検知領域よりも高さ方向に対して薄いので、図6において、遮光率の軌跡(カーブ)の変化する部分が、センサユニット1Lの方がセンサユニット1Rに比べて狭くて急峻である。   3 to 5, in the vicinity of the point C, the three-dimensional shading detection area related to the sensor unit 1L is higher than the three-dimensional shading detection area related to the sensor unit 1R. In FIG. 6, the portion where the locus (curve) of the light shielding rate changes is narrower and steeper in the sensor unit 1L than in the sensor unit 1R.

以上のように、従来構成においては、左右のセンサユニット1L及び1Rで検知する「ペン先高さ 対 遮光率」特性が異なる。   As described above, in the conventional configuration, the “pen tip height vs. light shielding rate” characteristics detected by the left and right sensor units 1L and 1R are different.

そして、このよう特性において遮光検知を行う場合、次のような問題が発生する。   When the light shielding detection is performed with such characteristics, the following problems occur.

例えば、指示具が座標入力面に対して上から挿入されて行き、その高さHが、図6のHth_R≦H≦Hth_Lで示される範囲に至った時で、かつセンサユニット1L及び1R夫々が検出する影の強度、即ち、遮光率が所定閾値thsh0を超えた時に、影が有りと判定するとする。   For example, when the pointing tool is inserted into the coordinate input surface from above and its height H reaches the range indicated by Hth_R ≦ H ≦ Hth_L in FIG. 6, and each of the sensor units 1L and 1R is Assume that it is determined that there is a shadow when the intensity of the shadow to be detected, that is, the light shielding rate exceeds a predetermined threshold thsh0.

このような構成の場合、センサユニット1Lでは、H=Hth_Lのとき、影を最初に検知する。一方、センサユニット1Rでは、H=Hth_Rのとき、影を最初に検知する。   In such a configuration, the sensor unit 1L first detects a shadow when H = Hth_L. On the other hand, the sensor unit 1R first detects a shadow when H = Hth_R.

従って、Hth_R≦H≦Hth_Lで示される範囲にあっては、指示具の影は、センサユニット1Lでは観測されるが、センサユニット1Rでは観測されない状態となる。   Therefore, in the range indicated by Hth_R ≦ H ≦ Hth_L, the shadow of the pointing tool is observed in the sensor unit 1L but not in the sensor unit 1R.

これは、特に、複数入力を行った時、大きい問題となる。   This is a big problem especially when a plurality of inputs are performed.

以下、この複数入力時の問題について説明する。まず、この問題を説明するに当たり、単一入力時の座標検出について説明する。   Hereinafter, the problem at the time of multiple input will be described. First, in explaining this problem, coordinate detection at the time of single input will be explained.

図7は、図3における単一入力操作を上から見た図である。   FIG. 7 is a top view of the single input operation in FIG.

図7において、C点の位置に入力を行った場合、通常、図8及び図9のθL、θRの位置に影ができる。ここで、図8は、指示具の高さH≦H2_Rのとき(即ち、指示具が十分座標入力面近傍まできたとき)の、センサユニット1L及び1Rそれぞれが検出する影の形を表している。また、図9は、Hth_R≦H≦Hth_Lのとき(即ち、指示具が座標入力有効領域に入る際、ないし出る際)のときの、センサユニット1L及び1Rそれぞれが検出する影の形を表している。   In FIG. 7, when an input is made at the position of point C, a shadow is usually formed at the positions of θL and θR in FIGS. Here, FIG. 8 shows the shape of the shadow detected by each of the sensor units 1L and 1R when the height of the pointing tool is H ≦ H2_R (that is, when the pointing tool is sufficiently close to the coordinate input surface). . FIG. 9 shows the shadow shapes detected by the sensor units 1L and 1R when Hth_R ≦ H ≦ Hth_L (that is, when the pointing device enters or exits the coordinate input effective area). Yes.

このとき、上述のように、センサユニット1Lからは、指示具の影が検知されていて、センサユニット1Rからは指示具の影は検知されていない。   At this time, as described above, the shadow of the pointing tool is detected from the sensor unit 1L, and the shadow of the pointing tool is not detected from the sensor unit 1R.

ここで、単一入力の場合は、2つのセンサユニット両方が影を検出した場合のみ、入力あり(一方のみ検知した場合は入力なし)として扱えば問題ない。   Here, in the case of a single input, there is no problem if it is treated as having an input (no input when only one of the two sensor units detects a shadow).

ところが、複数入力の場合は問題が大きい、以下、これについて説明する。   However, in the case of multiple inputs, the problem is great. This will be described below.

図10は複数入力操作を上から見た図である。   FIG. 10 is a view of a multi-input operation as viewed from above.

図10では、P12及びP21点に複数入力を行った場合を示している。   FIG. 10 shows a case where a plurality of inputs are performed at points P12 and P21.

この場合、図11のように、センサユニット1Lにおいて、θL1、θL2の位置に影が検出される。また、センサユニット1Rにおいて、θR1、θR2の位置に影が検出される。この2組の角度データをもとに、4つの座標候補点P11、P12、P21及びP22が算出される。そして、これらの座標候補点の中から、何らかの手段によって虚実判定することにより、例えば、P11、P22は虚像であり、P12、P21が実像であることが判別され、座標入力点を決定することになる。   In this case, as shown in FIG. 11, in the sensor unit 1L, a shadow is detected at the positions of θL1 and θL2. In the sensor unit 1R, a shadow is detected at the positions of θR1 and θR2. Based on these two sets of angle data, four coordinate candidate points P11, P12, P21 and P22 are calculated. From these coordinate candidate points, by determining whether the coordinates are true by some means, for example, it is determined that P11 and P22 are virtual images and P12 and P21 are real images, and the coordinate input points are determined. Become.

次に、座標入力点が誤検出される場合の複数入力例について説明する。この誤検出パターン(1)としては、図12に示すように、P12点(図7のC点に対応)及びP21点で複数入力を行った場合で、かつ各点における指示具の高さHが図6に示すHth_R≦H≦Hth_Lの場合を考える。   Next, an example of a plurality of inputs when a coordinate input point is erroneously detected will be described. As this erroneous detection pattern (1), as shown in FIG. 12, when a plurality of inputs are made at point P12 (corresponding to point C in FIG. 7) and point P21, and the height H of the indicator at each point Consider the case of Hth_R ≦ H ≦ Hth_L shown in FIG.

このとき、図13に示すように、センサユニット1Rでは、θR2が検知されない。   At this time, as shown in FIG. 13, the sensor unit 1R does not detect θR2.

この場合、実際には、C点(P12)、P21の位置に2つの入力を行っているにも関わらず、センサユニット1Rからは、θR1のみ検知されてθR2が検知されない(即ち、P12の入力の影が観測されない)。そのため、P12は、センサユニット1Rから重複して観測される点、即ち、図12のP11が座標入力点であると誤認識をしてしまう。即ち、本来の座標入力点P12を座標入力点P11と誤検出してしまう。   In this case, in fact, although two inputs are made at the positions of point C (P12) and P21, only θR1 is detected and θR2 is not detected from the sensor unit 1R (ie, the input of P12). Is not observed). For this reason, P12 is erroneously recognized as a point observed from the sensor unit 1R, that is, P11 in FIG. 12 is a coordinate input point. That is, the original coordinate input point P12 is erroneously detected as the coordinate input point P11.

次に、誤検出パターン(2)として、図14に示すように、P12点(図7のC点に対応)及びP21点(C点に対して、およそ左右対称な位置C’点)に複数入力を行った場合で、かつC点の位置での指示具の高さHが図6に示すHth_R ≦ H ≦ Hth_Lで、C’点の位置での指示具の高さHが、図6のセンサユニット1Lと1Rとの関係を入れ替えた関係で、Hth_L(C´)≦H(C´)≦Hth_R(C´)の場合を考える。   Next, as shown in FIG. 14, there are a plurality of false detection patterns (2) at point P12 (corresponding to point C in FIG. 7) and point P21 (point C ′ approximately symmetrical with respect to point C). When the input is performed and the height H of the pointing tool at the position of the point C is Hth_R ≦ H ≦ Hth_L shown in FIG. 6, the height H of the pointing tool at the position of the point C ′ is as shown in FIG. Consider the case of Hth_L (C ′) ≦ H (C ′) ≦ Hth_R (C ′) with the relationship between the sensor units 1L and 1R being exchanged.

このとき、図15に示すように、センサユニット1LからはθL2が観測されず、同様に、センサユニット1RからはθR2が観測されない。この場合、実際には、C(P12)、C’(P21)に入力しているにもかかわらず、夫々、実際に検出している角度θL1、θR1の交点、即ち、図14のP11が座標入力点であると誤認識してしまう。即ち、この場合、単一入力であると誤検出してしまう。   At this time, as shown in FIG. 15, θL2 is not observed from the sensor unit 1L, and similarly, θR2 is not observed from the sensor unit 1R. In this case, in fact, although they are input to C (P12) and C ′ (P21), the intersections of the angles θL1 and θR1 actually detected, that is, P11 in FIG. It is misrecognized as an input point. That is, in this case, a single input is erroneously detected.

このように、指示具の高さHが所定範囲(例えば、C点の位置である場合、Hth_R≦H≦Hth_L)であるとき、本来、センサユニット1L及び1Rの両者で検出されるべき影が、ぞれぞれの三次元的遮光検知領域が異なるために、複数入力時で検出した座標候補点から正しい組み合せで座標入力点を検出できない。   As described above, when the height H of the pointing device is within a predetermined range (for example, Hth_R ≦ H ≦ Hth_L in the case of the position of the point C), the shadow that should be originally detected by both the sensor units 1L and 1R Since the three-dimensional shading detection areas are different from each other, the coordinate input points cannot be detected by a correct combination from the coordinate candidate points detected at the time of a plurality of inputs.

また、この所定範囲(例えば、C点の位置である場合、Hth_R≦H≦Hth_L)は、座標入力有効領域に対し、指示具が入る際ないし出る際において必ず存在する。そのため、座標の誤検出や、座標候補点の誤算出が発生してしまう。   In addition, this predetermined range (for example, in the case of the position of point C, Hth_R ≦ H ≦ Hth_L) always exists when the pointing tool enters or exits the coordinate input effective area. For this reason, erroneous detection of coordinates and erroneous calculation of coordinate candidate points occur.

そこで、本発明は、これらの問題を解決する構成を提案するものであり、特に、本発明においては、左右のセンサユニット1L及び1Rの三次元的遮光検知領域を同一(共通)にすることにより、これらの問題を解決するものである。   Therefore, the present invention proposes a configuration that solves these problems. In particular, in the present invention, the three-dimensional shading detection areas of the left and right sensor units 1L and 1R are made identical (common). To solve these problems.

<共通の三次元的遮光検知領域の定義>
まず、本発明において提案する構成は、例えば、図4と図5に示す、センサユニット1L及び1R夫々の三次元的遮光検知領域をいかに同一空間にするかということである。
<Definition of common 3D shading detection area>
First, the configuration proposed in the present invention is, for example, how to make the three-dimensional shading detection areas of the sensor units 1L and 1R shown in FIGS. 4 and 5 the same space.

まず、考えられるのは、例えば、センサユニット1Lの左辺近傍におけるの光路の断面と、センサユニット1Rに関わる再帰反射部4bの形状を略同一にするということである。同様に、センサユニット1Rの右辺近傍における光路の断面と、センサユニット1Lに関わる再帰反射部4aの形状を略同一にするということである。   First, it is conceivable that, for example, the cross section of the optical path in the vicinity of the left side of the sensor unit 1L and the shape of the retroreflective portion 4b related to the sensor unit 1R are made substantially the same. Similarly, the cross section of the optical path in the vicinity of the right side of the sensor unit 1R and the shape of the retroreflective portion 4a related to the sensor unit 1L are substantially the same.

このようにすると、図2Aに示すような、三次元的遮光検知領域を形成することができ、この領域は、センサユニット1L及び1Rにおいて共通となる。つまり、座標入力有効領域に対応する共通の三次元的立体形状となる。   In this way, a three-dimensional shading detection region as shown in FIG. 2A can be formed, and this region is common to the sensor units 1L and 1R. That is, it becomes a common three-dimensional solid shape corresponding to the coordinate input effective area.

図2Aにおいては、再帰反射部4cは長方形、再帰反射部4a及び4bは同一の台形、センサユニット1L及び1Rは対称な形状である。また、センサユニット1Lの上端は、再帰反射部4bの上辺の延長上にあり、下端は下辺の延長上にある。また、センサユニット1Rの上端は、再帰反射部4aの上辺の延長上にあり、下端は下辺の延長上にある。   In FIG. 2A, the retroreflective portion 4c is rectangular, the retroreflective portions 4a and 4b are the same trapezoid, and the sensor units 1L and 1R are symmetrical. The upper end of the sensor unit 1L is on the extension of the upper side of the retroreflective portion 4b, and the lower end is on the extension of the lower side. The upper end of the sensor unit 1R is on the extension of the upper side of the retroreflective portion 4a, and the lower end is on the extension of the lower side.

<実効的なセンサユニットの遮光検知窓について>
上述したように、図2Aにおいて、センサユニット1L及び1Rは、光の投光/受光を含めて遮光を実効的に検知する遮光検知窓の実態的存在として、特に高さ方向に意味をなすように表現されている。即ち、センサユニット1L及び1Rの半円筒形状の厚さが高さ方向に定義される実効的遮光検知窓の大きさである。
<Effective sensor unit shading detection window>
As described above, in FIG. 2A, the sensor units 1L and 1R is the shading including light emitting / receiving of light as actual existence of the light shielding detection window for detecting effectively, in particular, it makes sense in the height direction It is expressed as follows. That is, the thickness of the semi-cylindrical shape of the sensor units 1L and 1R is the size of the effective light shielding detection window defined in the height direction.

以下、この遮光検出領域(遮光検知窓)の断面について、図16〜図19を用いて説明する。   Hereinafter, a cross section of the light shielding detection region (light shielding detection window) will be described with reference to FIGS.

図16〜図19においては、センサユニットを構成する、実効的な投光部102を格子パターンで、実効的な受光部106を斜め縞パターンで表現している。夫々は、図中に示される幅によって、投光の幅(実効的窓の幅)、受光の幅(実効的窓の幅)が表される。また、ここでは、センサユニット1Lに着目して説明する。   16 to 19, the effective light projecting unit 102 constituting the sensor unit is represented by a lattice pattern, and the effective light receiving unit 106 is represented by an oblique stripe pattern. Each of the widths shown in the drawing represents the width of light emission (effective window width) and the width of light reception (effective window width). Here, the description will be given focusing on the sensor unit 1L.

センサユニットは、投光部と受光部とからなり、これらは本来同一位置に配置すれば、理想的だが現実にはコスト、精度等の制限でそれはできないことが多い。そのため、実際には、以下のような配置構成が採用されている。   The sensor unit is composed of a light projecting unit and a light receiving unit, which are ideal if they are originally arranged at the same position, but in reality, this is often not possible due to limitations such as cost and accuracy. Therefore, the following arrangement configuration is actually employed.

(1)投光部102が受光部106の上に配置される場合(図16)
(2)受光部106が投光部102の上に配置される場合(図17)
(3−a)投光部102と受光部106が横に並んで配置され、投光部102のが大きい場合(図18)
(3−b)投光部102と受光部106が横に並んで配置され、受光部106のが大きい場合(図19)
(4)ハーフミラーを用いて、投光部と受光部が等価的に同じ位置に配置される場合
等がある。
(1) When the light projecting unit 102 is disposed on the light receiving unit 106 (FIG. 16)
(2) When the light receiving unit 106 is disposed on the light projecting unit 102 (FIG. 17)
(3-a) if the light projecting portion 102 and the light receiving portion 106 is disposed side by side, towards the light projecting portion 102 is large (Fig. 18)
(3-b) when the light projecting portion 102 and the light receiving portion 106 is disposed side by side, greater in the light receiving portion 106 (FIG. 19)
(4) Using a half mirror, the light projecting unit and the light receiving unit may be equivalently arranged at the same position.

本発明においては、座標入力面からの高さ方向のみを問題としているので、(3)と(4)の配置構成は同じ扱いをする。   In the present invention, since only the height direction from the coordinate input surface is a problem, the arrangement configurations of (3) and (4) are handled in the same way.

次に、センサユニットの遮光検知窓がどのように定義されるかについて説明する。   Next, how the light shielding detection window of the sensor unit is defined will be described.

図16〜図19において、H_led_1は実際の投光部の寸法ではなく、実効的な投光部の目の上端の高さ、H_led_2は下端の高さである。H_sense_1は実際の受光部の寸法ではなく、実効的に受光部内のセンサの光電変換部に像を結ぶ範囲の上端の高さ、H_sense_2は下端の高さである。   16 to 19, H_led_1 is not the actual size of the light projecting unit, but the height of the upper end of the eye of the effective light projecting unit, and H_led_2 is the height of the lower end. H_sense_1 is not the actual size of the light receiving portion, but the height of the upper end of the range in which an image is effectively formed on the photoelectric conversion portion of the sensor in the light receiving portion, and H_sense_2 is the height of the lower end.

また、H_ref_1はセンサユニットに対向する再帰反射部4aの実効的な上端の高さである。H_ref_2はセンサユニットに対向する再帰反射部4aの実効的な下端の高さである。   H_ref_1 is the effective upper end height of the retroreflective portion 4a facing the sensor unit. H_ref_2 is an effective lower end height of the retroreflective portion 4a facing the sensor unit.

指示具の挿入に従って、最初に影が現れる位置(指示具と座標入力面との距離)をH_A、また、影の深さ(遮光率)が略100%に達する位置(指示具と座標入力面の距離)をH_Bで示す。   According to the insertion of the pointing tool, the position where the shadow first appears (distance between the pointing tool and the coordinate input surface) is H_A, and the position where the shadow depth (shading rate) reaches approximately 100% (the pointing tool and the coordinate input surface) ) Is indicated by H_B.

さらに、重要な点として、厚み方向(座標入力面に垂直な方向)に関して、投光部の視野範囲は、再帰反射領域H_ref_1〜H_ref_2よりも広く、これを包含する。また、受光部の視野範囲も、同様に、再帰反射領域H_ref_1〜H_ref_2よりも広く、これを包含する。   Further, as an important point, in the thickness direction (direction perpendicular to the coordinate input surface), the visual field range of the light projecting unit is wider than and includes the retroreflective areas H_ref_1 to H_ref_2. Similarly, the visual field range of the light receiving unit is wider than and includes the retroreflective regions H_ref_1 to H_ref_2.

図16〜図19においては、投光部の実効的光路は、line_led_1とline_led_2で挟まれる領域であり、即ち、投光の窓は、H_led_1とH_led_2で定義される。同様に、受光部の実効的光路は、line_sens_1とline_sens_2で挟まれる領域であり、即ち、受光の窓は、H_sense_1とH_sense_2で定義される。   16 to 19, the effective light path of the light projecting unit is an area sandwiched between line_led_1 and line_led_2, that is, the light projection window is defined by H_led_1 and H_led_2. Similarly, the effective optical path of the light receiving unit is a region sandwiched between line_sens_1 and line_sens_2, that is, the light receiving window is defined by H_sense_1 and H_sense_2.

センサユニットの構成が図16の場合、指示具がline_led_1の位置まで近づいたとき、投光部の実効的光路が遮られるので、ここで、遮光の影が始めて観測される。さらに、指示具がline_led_2の位置に至ったとき、投光部の実効的光路が略100%遮られる。そのため、ここでline_led_2より下の部分を残していても、即ち、受光部がまだ完全に遮られていなくても影の遮光率は略100%に達する。   In the case of the configuration of the sensor unit in FIG. 16, when the pointing tool approaches the position of line_led_1, the effective light path of the light projecting unit is blocked, and here, the shadow of the light shielding is observed for the first time. Furthermore, when the pointing tool reaches the position of line_led_2, the effective light path of the light projecting unit is blocked by approximately 100%. Therefore, even if the portion below line_led_2 is left here, that is, even if the light receiving portion is not completely blocked, the shadow shading rate reaches approximately 100%.

従って、遮光検知領域は、line_led_1とline_led_2の間となる。即ち、センサユニットの遮光検知窓は、上端がH_led_1で下端がH_led_2である。尚、H_led_2とH_sens_1に関しては、その順番が入れ替わっても同じである。   Therefore, the light blocking detection region is between line_led_1 and line_led_2. That is, the light shielding detection window of the sensor unit has an upper end of H_led_1 and a lower end of H_led_2. It should be noted that H_led_2 and H_sens_1 are the same even if their order is changed.

次に、センサユニットの構成が図17の場合、指示具がline_sens_1の位置まで近づいたとき、受光部の実効的光路が遮られるので、ここで、遮光の影が始めて観測される。さらに、指示具がline_sens_2の位置に至ったとき、受光部の実効的光路が略100%遮られる。そのため、ここでline_sens_2より下の部分を残していても、即ち、投光部がまだ完全に遮られていなくても影の遮光率は略100%に達する。   Next, in the case of the configuration of the sensor unit in FIG. 17, when the pointing tool approaches the position of line_sens_1, the effective optical path of the light receiving unit is blocked. Furthermore, when the pointing tool reaches the position of line_sens_2, the effective light path of the light receiving unit is blocked by approximately 100%. Therefore, even if the portion below line_sens_2 is left here, that is, the light shielding ratio of the shadow reaches approximately 100% even if the light projecting portion is not completely blocked.

従って、遮光検知領域は、line_sens_1とline_sens_2の間となる。即ち、センサユニットの遮光検知窓は、上端がH__sens_1で下端がH_sens_2である。尚、H_sens_2とH_led_1に関してはその順番が入れ替わっても同じである。   Accordingly, the light shielding detection region is between line_sens_1 and line_sens_2. That is, the light shielding detection window of the sensor unit has an upper end of H__sens_1 and a lower end of H_sens_2. Note that H_sens_2 and H_led_1 are the same even if their order is changed.

次に、センサユニットの構成が図18の場合、指示具がline_led_1の位置まで近づいたとき、投光部の実効的光路が遮られるので、ここで、遮光の影が始めて観測される。さらに、指示具がline_sens_2の位置に至ったとき、今度は、受光部の実効的光路が略100%遮られる。そのため、ここでline_sens_2より下の部分を残していても、即ち、投光部がまだ完全に遮られていなくても影の遮光率は略100%に達する。   Next, in the case of the configuration of the sensor unit in FIG. 18, when the pointing tool approaches the position of line_led_1, the effective light path of the light projecting unit is blocked, and here, the shadow of the light shielding is observed for the first time. Further, when the pointing tool reaches the position of line_sens_2, this time, the effective optical path of the light receiving unit is blocked by approximately 100%. Therefore, even if the portion below line_sens_2 is left here, that is, the light shielding ratio of the shadow reaches approximately 100% even if the light projecting portion is not completely blocked.

従って、遮光検知領域は、line_led_1とline_sens_2の間となる。即ち、センサユニットの遮光検知窓は、上端がH_led_1で下端がH_sens_2である。   Therefore, the light-shielding detection region is between line_led_1 and line_sens_2. That is, the light shielding detection window of the sensor unit has an upper end H_led_1 and a lower end H_sens_2.

次に、センサユニットの構成が図19の場合、指示具がline_sens_1の位置まで近づいたとき、受光部の実効的光路が遮られるので、ここで、遮光の影が始めて観測される。さらに、指示具がline_led_2の位置に至ったとき、今度は、投光部の実効的光路が略100%遮られる。そのため、ここでline_led_2より下の部分を残していても、即ち、受光部がまだ完全に遮られていなくても影の遮光率は略100%に達する。   Next, in the case of the configuration of the sensor unit in FIG. 19, when the pointing tool approaches the position of line_sens_ 1, the effective optical path of the light receiving unit is blocked. Further, when the pointing tool reaches the position of line_led_2, this time, the effective light path of the light projecting unit is blocked by approximately 100%. Therefore, even if the portion below line_led_2 is left here, that is, even if the light receiving portion is not completely blocked, the shadow shading rate reaches approximately 100%.

従って、遮光検知領域は、line_sens_1とline_led_2の間となる。即ち、センサユニットの遮光検知窓は、上端がH_sens_1で下端がH_led_2である。   Accordingly, the light blocking detection region is between line_sens_1 and line_led_2. That is, the light shielding detection window of the sensor unit has an upper end of H_sens_ 1 and a lower end of H_led_2.

尚、上述したように、例えば、特許文献2等のように、ハーフミラーを用いて投光部ないし受光部の光路を重ねて、仮想的に同一位置に配置するセンサユニットの構成は、ここでは、図18及び図19の構成に含まれる。   In addition, as described above, for example, as in Patent Document 2, the configuration of the sensor unit that virtually arranges the light paths of the light projecting unit or the light receiving unit using a half mirror and is disposed at the same position is as follows. 18 and FIG. 19 are included.

以上のように、投光部の投光範囲である投光窓と、受光部の受光範囲である受光窓の位置関係を全て考慮して一般化すると、「センサユニットの実効的遮光検知窓の上端は、実効的投光窓の上端と実効的受光窓の上端の内の高い方に等しく」、また、「センサユニットの実効的遮光検知窓の下端は、実効的投光窓の下端と実効的受光窓の下端の内の高い方に等しい」ということができる。   As described above, considering all the positional relationship between the light projection window that is the light projection range of the light projecting unit and the light reception window that is the light reception range of the light receiving unit, "The upper end is equal to the higher of the upper end of the effective light projection window and the upper end of the effective light reception window", and "the lower end of the effective light shielding detection window of the sensor unit is equal to the lower end of the effective light emission window. It is equivalent to the higher of the lower ends of the target light receiving windows.

これを、式で整理すると下記のようになる。   This can be organized as follows:

H_opt_1=Higher(H_led_1,H_sens_1) (1)
H_opt_2=Higher(H_led_2,H_sens_2) (2)
ここで、
H_opt_1 :センサユニットの実効的遮光検知窓の上端
H_opt_2 :センサユニットの実効的遮光検知窓の下端
H_led_1 :センサユニットの実効的投光窓の上端
H_led_2 :センサユニットの実効的投光窓の下端
H_sens_1 :センサユニットの実効的受光窓の下端
H_sens_2 :センサユニットの実効的受光窓の下端
Higher(*1,*2) :*1,*2から高い方を選択する演算
H_opt_1 = Higher (H_led_1, H_sens_1) (1)
H_opt_2 = Higher (H_led_2, H_sens_2) (2)
here,
H_opt_1: Upper end of effective light shielding detection window of sensor unit H_opt_2: Lower end of effective light shielding detection window of sensor unit H_led_1: Upper end of effective light projection window of sensor unit H_led_2: Lower end of effective light projection window of sensor unit H_sens_1: Lower end of effective light receiving window of sensor unit H_sens_2: Lower end of effective light receiving window of sensor unit Higher (* 1, * 2): Calculation to select higher one from * 1, * 2

<共通の三次元的遮光検知領域の定義の拡張>
ここまで述べてきたように、例えば、図2Aの構成において、図2Bに示すような2つの平面S_top、S_botomを定義し、2つのセンサユニット1L及び1Rの実行的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、センサユニット1L及び1Rに関わる三次元的遮光検知領域を共通にすることができ、夫々のセンサユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。
<Extended definition of common 3D shading detection area>
As described so far, for example, in the configuration of FIG. 2A, two planes S_top and S_bottom as shown in FIG. 2B are defined, and the upper ends of the effective light-shielding detection windows of the two sensor units 1L and 1R are the plane S_top. In addition, if the lower end substantially coincides with the plane S_bottom, the three-dimensional shading detection area related to the sensor units 1L and 1R can be made common, and the depth of shading shadow (light shielding) observed by each sensor unit can be made common. Rate) is observed as approximately the same value.

このことは、上記2つのセンサユニットの場合に限らず、一般的に、3個以上の複数のセンサユニットで構成される座標入力装置において、全てのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができる。   This is not limited to the case of the two sensor units described above, and generally, in a coordinate input device composed of three or more sensor units, the upper ends of effective light shielding detection windows of all sensor units are flat. If the lower end of S_top substantially matches the plane S_bottom, all three-dimensional shading detection areas can be made common.

尚、図1Aの複眼構成の場合は、図1Bに示すような平面S_top、S_botomを定義することになる。この場合、センサユニット1L及び1Rそれぞれが内蔵する光学ユニット、L1、L2、R1及びR2において、それぞれの光学ユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。   In the case of the compound eye configuration of FIG. 1A, planes S_top and S_bottom as shown in FIG. 1B are defined. In this case, in the optical units L1, L2, R1, and R2 built in the sensor units 1L and 1R, the upper end of the effective light-shielding detection window of each optical unit substantially coincides with the plane S_top, and the lower end substantially coincides with the plane S_bottom. If so, all three-dimensional shading detection areas can be made common, and the depth (shading ratio) of the shading shadow observed by each optical unit is observed as substantially the same value.

以下、図2Bの構成における応用例について、いくつか説明する。   Hereinafter, some application examples in the configuration of FIG. 2B will be described.

例えば、図20は、センサユニット1L及び1Rの同一直線状に、新たなセンサユニット1Cを配置することにより、2つの座標を入力できるように構成したものである。この場合も、それぞれのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。   For example, FIG. 20 is configured so that two coordinates can be input by arranging a new sensor unit 1C on the same straight line of the sensor units 1L and 1R. Also in this case, if the upper end of the effective shading detection window of each sensor unit substantially coincides with the plane S_top and the lower end substantially coincides with the plane S_bottom, all three-dimensional shading detection areas can be made common, respectively. The depth of the light-shielding shadow (light-shielding rate) observed by the optical unit is observed as substantially the same value.

また、図21のように、再帰反射部4cの形状が台形形状になっていて、平面S_top及びS_botomともX方向に勾配を持つような場合においても、それぞれのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。   Further, as shown in FIG. 21, even when the shape of the retroreflective portion 4c is trapezoidal and the planes S_top and S_bottom have a gradient in the X direction, the effective light shielding detection window of each sensor unit is If the upper end substantially coincides with the plane S_top and the lower end substantially coincides with the plane S_bottom, all three-dimensional shading detection areas can be made common, and the depth of shading shadow (light shielding ratio) observed by each optical unit can be made. ) Are observed as substantially the same value.

さらには、図20や図21のように、各センサユニットが直線上に並ばない場合で、例えば、図22のように、センサユニット1Cが、センサユニット1L、1Rよりも座標入力有効領域3に対し離れた位置に配置されている場合においても、それぞれのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。   Furthermore, as shown in FIG. 20 and FIG. 21, when the sensor units are not aligned on a straight line, for example, as shown in FIG. 22, the sensor unit 1C is located in the coordinate input effective area 3 more than the sensor units 1L and 1R. Even when the sensor units are arranged at positions separated from each other, if the upper end of the effective light shielding detection window of each sensor unit substantially coincides with the plane S_top and the lower end substantially coincides with the plane S_bottom, all the three-dimensional light shielding detection regions. The depth of the light shielding shadow (light shielding rate) observed by each optical unit is observed as substantially the same value.

また、図23に示すように、さらに新たなセンサユニット2C,3Cなどが加わっても、それぞれのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。   Further, as shown in FIG. 23, even if new sensor units 2C, 3C, etc. are added, the upper end of the effective light-shielding detection window of each sensor unit is substantially coincident with the plane S_top, and the lower end is substantially coincident with the plane S_bottom. For example, all three-dimensional shading detection areas can be made common, and the depth (shading rate) of the shading shadow observed by each optical unit is observed as substantially the same value.

即ち、実効的な再帰反射部の上辺及び下辺が、夫々、第一の平面と第二の平面を構成する関係をなしていて、夫々のセンサユニットは、その位置における実効的遮光検知窓が、第一及び第二の平面の間隙を埋める形になっていればよい。   That is, the upper side and the lower side of the effective retroreflective portion have a relationship forming the first plane and the second plane, respectively, and each sensor unit has an effective light-shielding detection window at that position, It suffices to fill the gap between the first and second planes.

ここで、第一及び第二の平面は何れも曲面や、折れ目のある面ではなく、平面である必要がある。但し、これらの第一及び第二の平面は、必ずしも平行である必要はない。更に、再帰反射部、センサユニットは、必ずしも座標入力有効領域の周辺に沿って位置する必要はなく、所定の条件を満足してさえいれば、少し離れた(下がった)位置からに配置されても良い。   Here, both the first and second planes need to be flat surfaces, not curved surfaces or creased surfaces. However, these first and second planes do not necessarily have to be parallel. Furthermore, the retroreflecting unit and the sensor unit do not necessarily have to be positioned along the periphery of the coordinate input effective area, and are arranged from a position slightly separated (down) as long as a predetermined condition is satisfied. Also good.

以上、ここまで説明した条件は、あくまでも、指示具による入力があった場合にセンサユニットで観測される影の深さ(遮光率)が、全てのセンサユニットで略同じ値に観測できるということであり、正しい座標を算出するための条件ではない。   As described above, the condition described so far is that the shadow depth (light-shielding rate) observed by the sensor unit when there is an input from the pointing tool can be observed at substantially the same value by all the sensor units. Yes, it is not a condition for calculating correct coordinates.

即ち、正しい座標を算出するためには、第一及び第二の平面等に略平行な座標入力面方向において、夫々の再帰反射部、夫々のセンサユニットが適正な関係で平面内に配置されていなければならないことは言うまでもない。   That is, in order to calculate correct coordinates, each retroreflecting unit and each sensor unit are arranged in a plane in an appropriate relationship in the coordinate input plane direction substantially parallel to the first and second planes. Needless to say, you have to.

本発明の実施形態1、2は、もちろん、上記の条件をも満足するものである。   Of course, Embodiments 1 and 2 of the present invention also satisfy the above conditions.

つまり、本発明における座標入力装置の構成を特徴づける特徴条件を、最も一般化すると
「座標入力領域を囲む夫々の実効的再帰反射部の上辺が略共通の第一の平面を構成し、 前記実効的再帰反射部の下辺が略共通の第二の平面を構成し、
夫々のセンサユニットの実効的遮光検知窓の上端が前記第一の平面に略一致し、前記実効的遮光検知窓の下端が前記第二の平面に略一致する場合に、夫々のセンサユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される」
と表現することができる。
In other words, the characteristic condition that characterizes the configuration of the coordinate input device according to the present invention is most generalized as follows. The lower side of the retroreflective part constitutes a substantially common second plane,
Observation by each sensor unit when the upper end of the effective shading detection window of each sensor unit substantially coincides with the first plane and the lower end of the effective shading detection window substantially coincides with the second plane. The depth of the shaded shadow (shading rate) is observed as approximately the same value. "
It can be expressed as

<座標検出原理>
実施形態1における座標検出原理について説明する。
<Coordinate detection principle>
The coordinate detection principle in the first embodiment will be described.

図24は本発明の実施形態1の座標検出原理を説明するための図である。   FIG. 24 is a diagram for explaining the principle of coordinate detection according to the first embodiment of the present invention.

ここで、図24は、図1A(あるいは図2A)の座標入力装置を上方から見た場合の概略図となっている。また、以下で、図1A(あるいは図2A)や図24を用いる説明する場合には、必要に応じて、再帰反射部4a〜4cは、再帰反射部4と総称する。   Here, FIG. 24 is a schematic diagram when the coordinate input device of FIG. 1A (or FIG. 2A) is viewed from above. In the following description, when referring to FIG. 1A (or FIG. 2A) or FIG. 24, the retroreflective portions 4a to 4c are collectively referred to as the retroreflective portion 4 as necessary.

<センサユニット1の詳細説明>
次に、センサユニット1L及び1R内の構成について、図25を用いて説明する。尚、ここでは、センサユニット1L及び1Rそれぞれが、光学ユニットL1及びL2と光学ユニットR1及びR2を内蔵する二眼構成の場合を例に挙げて説明する。
<Detailed description of sensor unit 1>
Next, the configuration in the sensor units 1L and 1R will be described with reference to FIG. Here, a case where the sensor units 1L and 1R have a twin-lens configuration in which the optical units L1 and L2 and the optical units R1 and R2 are incorporated will be described as an example.

図25は本発明の実施形態1のセンサユニットの詳細構成を示す図である。   FIG. 25 is a diagram showing a detailed configuration of the sensor unit according to the first embodiment of the present invention.

図25において、101A及び101Bは、赤外光を発する赤外LEDであり、各々投光レンズ102A及び102Bによって、再帰反射部4に向けて略90°範囲に光を投光する。ここで、センサユニット1L及び1R中の投光部は、この赤外LED101A及び101Bと、投光レンズ102A及び102Bによって実現される。これにより、センサユニット1L及び1Rには、それぞれ2つの投光部が構成されることになる。   In FIG. 25, 101A and 101B are infrared LEDs which emit infrared light, and project light in a range of approximately 90 ° toward the retroreflecting unit 4 by the light projecting lenses 102A and 102B, respectively. Here, the light projecting units in the sensor units 1L and 1R are realized by the infrared LEDs 101A and 101B and the light projecting lenses 102A and 102B. Thereby, each of the sensor units 1L and 1R includes two light projecting units.

そして、投光部より投光された赤外光は、再帰反射部4により到来方向に再帰反射され、センサユニット1L及び1R中の受光部によって、その光を検出する。   Then, the infrared light projected from the light projecting unit is retroreflected in the arrival direction by the retroreflecting unit 4, and the light is detected by the light receiving units in the sensor units 1L and 1R.

受光部は、光線の視野を制限すると共に電気的なシールドをになうシールド部材105を設けた1次元のラインCCD104、集光光学系としての受光用レンズ(例えば、fθレンズ)106A及び106B、入射光の入射方向を概略制限する絞り108A及び108B、及び可視光等の余分な光(外乱光)の入射を防止する赤外フィルター107A及び107Bからなる。   The light receiving unit includes a one-dimensional line CCD 104 provided with a shield member 105 that restricts the field of view of the light and provides an electrical shield, light receiving lenses (for example, fθ lenses) 106A and 106B as a condensing optical system, It comprises diaphragms 108A and 108B that roughly limit the incident direction of incident light, and infrared filters 107A and 107B that prevent the incidence of extraneous light (disturbance light) such as visible light.

そして、再帰反射部4によって反射された光は、赤外フィルター107A及び107B、絞り108A及び108Bを抜けて受光用レンズ106A及び106Bによって、ラインCCD104の検出素子110面上に集光される。これにより、センサユニット1L及び1Rには、それぞれ2つの受光部が構成されることになる。   The light reflected by the retroreflecting unit 4 passes through the infrared filters 107A and 107B and the stops 108A and 108B, and is collected on the detection element 110 surface of the line CCD 104 by the light receiving lenses 106A and 106B. Thereby, each of the sensor units 1L and 1R includes two light receiving units.

部材103及び部材109は、投光部及び受光部を構成する光学部品を配置するとともに、投光部で投光した光が直接受光部に入射することを防ぐ、あるいは外来光をカットするための上フード103、下フード109として機能する。   The member 103 and the member 109 are arranged to dispose the optical components constituting the light projecting unit and the light receiving unit, and prevent light projected by the light projecting unit from directly entering the light receiving unit, or to cut off external light. It functions as an upper hood 103 and a lower hood 109.

尚、実施形態1においては、絞り108A及び108Bは下フード109に一体で成型されているが、別部品であってもよいことはいうまでもなく、さらには、上フード103側に、絞り108A及び108Bと受光用レンズ106A及び106Bの位置決め部を設けることで、投光部の発光中心に対する受光部の位置決めを容易にする構成(つまり、上フード103のみで、すべての主要な光学部品が配置される構成)に実現することも可能である。   In the first embodiment, the throttles 108A and 108B are formed integrally with the lower hood 109. However, it goes without saying that the diaphragms 108A and 108B may be separate parts, and further, the throttle 108A is disposed on the upper hood 103 side. And 108B and the light receiving lenses 106A and 106B are provided to facilitate positioning of the light receiving portion with respect to the light emission center of the light projecting portion (that is, all the main optical components are arranged only by the upper hood 103). Can also be realized.

図26Aは、図25の状態のセンサユニット1L(1R)を組み上げた状態を、正面方向(座標入力面に対し垂直方向)から見た図である。図26Aに示すように、センサユニット1L(1R)中の2つの投光部は、所定距離d離れた状態で、それぞれの主光線方向が略平行となるように配置され、各々の投光レンズ102A及び102Bによって、それぞれ略90°範囲に光を投光するように構成している。   26A is a view of the assembled state of the sensor unit 1L (1R) in the state of FIG. 25 as viewed from the front direction (perpendicular to the coordinate input surface). As shown in FIG. 26A, the two light projecting portions in the sensor unit 1L (1R) are arranged so that the principal ray directions thereof are substantially parallel with a predetermined distance d apart, and each light projecting lens. Each of 102A and 102B is configured to project light in a range of approximately 90 °.

図26Bは、図26Aの太矢印で示される部分の断面図であり、赤外LED101A(101B)からの光は、投光レンズ102A(102B)により、座標入力面に略平行に制限された光束として、主に再帰反射部4に対して光が投光されるように構成している。   FIG. 26B is a cross-sectional view of the portion indicated by the thick arrow in FIG. 26A. The light from the infrared LED 101A (101B) is a light beam that is limited to be approximately parallel to the coordinate input surface by the projection lens 102A (102B). As described above, the light is projected mainly on the retroreflective portion 4.

一方、図26Cは、図26Aにおける赤外LED101A及び101B、投光レンズ102A及び102B、上フード103を取り除いた状態を、正面方向(座標入力面に対し垂直方向)から見た図である。   On the other hand, FIG. 26C is a view of the state in which the infrared LEDs 101A and 101B, the projection lenses 102A and 102B, and the upper hood 103 in FIG. 26A are removed as viewed from the front direction (perpendicular to the coordinate input surface).

ここで、実施形態1の場合、投光部と受光部は、座標入力面である座標入力有効領域3の垂直方向に対し重ねた配置構成(図26B参照)となっており、正面方向(座標入力面に対し垂直方向)から見て、投光部の発光中心と受光部の基準位置(つまり、角度を計測するための基準点位置に相当し、実施形態1にあっては絞り108A(108B)の位置であって、図中の光線が交差する点となる)が一致する構造となっている。   Here, in the case of Embodiment 1, the light projecting unit and the light receiving unit have an arrangement configuration (see FIG. 26B) that is overlapped with the vertical direction of the coordinate input effective area 3 that is the coordinate input surface, and the front direction (coordinates). When viewed from the direction perpendicular to the input surface, it corresponds to the light emission center of the light projecting unit and the reference position of the light receiving unit (that is, the reference point position for measuring the angle. In the first embodiment, the diaphragm 108A (108B). ), Which is the point where the light rays intersect in the figure).

従って、前述した通り、2つの投光部は所定距離d離れた状態で、それぞれの主光線方向略平行となるように配置されているので、2つの受光部も同様に所定距離d離れた状態で、かつ各々の光軸(光学的な対称軸)が略平行となるように構成されている。   Therefore, as described above, since the two light projecting portions are arranged so as to be substantially parallel to each other in the principal ray direction with a predetermined distance d apart, the two light receiving portions are similarly separated by the predetermined distance d. And each optical axis (optical symmetry axis) is configured to be substantially parallel.

また、投光部により投光された座標入力面に略平行な光束であって、面内方向に略90°方向に投光されている光は、再帰反射部4により光の到来方向に再帰反射され、赤外フィルター107A(107B)、絞り108A(108B)、集光レンズ106A(106B)を経て、ラインCCD104の検出素子110面上に集光、結像することになる。   In addition, light that is approximately parallel to the coordinate input surface projected by the light projecting unit and is projected in a direction of approximately 90 ° in the in-plane direction is recursed in the light arrival direction by the retroreflecting unit 4. The light is reflected, passes through the infrared filter 107A (107B), the stop 108A (108B), and the condenser lens 106A (106B), and is condensed and imaged on the detection element 110 surface of the line CCD 104.

従って、ラインCCD104の出力信号は、反射光の入射角に応じた光量分布を出力することになるので、ラインCCD104を構成する各画素の画素番号が角度情報を示すことになる。   Accordingly, since the output signal of the line CCD 104 outputs a light amount distribution corresponding to the incident angle of the reflected light, the pixel number of each pixel constituting the line CCD 104 indicates angle information.

尚、図26Bに示す投光部と受光部の距離Lは、投光部から再帰反射部4までの距離に比べて十分に小さな値であり、距離Lを有していても十分な再帰反射光を受光部で検出することが可能な構成となっている。   Note that the distance L between the light projecting unit and the light receiving unit shown in FIG. 26B is sufficiently smaller than the distance from the light projecting unit to the retroreflective unit 4, and sufficient retroreflection is possible even if the distance L is present. The light can be detected by the light receiving unit.

以上説明したように、センサユニット1L(1R)は、少なくとも2つの投光部と、各々の投光部で投光された光を各々検出する2つの受光部(実施形態1の場合、投光部が2組、受光部が2組)を有する構成である。   As described above, the sensor unit 1L (1R) includes at least two light projecting units and two light receiving units that detect the light projected by each of the light projecting units (in the case of the first embodiment, the light projecting). Part has two sets and the light receiving part has two sets).

また、実施形態1にあっては、受光部の一部であるラインCCD104におけるライン状に配置された検出素子110の左側部分を第1受光部の集光領域、右側部分を第2受光部の集光領域とすることで、部品の共通化を図っているが、これに限定されるものでなく、各受光部毎に個別にラインCCDを設けてもよいことは言うまでもない。   Further, in the first embodiment, the left side portion of the detection elements 110 arranged in a line in the line CCD 104 which is a part of the light receiving unit is the condensing region of the first light receiving unit, and the right side portion is the second light receiving unit. Although the light condensing region is used to share components, the present invention is not limited to this, and it goes without saying that a line CCD may be provided for each light receiving unit.

<制御・演算ユニットの説明>
制御・演算ユニット2とセンサユニット1L及び1Rの間では、主に、受光部内のラインCCD104用のCCD制御信号、CCD用クロック信号と出力信号、及び投光部内の赤外LED101A及び101Bの駆動信号がやり取りされている。
<Description of control / arithmetic unit>
Between the control / arithmetic unit 2 and the sensor units 1L and 1R, the CCD control signal for the line CCD 104 in the light receiving unit, the CCD clock signal and output signal, and the drive signals for the infrared LEDs 101A and 101B in the light projecting unit are mainly used. Are being exchanged.

ここで、制御・演算ユニット2の詳細構成について、図27を用いて説明する。   Here, a detailed configuration of the control / arithmetic unit 2 will be described with reference to FIG.

図27は本発明の実施形態1の制御・演算ユニットの詳細構成を示すブロック図である。   FIG. 27 is a block diagram showing a detailed configuration of the control / arithmetic unit according to the first embodiment of the present invention.

CCD制御信号は、ワンチップマイコン等で構成される演算制御回路(CPU)21から出力され、ラインCCD104のシャッタタイミングやデータの出力制御等が行われる。   The CCD control signal is output from an arithmetic control circuit (CPU) 21 constituted by a one-chip microcomputer or the like, and shutter timing of the line CCD 104, data output control, and the like are performed.

尚、この演算制御回路21は、クロック発生回路(CLK)22からのクロック信号に従って動作する。また、CCD用のクロック信号は、クロック発生回路(CLK)22からセンサユニット1L及び1Rに送信されると共に、各センサユニット内部のラインCCD104との同期をとって各種制御を行うために、演算制御回路21にも入力されている。   The arithmetic control circuit 21 operates in accordance with the clock signal from the clock generation circuit (CLK) 22. The clock signal for the CCD is transmitted from the clock generation circuit (CLK) 22 to the sensor units 1L and 1R, and arithmetic control is performed to perform various controls in synchronization with the line CCD 104 in each sensor unit. It is also input to the circuit 21.

投光部の赤外LED101A及び101Bを駆動するためのLED駆動信号は、演算制御回路21からLED駆動回路(不図示)を介して、対応するセンサユニット1L及び1Rの投光部内の赤外LED101A及び101Bに供給されている。   The LED drive signal for driving the infrared LEDs 101A and 101B of the light projecting unit is sent from the arithmetic control circuit 21 via the LED drive circuit (not shown) to the infrared LEDs 101A in the light projecting units of the corresponding sensor units 1L and 1R. And 101B.

センサユニット1L及び1Rそれぞれの受光部内のラインCCD104からの検出信号は、A/Dコンバータ23に入力され、演算制御回路21からの制御によって、デジタル値に変換される。この変換されたデジタル値は、メモリ132に記憶され、指示具の角度計算に用いられる。そして、この計算された角度から座標値が算出され、外部端末にシリアルインタフェース7(例えば、USB、IEEE1394、RS232Cインタフェース等)を介して出力される。   Detection signals from the line CCDs 104 in the light receiving portions of the sensor units 1L and 1R are input to the A / D converter 23 and converted into digital values under the control of the arithmetic control circuit 21. The converted digital value is stored in the memory 132 and used for calculating the angle of the pointing tool. Then, a coordinate value is calculated from the calculated angle, and is output to the external terminal via the serial interface 7 (for example, USB, IEEE1394, RS232C interface, etc.).

また、指示具としてペンを用いる場合、ペンからのペン信号を受信するペン信号受信部5からは、ペン信号を復調したデジタル信号が出力され、ペン信号検出回路としてのサブCPU24に入力され、ペン信号が解析された後、その解析結果が演算制御回路21に出力される。   When a pen is used as the pointing tool, a digital signal obtained by demodulating the pen signal is output from the pen signal receiving unit 5 that receives the pen signal from the pen, and is input to the sub CPU 24 as a pen signal detection circuit. After the signal is analyzed, the analysis result is output to the arithmetic control circuit 21.

<センサユニット1の光学配置に関する詳細説明>
図28は本発明の実施形態1の座標入力装置の光学的な配置を説明するための説明図である。
<Detailed description regarding optical arrangement of sensor unit 1>
FIG. 28 is an explanatory diagram for explaining the optical arrangement of the coordinate input device according to the first embodiment of the present invention.

図28では、特に、左側センサユニット1Lの配置について説明する。尚、右側センサユニット1Rについては、図中Y軸について左側センサユニット1Lと対称な関係にある以外は、その特徴は同一なので、その説明は省略する。   In FIG. 28, the arrangement of the left sensor unit 1L will be particularly described. The right sensor unit 1R has the same characteristics except for the symmetrical relationship with the left sensor unit 1L with respect to the Y-axis in the drawing, and thus the description thereof is omitted.

先に述べた通り、センサユニット1Lには、2組の投光部と受光部(光学ユニットL1及びL2)を有し、両者の光軸(光学的な対称軸であって、光線151、及び光線161に相当)は、略平行にかつ所定距離d離れて配置されている。また、センサユニット1Lは、そのセンサ面が、座標入力有効領域3の一辺に対し、θsだけ傾いた方向となるように配置されている。   As described above, the sensor unit 1L has two sets of light projecting units and light receiving units (optical units L1 and L2), and their optical axes (optical symmetry axes, the light beam 151, and (Corresponding to the light beam 161) are arranged substantially parallel and separated by a predetermined distance d. Further, the sensor unit 1L is arranged such that its sensor surface is inclined by θs with respect to one side of the coordinate input effective area 3.

また、センサユニット1L中の一方の投光部の投光範囲(もしくは受光部の検出角度範囲)を光線152及び光線153、もう一方のそれを光線162及び光線163と定義する。   Further, the light projecting range (or the detection angle range of the light receiving unit) of one light projecting unit in the sensor unit 1L is defined as a light beam 152 and a light beam 153, and the other is defined as a light beam 162 and a light beam 163.

尚、センサユニット1Rには、2組の投光部と受光部(光学ユニットR1及びR2)を有している。   The sensor unit 1R has two sets of light projecting units and light receiving units (optical units R1 and R2).

光線152及び光線153、もしくは光線162及び光線163で定義される2組の光学ユニット(投光部及び受光部)の有効視野範囲は略90°であり、無論その範囲を、例えば、100°とすることも可能であるが、その有効視野範囲をより大きく設定、設計することは、例えば、光学ユニットを構成する光学部品(例えば、レンズ)の光学歪が大きくなり、安価に光学系を構成するという点で不利となる。   The effective visual field range of the two sets of optical units (the light projecting unit and the light receiving unit) defined by the light beam 152 and the light beam 153 or the light beam 162 and the light beam 163 is approximately 90 °, and of course the range is, for example, 100 °. Although it is possible to set and design the effective visual field range to be larger, for example, the optical distortion of optical components (for example, lenses) constituting the optical unit increases, and the optical system is configured at low cost. This is disadvantageous.

従って、各々の受光部で、投光された光を遮光する指示具の指示位置情報を得るためには、光線152及び光線163で定義される領域内に、座標入力有効領域を設定するのが好ましい形態である。そこで、座標入力有効領域を図示が如く領域171に設定すれば、センサユニット1L中の2組の受光部で、領域171中の指示具(遮光物体)の遮光位置を検出することが可能となる。   Accordingly, in order to obtain the pointing position information of the pointing tool that blocks the projected light at each light receiving unit, it is necessary to set the coordinate input effective area within the area defined by the light beam 152 and the light beam 163. This is a preferred form. Therefore, if the coordinate input effective area is set to the area 171 as shown in the figure, the light shielding position of the pointing tool (light shielding object) in the area 171 can be detected by the two sets of light receiving units in the sensor unit 1L. .

しかしながら、このように設定することで、例えば、各部品を内蔵した座標入力装置の筐体172と座標入力可能な領域171の関係で決まる筐体枠が大きくなり、操作可能な領域に比べ、座標入力装置全体の大きさが大きくなってしまうという課題が生じる。この課題を解決するためには、センサユニット1L(1R)の形状を小さくすることはいうまでも無く、さらには、光線151及び光線161で定義される2組の光学ユニット(投光部及び受光部)の所定距離dをより小さくするのが好ましい。   However, by setting in this way, for example, the housing frame determined by the relationship between the housing 172 of the coordinate input device incorporating each component and the area 171 where the coordinates can be input becomes larger, and the coordinates are larger than the operable area. The subject that the magnitude | size of the whole input device will become large arises. In order to solve this problem, it is needless to say that the shape of the sensor unit 1L (1R) is reduced, and furthermore, two sets of optical units (light projecting unit and light receiving unit) defined by the light beam 151 and the light beam 161 are used. It is preferable to make the predetermined distance d of the part) smaller.

実施形態1の座標入力装置に有っては、座標入力有効領域3と筐体172で決まる筐体枠を極力小さくするために、センサユニット1L(1R)中の一方の受光部は、座標入力有効領域3の全ての領域を有効視野に収めているが、もう一方の受光部は、図中領域173で定義される領域が有効視野外となる設定となっている。   In the coordinate input device of the first embodiment, in order to make the casing frame determined by the coordinate input effective area 3 and the casing 172 as small as possible, one light receiving unit in the sensor unit 1L (1R) All areas of the effective area 3 are stored in the effective field of view, but the other light receiving unit is set so that the area defined by the area 173 in the figure is outside the effective field of view.

さて、距離dは、指示具が座標入力有効領域3の左右端部ないし上端部にあるときに、指示具の方向から見た投影成分、即ち、d*cos(θL−θs)が、指示具の半径と略等しくなるよう構成されている。   The distance d is determined by the projection component viewed from the direction of the pointing tool when the pointing tool is at the left or right end or upper end of the coordinate input effective area 3, that is, d * cos (θL−θs). It is comprised so that it may become substantially equal to the radius of.

このようにすることにより、図28において、背後の指示具が図中の光線151及び光線161の間の領域に完全に入り込んでしまうことがないように構成されている。   By doing so, in FIG. 28, the pointing tool behind is configured not to completely enter the region between the light beam 151 and the light beam 161 in the drawing.

実施形態1は、例えば、図28中の光学ユニットL1、L2、R2、R1夫々から得られる光強度分布を取得する。そして、この光強度分布から夫々の光学ユニットで得られる、影の数、影の位置(角度)を算出し、センサユニット1Lを構成する光学ユニットL1あるいはL2と、センサユニット1Rを構成する光学ユニットR1あるいはR2から得られる4種類の組み合わせ、即ち、(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)を順番に選択する。   In the first embodiment, for example, the light intensity distribution obtained from each of the optical units L1, L2, R2, and R1 in FIG. 28 is acquired. Then, the number of shadows and the shadow position (angle) obtained by each optical unit are calculated from the light intensity distribution, and the optical unit L1 or L2 constituting the sensor unit 1L and the optical unit constituting the sensor unit 1R. Four types of combinations obtained from R1 or R2, that is, (L1, R1), (L1, R2), (L2, R1) and (L2, R2) are selected in order.

次に、それぞれの組み合わせにおいて、座標候補点の確定ないし座標候補点の重複状況の確定を行い、その中から、適切な光学ユニットの組み合わせを選定する。これにより、座標候補点の中から、実入力点を判定(所謂、虚実判定)し、最終的に、2つの入力座標を決定する。   Next, in each combination, the coordinate candidate points are determined or the overlapping situation of the coordinate candidate points is determined, and an appropriate combination of the optical units is selected from them. Thereby, an actual input point is determined from so-called coordinate candidate points (so-called true / false determination), and finally two input coordinates are determined.

以降、(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)の4通りの組み合わせを、「LR光学ユニット組み合わせ」ないし「LR組み合わせ」と表現する。
次に、実施形態1における座標算出処理について、図29を用いて説明する。
Hereinafter, the four combinations (L1, R1), (L1, R2), (L2, R1), and (L2, R2) are expressed as “LR optical unit combinations” or “LR combinations”.
Next, the coordinate calculation process in Embodiment 1 is demonstrated using FIG.

図29は本発明の実施形態1の座標入力装置が実行する座標算出処理を示すフローチャートである。   FIG. 29 is a flowchart showing coordinate calculation processing executed by the coordinate input device according to the first embodiment of the present invention.

まず、ステップS101で、光学ユニットL1、L2、R1及びR2の各光学ユニットにおける光強度分布データを取得する。次に、ステップS102で、取得した光強度分布データより、各光学ユニットが検出する影(遮光影)の数、影の位置(角度)を算出する。   First, in step S101, light intensity distribution data in each optical unit of the optical units L1, L2, R1, and R2 is acquired. Next, in step S102, the number of shadows (light-shielding shadows) detected by each optical unit and the position (angle) of the shadows are calculated from the acquired light intensity distribution data.

次に、「LR組み合わせ」及び各光学ユニットが検出する影数に基づいて、各光学ユニットにおける影数の検出状態を判定し、その判定結果に基づいて、座標算出に用いる座標候補点を確定する座標候補点確定ルーチン(ステップS103〜ステップS114)を実行する。   Next, the detection state of the number of shadows in each optical unit is determined based on the “LR combination” and the number of shadows detected by each optical unit, and coordinate candidate points used for coordinate calculation are determined based on the determination result. A coordinate candidate point determination routine (steps S103 to S114) is executed.

特に、実施形態1では、各光学ユニットにおける影数の検出状態として、以下の4種類について考慮する。尚、(Ln,Rm)(n=1、2、m=1、2)に対する影数の組み合わせを、[X−Y](X=1、2、Y=1、2)と表現する。   In particular, in the first embodiment, the following four types are considered as the detection state of the number of shadows in each optical unit. The combination of the number of shadows for (Ln, Rm) (n = 1, 2, m = 1, 2) is expressed as [XY] (X = 1, 2, Y = 1, 2).

検出状態[1]:全てのLR組み合わせにおいて、影数が[1−1]である。   Detection state [1]: The number of shadows is [1-1] in all LR combinations.

検出状態[2]:[2−2]のLR組み合わせが2つ以上存在する。   Detection state [2]: There are two or more LR combinations of [2-2].

検出状態[3]:[2−2]のLR組み合わせと[2−1]のLR組み合わせが存在する。   Detection state [3]: There is an LR combination of [2-2] and an LR combination of [2-1].

検出状態[4]:[2−1]のLR組み合わせが2つ存在する。   Detection state [4]: There are two LR combinations of [2-1].

実施形態1では、各光学ユニットにおける影数の検出状態を判定し(ステップS103〜ステップS105、ステップS108及びステップS109)、その判定した検出状態に応じて予め定義された座標算出方法[1]〜[4]で座標算出を行う(ステップS110〜ステップS113)。そして、座標算出結果を出力する(ステップS114)。一方、上記の検出状態のいずれも判定されない場合は、座標検出が不可能であると判定して、処理を終了する(ステップS106あるいはステップS109)。   In the first embodiment, the detection state of the number of shadows in each optical unit is determined (step S103 to step S105, step S108, and step S109), and a coordinate calculation method [1] to a predefined coordinate calculation method according to the determined detection state is performed. The coordinates are calculated in [4] (steps S110 to S113). Then, the coordinate calculation result is output (step S114). On the other hand, if none of the above detection states is determined, it is determined that coordinate detection is impossible, and the process ends (step S106 or step S109).

以下、座標算出方法[1]〜[4]それぞれの詳細について説明する。   The details of each of the coordinate calculation methods [1] to [4] will be described below.

座標算出方法[1](ステップS110:検出状態[1]の場合)
検出状態[1]の場合とは、単一入力がなされている場合である。この場合、どのLR組み合わせでも座標算出を実行することが可能であるが、例えば、(L1,R1)の光学ユニット組み合わせにおいて、後述する<座標算出処理(1)>によって座標算出を実行する。
Coordinate calculation method [1] (in the case of step S110: detection state [1])
The case of the detection state [1] is a case where a single input is made. In this case, coordinate calculation can be executed with any LR combination. For example, in the optical unit combination of (L1, R1), coordinate calculation is executed by <coordinate calculation processing (1)> described later.

座標算出方法[2](ステップS111:検出状態[2]の場合)
検出状態[2]の場合とは、LR組み合わせ(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)の中から2組以上[2−2]が存在する場合である。
Coordinate calculation method [2] (in the case of step S111: detection state [2])
The detection state [2] means that there are two or more pairs [2-2] from among the LR combinations (L1, R1), (L1, R2), (L2, R1), and (L2, R2). It is.

この中から2つの組を選択し、其々から得られる4座標候補点を比較する。   Two sets are selected from these, and the four coordinate candidate points obtained from each are compared.

ここで、具体例として、(L1,R1)と(L2,R1)が[2−2]である場合を、図30及び図31を用いて説明する。   Here, as a specific example, the case where (L1, R1) and (L2, R1) are [2-2] will be described with reference to FIGS.

図30は(L1,R1)の組み合わせから、後述する<座標算出処理(1)>に基づいて、P11,P12,P21,P22を決定する。同様に、図31は(L2,R1)の組み合わせから、後述する<座標算出処理(2)>に基づいて、P’11,P’12,P’21,P’22を決定する。   In FIG. 30, P11, P12, P21, and P22 are determined from the combination of (L1, R1) based on <coordinate calculation processing (1)> described later. Similarly, in FIG. 31, P′11, P′12, P′21, and P′22 are determined from the combination of (L2, R1) based on <Coordinate calculation processing (2)> described later.

ここで、それぞれのLR組み合わせから得られた4座標候補点の値を比較する。   Here, the values of the four coordinate candidate points obtained from the respective LR combinations are compared.

この中で、現実に入力された座標に基づく座標候補点は、どちらのLR組み合わせにおいても原理的に同じ座標となる。一方、現実に入力された座標に基づかない座標(いわゆる、虚像としての座標候補点)は、光学ユニット位置のオフセットの影響で夫々の組み合わせにおいて異なった座標となる。   Among them, the coordinate candidate points based on the actually input coordinates are the same in principle in both LR combinations. On the other hand, coordinates that are not based on the actually input coordinates (so-called coordinate candidate points as virtual images) are different in each combination due to the offset of the optical unit position.

従って、それぞれのLR組みあわせから得られた4座標候補点の値を比較して、その比較結果が略一致した座標候補点が、2入力点の真実の座標値であるとして決定することができる。   Therefore, by comparing the values of the four coordinate candidate points obtained from the respective LR combinations, it is possible to determine that the coordinate candidate point whose comparison result substantially matches is the true coordinate value of the two input points. .

尚、図30及び図31の例では、P11,P22が現実の入力に基づく2入力点として決定されている。   In the example of FIGS. 30 and 31, P11 and P22 are determined as two input points based on actual inputs.

座標算出方法[3](ステップS112:検出状態[3]の場合)
検出状態[3]とは、[2−2]のLR組み合わせと[2−1]のLR組み合わせが存在する場合である。
Coordinate calculation method [3] (step S112: detection state [3])
The detection state [3] is a case where the LR combination [2-2] and the LR combination [2-1] exist.

ここで、具体例として、(L1,R2)が[2−2],(L1,R1)が[2−1]の場合を、図32及び図33を用いて説明する。   Here, as a specific example, the case where (L1, R2) is [2-2] and (L1, R1) is [2-1] will be described with reference to FIGS.

図32は(L1,R2)の組み合わせから、後述する<座標算出処理(2)>に基づいて、P11,P12,P21,P22を決定する。同様に、図33は(L1,R1)の組み合わせから、後述する<座標算出処理(1)>に基づいて、PP1,PP2を決定する。
ここで、図32におけるP11,P12,P21,P22のなかで、(P11,P22)または(P12,P21)のどちらかの内、図33における(PP1,PP2)に相対的に近い座標候補点を選択し、それらを2入力点の座標値の組として決定する。
In FIG. 32, P11, P12, P21, and P22 are determined from the combination of (L1, R2) based on <coordinate calculation processing (2)> described later. Similarly, FIG. 33 determines PP1 and PP2 from the combination of (L1, R1) based on <coordinate calculation processing (1)> described later.
Here, among P11, P12, P21, and P22 in FIG. 32, one of (P11, P22) and (P12, P21), which is a coordinate candidate point relatively close to (PP1, PP2) in FIG. And determine them as a set of coordinate values of two input points.

尚、図32及び図33の例では、P12,P21が現実の入力に基づく2入力点として決定されている。   In the example of FIGS. 32 and 33, P12 and P21 are determined as two input points based on actual inputs.

座標算出方法[4](ステップS113:検出状態[4]の場合)
検出状態[4]とは、[2−1]のLR組み合わせが2つ存在する場合である。
Coordinate calculation method [4] (in the case of step S113: detection state [4])
The detection state [4] is a case where there are two LR combinations of [2-1].

ここで、具体例として、(L1,R1)と(L1,R2)が[2−1]である場合を、図34及び図35を用いて説明する。   Here, as a specific example, the case where (L1, R1) and (L1, R2) are [2-1] will be described with reference to FIGS.

図34においては、光学ユニットR1から検出される重複した1つの影の両端の略中心部分を近似的に1つの角度θRとして扱い、<座標算出処理(2)>に基づいて、PP1、PP2を決定する。あるいは、図35においては、光学ユニットR2から検出される重複した1つの影の両端の略中心部分を近似的に1つの角度θRとして扱い、<座標算出処理(3)>に基づいて、PP’1、PP’2を決定する。   In FIG. 34, the substantially central portions of both ends of one overlapping shadow detected from the optical unit R1 are approximately treated as one angle θR, and PP1 and PP2 are represented based on <coordinate calculation processing (2)>. decide. Alternatively, in FIG. 35, approximately the center portions at both ends of one overlapping shadow detected from the optical unit R2 are approximately treated as one angle θR, and PP ′ is based on <coordinate calculation process (3)>. 1. Determine PP′2.

そして、通常は、図35に示すように、影の重複率の高い方の組み合わせを採用した方が、このような近似的な計算の場合には良好な算出結果が得られる。   In general, as shown in FIG. 35, when the combination with the higher shadow overlap rate is employed, a better calculation result can be obtained in the case of such approximate calculation.

以上のような、座標算出方法[1]〜[4]のいずれかで算出された1入力点ないし2入力点の座標算出結果は、外部端末にシリアルインタフェース7を介して出力され、画像表示装置等の出力装置にカーソルの動きないし軌跡として表示される。   The coordinate calculation result of one input point or two input points calculated by any one of the coordinate calculation methods [1] to [4] as described above is output to the external terminal via the serial interface 7, and the image display device Displayed on the output device as a cursor movement or locus.

次に、座標算出処理(1)〜(3)の処理内容の詳細について説明する。   Next, details of the processing contents of the coordinate calculation processes (1) to (3) will be described.

<座標算出処理(1)>
ここでは、光学ユニットL1及びR1の組み合わせによって座標を算出する座標算出処理(1)について、図36を用いて説明する。
<Coordinate calculation process (1)>
Here, a coordinate calculation process (1) for calculating coordinates by a combination of the optical units L1 and R1 will be described with reference to FIG.

図36のセンサユニット1L及び1Rにおいて、座標入力有効領域3に対し、左右外側の光学ユニットが光学ユニット(L1、R1)となる。また、左右内側の光学ユニットが光学ユニット(L2、R2)となる。   In the sensor units 1L and 1R of FIG. 36, the left and right optical units with respect to the coordinate input effective area 3 are optical units (L1, R1). The left and right inner optical units are optical units (L2, R2).

そして、各光学ユニットから得られる角度データは、対応するセンサユニットから見てY軸下方向を0°とし、内側に向かって、かつ左右対象な方向に角度が大となるように定義する。また、各光学ユニットが存在する座標位置をP(L1),P(L2),P(R1),P(R2)とする。   The angle data obtained from each optical unit is defined so that the Y axis downward direction is 0 ° when viewed from the corresponding sensor unit, and the angle increases inward and in the left and right target directions. In addition, the coordinate positions where each optical unit exists are P (L1), P (L2), P (R1), and P (R2).

そして、例えば、光学ユニットL1及びR1から得られる角度データに基づいて座標を算出する場合、点Oを原点として、図示のように、X及びY方向を決める、以下のような関数Xt、Ytを定義する。   For example, when calculating coordinates based on the angle data obtained from the optical units L1 and R1, the following functions Xt and Yt are used to determine the X and Y directions as shown in the figure with the point O as the origin. Define.

Xt(θL-45,θR-45)
=(tan(θL-45)-tan(θR-45))/[2*(1-tan(θL-45)*tan(θR-45))] (120)
Yt(θL-45 , B-45)
=(-1)*[(1-tan(θL-45))*(1-tan(θR-45))
/(2*(1-tan(θL-45)*tan(θR-45)))-0.5] (121)
このように定義すると、図36の点Oを原点としたときの点P(X,Y)の座標は、
X = DLR*Xt(θL-45,θR-45) (122)
Y = DLR*Yt(θL-45,θR-45) (123)
となる。
Xt (θL-45, θR-45)
= (tan (θL-45) -tan (θR-45)) / [2 * (1-tan (θL-45) * tan (θR-45))] (120)
Yt (θL-45, B-45)
= (-1) * [(1-tan (θL-45)) * (1-tan (θR-45))
/(2*(1-tan(θL-45)*tan(θR-45)))-0.5] (121)
When defined in this way, the coordinates of the point P (X, Y) when the point O in FIG.
X = DLR * Xt (θL-45, θR-45) (122)
Y = DLR * Yt (θL-45, θR-45) (123)
It becomes.

<座標算出処理(2)>
ここでは、光学ユニットL2とR1の組み合わせによって座標を算出する座標算出処理(2)について、図37を用いて説明する。
<Coordinate calculation process (2)>
Here, a coordinate calculation process (2) for calculating coordinates by a combination of the optical units L2 and R1 will be described with reference to FIG.

図37において、指示具の指示位置をP’とする。また、直線P(L1)−P(R1)と直線P(L2)−P’の交点をS’とする。   In FIG. 37, the pointing position of the pointing tool is P ′. Further, an intersection of the straight line P (L1) -P (R1) and the straight line P (L2) -P 'is defined as S'.

図37において、3点S’,P(R1),O’の位置関係からP’の座標を算出することは、図36で、3点P(L1),P(R1),OからPの座標を算出することと同等である。ここで、ベクトルO’P’をO’→P’、そのX成分を(O’→P’)x、Y成分を(O’→P’)yと表記し、式(120)及び(121)を用いると、
(O'→P')x = (DLR-ΔD)*Xt(θL-45,θR-45) (130)
(O'→P')y = (DLR-ΔD)*Yt(θL-45,θR-45) (131)
となる。ここで、図37より
ΔD = Sx+Sy*tan(θL) (132)
但し、Sx=d*cos(θs),Sy=d*sin(θs) (133)
さらに、図37から明らかなように
(O→O')x = ΔD/2 (134)
(O→O')y = (-1)*ΔD/2 (135)
となる。これにより、点Oを原点としたP’の座標は、(O→P')=(O→O')+(O→P')のX成分とY成分として算出することができる。
In FIG. 37, the calculation of the coordinates of P ′ from the positional relationship between the three points S ′, P (R1), and O ′ is performed from the three points P (L1), P (R1), and O to P in FIG. Equivalent to calculating coordinates. Here, the vector O′P ′ is expressed as O ′ → P ′, the X component is expressed as (O ′ → P ′) x, the Y component is expressed as (O ′ → P ′) y, and the equations (120) and (121) are expressed. )
(O '→ P') x = (DLR-ΔD) * Xt (θL-45, θR-45) (130)
(O '→ P') y = (DLR-ΔD) * Yt (θL-45, θR-45) (131)
It becomes. Here, from FIG. 37, ΔD = Sx + Sy * tan (θL) (132)
However, Sx = d * cos (θs), Sy = d * sin (θs) (133)
Furthermore, as apparent from FIG.
(O → O ') x = ΔD / 2 (134)
(O → O ') y = (-1) * ΔD / 2 (135)
It becomes. Thus, the coordinates of P ′ with the point O as the origin can be calculated as the X component and the Y component of (O → P ′) = (O → O ′) + (O → P ′).

ここで、同様に、光学ユニットL1、光学ユニットR2の組み合わせによって座標を算出する場合には、上述のX成分のみ符号を変えれば、同様に算出することができる。   Here, similarly, when the coordinates are calculated by the combination of the optical unit L1 and the optical unit R2, the calculation can be similarly performed by changing only the above-mentioned X component.

<座標算出処理(3)>
ここでは、光学ユニットL2及びR2の組み合わせによって座標を算出する座標算出処理(3)について、図38を用いて説明する。
<Coordinate calculation process (3)>
Here, a coordinate calculation process (3) for calculating coordinates by a combination of the optical units L2 and R2 will be described with reference to FIG.

図38において、3点P(L2),P(R2),O’’の位置関係からP’’の座標を算出することは、図36で、3点P(L1),P(R1),OからPの座標を算出することと同等である。ここで、ベクトルO’’P’’をO’’→P’’、そのX成分を(O’’→P’’)x、Y成分を(O’’→P’’)yと表記し、式(120)及び(121)を用いると、   In FIG. 38, calculating the coordinates of P ″ from the positional relationship of the three points P (L2), P (R2), and O ″ is shown in FIG. 36 as three points P (L1), P (R1), It is equivalent to calculating the coordinates of P from O. Here, the vector O ″ P ″ is expressed as O ″ → P ″, the X component is expressed as (O ″ → P ″) x, and the Y component is expressed as (O ″ → P ″) y. Using the equations (120) and (121),

(O''→P'')x = (DLR-2*Sx)*Xt(θL-45,θR-45) (141)
(O''→P'')y = (DLR-2*Sx)*Yt(θL-45,θR-45) (142)
となる。また、図38から明らかなように、
(O→O'')x = 0 (143)
(O→O'')y=(-1)*(Sx+Sy) (144)
となる。
(O '' → P '') x = (DLR-2 * Sx) * Xt (θL-45, θR-45) (141)
(O '' → P '') y = (DLR-2 * Sx) * Yt (θL-45, θR-45) (142)
It becomes. As is clear from FIG.
(O → O ″) x = 0 (143)
(O → O ″) y = (-1) * (Sx + Sy) (144)
It becomes.

これにより、点Oを原点としたP’’の座標は、(O→P'')=(O→O'')+(O→P'')のX成分とY成分として算出することができる。   As a result, the coordinates of P ″ with the point O as the origin can be calculated as the X and Y components of (O → P ″) = (O → O ″) + (O → P ″). it can.

以上のように、実施形態1では、LR組み合わせのすべてにおいて座標を算出することができる。   As described above, in the first embodiment, coordinates can be calculated for all LR combinations.

以上説明したように、実施形態1によれば、座標入力有効領域の周囲に配置する再帰反射部を、上述の特徴条件及び式(1)及び(2)を満足するように構成することで、同一の入力に伴って、夫々のセンサユニットにて検出される影が、夫々のセンサユニットにおいて、レベル(遮光比率)の差をもって検知されることを防止して、常に互いに略同一のレベル(遮光比率)で検知されることが可能となる。   As described above, according to the first embodiment, the retroreflecting unit disposed around the coordinate input effective area is configured so as to satisfy the above-described feature condition and the expressions (1) and (2). A shadow detected by each sensor unit with the same input is prevented from being detected with a difference in level (light shielding ratio) in each sensor unit, and is always at substantially the same level (light shielding). Ratio).

これにより、単一入力時には、入力座標を検出しそこなうことを防止し、複数の入力時には、入力座標と異なる、誤った座標を検出して入力座標の数を誤ることを防止することができる。特に、指示具が入力に伴って遮光入力領域への入る際と出る際において、発生頻度が高くなる上記問題を回避して、安定した座標入力を実現することができる。   Accordingly, it is possible to prevent the input coordinates from being missed at the time of a single input, and to prevent an erroneous number of input coordinates from being detected by detecting wrong coordinates different from the input coordinates at the time of a plurality of inputs. In particular, when the pointing tool enters and exits the light-shielding input area with input, it is possible to avoid the above-mentioned problem that the frequency of occurrence is high and to realize stable coordinate input.

<実施形態2>
実施形態2は、実施形態1の図10に示す構成に対し、図39に示すように、センサユニット1Cを新たに追加した構成について説明する。
<Embodiment 2>
In the second embodiment, a configuration in which a sensor unit 1C is newly added as shown in FIG. 39 to the configuration shown in FIG. 10 of the first embodiment will be described.

図39では、P12及びP21点に複数入力を行った場合を示している。   FIG. 39 shows a case where a plurality of inputs are performed at points P12 and P21.

この場合、図40(a)のように、センサユニット1Lにおいて、θL1、θL2の位置に影が検出される。また、図40(b)のように、センサユニット1Rにおいて、θR1、θR2の位置に影が検出される。更に、図40(c)のように、センサユニット1Cにおいて、θC1、θC4の位置に影が検出される。この3組の角度データをもとに、4つの座標候補点P11、P12、P21及びP22が算出される。そして、これらの座標候補点の中から、何らかの手段によって虚実判定することにより、例えば、P11、P22は実像であり、P12、P21が虚像であることが判別され、座標入力点を決定することになる。   In this case, as shown in FIG. 40A, a shadow is detected at the positions of θL1 and θL2 in the sensor unit 1L. In addition, as shown in FIG. 40B, shadows are detected at the positions of θR1 and θR2 in the sensor unit 1R. Further, as shown in FIG. 40C, shadows are detected at the positions of θC1 and θC4 in the sensor unit 1C. Based on these three sets of angle data, four coordinate candidate points P11, P12, P21 and P22 are calculated. Then, from these coordinate candidate points, by determining whether the coordinates are true by some means, for example, it is determined that P11 and P22 are real images and P12 and P21 are virtual images, and the coordinate input points are determined. Become.

また、図39に示すセンサユニット1Cは、センサユニット1Lや1Rとほぼ同等の構成であるが、内蔵する光学ユニット(受光部及び投光部)の構造が異なり、センサユニット1L及び1Rの視野範囲がおよそ90度であるのに対し、センサユニット1Cの視野範囲はおよそ180度である。   The sensor unit 1C shown in FIG. 39 has substantially the same configuration as the sensor units 1L and 1R. However, the structure of the built-in optical unit (light receiving unit and light projecting unit) is different, and the visual field range of the sensor units 1L and 1R is different. Is approximately 90 degrees, whereas the field of view of the sensor unit 1C is approximately 180 degrees.

最も重要なことは、センサユニット1L、1R及び1Cと、座標入力有効領域3の周囲に配置される再帰反射部の構成が、実施形態1における特徴条件と、式(1)及び(2)を満足することである。 The most important thing is that the configuration of the sensor units 1L, 1R, and 1C and the retroreflective unit arranged around the coordinate input effective area 3 is the characteristic condition in the first embodiment and the expressions (1) and (2). Satisfied.

即ち、実施形態2においても、座標入力有効領域の周辺に位置する全ての実効的な再帰反射部の上辺が1つの平面(第一の平面)をなし、かつ、その実効的な再帰反射部分の下辺が1つの平面(第二の平面)をなし、かつ、夫々のセンサユニットの実効的遮光検知窓の上端が第一の平面に略一致し、下端が第二の平面に略一致するということである。   That is, also in the second embodiment, the upper sides of all effective retroreflective portions located around the coordinate input effective area form one plane (first plane), and the effective retroreflective portions The lower side forms one plane (second plane), and the upper end of the effective light shielding detection window of each sensor unit substantially coincides with the first plane, and the lower end substantially coincides with the second plane. It is.

このように構成することにより、指示具によって入力が行われた場合に、センサユニット1L、1R及び1Cの夫々で観測される遮光影の深さ(遮光率)が略同一の値として観測される。   With this configuration, when the input is performed by the pointing tool, the shaded shadow depth (shielded rate) observed in each of the sensor units 1L, 1R, and 1C is observed as substantially the same value. .

従って、常に、センサユニット1L、1R及び1Cの関係から正しい座標検出を行うことができる。特に、指示具が座標入力有効領域に対して入力を行う入り際、または終了する出る際においても、遮光影を誤認識することなく安定した座標算出を実行することができる。   Therefore, correct coordinate detection can always be performed from the relationship between the sensor units 1L, 1R, and 1C. In particular, stable coordinate calculation can be performed without erroneously recognizing a light-shielding shadow even when the pointing tool enters or exits the input of the coordinate input effective area.

実施形態2においては、センサユニット1L及び1Rで座標候補点を検出し、センサユニット1Cで検知される影との位置関係によって、座標候補点の中から、実入力点を判定(所謂、虚実判定)し、最終的に、2つの入力座標を決定する。   In the second embodiment, the coordinate candidate points are detected by the sensor units 1L and 1R, and the actual input point is determined from the coordinate candidate points based on the positional relationship with the shadow detected by the sensor unit 1C (so-called true / false determination). Finally, two input coordinates are determined.

例えば、図39では、センサユニット1L及び1Rにより、4つの座標候補点P11,P12,P21,P22が観測される。そして、これらの座標候補点の中で、センサユニット1Cによって、所定方向に観測される座標候補点が、実入力点の座標候補点であり、これらが最終的に2つの入力座標として出力される。特に、図39の場合では、センサユニット1Cにおいて、θC1、θC4の影のみが観測されるので、P11とP22が実入力点の座標となる。   For example, in FIG. 39, four coordinate candidate points P11, P12, P21, and P22 are observed by the sensor units 1L and 1R. Among these coordinate candidate points, the coordinate candidate points observed in the predetermined direction by the sensor unit 1C are the coordinate candidate points of the actual input points, and these are finally output as two input coordinates. . In particular, in the case of FIG. 39, only the shadows of θC1 and θC4 are observed in the sensor unit 1C, so P11 and P22 are the coordinates of the actual input points.

以下、実施形態2における座標算出処理について、図41を用いて説明する。   Hereinafter, the coordinate calculation process according to the second embodiment will be described with reference to FIG.

図41は本発明の実施形態2の座標入力装置が実行する座標算出処理を示すフローチャートである。   FIG. 41 is a flowchart showing coordinate calculation processing executed by the coordinate input device according to the second embodiment of the present invention.

まず、ステップS201で、センサユニット1L、1R及び1Cにおける光強度分布データを取得する。次に、取得した光強度分布データより、各センサユニットが検出する影(遮光影)の数、影の位置(角度)を算出する。   First, in step S201, light intensity distribution data in the sensor units 1L, 1R, and 1C is acquired. Next, the number of shadows (light-shielding shadows) detected by each sensor unit and the position (angle) of the shadows are calculated from the acquired light intensity distribution data.

次に、各センサユニットが検出する影数に基づいて、各センサユニットにおける影数の検出状態を判定し、その判定結果に基づいて、座標算出に用いる座標候補点を確定する座標候補点確定ルーチン(ステップS202〜ステップS208)を実行する。   Next, based on the number of shadows detected by each sensor unit, a detection state of the number of shadows in each sensor unit is determined, and based on the determination result, a coordinate candidate point determination routine for determining coordinate candidate points used for coordinate calculation (Steps S202 to S208) are executed.

特に、実施形態2では、各センサユニットにおける影数の検出状態として、以下の3種類について考慮する。尚、実施形態2では、センサユニット1Lとセンサユニット1Rに対に影数の組み合わせを、[X−Y](X=1、2、Y=1、2)と表現する。   In particular, in the second embodiment, the following three types are considered as the detection state of the number of shadows in each sensor unit. In the second embodiment, the combination of the number of shadows for the sensor unit 1L and the sensor unit 1R is expressed as [XY] (X = 1, 2, Y = 1, 2).

検出状態[1]:センサユニット1Lとセンサユニット1Rによって決定される影数が[1−1]である。   Detection state [1]: The number of shadows determined by the sensor unit 1L and the sensor unit 1R is [1-1].

検出状態[2]:センサユニット1Lとセンサユニット1Rによって決定される影数が[2−2]である。   Detection state [2]: The number of shadows determined by the sensor unit 1L and the sensor unit 1R is [2-2].

検出状態[3]:センサユニット1Lとセンサユニット1Rによって決定される影数が[2−1]である。   Detection state [3]: The number of shadows determined by the sensor unit 1L and the sensor unit 1R is [2-1].

実施形態2では、センサユニット1Lとセンサユニット1Rにおける影数の検出状態を判定し(ステップS202〜ステップS204)、その判定した検出状態に応じて予め定義された座標算出方法[5a]〜[5c]で座標算出を行う(ステップS205〜ステップS207)。そして、座標算出結果を出力する(ステップS208)。一方、上記の検出状態のいずれも判定されない場合は、座標検出が不可能であると判定して、処理を終了する(ステップS209)。   In the second embodiment, the detection state of the number of shadows in the sensor unit 1L and the sensor unit 1R is determined (steps S202 to S204), and the coordinate calculation methods [5a] to [5c defined in advance according to the determined detection state. ] To calculate coordinates (steps S205 to S207). Then, the coordinate calculation result is output (step S208). On the other hand, if none of the above detection states is determined, it is determined that coordinate detection is impossible, and the process ends (step S209).

以下、座標算出方法[5a]〜[5c]それぞれの詳細について説明する。   Hereinafter, the details of each of the coordinate calculation methods [5a] to [5c] will be described.

座標算出方法[5a](ステップS205:検出状態[1]の場合)
検出状態[1]の場合とは、単一入力がなされている場合である。この場合、実施形態1で説明した<座標算出処理(1)>によって座標算出を実行する。
Coordinate calculation method [5a] (in the case of step S205: detection state [1])
The case of the detection state [1] is a case where a single input is made. In this case, the coordinate calculation is executed by the <coordinate calculation process (1)> described in the first embodiment.

座標算出方法[5b](ステップS206:検出状態[2]の場合)
検出状態[2]の場合とは、センサユニット1L及び1Rで[2−2]となる場合である。
Coordinate calculation method [5b] (in the case of step S206: detection state [2])
The case of the detection state [2] is a case where the sensor units 1L and 1R are [2-2].

この場合、実施形態1で説明した<座標算出処理(1)>によって、得られる4座標候補点の座標値を算出する。また、夫々の座標候補点をセンサユニット1Cから観測した場合の角度を予め計算する。   In this case, the coordinate values of the obtained four coordinate candidate points are calculated by the <coordinate calculation process (1)> described in the first embodiment. Further, the angle when each coordinate candidate point is observed from the sensor unit 1C is calculated in advance.

この中で、実際にセンサユニット1Cで観測された影の角度と略位置しているものを2つの入力座標として採用する。   Among these, what is substantially positioned with the shadow angle actually observed by the sensor unit 1C is adopted as two input coordinates.

座標算出方法[5c](ステップS206:検出状態[3]の場合)
検出状態[3]の場合とは、センサユニット1L及び1Rで[2−1]となる場合である。
Coordinate calculation method [5c] (in the case of step S206: detection state [3])
The case of the detection state [3] is a case where the sensor units 1L and 1R are [2-1].

この場合は、重複している方の影の両端の略中央の角度上に2つの入力座標が存在すると近似して、夫々他方の二つの影と組み合わせて、実施形態1で説明した<座標算出処理(1)>に基づいて、座標を決定する。尚、センサユニット1Cが検出する光強度分布データは、虚実判定には用いず、決定した座標値の精度を向上させるための検算用に用いる。   In this case, it is approximated that there are two input coordinates on the substantially central angle at both ends of the overlapping shadow, and each of them is combined with the other two shadows in the <coordinate calculation described in the first embodiment. Coordinates are determined based on processing (1)>. The light intensity distribution data detected by the sensor unit 1C is not used for true / false determination but is used for verification to improve the accuracy of the determined coordinate value.

以上説明したように、実施形態2によれば、実施形態1で説明した効果に加えて、センサユニット1Cを構成することにより、より効率良くかつ精度良く、座標算出に係る虚実判定を実現することができる。   As described above, according to the second embodiment, in addition to the effects described in the first embodiment, by configuring the sensor unit 1C, it is possible to realize the true / false determination related to the coordinate calculation more efficiently and accurately. Can do.

以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   Although the embodiments have been described in detail above, the present invention can take an embodiment as, for example, a system, an apparatus, a method, a program, or a storage medium, and specifically includes a plurality of devices. The present invention may be applied to a system that is configured, or may be applied to an apparatus that includes a single device.

尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the drawing) that realizes the functions of the above-described embodiment is directly or remotely supplied to the system or apparatus, and the computer of the system or apparatus Is also achieved by reading and executing the supplied program code.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。   As a recording medium for supplying the program, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on an instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。   Furthermore, after the program read from the recording medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.

本発明の実施形態1の座標入力装置の外観構成を示す図である。It is a figure which shows the external appearance structure of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置における再帰反射部の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the retroreflection part in the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置の外観構成を示す図である。It is a figure which shows the external appearance structure of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置における再帰反射部の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the retroreflection part in the coordinate input device of Embodiment 1 of this invention. 本発明における課題を説明するための図である。It is a figure for demonstrating the subject in this invention. 本発明におけるセンサユニット夫々の三次元的遮光検知領域を説明するための図である。It is a figure for demonstrating the three-dimensional shading detection area | region of each sensor unit in this invention. 本発明におけるセンサユニット夫々の三次元的遮光検知領域を説明するための図である。It is a figure for demonstrating the three-dimensional shading detection area | region of each sensor unit in this invention. 本発明における「ペン先高さ 対 遮光率」特性を説明するための図である。It is a figure for demonstrating the "pen-tip height vs. light-shielding rate" characteristic in this invention. 本発明における単一入力操作を説明するための図である。It is a figure for demonstrating the single input operation in this invention. 図7の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 図7の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 本発明における複数入力操作を説明するための図である。It is a figure for demonstrating the multiple input operation in this invention. 図10の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 本発明における誤検出の例を説明するための図である。It is a figure for demonstrating the example of the erroneous detection in this invention. 図12の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 本発明における誤検出の例を説明するための図である。It is a figure for demonstrating the example of the erroneous detection in this invention. 図13の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in the input operation of FIG. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の遮光検出領域の概念を説明するための図である。It is a figure for demonstrating the concept of the light-shielding detection area | region of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置のセンサユニットの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the sensor unit of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置のセンサユニットの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the sensor unit of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置のセンサユニットの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the sensor unit of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置のセンサユニットの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the sensor unit of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標検出原理を説明するための図である。It is a figure for demonstrating the coordinate detection principle of Embodiment 1 of this invention. 本発明の実施形態1のセンサユニットの詳細構成を示す図である。It is a figure which shows the detailed structure of the sensor unit of Embodiment 1 of this invention. 本発明の実施形態1のセンサユニットの光学的配置図である。It is an optical arrangement | positioning figure of the sensor unit of Embodiment 1 of this invention. 本発明の実施形態1のセンサユニットの光学的配置図である。It is an optical arrangement | positioning figure of the sensor unit of Embodiment 1 of this invention. 本発明の実施形態1のセンサユニットの光学的配置図である。It is an optical arrangement | positioning figure of the sensor unit of Embodiment 1 of this invention. 本発明の実施形態1の制御・演算ユニットの詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the control / arithmetic unit of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置の光学的な配置を説明するための説明図である。It is explanatory drawing for demonstrating the optical arrangement | positioning of the coordinate input device of Embodiment 1 of this invention. 本発明の実施形態1の座標入力装置が実行する座標算出処理を示すフローチャートである。It is a flowchart which shows the coordinate calculation process which the coordinate input device of Embodiment 1 of this invention performs. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出方法を説明するための図である。It is a figure for demonstrating the coordinate calculation method of Embodiment 1 of this invention. 本発明の実施形態1の座標算出処理を説明するための図である。It is a figure for demonstrating the coordinate calculation process of Embodiment 1 of this invention. 本発明の実施形態1の座標算出処理を説明するための図である。It is a figure for demonstrating the coordinate calculation process of Embodiment 1 of this invention. 本発明の実施形態1の座標算出処理を説明するための図である。It is a figure for demonstrating the coordinate calculation process of Embodiment 1 of this invention. 本発明の実施形態2の座標入力装置の構成を示す図である。It is a figure which shows the structure of the coordinate input device of Embodiment 2 of this invention. 図39の入力操作におけるセンサユニットから得られる光強度分布を示す図である。It is a figure which shows the light intensity distribution obtained from the sensor unit in input operation of FIG. 本発明の実施形態2の座標入力装置が実行する座標算出処理を示すフローチャートである。It is a flowchart which shows the coordinate calculation process which the coordinate input device of Embodiment 2 of this invention performs.

符号の説明Explanation of symbols

1L、1R センサユニット
2 演算・制御ユニット
3 座標入力有効領域
4a〜4c 再帰反射部
5 ペン信号受信部
1L, 1R Sensor unit 2 Arithmetic / control unit 3 Coordinate input effective area 4a-4c Retroreflecting unit 5 Pen signal receiving unit

Claims (6)

座標入力領域上の指示位置を検出する座標入力装置であって、
前記座標入力領域に対し光を投光する投光部と、到来光を受光する受光部とを備える、前記座標入力領域の周辺に設けられた複数のセンサ手段と、
前記座標入力領域の周辺に設けられ、入射光を再帰的に反射する複数の再帰反射手段と、
指示手段による指示によって、前記複数のセンサ手段それぞれから得られる、光量分布に基づいて、前記指示手段の指示位置の座標を算出する算出手段とを備え、
前記再帰反射手段を構成する部材の上辺が共通の第一の平面を成し、前記部材の下辺が共通の第二の平面を成し、かつ、前記センサ手段の遮光検知範囲である遮光検知窓の上端部が前記第一の平面上に位置し、該遮光検知窓の下端部が前記第二の平面上に位置するように、前記センサ手段及び前記再帰反射手段が配置され、
前記複数のセンサ手段に関わる三次元的遮光検出領域が、前記第一の平面と前記第二の平面に挟まれる空間であって、前記座標入力領域に対応する共通の三次元的立体形状である
ことを特徴とする座標入力装置。
A coordinate input device for detecting a designated position on a coordinate input area,
A plurality of sensor means provided around the coordinate input area, comprising: a light projecting unit that projects light to the coordinate input area; and a light receiving unit that receives incoming light;
A plurality of retroreflective means provided around the coordinate input region and recursively reflecting incident light;
Calculation means for calculating the coordinates of the indicated position of the instruction means based on the light amount distribution obtained from each of the plurality of sensor means by an instruction by the instruction means;
A light shielding detection window in which the upper side of the member constituting the retroreflective means forms a common first plane, and the lower side of the member forms a common second plane, and is a light shielding detection range of the sensor means The sensor means and the retroreflective means are arranged such that the upper end portion of the light shielding detection window is located on the first plane and the lower end portion of the light shielding detection window is located on the second plane,
The three-dimensional shading detection area related to the plurality of sensor means is a space sandwiched between the first plane and the second plane, and has a common three-dimensional solid shape corresponding to the coordinate input area. A coordinate input device characterized by that.
前記三次元的遮光検出領域は、前記センサ手段に対向する再帰反射手段の形状と、前記遮光検知窓によって規定される三次元的立体である
ことを特徴とする請求項1に記載の座標入力装置。
The three-dimensional shielding detection region, the shape of the retroreflector facing the sensor means, the coordinate input device according to claim 1, wherein a three-dimensional stereoscopic defined by the light shielding sensing window .
前記遮光検知窓は、前記センサ手段が備える投光部の投光範囲である投光窓の下端と、該センサ手段が備える受光部の受光範囲である受光窓の下端の何れか高い方の位置を下端とし、かつ前記投光窓の上端と、前記受光窓の上端の何れか高い方の位置を上端とすることにより定義される
ことを特徴とする請求項1に記載の座標入力装置。
The light-shielding detection window is a higher one of the lower end of the light projecting window that is the light projecting range of the light projecting unit provided in the sensor means and the lower end of the light receiving window that is the light receiving range of the light receiving unit provided in the sensor means. The coordinate input device according to claim 1, wherein the coordinate input device is defined as a lower end, and the upper end of the light projecting window and the upper end of the light receiving window is set as the upper end.
前記センサ手段は、前記座標入力領域に垂直な方向に関して、前記投光部の視野範囲が該センサ手段に関わる再帰反射手段を包含し、かつ前記受光部の視野範囲が該センサ手段に関わる再帰反射手段を包含する
ことを特徴とする請求項1に記載の座標入力装置。
The sensor means includes retroreflective means in which the field of view of the light projecting unit relates to the sensor means with respect to a direction perpendicular to the coordinate input area, and the field of view of the light receiving unit relates to retroreflection to the sensor means. The coordinate input device according to claim 1, further comprising: means.
前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを1つ備える
ことを特徴とする請求項1に記載の座標入力装置。
The coordinate input device according to claim 1, wherein the sensor unit includes one optical unit including the light projecting unit and the light receiving unit.
前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを2つ備える
ことを特徴とする請求項1に記載の座標入力装置。
The coordinate input device according to claim 1, wherein the sensor unit includes two optical units including the light projecting unit and the light receiving unit.
JP2005118979A 2005-04-15 2005-04-15 Coordinate input device Expired - Fee Related JP4590296B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005118979A JP4590296B2 (en) 2005-04-15 2005-04-15 Coordinate input device
US11/401,389 US7538894B2 (en) 2005-04-15 2006-04-11 Coordinate input apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005118979A JP4590296B2 (en) 2005-04-15 2005-04-15 Coordinate input device

Publications (3)

Publication Number Publication Date
JP2006301743A JP2006301743A (en) 2006-11-02
JP2006301743A5 JP2006301743A5 (en) 2008-05-29
JP4590296B2 true JP4590296B2 (en) 2010-12-01

Family

ID=37469994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005118979A Expired - Fee Related JP4590296B2 (en) 2005-04-15 2005-04-15 Coordinate input device

Country Status (1)

Country Link
JP (1) JP4590296B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5516102B2 (en) * 2010-06-11 2014-06-11 セイコーエプソン株式会社 Optical position detection device, electronic device and display device
KR102376701B1 (en) * 2021-03-17 2022-03-21 주식회사 나노시스템즈 Method for setting 3d detection area of lidar

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331265A (en) * 2000-05-19 2001-11-30 Ricoh Co Ltd Coordinate detecting device
JP2002132435A (en) * 2000-10-19 2002-05-10 Newcom:Kk Method and device for position detector

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991094A (en) * 1995-09-21 1997-04-04 Sekisui Chem Co Ltd Coordinate detector for touch panel

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331265A (en) * 2000-05-19 2001-11-30 Ricoh Co Ltd Coordinate detecting device
JP2002132435A (en) * 2000-10-19 2002-05-10 Newcom:Kk Method and device for position detector

Also Published As

Publication number Publication date
JP2006301743A (en) 2006-11-02

Similar Documents

Publication Publication Date Title
JP4455391B2 (en) Coordinate input device, control method therefor, and program
US7538894B2 (en) Coordinate input apparatus, control method thereof, and program
JP4455392B2 (en) Coordinate input device, control method therefor, and program
JP4522113B2 (en) Coordinate input device
JP4757144B2 (en) Coordinate input device, control method therefor, and program
US7443387B2 (en) Coordinate input apparatus, its control method, and program
JP4442877B2 (en) Coordinate input device and control method thereof
US20110267264A1 (en) Display system with multiple optical sensors
JP4484796B2 (en) Coordinate input device
US20110115904A1 (en) Object-detecting system
CN102063230A (en) Optical imaging touch sensing system and imaging method
JP4590295B2 (en) Coordinate input device, control method therefor, and program
JP4590296B2 (en) Coordinate input device
CN105308548A (en) Optical touch screens
JP4546224B2 (en) Coordinate input method and apparatus
JP2006099273A (en) Coordinate input device and its method
JP5865053B2 (en) Coordinate input device, control method of coordinate input device, and program
JP5717514B2 (en) Coordinate input device, control method therefor, and program
JP2007072508A (en) Coordinate input device and control method and program therefor
JP2006251878A (en) Device and program for inputting coordinate, and coordinate input control method
JP3085482U (en) Input device
JP2006251877A (en) Coordinate input device
JP2016045527A (en) Coordinate input device, control method of the same and program thereof
JP2016045528A (en) Coordinate input device, control method of the same and program thereof
JP2015170294A (en) Coordinate input device, control method therefore, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100913

R150 Certificate of patent or registration of utility model

Ref document number: 4590296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees