JP4423113B2 - Coordinate input device, control method therefor, and program - Google Patents

Coordinate input device, control method therefor, and program Download PDF

Info

Publication number
JP4423113B2
JP4423113B2 JP2004163660A JP2004163660A JP4423113B2 JP 4423113 B2 JP4423113 B2 JP 4423113B2 JP 2004163660 A JP2004163660 A JP 2004163660A JP 2004163660 A JP2004163660 A JP 2004163660A JP 4423113 B2 JP4423113 B2 JP 4423113B2
Authority
JP
Japan
Prior art keywords
coordinate input
light
effective area
input effective
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004163660A
Other languages
Japanese (ja)
Other versions
JP2005346302A5 (en
JP2005346302A (en
Inventor
淳 田中
克行 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004163660A priority Critical patent/JP4423113B2/en
Publication of JP2005346302A publication Critical patent/JP2005346302A/en
Publication of JP2005346302A5 publication Critical patent/JP2005346302A5/ja
Application granted granted Critical
Publication of JP4423113B2 publication Critical patent/JP4423113B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、座標入力面を指または指示具等により指示することで座標を入力する座標入力装置に関し、更に詳細には、文字・図形等の描画や外部機器の制御等に用いられる座標入力装置及びその制御方法に関する。   The present invention relates to a coordinate input device that inputs coordinates by designating a coordinate input surface with a finger or an indicator, and more specifically, a coordinate input device used for drawing characters, figures, etc., controlling external devices, and the like. And a control method thereof.

従来、指または指示具等により座標入力を行う座標入力装置として各種のタッチパネル方式を用いたものが提案または製品化されている。座標入力装置は、特殊な器具などを用いずに、座標入力面上でパーソナルコンピュータ(PC)等の操作を簡単に行うことができるため、広範に使用されている。   2. Description of the Related Art Conventionally, coordinate input devices using various touch panels have been proposed or commercialized as coordinate input devices that perform coordinate input with a finger or an indicator. Coordinate input devices are widely used because operations of a personal computer (PC) or the like can be easily performed on the coordinate input surface without using a special instrument or the like.

座標入力方式としては、抵抗膜を用いた方式、超音波を用いた方式、光を用いた方式など、様々な方式がある。光を用いた方式としては、座標入力面の外側に再帰反射性シート(再帰反射部材)を設け、照明手段からの光を再帰反射部材で反射し、受光手段により光量分布を検出する構成において、座標入力面における指または指示具で遮蔽された位置の角度を検出し、遮蔽位置つまり指示入力位置の座標を決定するものが知られている(例えば、特許文献1参照)。   As the coordinate input method, there are various methods such as a method using a resistive film, a method using ultrasonic waves, and a method using light. As a method using light, a retroreflective sheet (retroreflective member) is provided outside the coordinate input surface, the light from the illumination unit is reflected by the retroreflective member, and the light amount distribution is detected by the light receiving unit. A device that detects the angle of a position shielded by a finger or pointing tool on a coordinate input surface and determines the coordinates of the shielding position, that is, the pointing input position is known (for example, see Patent Document 1).

更には、再帰反射部材を座標入力面の周辺に配置し、再帰反射部材からの再帰反射光が遮光される部分の座標を検出する装置が開発されている。例えば、微分などの波形処理演算によって遮光部分のピークを検出することにより、遮光部分の角度を検出する方式がある(例えば、特許文献2参照)。或いは、特定のレベルパターンとの比較によって遮光部分の一方の端と他方の端を検出し、それらの座標の中心を検出する方式がある(例えば、特許文献3参照)。   Furthermore, an apparatus has been developed in which a retroreflective member is arranged around the coordinate input surface to detect the coordinates of a portion where the retroreflected light from the retroreflective member is shielded. For example, there is a method of detecting the angle of the light-shielding portion by detecting the peak of the light-shielding portion by waveform processing calculation such as differentiation (see, for example, Patent Document 2). Alternatively, there is a method in which one end and the other end of the light-shielding portion are detected by comparison with a specific level pattern, and the center of those coordinates is detected (see, for example, Patent Document 3).

ここで、上述した光学式の座標入力装置の概略構成について図27を用いて説明する。   Here, a schematic configuration of the above-described optical coordinate input device will be described with reference to FIG.

図27は、従来例に係る座標入力装置の概略構成を示す構成図である。   FIG. 27 is a configuration diagram showing a schematic configuration of a coordinate input device according to a conventional example.

図27において、センサユニット101L、センサユニット101Rは、座標入力有効領域103の角部外側に、座標入力有効領域103のX軸と平行に且つY軸に対して対称な位置に所定距離離して配置されている。センサユニット101L、センサユニット101Rは、投光部及び検出部を備えており、制御信号を制御・演算ユニット102から受信すると共に、検出部による反射光の検出に基づく検出信号を制御・演算ユニット102に送信する。尚、以下の各図の説明では、左右のセンサユニット101L、101Rを総称してセンサユニット101とも表記する。また、以下の各図における矢印付きの線は光線を示す。   In FIG. 27, the sensor unit 101L and the sensor unit 101R are arranged outside the corner of the coordinate input effective area 103 at a predetermined distance at a position parallel to the X axis of the coordinate input effective area 103 and symmetrical with respect to the Y axis. Has been. The sensor unit 101L and the sensor unit 101R include a light projecting unit and a detection unit, receive a control signal from the control / arithmetic unit 102, and detect a detection signal based on detection of reflected light by the detection unit. Send to. In the following description of each drawing, the left and right sensor units 101L and 101R are also collectively referred to as the sensor unit 101. Moreover, the line with an arrow in each following figure shows a light ray.

再帰反射部材104は、入射光をその到来方向に再帰反射する再帰反射面を有するものであり、左右のセンサユニット101の投光部からそれぞれ略90度の範囲に投光された光を、センサユニット101に向けて再帰反射する。再帰反射部材104で反射された反射光は、センサユニット101における集光光学系とラインCCD等からなる検出部によって1次元的に検出され、反射光の光量分布が制御・演算ユニット102に送られる。座標入力有効領域103は、座標入力装置が指または指示具等で指示した位置の検出を行うことが可能な領域であり、模式的に示している。再帰反射部材104は、座標入力有効領域103の外側3辺を囲むような形で配置されている。   The retroreflective member 104 has a retroreflective surface that retroreflects incident light in the direction of arrival, and the light projected from the light projecting portions of the left and right sensor units 101 within a range of approximately 90 degrees is used as a sensor. Retroreflects toward the unit 101. The reflected light reflected by the retroreflective member 104 is one-dimensionally detected by a detection unit including a condensing optical system and a line CCD in the sensor unit 101, and the light quantity distribution of the reflected light is sent to the control / arithmetic unit 102. . The coordinate input effective area 103 is an area in which the position designated by the coordinate input device with a finger or an indicator can be detected, and is schematically shown. The retroreflective member 104 is arranged so as to surround the three outer sides of the coordinate input effective area 103.

上記構成において、操作者が座標入力有効領域103上の任意の位置を指または指示具で指示入力すると、センサユニット101の投光部から投光された光が指または指示具によって遮光され、センサユニット101の検出部ではその遮光範囲のみの光(再帰反射による反射光)を検出することができなくなる。その結果、どの方向からの光が検出できなかったかを判別することが可能となる。   In the above configuration, when the operator inputs an arbitrary position on the coordinate input effective area 103 with a finger or an indicator, the light projected from the light projecting unit of the sensor unit 101 is blocked by the finger or the indicator, and the sensor The detection unit of the unit 101 cannot detect light only in the light shielding range (reflected light due to retroreflection). As a result, it is possible to determine from which direction the light could not be detected.

つまり、制御・演算ユニット102の演算制御部は、左右のセンサユニット101L、101Rの検出部で検出した光量変化から、上記指示部分の遮光範囲を検出し、その遮光範囲の情報から遮光位置の方向(角度)をそれぞれ算出する。更に、演算制御部は、算出した方向(角度)、センサユニット101L及び101R間の距離情報等から、座標入力有効領域103上の上記指示部分の座標を算出すると共に、座標入力装置に重ねて配置された表示装置に接続されているPC等にUSB(Universal Serial Bus)等のインタフェースを経由して座標情報を出力する。   That is, the arithmetic control unit of the control / arithmetic unit 102 detects the light shielding range of the indicated portion from the light amount change detected by the detection units of the left and right sensor units 101L and 101R, and the direction of the light shielding position from the information on the light shielding range. (Angle) is calculated respectively. Further, the arithmetic control unit calculates the coordinates of the indicated portion on the coordinate input effective area 103 from the calculated direction (angle), the distance information between the sensor units 101L and 101R, etc., and arranges them on the coordinate input device. The coordinate information is output to a PC or the like connected to the display device via an interface such as USB (Universal Serial Bus).

上記再帰反射部材104としては、球体のビーズを反射面上に積層配置することで再帰反射特性を有するビーズタイプの再帰反射シート、もしくは、光学反射面であるコーナキューブを機械加工等により規則正しく配列することで再帰現象を起こす再帰反射シートが用いられる。そのため、再帰反射部材104の表面に例えばゴミ等が付着すれば、明らかに再帰反射効率が低下する。従って、この種の座標入力装置を、実際に製品として市場に供給するような場合には、再帰反射部材104の再帰反射特性の変化が起こらない構成にすることが必要である。仮に何らかの理由で、座標入力装置の使用中に再帰反射特性が変化するような状況に陥った場合であっても、使用者が簡単にその再帰反射特性を元の状態に戻すことができる構成でなければならない。   As the retroreflective member 104, bead-type retroreflective sheets having retroreflective properties by arranging spherical beads on the reflective surface, or corner cubes that are optical reflective surfaces are regularly arranged by machining or the like. A retroreflective sheet that causes a recursive phenomenon is used. For this reason, if dust or the like adheres to the surface of the retroreflective member 104, the retroreflective efficiency clearly decreases. Therefore, when this type of coordinate input device is actually supplied to the market as a product, it is necessary to have a configuration in which the retroreflective characteristics of the retroreflective member 104 do not change. Even if the retroreflective characteristic changes during use of the coordinate input device for some reason, the user can easily return the retroreflective characteristic to the original state. There must be.

今、市場において、座標入力装置の再帰反射部材104にゴミ等が付着して再帰反射特性が変化したことを想定すれば、ユーザはそのゴミを除去するためには一般に「拭く」動作を実行する。しかし、この「拭く」動作は光学特性を有する再帰反射面を傷つけるため、推奨することができない。一般的には光学面のゴミを除去する処置としては、エア等の気体を吹き付けることが好ましい形態と言える。しかし、この種の座標入力装置は、例えば事業所の会議等に用いられるのが通例であり、ユーザにとって、会議を中断して上記のようなエア吹き付け等のメンテナンスを実行することは決して好ましい製品形態とはならない。   Now, assuming that dust or the like has adhered to the retroreflective member 104 of the coordinate input device in the market and the retroreflective characteristics have changed, the user generally performs a “wiping” operation to remove the dust. . However, this “wiping” operation is not recommended because it damages the retroreflective surface with optical properties. In general, it can be said that it is preferable to blow a gas such as air as a treatment for removing dust on the optical surface. However, this type of coordinate input device is usually used in, for example, a meeting at a business office, etc., and it is never preferable for a user to interrupt the meeting and perform maintenance such as air blowing as described above. It is not a form.

図28(a)は、座標入力装置の座標入力有効領域と表示装置の表示領域を略一致させた状態を示す図、図28(b)は、(a)の領域A部分を拡大した図である。   FIG. 28A is a diagram showing a state in which the coordinate input effective area of the coordinate input device is substantially matched with the display area of the display device, and FIG. 28B is an enlarged view of the area A in FIG. is there.

図28において、図示の構成は、光学式の座標入力装置を表示装置(例えば、リアプロジェクタ、PDP(Plasma Display Panel)等)と重ねて配置した場合の製品例を示すものであり、座標入力装置の座標入力有効領域103と表示装置の表示領域が略一致するように構成されている。ここで、表示装置の表示領域が1330×750mm(対角60インチ、縦横比16:9相当)である場合は、筐体107に、表示領域に比べ一回り大きな開口部(例えば1350mm×770mm)を設けるのが通例である。   In FIG. 28, the illustrated configuration shows an example of a product when an optical coordinate input device is arranged so as to overlap with a display device (for example, a rear projector, a PDP (Plasma Display Panel), etc.). The coordinate input effective area 103 is substantially the same as the display area of the display device. Here, when the display area of the display device is 1330 × 750 mm (diagonal 60 inches, aspect ratio equivalent to 16: 9), the housing 107 has a slightly larger opening (for example, 1350 mm × 770 mm) than the display area. It is usual to provide.

この理由としては、表示装置の表示領域の大きさに個体間差がある(特にリアプロジェクタ等の投射光学系を用いる表示装置に顕著のようである)ことに加え、仮にその個体間差が無いと仮定しても、表示領域=筐体開口部となるような製品仕様では、表示領域と筐体開口部が一致するような組立調整が必須となる。その組立調整がずれる或いは組立調整ができないということは、表示領域の一部が筐体107に隠れて、表示領域の全域を視認することができないと言う重大な結果を引き起こす。   This is because there is an inter-individual difference in the size of the display area of the display device (particularly apparent in display devices using a projection optical system such as a rear projector), and there is no inter-individual difference. Even in the product specification in which the display area is equal to the housing opening, it is essential to perform assembly adjustment so that the display area matches the housing opening. The fact that the assembly adjustment is shifted or cannot be adjusted causes a serious result that a part of the display area is hidden by the housing 107 and the entire display area cannot be viewed.

従って、表示領域に比べ筐体107の開口部を一回り大きくすることで、個体間差を吸収すると共に、組立調整等の生産工程を簡素化しているのである。そのため、図28(a)に示すように、表示領域(この場合、座標入力有効領域103に略等しい)と筐体107の開口部の間には、枠状領域109が形成される(以後、この枠状領域を黒枠と称する)。   Therefore, by making the opening of the housing 107 one size larger than the display area, the individual differences are absorbed and the production process such as assembly adjustment is simplified. Therefore, as shown in FIG. 28 (a), a frame-like region 109 is formed between the display region (in this case, substantially equal to the coordinate input effective region 103) and the opening of the housing 107 (hereinafter, referred to as “the frame input region 103”). This frame-like region is called a black frame).

図28(b)に示すように、座標入力有効領域103(=略表示領域)を有する表示面は、筐体107に対して光透過部材108を介して配設されており、また、光透過部材108の背面側には、再帰反射部材104が配置されている。光透過部材108は、ガラスのみならず硬質なプラスチックでも容易に構成でき、ユーザによる「拭く」と言う動作に対しても再帰反射部材104に比べて傷が大幅につきにくい。従って、このような構成を採用することで、光透過部材108に堆積するであろう「ほこり」、「ゴミ」等はユーザにより簡便に除去され、使い勝手の良い製品を信頼性の高い状態で使用し続けることができるようになる。   As shown in FIG. 28 (b), the display surface having the coordinate input effective area 103 (= substantially display area) is disposed with respect to the housing 107 via the light transmitting member 108, and also transmits light. A retroreflective member 104 is disposed on the back side of the member 108. The light transmissive member 108 can be easily constructed of not only glass but also hard plastic, and is less likely to be scratched compared to the retroreflective member 104 even when the user performs a “wiping” operation. Therefore, by adopting such a configuration, “dust”, “dust”, and the like that will accumulate on the light transmitting member 108 can be easily removed by the user, and a user-friendly product can be used with high reliability. Will be able to continue.

上述したように、座標入力装置に光透過部材108を組み込むことで、製品外観を良好なものとし且つメンテナンスを容易にすることができることを説明したが、ここで生じる新たな課題について説明する。上記と同様に具体的な寸法を用いた方が理解が容易になるので、図29を用いて説明する。   As described above, it has been described that by incorporating the light transmitting member 108 in the coordinate input device, the appearance of the product can be improved and maintenance can be facilitated. However, a new problem occurring here will be described. As described above, the use of specific dimensions makes it easier to understand, and therefore, description will be made with reference to FIG.

図29(a)は、図28(a)の領域B部分を拡大した図、図29(b)は、図28(a)の領域C部分を拡大した図である。   FIG. 29A is an enlarged view of the region B in FIG. 28A, and FIG. 29B is an enlarged view of the region C in FIG.

図29において、座標入力有効領域103と光透過部材108の位置関係で定義される黒枠109の幅は10mmに設定されている。このとき、右側に配置されたセンサユニット101は、座標入力有効領域103の水平面から上方に70mmの位置に、また座標入力有効領域103の端部から右側に7mmの位置に配置されているものと仮定する(従って、センサユニット101と光透過部材108との間の距離は3mmということになる)。   In FIG. 29, the width of the black frame 109 defined by the positional relationship between the coordinate input effective area 103 and the light transmitting member 108 is set to 10 mm. At this time, the sensor unit 101 arranged on the right side is arranged at a position 70 mm above the horizontal plane of the coordinate input effective area 103 and 7 mm on the right side from the end of the coordinate input effective area 103. Assume (therefore, the distance between the sensor unit 101 and the light transmission member 108 is 3 mm).

座標入力有効領域103の右下部分に指または指示具105を配置した場合を想定する。座標入力装置では、センサユニット101の投光部から発せられた光が座標入力有効領域103の全域を投光するように構成されている。その一部の光線(例えば図29(b)に示す光線D)を指または指示具105により遮蔽することで、センサユニット101は光線D方向の位置に指または指示具105があることを検知するのが基本である。   Assume that a finger or an indicator 105 is placed in the lower right part of the coordinate input effective area 103. In the coordinate input device, the light emitted from the light projecting unit of the sensor unit 101 is configured to project the entire coordinate input effective area 103. The sensor unit 101 detects the presence of the finger or the pointing tool 105 at a position in the direction of the light D by shielding a part of the light (for example, the light D shown in FIG. 29B) with the finger or the pointing tool 105. Basically.

図30は、図28(a)の領域C部分の座標入力有効領域隅部を示す図である。   FIG. 30 is a diagram showing the corners of the coordinate input effective area in the area C part of FIG.

図30において、センサユニット101を図29(a)と同様な配置とし、水平方向から45度方向にセンサユニット101の基準角度(0度)を設ける。ここで、指示具105の直径を10φとすれば、座標入力有効領域103の隅部を指示具105で指示した場合に光線Hで検出されるべき角度は44.86度である。それに対し、光透過部材108aの影響を受けないように視野絞りを設定するとすると、有効となる光線はI方向の光線であり、検出すべき角度は45.14度となる。従って、44.86度は少なくとも検出可能で且つ45.14度以上は少なくとも検出不能とするような視野絞りを設けなければならない。
米国特許USP4507557 特開2000−105671号公報 特開2001−142642号公報
In FIG. 30, the sensor unit 101 is arranged in the same manner as in FIG. 29A, and the reference angle (0 degree) of the sensor unit 101 is provided in the 45 degree direction from the horizontal direction. Here, if the diameter of the pointing tool 105 is 10φ, the angle to be detected by the light beam H when the corner of the coordinate input effective area 103 is pointed by the pointing tool 105 is 44.86 degrees. On the other hand, if the field stop is set so as not to be affected by the light transmitting member 108a, the effective light beam is the light beam in the I direction, and the angle to be detected is 45.14 degrees. Therefore, it is necessary to provide a field stop that can detect at least 44.86 degrees and cannot detect at least 45.14 degrees.
US patent USP 4507557 JP 2000-105671 A JP 2001-142642 A

しかしながら、上記図29に示した例では、センサユニット101の投光部からE方向に投光された光線は、光透過部材108の設置により、F地点で反射し、E方向に投光したにも関わらずG地点に到達する。つまり、F地点における光透過部材108aに対するE方向の光線の入射角が大きいため、E方向の光線は光透過部材108aを透過できずに光透過部材108の表面で反射し、その結果G地点に到る。   However, in the example shown in FIG. 29, the light beam projected in the E direction from the light projecting portion of the sensor unit 101 is reflected at the point F by the light transmitting member 108 and is projected in the E direction. Nevertheless, it reaches point G. That is, since the incident angle of the light beam in the E direction with respect to the light transmitting member 108a at the point F is large, the light beam in the E direction cannot be transmitted through the light transmitting member 108a but is reflected on the surface of the light transmitting member 108. It arrives.

G地点におけるその光線は、光透過部材108bに対する入射角が小さいので、光透過部材108bを透過し、再帰反射部材104bに到達し、F地点の方向に再帰反射する。再帰反射した光線は、F地点において光透過部材108aに対する入射角が大きいために、光透過部材108aを透過できずにそのほとんどが反射して、センサユニット101に到達することになる。   The light beam at the point G has a small incident angle with respect to the light transmitting member 108b, and therefore passes through the light transmitting member 108b, reaches the retroreflective member 104b, and is retroreflected in the direction of the point F. The retroreflected light beam has a large incident angle with respect to the light transmitting member 108a at the point F, and therefore most of the light cannot be transmitted through the light transmitting member 108a and is reflected and reaches the sensor unit 101.

従って、センサユニット101の投光部から投光されたE方向の光線の光路は、順に投光部→F地点(透過)→E地点(再帰反射)→F地点(透過)→センサユニット101となるべきである。しかし、光透過部材108aの配置により、センサユニット101の投光部からの光は、投光部→F地点(反射)→G地点(光透過部材108bを透過し、再帰反射部材104bで再帰反射、再び光透過部材108bを透過)→F地点(反射)→センサユニット101なる光路を形成する。   Therefore, the optical path of the light beam in the E direction projected from the light projecting unit of the sensor unit 101 is as follows: light projecting unit → F point (transmission) → E point (retroreflection) → F point (transmission) → sensor unit 101 Should be. However, due to the arrangement of the light transmitting member 108a, the light from the light projecting portion of the sensor unit 101 is reflected by the light projecting portion → F point (reflected) → G point (transmitted through the light transmitting member 108b and retroreflected by the retroreflective member 104b. The light path is again transmitted through the light transmitting member 108 b) → F point (reflection) → sensor unit 101.

図29(b)に示したように座標入力有効領域103に指示具105を配置すれば、指示具105の虚像により、E方向に投光した光線も遮光してしまう結果となり、座標算出精度を大幅に劣化させる原因となる。   If the pointing tool 105 is arranged in the coordinate input effective area 103 as shown in FIG. 29B, the virtual image of the pointing tool 105 results in shielding the light projected in the E direction, and the coordinate calculation accuracy is improved. Causes significant deterioration.

このような現象は、水面上から水中を見ようとした場合を想定すれば容易に理解できる。つまり、水面の真上から水底を見ようとすれば(入射角が小さい)、容易に水底を観察することができるのに対し、水面の斜め上方から水底を見ようとしたら(入射角が大きい)、その観察はほとんど不可能になることと同様な現象が、座標入力装置においても生じる。   Such a phenomenon can be easily understood if it is assumed that the user wants to see the water from above the water surface. In other words, if you try to see the bottom of the water from directly above the water surface (incident angle is small), you can easily observe the bottom of the water, but if you try to see the bottom of the water from above the water surface (large incident angle), A phenomenon similar to that the observation becomes almost impossible also occurs in the coordinate input device.

図29(b)に示したようにF地点の入射角が89.6度にも達すると、光透過部材108を構成する材料を変えるか或いは反射面にコーティング等の処理を施したとしても、光の透過に対して何らの効果も期待できない。上記の不具合はF地点における入射角をより小さくすることで改善することができる。しかし、このことは黒枠109の幅を大幅に増加させる結果となり、表示装置の表示領域或いは座標入力装置の座標入力有効領域103に対して装置全体の大きさが非常に大きくなることにつながるので、良い方法とは言えない。   As shown in FIG. 29B, when the incident angle at the point F reaches 89.6 degrees, even if the material constituting the light transmitting member 108 is changed or the reflection surface is subjected to a treatment such as coating. No effect on light transmission can be expected. The above problem can be improved by making the incident angle at the point F smaller. However, this results in a significant increase in the width of the black frame 109, which leads to a very large size of the entire apparatus relative to the display area of the display apparatus or the coordinate input effective area 103 of the coordinate input apparatus. It's not a good way.

一方、虚像の影響を除去する一般的な方法としては、センサユニット101の投光部による投光範囲を絞り等によって制限する方法が知られているが、この方法による困難性について次に説明する。   On the other hand, as a general method for removing the influence of the virtual image, there is known a method of limiting the light projection range by the light projecting unit of the sensor unit 101 by a diaphragm or the like. The difficulty of this method will be described below. .

即ち、上記図30に示した例では、設計上、視野絞りを例えば45度±0.05度に設定することは、部品が高コストとなるばかりでなく、センサユニット101もその向きが正確となるように取り付けなければ意味が無い。これは、水平方向と成す角度が45度となる方向をセンサユニット101の基準方向として説明したので、この基準方向が絶対に正しいと言う意味であり、センサユニット間距離(図27の101L及び101R間の距離)が例えば1344mmあるとき、両者の基準角度を例えば±0.05度という公差で組み付けることは容易でないという意味である。   That is, in the example shown in FIG. 30, setting the field stop to 45 ° ± 0.05 ° by design, for example, not only increases the cost of the parts, but also the sensor unit 101 has the correct orientation. It is meaningless if it is not attached to be. This is because the direction in which the angle formed with the horizontal direction is 45 degrees has been described as the reference direction of the sensor unit 101. This means that the reference direction is absolutely correct, and the distance between the sensor units (101L and 101R in FIG. 27). When the distance between them is 1344 mm, for example, it means that it is not easy to assemble the reference angles of the two with a tolerance of ± 0.05 degrees, for example.

そのため、座標入力装置の製造時においては、どうしても高コストな組立工程を想定しなければならなかった。つまり、従来においては、この種の大型の表示装置に重ねて配置される座標入力装置の視野制限を行うには、調整手段が必須であり、製造的にもコスト的にも容易でないのである。   Therefore, when manufacturing the coordinate input device, an expensive assembly process must be assumed. In other words, conventionally, an adjustment means is indispensable for restricting the field of view of a coordinate input device arranged on this type of large display device, which is not easy in terms of manufacturing and cost.

本発明の目的は、再帰反射部材を保護する光透過部材の設置により発生する虚像の影響を除去し、高精度な座標算出を可能とした座標入力装置及びその制御方法を提供することにある。   An object of the present invention is to provide a coordinate input device and a control method for the coordinate input device that can eliminate the influence of a virtual image generated by the installation of a light transmissive member that protects the retroreflective member and perform highly accurate coordinate calculation.

上述の目的を達成するために、本発明の座標入力装置は、座標入力有効領域と、前記座標入力有効領域の外側に配置された再帰反射部材と、前記再帰反射部材と前記座標入力有効領域との間に配置された保護部材と、前記座標入力有効領域の面方向全域に光を投射する投射手段と、前記投射手段で投射された光が前記再帰反射部材で再帰反射され、その再帰反射された光を光電変換素子により検出する検出手段とを備えた座標入力装置であって、前記検出手段により検出された初期状態の光量分布における前記再帰反射部材の端部の反射特性を特徴点として抽出する抽出手段と、前記抽出手段により抽出された特徴点に対応する前記光電変換素子の画素番号から、前記検出手段が出力する信号の有効領域を設定する設定手段と、前記設定手段により設定された有効領域の信号に基づいて前記座標入力有効領域に対する指示位置の前記検出手段からの角度を検出し、前記角度に基づいて前記座標入力有効領域に対する指示位置の座標を算出する算出手段とを備えることを特徴とする。 In order to achieve the above object, a coordinate input device of the present invention includes a coordinate input effective area, a retroreflective member disposed outside the coordinate input effective area, the retroreflective member, and the coordinate input effective area. A projection member that projects light over the entire surface direction of the coordinate input effective area, and the light projected by the projection unit is retroreflected by the retroreflective member and retroreflected. and a coordinate input device provided with a detecting means for detecting by a photoelectric conversion element with light, the reflection characteristic of the end portion of the retroreflective material in the light amount distribution of the initial state detected by the detecting means as the feature point Extracting means for extracting, setting means for setting an effective area of a signal output by the detecting means from the pixel number of the photoelectric conversion element corresponding to the feature point extracted by the extracting means, and the setting means And based on the signal of the set effective area to detect the angle from the detecting means of the indication position relative to the coordinate input effective region by, calculates the coordinates of the designated position relative to the coordinate input effective region based on the said angle and calculating means, characterized in that it comprises a.

本発明によれば、初期状態の光量分布の特徴点を抽出し、特徴点の画素番号から、検出手段が出力する信号の有効領域を設定し、有効領域の信号に基づき、座標入力有効領域に対する指示位置の角度を検出し、角度に基づき、指示位置の座標を算出する。これにより、従来のような、虚像の影響を除去するためにコストの高い視野絞りを設け微細な調整を行うことなく、虚像の影響を除去できると共に、高精度な座標算出が可能となる。   According to the present invention, the feature point of the light amount distribution in the initial state is extracted, the effective area of the signal output from the detection means is set from the pixel number of the feature point, and the coordinate input effective area is determined based on the signal of the effective area. The angle of the designated position is detected, and the coordinates of the designated position are calculated based on the angle. As a result, the influence of the virtual image can be removed and a highly accurate coordinate calculation can be performed without providing a high-cost field stop for removing the influence of the virtual image as in the prior art without fine adjustment.

また、本発明によれば、所定位置に対する指示入力に伴い得られる光量分布の検出結果から、検出手段が出力する信号の有効領域を設定し、有効領域の信号に基づき、座標入力有効領域の所定位置の角度を検出し、角度に基づき、所定位置の座標を算出する。これにより、上記同様に、虚像の影響を除去できると共に、高精度な座標算出が可能となる。   Further, according to the present invention, the effective area of the signal output from the detection means is set from the detection result of the light amount distribution obtained with the instruction input to the predetermined position, and the predetermined coordinate input effective area is determined based on the signal of the effective area. The angle of the position is detected, and the coordinates of the predetermined position are calculated based on the angle. As a result, as described above, the influence of the virtual image can be removed, and coordinate calculation with high accuracy becomes possible.

以下、本発明の実施の形態を図面に基づき説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る座標入力装置の概略構成を示す構成図である。
[First Embodiment]
FIG. 1 is a configuration diagram showing a schematic configuration of a coordinate input device according to a first embodiment of the present invention.

図1において、座標入力装置は、投光部及び検出部を有する左側のセンサユニット1Lと、投光部及び検出部を有する右側のセンサユニット1Rと、制御・演算ユニット2と、座標入力有効領域3と、再帰反射部材4と、光透過部材8とを備えている。センサユニット1L及びセンサユニット1Rにより、座標入力有効領域3の面方向全域に異なる方向から光を投射する。尚、以下の各図の説明では、左右のセンサユニット1L、1Rを総称してセンサユニット1とも表記する。   In FIG. 1, a coordinate input device includes a left sensor unit 1L having a light projecting unit and a detection unit, a right sensor unit 1R having a light projecting unit and a detection unit, a control / calculation unit 2, and a coordinate input effective area. 3, a retroreflective member 4, and a light transmissive member 8. Light is projected from different directions over the entire surface direction of the coordinate input effective area 3 by the sensor unit 1L and the sensor unit 1R. In the following description of each figure, the left and right sensor units 1L and 1R are collectively referred to as sensor unit 1 as well.

本実施の形態は、上記図27の構成に対して、光透過部材8を追加した点と、制御・演算ユニット2により後述の各種制御を行う点において相違する。本実施の形態のその他の要素は、上記図27の対応するものと同一なので、説明を省略する。   This embodiment is different from the configuration shown in FIG. 27 in that a light transmitting member 8 is added and various control described later is performed by the control / arithmetic unit 2. The other elements of the present embodiment are the same as the corresponding ones in FIG.

光透過部材8は、特定の波長のみの光を透過することが可能であり、不要光の透過を防止すると共に再帰反射部材4が直接外部に露出することを防止し、座標入力有効領域3の近傍に配置されることで製品外観の一部を構成する。このように構成することで、座標入力装置が製品として使用される際に堆積する「ほこり」、「ゴミ」の類は、光透過部材8に堆積し、光透過部材8をユーザが「拭く」等の動作により簡単に除去することができる。その結果、再帰反射部材4の光学特性を半永久的に維持することが容易となり、信頼性の高い座標入力装置を実現することが可能となる。   The light transmissive member 8 can transmit only light of a specific wavelength, prevents unnecessary light from being transmitted, and prevents the retroreflective member 4 from being directly exposed to the outside. A part of the product appearance is configured by being arranged in the vicinity. With this configuration, “dust” and “dust” that accumulate when the coordinate input device is used as a product accumulates on the light transmitting member 8, and the user “wipes” the light transmitting member 8. It can be easily removed by such operations. As a result, it becomes easy to maintain the optical characteristics of the retroreflective member 4 semi-permanently, and a highly reliable coordinate input device can be realized.

座標入力装置は、座標入力有効領域3を、PDP、リアプロジェクタ、LCDパネル等の表示装置の表示領域と略一致するように表示装置に重ねて配置することで、インタラクティブな入力装置として利用することが可能である。即ち、座標入力装置を表示装置に重ねて配置した際の表示画面上に指または指示具により線を描画したり、表示画面上のアイコン操作によりPC等の外部機器の制御を行ったりすることが可能となる。   The coordinate input device can be used as an interactive input device by arranging the coordinate input effective region 3 on the display device so as to substantially coincide with the display region of the display device such as a PDP, a rear projector, or an LCD panel. Is possible. That is, a line may be drawn with a finger or an indicator on the display screen when the coordinate input device is placed on the display device, or an external device such as a PC may be controlled by an icon operation on the display screen. It becomes possible.

次に、座標入力装置の主要構成要素であるセンサユニット1及び制御・演算ユニット2の構成及び動作について詳細に説明する。   Next, the configuration and operation of the sensor unit 1 and the control / arithmetic unit 2 which are main components of the coordinate input device will be described in detail.

<センサユニット1>
図2(a)は、座標入力装置のセンサユニット1の投光部を座標入力面に対して垂直方向(正面方向)から見た図、図2(b)は、投光部を座標入力面に対して水平方向(側面方向)から見た図である。
<Sensor unit 1>
2A is a diagram of the light projecting unit of the sensor unit 1 of the coordinate input device viewed from the direction perpendicular to the coordinate input surface (front direction), and FIG. 2B is the coordinate input surface. It is the figure seen from the horizontal direction (side surface direction).

図2において、センサユニット1の投光部は、赤外LED31、投光レンズ32を備えている。赤外LED31から発光された赤外光は、投光レンズ32によって略90度の範囲に投光される。図2(b)に示す水平方向では、赤外LED31から発光された赤外光は、上下方向に制限された光束として投光され、主に再帰反射部材4に対して投光されるように構成されている。図中33は赤外LED31と投光レンズ32を接着する接着剤である。   In FIG. 2, the light projecting unit of the sensor unit 1 includes an infrared LED 31 and a light projecting lens 32. Infrared light emitted from the infrared LED 31 is projected in a range of approximately 90 degrees by the light projecting lens 32. In the horizontal direction shown in FIG. 2B, the infrared light emitted from the infrared LED 31 is projected as a light beam restricted in the vertical direction, and is projected mainly to the retroreflective member 4. It is configured. In the figure, 33 is an adhesive that bonds the infrared LED 31 and the light projecting lens 32.

図3(a)は、センサユニット1の検出部を座標入力面に対して垂直方向(正面方向)から見た図、図3(b)は、検出部を座標入力面に対して水平方向(側面方向)から見た図である。   3A is a diagram of the detection unit of the sensor unit 1 viewed from the direction perpendicular to the coordinate input surface (front direction), and FIG. 3B is a diagram illustrating the detection unit in the horizontal direction with respect to the coordinate input surface ( It is the figure seen from the side direction.

図3において、センサユニット1の検出部は、1次元のラインCCD41、集光光学系としてのレンズ42、43、入射光の入射方向を大まかに制限する絞り44、可視光など余分な光の入射を防止する赤外フィルタ45を備えている。本実施の形態では、投光部と検出部を重ねて配置しており、投光部と検出部との間の距離Lは、投光部から再帰反射部材4までの距離に比べて十分に小さな値に設定されている。投光部と検出部との間に距離Lを有していても、再帰反射部材4からの十分な再帰反射光を検出部で検出することが可能な構成となっている。図3(a)の破線部分は、図3(b)におけるセンサユニット1の投光部の配置を示すものである。   In FIG. 3, the detection unit of the sensor unit 1 includes a one-dimensional line CCD 41, lenses 42 and 43 as a condensing optical system, a diaphragm 44 that roughly restricts the incident direction of incident light, and incident of extraneous light such as visible light. An infrared filter 45 is provided to prevent this. In the present embodiment, the light projecting unit and the detection unit are arranged to overlap each other, and the distance L between the light projecting unit and the detection unit is sufficiently larger than the distance from the light projecting unit to the retroreflective member 4. It is set to a small value. Even if it has the distance L between a light projection part and a detection part, it becomes the structure which can detect sufficient retroreflection light from the retroreflection member 4 with a detection part. The broken line part of Fig.3 (a) shows arrangement | positioning of the light projection part of the sensor unit 1 in FIG.3 (b).

投光部の赤外LED31から発光され投光レンズ32により投光された赤外光は、再帰反射部材4により反射され、検出部の赤外フィルタ45、絞り44を通過し、集光用レンズ42、43によりラインCCD41の検出面(受光面)上に集光される。尚、絞り44は、再帰反射部材4の再帰反射光のみを通過させるように、主に座標入力面からの高さ方向の視野を制限しており、面内方向の視野は大まかに制限するのみである。面内方向の光の制御は別途後述する方法で行っている。   The infrared light emitted from the infrared LED 31 of the light projecting unit and projected by the light projecting lens 32 is reflected by the retroreflective member 4, passes through the infrared filter 45 and the diaphragm 44 of the detection unit, and is a condensing lens. The light is condensed on the detection surface (light receiving surface) of the line CCD 41 by 42 and 43. The diaphragm 44 mainly restricts the visual field in the height direction from the coordinate input surface so as to allow only the retroreflected light of the retroreflective member 4 to pass, and only roughly restricts the visual field in the in-plane direction. It is. The control of the light in the in-plane direction is performed by a method separately described later.

更に説明を加えると、投光部から略90度の範囲に投光された赤外光が、再帰反射部材4により反射され、上記経路でラインCCD41の検出面上に集光される際に、反射光の入射角に応じたラインCCD41の画素上に結像される。従って、ラインCCD41は、反射光の入射角に応じた光量分布を信号として出力することになるので、ラインCCD41の画素番号が角度情報を示すことになる。   In further explanation, when the infrared light projected in a range of approximately 90 degrees from the light projecting portion is reflected by the retroreflective member 4 and condensed on the detection surface of the line CCD 41 through the above path, An image is formed on the pixels of the line CCD 41 according to the incident angle of the reflected light. Accordingly, since the line CCD 41 outputs a light amount distribution corresponding to the incident angle of the reflected light as a signal, the pixel number of the line CCD 41 indicates angle information.

<制御・演算ユニット2>
制御・演算ユニット2と、センサユニット1L、 センサユニット1Rとの間では、ラインCCD41の動作を制御するCCD制御信号、ラインCCD41用のクロック信号、ラインCCD41の出力信号、及び、赤外LED31を駆動するLED駆動信号がやり取りされている。
<Control / arithmetic unit 2>
Between the control / arithmetic unit 2, the sensor unit 1L, and the sensor unit 1R, a CCD control signal for controlling the operation of the line CCD 41, a clock signal for the line CCD 41, an output signal of the line CCD 41, and an infrared LED 31 are driven. LED drive signals are exchanged.

図4は、制御・演算ユニット2を中心とした構成を示すブロック図である。   FIG. 4 is a block diagram showing a configuration centering on the control / arithmetic unit 2.

図4において、制御・演算ユニット2は、A/Dコンバータ81L、81R、メモリ82、CPU(演算制御回路)83、LED駆動回路84L、84R、クロック供給回路86、クロック発生回路87、シリアルインタフェース88を備えている。尚、A/Dコンバータ81L、81R、LED駆動回路84L、84Rは、センサユニット1L、 センサユニット1Rにそれぞれ対応して設けられている。   In FIG. 4, the control / arithmetic unit 2 includes A / D converters 81L and 81R, a memory 82, a CPU (arithmetic control circuit) 83, LED drive circuits 84L and 84R, a clock supply circuit 86, a clock generation circuit 87, and a serial interface 88. It has. The A / D converters 81L and 81R and the LED drive circuits 84L and 84R are provided corresponding to the sensor unit 1L and the sensor unit 1R, respectively.

CPU83は、ワンチップマイクロコンピュータ等から構成されており、CCD制御信号、LED駆動信号を出力すると共に、制御プログラムに基づいて、後述の図13・図14、図18・図19、図20・図21、図25・図26の各フローチャートに示す処理を実行する。CCD制御信号は、ラインCCD41のシャッタタイミングや、データの出力制御などに用いられる。LED駆動信号は、CPU83からLED駆動回路84L、84Rを経由してセンサユニット1の赤外LED31に供給されている。クロック発生回路87は、クロック信号を発生する。クロック信号は、クロック発生回路87からセンサユニット1L、1Rに供給されると共に、ラインCCD41との同期をとって各種制御を行うためにCPU83にも供給されている。   The CPU 83 is composed of a one-chip microcomputer or the like, and outputs a CCD control signal and an LED drive signal, and based on the control program, FIG. 13, FIG. 14, FIG. 18, FIG. 19, FIG. 21 and the processes shown in the flowcharts of FIGS. 25 and 26 are executed. The CCD control signal is used for shutter timing of the line CCD 41, data output control, and the like. The LED drive signal is supplied from the CPU 83 to the infrared LED 31 of the sensor unit 1 via the LED drive circuits 84L and 84R. The clock generation circuit 87 generates a clock signal. The clock signal is supplied from the clock generation circuit 87 to the sensor units 1L and 1R, and is also supplied to the CPU 83 for performing various controls in synchronization with the line CCD 41.

センサユニット1の検出部を構成するラインCCD41の出力信号は、A/Dコンバータ81L、81Rに入力され、CPU83からの制御により、A/Dコンバータ81L、81Rでデジタル値に変換される。変換されたデジタル値は、必要に応じてメモリ82に記憶され、後述の角度計算方法により角度が算出され、更には、後述の座標計算方法により座標値が算出される。算出結果は、座標入力装置に重ねて配置された表示装置に接続されているPC等の外部機器にシリアルインタフェース88等を介して出力される。尚、クロック供給回路86は、CPU83単独にクロックを供給する。   The output signal of the line CCD 41 constituting the detection unit of the sensor unit 1 is input to the A / D converters 81L and 81R, and is converted into a digital value by the A / D converters 81L and 81R under the control of the CPU 83. The converted digital value is stored in the memory 82 as necessary, an angle is calculated by an angle calculation method described later, and further, a coordinate value is calculated by a coordinate calculation method described later. The calculation result is output via a serial interface 88 or the like to an external device such as a PC connected to a display device arranged so as to overlap the coordinate input device. The clock supply circuit 86 supplies a clock to the CPU 83 alone.

<光量分布検出>
図5は、CCD制御信号及びLED駆動信号を示すタイミングチャートである。
<Light intensity distribution detection>
FIG. 5 is a timing chart showing CCD control signals and LED drive signals.

図5において、91、92、93は、左右のセンサユニット1L、1RのラインCCD41を制御するCCD制御信号である。CCD制御信号91(Sh)の間隔で、ラインCCD41のシャッタ解放時間が決定される。CCD制御信号92(ICGL)、CCD制御信号93(ICGR)は、それぞれ左右のセンサユニット1L、1Rに供給されるゲート信号であり、ラインCCD41内部の光電変換部の電荷を読み出し部へ転送する信号である。   In FIG. 5, reference numerals 91, 92, 93 denote CCD control signals for controlling the line CCD 41 of the left and right sensor units 1L, 1R. The shutter release time of the line CCD 41 is determined at the interval of the CCD control signal 91 (Sh). The CCD control signal 92 (ICGL) and the CCD control signal 93 (ICGR) are gate signals supplied to the left and right sensor units 1L and 1R, respectively, and are signals for transferring the charges of the photoelectric conversion unit in the line CCD 41 to the reading unit. It is.

94、95は、左右のセンサユニット1L、1Rの赤外LED31を駆動する駆動信号である。CCD制御信号91(Sh)の最初の周期で、センサユニット1Lの赤外LED31を点灯するために、LED駆動信号94(LEDL)がLED駆動回路84Lを経由して赤外LED31に供給される。CCD制御信号91(Sh)の次の周期で、センサユニット1Rの赤外LED31を点灯するために、LED駆動信号95(LEDR)がLED駆動回路84Rを経由して赤外LED31に供給される。左右のセンサユニット1L、1Rの赤外LED31の駆動が終了した後に、ラインCCD41の信号が左右のセンサユニット1L、1Rから読み出される。   Reference numerals 94 and 95 denote driving signals for driving the infrared LEDs 31 of the left and right sensor units 1L and 1R. In order to light the infrared LED 31 of the sensor unit 1L in the first cycle of the CCD control signal 91 (Sh), an LED drive signal 94 (LEDL) is supplied to the infrared LED 31 via the LED drive circuit 84L. In order to turn on the infrared LED 31 of the sensor unit 1R in the next cycle of the CCD control signal 91 (Sh), an LED drive signal 95 (LEDR) is supplied to the infrared LED 31 via the LED drive circuit 84R. After driving the left and right sensor units 1L, 1R of the infrared LEDs 31, the signal of the line CCD 41 is read from the left and right sensor units 1L, 1R.

図6(a)は、座標入力有効領域3に指または指示具で指示入力を行わない場合のセンサユニット1L、1Rの出力としての光量分布を示す図、図6(b)は、座標入力有効領域3に指または指示具で指示入力を行った場合のセンサユニット1L、1Rの出力としての光量分布を示す図である。   FIG. 6A is a diagram showing a light amount distribution as an output of the sensor units 1L and 1R when no instruction is input to the coordinate input effective area 3 with a finger or an indicator, and FIG. 6B is a coordinate input effective. It is a figure which shows the light quantity distribution as an output of sensor unit 1L, 1R at the time of performing instruction input to the area | region 3 with a finger | toe or an indicator.

図6において、横軸は各CCD画素の画素番号に相当し、縦軸は各CCD画素が出力する光信号のレベルである。座標入力有効領域3に対して指または指示具による指示入力が無い場合、つまり遮光部分が無い場合には、左右のセンサユニット1L、1RのラインCCD41からそれぞれ読み出される(出力される)信号として、図6(a)に示す光量分布が得られる。勿論、このような光量分布がどのシステムでも必ず得られるわけではなく、再帰反射部材4の入射角による再帰反射特性、赤外LED31を含む投光部の特性、経時変化(反射面の汚れなど)によって、光量分布は変化する。   In FIG. 6, the horizontal axis corresponds to the pixel number of each CCD pixel, and the vertical axis represents the level of the optical signal output from each CCD pixel. When there is no instruction input by the finger or the pointing tool with respect to the coordinate input effective area 3, that is, when there is no light-shielding portion, as signals read (output) from the line CCDs 41 of the left and right sensor units 1L and 1R, The light quantity distribution shown in FIG. 6A is obtained. Of course, such a light quantity distribution is not necessarily obtained in any system. Retroreflective characteristics depending on the incident angle of the retroreflective member 4, characteristics of the light projecting portion including the infrared LED 31, changes with time (dirt of the reflecting surface, etc.) Therefore, the light quantity distribution changes.

図示のAが最大光量を検出した時の出力レベルであり、図示のBが最低の出力レベルであるものとする。従って、再帰反射光のない状態では、得られる出力レベルはB付近になり、再帰反射部材4からの反射光量が増えるほどAの出力レベルに近づくことになる。このように、左右のセンサユニット1L、1RのラインCCD41からそれぞれ出力された信号は、制御・演算ユニット2のA/Dコンバータ81L、81Rにより逐次A/D変換され、CPU83にデジタルデータとして取り込まれる。   Assume that A shown in the figure is the output level when the maximum light amount is detected, and B shown in the figure is the lowest output level. Therefore, in a state where there is no retroreflected light, the obtained output level is in the vicinity of B, and as the amount of reflected light from the retroreflective member 4 increases, the output level approaches A. As described above, the signals output from the line CCDs 41 of the left and right sensor units 1L and 1R are sequentially A / D converted by the A / D converters 81L and 81R of the control / arithmetic unit 2, and taken into the CPU 83 as digital data. .

他方、座標入力有効領域3に対して指または指示具により指示入力を行った場合、つまり再帰反射部材4からの再帰反射光を遮った場合には、左右のセンサユニット1L、1Rからそれぞれ読み出される(出力される)信号として、図6(b)に示す光量分布が得られる。即ち、指または指示具により図示のCの部分に対応する再帰反射光が遮光されたため、その遮光部分のみ光量が低下している。   On the other hand, when an instruction is input to the coordinate input effective area 3 with a finger or an indicator, that is, when the retroreflected light from the retroreflective member 4 is blocked, the data is read from the left and right sensor units 1L and 1R, respectively. As a (output) signal, a light quantity distribution shown in FIG. 6B is obtained. That is, since the retroreflected light corresponding to the portion C shown in the figure is blocked by the finger or the pointing tool, the amount of light is reduced only in the light-shielded portion.

座標入力有効領域3に対する指または指示具による指示入力の有無(再帰反射部材4からの再帰反射光の遮光の有無)の検出は、上記の光量分布の変化を検知して行うものである。具体的に説明すれば、まず、図6(a)に示すような座標入力有効領域3に対する指または指示具による指示入力が無い初期状態(以後、初期状態で得られたデータを初期データという)を、予め制御・演算ユニット2のメモリ82に記憶しておく。次に、CPU83により、それぞれのサンプル期間で得られるデータと予め記憶しておいた初期データとの差分を算出することで、図6(b)に示すような光量分布の変化があるかどうかを判別する。   Detection of the presence / absence of an instruction input by the finger or pointing tool for the coordinate input effective area 3 (presence / absence of shielding of retroreflected light from the retroreflective member 4) is performed by detecting the change in the light amount distribution. More specifically, first, an initial state in which there is no instruction input by a finger or pointing tool for the coordinate input effective area 3 as shown in FIG. 6A (hereinafter, data obtained in the initial state is referred to as initial data). Is stored in advance in the memory 82 of the control / arithmetic unit 2. Next, the CPU 83 calculates whether or not there is a change in the light amount distribution as shown in FIG. 6B by calculating the difference between the data obtained in each sample period and the initial data stored in advance. Determine.

<角度計算>
制御・演算ユニット2のCPU83により、座標入力装置の座標入力有効領域3上で指または指示具により指示した位置のセンサユニット1から見た角度(方向)を計算する角度計算にあたっては、まず、センサユニット1の投光部から投光された光の遮光範囲を検出する必要がある。
<Angle calculation>
In the angle calculation in which the CPU 83 of the control / arithmetic unit 2 calculates the angle (direction) viewed from the sensor unit 1 at the position designated by the finger or the pointing tool on the coordinate input effective area 3 of the coordinate input device, first, the sensor It is necessary to detect the light shielding range of the light projected from the light projecting unit of the unit 1.

先にも述べたように、センサユニット1のラインCCD41の出力としての光量分布は経時変化等で一定ではないため、座標入力装置を組み込んだシステムの起動時などに上述した初期データを記憶することが望ましい。つまり、工場からの座標入力装置の出荷時に初期データを設定し、その初期データの更新が逐次行われなければ、次のような結果を引き起こす。例えば再帰反射部材4の再帰反射面の或る部分にゴミが付着した場合、ゴミ付着部分での再帰反射効率が低下するので、あたかもゴミ付着部分(センサユニット1から見た方向)で座標入力動作が行われたと誤検出してしまうという重大な結果を引き起こす。   As described above, since the light amount distribution as the output of the line CCD 41 of the sensor unit 1 is not constant due to changes over time, the above-described initial data is stored when the system incorporating the coordinate input device is started. Is desirable. That is, if initial data is set at the time of shipment of the coordinate input device from the factory and the initial data is not updated sequentially, the following results are caused. For example, if dust adheres to a certain part of the retroreflective surface of the retroreflective member 4, the retroreflective efficiency at the dust adhered part decreases, so that the coordinate input operation is as if the dust adhered part (direction viewed from the sensor unit 1). Cause serious consequences of false positives.

従って、座標入力装置を組み込んだシステムの起動時などに上述した初期データを制御・演算ユニット2のメモリ82に記憶することで、再帰反射部材4の再帰反射面が経時的にゴミやほこり等で汚れて再帰反射効率が低下していても、その状態を初期状態として設定し直すことができる。これにより、上記誤検出を引き起こすことが無くなるという優れた利点が得られるようになる。   Therefore, by storing the above-mentioned initial data in the memory 82 of the control / arithmetic unit 2 at the start-up of the system incorporating the coordinate input device, the retroreflective surface of the retroreflective member 4 becomes dust or dust over time. Even if the retroreflective efficiency decreases due to contamination, the state can be reset as the initial state. As a result, it is possible to obtain an excellent advantage that the erroneous detection is not caused.

無論、再帰反射部材4に付着したゴミやほこり等による影響で、再帰反射部材4からの再帰反射光(光信号)がゴミやほこり等の付着部分に対応するセンサユニット1のCCD画素で全く受光することができなくなれば、座標算出不能の事態となり、何らかの方法でゴミやほこり等を除去しなければならない。仮に再帰反射部材4からの光信号が大幅に減少している状態にあっては、S/N比の関係で光信号の信頼性が低下する(例えば座標入力有効領域3上の同一地点を指示しているにも関わらず座標が揺らぐ現象が発生し、座標算出分解能を低下させてしまう)ので、前記状態であっても、再帰反射部材4に付着したゴミやほこり等は除去するのが好ましい。   Of course, the retroreflected light (optical signal) from the retroreflective member 4 is completely received by the CCD pixel of the sensor unit 1 corresponding to the adhering part of the dust and dust due to the influence of dust and dust adhering to the retroreflective member 4. If it is not possible to do so, it becomes impossible to calculate coordinates, and dust or dust must be removed by some method. If the optical signal from the retroreflective member 4 is greatly reduced, the reliability of the optical signal is reduced due to the S / N ratio (for example, the same point on the coordinate input effective area 3 is indicated) However, it is preferable to remove dust, dust and the like attached to the retroreflective member 4 even in this state. .

さて、座標入力装置の電源投入時において、座標入力有効領域3に対する指または指示具による指示入力が無い(遮光部分が無い)状態で、まず、センサユニット1の投光部から照明を行うこと無しにラインCCD41の出力を制御・演算ユニット2のA/Dコンバータ81L、81RによりA/D変換し、該A/D変換したデータをBas_data[N]としてメモリ82に記憶する。これは、ラインCCD41のバイアスのばらつき等を含んだデータとなり、図6(a)のBの出力レベル付近のデータとなる。ここで、図示のNは画素番号であり、有効な入力範囲に対応する画素番号が用いられる。   Now, when the coordinate input device is turned on, there is no illumination from the light projecting portion of the sensor unit 1 in the state where there is no instruction input by the finger or the pointing tool to the coordinate input effective area 3 (there is no light shielding portion). The output of the line CCD 41 is A / D converted by the A / D converters 81L and 81R of the control / arithmetic unit 2, and the A / D converted data is stored in the memory 82 as Bas_data [N]. This is data including variations in bias of the line CCD 41 and the like, and is data near the output level of B in FIG. Here, N in the figure is a pixel number, and a pixel number corresponding to an effective input range is used.

次に、センサユニット1の投光部から照明を行った状態でのセンサユニット1のラインCCD41から出力される光量分布のデータをRef_data[N]としてメモリ82に記憶する。光量分布のデータは、図6(a)の実線で示したデータである。これにより、初期データの記憶を完了する。   Next, the light amount distribution data output from the line CCD 41 of the sensor unit 1 in a state where illumination is performed from the light projecting unit of the sensor unit 1 is stored in the memory 82 as Ref_data [N]. The light amount distribution data is data indicated by a solid line in FIG. Thereby, the storage of the initial data is completed.

制御・演算ユニット2のCPU83は、メモリ82に記憶されたこれらのデータ(Bas_data[N]、Ref_data[N])を用いて、まずは座標入力有効領域3に対する指または指示具による指示入力が行われたかどうか(遮光範囲があるかどうか)の判定を行う。ここで、センサユニット1のラインCCD41から出力される光量分布のデータのうち、あるサンプル期間のデータをNorm_data[N]とする。   The CPU 83 of the control / arithmetic unit 2 uses the data (Bas_data [N], Ref_data [N]) stored in the memory 82 to input an instruction to the coordinate input effective area 3 with a finger or an indicator. Whether or not there is a light shielding range is determined. Here, out of the light amount distribution data output from the line CCD 41 of the sensor unit 1, data in a certain sample period is Norm_data [N].

まず、再帰反射部材4からの再帰反射光に対する指または指示具による遮光範囲を特定するために、データの変化の絶対量によって遮光範囲の有無を判定する。これは、ノイズなどによる誤判定を防止し、所定量の確実なデータ変化を検出するためである。データ変化の絶対量をラインCCD41の各々の画素について以下の式(1)により計算を行い、予め決定してある閾値Vthaと比較する。   First, in order to specify the light shielding range by the finger or the pointing tool for the retroreflected light from the retroreflective member 4, the presence or absence of the light shielding range is determined based on the absolute amount of change in data. This is to prevent erroneous determination due to noise or the like and to detect a certain amount of reliable data change. The absolute amount of data change is calculated for each pixel of the line CCD 41 by the following equation (1) and compared with a predetermined threshold value Vtha.

Norm_data_a[N] = Norm_data[N] − Ref_data[N] (1)
従って、Norm_data_a[N]はラインCCD41の各画素における絶対変化量に相当することになる。この比較処理は、Norm_data[N]とRef_data[N]の差をとり、閾値Vthaと比較するだけなので、さほど処理時間を要することなく、座標入力有効領域3に対する指または指示具による指示入力の有無の判定を高速に行うことが可能である。閾値Vthaを初めて超えた画素が所定数を超えて検出されたときに、座標入力有効領域3に指示入力があったと判定する。
Norm_data_a [N] = Norm_data [N] − Ref_data [N] (1)
Therefore, Norm_data_a [N] corresponds to the absolute change amount in each pixel of the line CCD 41. Since this comparison process only takes the difference between Norm_data [N] and Ref_data [N] and compares it with the threshold value Vtha, the presence or absence of an instruction input by the finger or the pointing tool to the coordinate input effective area 3 without much processing time. Can be determined at high speed. When the number of pixels exceeding the threshold Vtha for the first time is detected exceeding a predetermined number, it is determined that an instruction input has been made in the coordinate input effective area 3.

次に、閾値Vthaを超えた画素をより高精度に検出するために、データ変化の比を計算することで座標入力有効領域3に対する指示入力点の決定を行う。図7に示す910を再帰反射部材4の再帰反射面とする。ここで、再帰反射面のα領域が汚れなどにより反射率が低下していたとすると、このときのRef_data[N]の分布は、図8(a)に示すようにα領域の反射光量が少なくなる。   Next, in order to detect a pixel exceeding the threshold value Vtha with higher accuracy, an instruction input point for the coordinate input effective area 3 is determined by calculating a data change ratio. 910 shown in FIG. 7 is a retroreflective surface of the retroreflective member 4. Here, assuming that the reflectance of the α region of the retroreflective surface has decreased due to dirt or the like, the distribution of Ref_data [N] at this time has a smaller amount of reflected light in the α region as shown in FIG. .

この状態で、図7に示すように座標入力有効領域3に指または指示具5が挿入され、再帰反射部材4の略半分を覆ったとすると、反射光量は略半分となるため、図8(b)に示すようにNorm_data[N](太い実線で示す分布)が観測される。この状態に対して上記式(1)を適用すると、図9(a)に示すようになる。ここで、図9(a)の縦軸は初期状態との差分電圧[mV]になっている。   In this state, if the finger or the pointing tool 5 is inserted into the coordinate input effective area 3 as shown in FIG. 7 and substantially half of the retroreflective member 4 is covered, the amount of reflected light is substantially halved. ) Norm_data [N] (distribution indicated by a thick solid line) is observed. When the above formula (1) is applied to this state, the result is as shown in FIG. Here, the vertical axis in FIG. 9A is the differential voltage [mV] from the initial state.

データNorm_data_a [N]を閾値Vthaと比較すると、本来の入力範囲をはずれてしまうような場合(図9(a)の破線領域)がある。勿論、閾値Vthaをより小さな値に設定することで、ある程度の検出は可能となるが、ノイズなどの影響を受ける可能性が大きくなり、座標算出性能を劣化させるという弊害が発生する。   When the data Norm_data_a [N] is compared with the threshold value Vtha, there is a case where the original input range is deviated (broken line area in FIG. 9A). Of course, by setting the threshold value Vtha to a smaller value, a certain degree of detection is possible, but the possibility of being affected by noise or the like increases, resulting in a problem that the coordinate calculation performance is degraded.

そこで、指または指示具5によって遮られる光量は、α領域、β領域ともに最初の半分(α領域ではV1レベル相当、β領域ではV2レベル相当)であるので、式(2)によりデータ変化の比を計算する。   Therefore, the amount of light blocked by the finger or the pointing tool 5 is the first half of both the α region and the β region (corresponding to the V1 level in the α region and the V2 level in the β region). Calculate

Norm_data_r[N] = Norm_data_a[N] / (Bas_data[N] - Ref_data[N]) (2)
式(2)による計算結果を示すと図9(b)に示すようになり、変動比(式(2)の右辺)で表されるため、再帰反射部材4に対するゴミ等の付着の有無により再帰反射部材4の反射率が異なる場合でも、ゴミ等の付着の有無に関わらず式(2)を等しく扱うことが可能となる。この計算したデータNorm_data_r[N]に対して閾値Vthrを別途設定することで、Norm_data_r[N]の立ち上がり部分と立ち下り部分の画素番号から、例えば両者の中央の画素番号の画素を入力画素とすることにより、高精度に画素情報を取得することが可能となる。
Norm_data_r [N] = Norm_data_a [N] / (Bas_data [N]-Ref_data [N]) (2)
FIG. 9B shows the calculation result according to the equation (2), which is represented by the fluctuation ratio (the right side of the equation (2)), and therefore recursively depending on whether dust or the like is attached to the retroreflective member 4. Even when the reflectance of the reflecting member 4 is different, the expression (2) can be handled equally regardless of whether dust or the like is attached. By separately setting a threshold value Vthr for the calculated data Norm_data_r [N], for example, a pixel having a pixel number at the center of both from the rising and falling pixel numbers of Norm_data_r [N] is used as an input pixel. This makes it possible to acquire pixel information with high accuracy.

ところで、図9(b)は説明の都合上模式的に図示したものであり、実際の検出信号波形は詳細に図示すると図10に示すようになる。今、閾値Vthrと比較して遮光領域の立ち上がり部分は、Nr番目の画素で閾値Vthrを超え、遮光領域の立ち下がり部分は、Nf番目の画素で閾値Vthrを下回ったと仮定する。このとき、出力すべきラインCCD41の画素番号Npを、先に説明したように、立ち上がり部分と立ち下り部分の中央の画素番号として、
Np = Nr + (Nf-Nr)/2 (3)
のように計算してもよい。しかし、式(3)のように計算すると、ラインCCD41の画素間隔が出力画素番号の分解能になる。そこで、より高分解能に画素番号を検出するために、画素の出力レベル情報を用いて演算を行う。
Incidentally, FIG. 9B is schematically illustrated for convenience of explanation, and the actual detection signal waveform is illustrated in detail in FIG. Now, it is assumed that the rising part of the light shielding region exceeds the threshold value Vthr at the Nr-th pixel and the falling part of the light-shielding region is below the threshold value Vthr at the Nf-th pixel as compared with the threshold value Vthr. At this time, as described above, the pixel number Np of the line CCD 41 to be output is set as the center pixel number of the rising portion and the falling portion.
Np = Nr + (Nf-Nr) / 2 (3)
You may calculate as follows. However, if the calculation is performed as in Expression (3), the pixel interval of the line CCD 41 becomes the resolution of the output pixel number. Therefore, in order to detect the pixel number with higher resolution, the calculation is performed using the output level information of the pixel.

図10における画素番号NrのCCD出力レベルをLrとし、画素番号Nr-1のCCD出力レベルをLr-1とする。同様に、画素番号NfのCCD出力レベルをLfとし、画素番号Nf-1のCCD出力レベルをLf-1とする。このとき、検出すべき画素番号をそれぞれNrv、Nfvとし、
Nrv = Nr-1 + ( Vthr - Lr-1 ) / ( Lr - Lr-1 ) (4)
Nfv = Nf-1 + ( Vthr - Lf-1 ) / ( Lf - Lf-1 ) (5)
と計算すれば、CCD出力レベルに応じた仮想の画素番号、つまりラインCCD41の画素番号よりも細かい画素番号を取得することができる。出力される仮想中心画素Npvは、
Npv = Nrv + (Nfv-Nrv)/2 (6)
で決定される。
In FIG. 10, the CCD output level of the pixel number Nr is Lr, and the CCD output level of the pixel number Nr-1 is Lr-1. Similarly, the CCD output level of the pixel number Nf is Lf, and the CCD output level of the pixel number Nf-1 is Lf-1. At this time, the pixel numbers to be detected are Nrv and Nfv, respectively.
Nrv = Nr-1 + (Vthr-Lr-1) / (Lr-Lr-1) (4)
Nfv = Nf-1 + (Vthr-Lf-1) / (Lf-Lf-1) (5)
As a result, a virtual pixel number corresponding to the CCD output level, that is, a pixel number smaller than the pixel number of the line CCD 41 can be acquired. The output virtual center pixel Npv is
Npv = Nrv + (Nfv-Nrv) / 2 (6)
Determined by

このように、ラインCCD41の画素番号とその画素の出力レベルから仮想的な中心画素番号を計算することで、より分解能の高い画素番号検出が可能となる。   In this way, by calculating the virtual center pixel number from the pixel number of the line CCD 41 and the output level of the pixel, it is possible to detect the pixel number with higher resolution.

<CCD画素番号から角度情報への変換>
さて、上記取得した仮想中心画素番号(CCD画素番号)から、座標入力有効領域3に対する指または指示具で指示した位置の実際の座標値を計算するためには、仮想中心画素番号(CCD画素番号)を角度情報に変換する必要がある。
<Conversion from CCD pixel number to angle information>
In order to calculate the actual coordinate value of the position indicated by the finger or pointing tool with respect to the coordinate input effective area 3 from the acquired virtual center pixel number (CCD pixel number), the virtual center pixel number (CCD pixel number) is calculated. ) Must be converted into angle information.

図11は、CCD画素番号と角度情報の関係を示す図である。   FIG. 11 is a diagram showing the relationship between CCD pixel numbers and angle information.

図11において、縦軸は角度情報θ、横軸はCCD画素番号である。図中矢印で示す範囲がCCD有効画素範囲である。   In FIG. 11, the vertical axis represents the angle information θ, and the horizontal axis represents the CCD pixel number. The range indicated by the arrow in the figure is the CCD effective pixel range.

CCD画素番号と角度情報の関係の近似式、
θ=f(N) (7)
を求め、この近似式によりCCD画素番号から角度情報への変換(データの変換)を行う。
Approximate expression of the relationship between CCD pixel number and angle information,
θ = f (N) (7)
And the conversion from the CCD pixel number to the angle information (data conversion) is performed by this approximate expression.

近似式は、レンズの光学的収差等により、より高次の近似式を用いた方がより高精度に角度情報を得ることが可能となる場合がある。センサユニット1の検出部にどのようなレンズ群を採用するかは、製造コストと密接に関連する。レンズ群の製造原価を下げることによって一般的に発生する光学的な歪を、より高次の近似式を用いて補正する場合には、それなりの演算能力(演算速度)を要求されるので、目的とする製品に要求される座標算出精度を鑑みながら、その両者を適宜設定すれば良い。   As for the approximate expression, it may be possible to obtain angle information with higher accuracy by using a higher-order approximate expression due to optical aberration of the lens or the like. What lens group is used for the detection unit of the sensor unit 1 is closely related to the manufacturing cost. When correcting the optical distortion generally generated by lowering the manufacturing cost of the lens group using a higher-order approximate expression, a certain amount of computing power (calculation speed) is required. Both may be set as appropriate in consideration of the coordinate calculation accuracy required for the product.

<座標計算方法>
図12は、センサユニット1L、センサユニット1Rによる座標入力有効領域3上の検出すべき点を示す図である。
<Coordinate calculation method>
FIG. 12 is a diagram illustrating points to be detected on the coordinate input effective area 3 by the sensor unit 1L and the sensor unit 1R.

図12において、座標入力有効領域3の横方向をX軸とし、縦方向をY軸とし、中央をXY座標の原点とする。座標入力有効領域3の上辺の外側の左右にセンサユニット1L、センサユニット1RをY軸に対して対称に配置し、センサユニット1L、1R間の距離をDsとする。   In FIG. 12, the horizontal direction of the coordinate input effective area 3 is the X axis, the vertical direction is the Y axis, and the center is the origin of the XY coordinates. The sensor units 1L and 1R are arranged symmetrically with respect to the Y axis on the left and right outside the upper side of the coordinate input effective area 3, and the distance between the sensor units 1L and 1R is Ds.

更に、センサユニット1L、1Rの検出部を構成するラインCCD41を、その受光面の法線方向がX軸と45度の角度を成すように配置し、その法線方向を0度(基準方向)と定義する。このとき、角度の符号は、左側に配置されたセンサユニット1Lについては時計回りの方向を「+」方向と定義し、右側に配置されたセンサユニット1Rについては反時計回りの方向を「+」方向と定義する。更に、図示のPoは、センサユニット1L、1RのラインCCD41の法線方向の交点位置であり、Y軸方向の原点からの距離をPoyと定義する。   Further, the line CCD 41 constituting the detection unit of the sensor units 1L and 1R is arranged so that the normal direction of the light receiving surface forms an angle of 45 degrees with the X axis, and the normal direction is 0 degrees (reference direction). It is defined as At this time, the sign of the angle defines the clockwise direction as the “+” direction for the sensor unit 1L arranged on the left side, and the “+” direction for the counterclockwise direction for the sensor unit 1R arranged on the right side. Defined as direction. Furthermore, Po shown in the figure is an intersection position in the normal direction of the line CCD 41 of the sensor units 1L and 1R, and the distance from the origin in the Y-axis direction is defined as Poy.

このとき、センサユニット1L、1RのラインCCD41の受光面の法線方向と検出すべき点P方向との成す角度(センサユニット1L、1Rで得られた角度)をそれぞれθL、θRとすると、座標入力有効領域3に対する指または指示具による指示入力点(検出すべき点)Pの座標P(x、y)は、   At this time, if the angles formed by the normal direction of the light receiving surface of the line CCD 41 of the sensor units 1L and 1R and the direction of the point P to be detected (angles obtained by the sensor units 1L and 1R) are θL and θR, respectively, The coordinates P (x, y) of the pointing input point (point to be detected) P by the finger or pointing tool for the effective input area 3 is

Figure 0004423113
Figure 0004423113

で表される式(8)、式(9)により計算することができる。 It can calculate by Formula (8) and Formula (9) represented by these.

図13及び図14は、座標計算処理を示すフローチャートである。   13 and 14 are flowcharts showing the coordinate calculation process.

図13及び図14において、座標入力装置の一連の座標計算処理工程を詳述する。まず、操作者により座標入力装置の電源が投入されると(ステップS101)、座標入力装置の制御・演算ユニット2のCPU83は、ポート設定、タイマ設定など様々な初期化を行う(ステップS102)。次に、CPU83は、センサユニット1L、1Rの検出部を構成する光電変換素子であるラインCCD41の有効画素範囲をメモリ82から読み出して設定し(ステップS103)、立ち上げ時に行うラインCCD41の不要電荷除去のための準備を行う(ステップS104)。   13 and 14, a series of coordinate calculation processing steps of the coordinate input device will be described in detail. First, when the power of the coordinate input device is turned on by the operator (step S101), the CPU 83 of the control / arithmetic unit 2 of the coordinate input device performs various initialization such as port setting and timer setting (step S102). Next, the CPU 83 reads out and sets the effective pixel range of the line CCD 41, which is a photoelectric conversion element constituting the detection unit of the sensor units 1L and 1R, from the memory 82 (step S103), and unnecessary charge of the line CCD 41 performed at the time of start-up. Preparation for removal is performed (step S104).

ラインCCD41などの光電変換素子においては、動作させていない時に不要な電荷が蓄積している場合があり、ラインCCD41の出力データをそのままリファレンスデータとして用いると、検出不能或いは誤検出の原因となる。それを避けるために、センサユニット1L、1Rの投光部から光を投光しない照明無しの状態で、CPU83は、ラインCCD41からの出力データを上記ステップS103で予め設定された回数読み出す(ステップS105)。これにより、ラインCCD41に蓄積されていた不要電荷の除去を行っている。   In photoelectric conversion elements such as the line CCD 41, unnecessary charges may be accumulated when not being operated, and if the output data of the line CCD 41 is used as it is as reference data, detection may be impossible or erroneous detection may occur. In order to avoid this, the CPU 83 reads the output data from the line CCD 41 for the number of times set in advance in the above step S103 in the absence of illumination that does not project light from the light projecting units of the sensor units 1L and 1R (step S105). ). Thereby, unnecessary charges accumulated in the line CCD 41 are removed.

CPU83は、ラインCCD41からの出力データを設定回数読み出したか否かを判断し(ステップS106)、設定回数読み出したと判断した場合はステップS107に移行する。次に、CPU83は、センサユニット1L、1Rの投光部から光を投光しない照明無しの状態で、リファレンスデータとして上述したBas_data[N] の取り込みを行い(ステップS107)、メモリ82に記憶し、以降の計算に用いる(ステップS108)。次に、CPU83は、センサユニット1L、1Rの投光部から光を投光する照明有りの状態で、初期光量分布に相当するリファレンスデータとして上述したRef_data[N]の取り込みを行い(ステップS109)、上記同様にメモリ82に記憶し、以降の計算に用いる(ステップS110)。   The CPU 83 determines whether or not the output data from the line CCD 41 has been read a set number of times (step S106). If it is determined that the set number of times has been read, the process proceeds to step S107. Next, the CPU 83 fetches the above-described Bas_data [N] as reference data in the absence of illumination that does not project light from the light projecting units of the sensor units 1L and 1R (step S107), and stores it in the memory 82. This is used for subsequent calculations (step S108). Next, the CPU 83 captures the above-described Ref_data [N] as reference data corresponding to the initial light amount distribution in a state where there is illumination that projects light from the light projecting units of the sensor units 1L and 1R (step S109). In the same manner as described above, it is stored in the memory 82 and used for the subsequent calculations (step S110).

上記ステップS101からステップS110までが、電源投入時の初期設定動作ということになるが、この初期設定動作は、リセットスイッチ等により操作者の意図によって行うように構成しても良いことは言うまでも無い。この初期設定動作を経て、通常の光量分布取り込み動作に移行することになる。   Steps S101 to S110 are the initial setting operation when the power is turned on. Needless to say, this initial setting operation may be performed by the operator's intention using a reset switch or the like. No. After this initial setting operation, the operation shifts to a normal light amount distribution capturing operation.

まず、CPU83は、センサユニット1のラインCCD41の出力である光量分布を取り込む(ステップS111)。次に、CPU83は、取り込んだ光量分布とRef_data[N]との差分値を計算し(ステップS112)、座標入力有効領域3における遮光部分の有無(座標入力有効領域3に座標入力が行われているかどうか)を判定する(ステップS113)。座標入力有効領域3における遮光部分が無いと判定した場合には、CPU83は、ステップS111に戻り、同様に光量分布を取り込む。   First, the CPU 83 takes in a light amount distribution that is an output of the line CCD 41 of the sensor unit 1 (step S111). Next, the CPU 83 calculates a difference value between the captured light amount distribution and Ref_data [N] (step S112), and the presence / absence of a light shielding portion in the coordinate input effective area 3 (coordinate input is performed in the coordinate input effective area 3). Whether or not) (step S113). If it is determined that there is no light-shielding portion in the coordinate input effective area 3, the CPU 83 returns to step S111 and similarly captures the light amount distribution.

座標入力有効領域3における遮光部分が有ると判定した場合には、CPU83は、式(2)によりデータ変化の比を計算し(ステップS114)、計算で得られた比に対して閾値を基にデータの立ち上がり部分と立ち下り部分を決定し、式(4)、式(5)、式(6)により画素番号を計算する(ステップS115)。次に、CPU83は、計算で得られた画素番号から近似多項式により左右のセンサユニット1L、1Rに各々対応するTanθ値を算出する(ステップS116)。   If it is determined that there is a light-shielding portion in the coordinate input effective area 3, the CPU 83 calculates the ratio of data change according to equation (2) (step S114), and based on the threshold for the ratio obtained by the calculation. The rising edge and falling edge of the data are determined, and the pixel number is calculated by Expression (4), Expression (5), and Expression (6) (Step S115). Next, the CPU 83 calculates Tan θ values respectively corresponding to the left and right sensor units 1L and 1R from the pixel number obtained by the calculation using an approximate polynomial (step S116).

次に、CPU83は、上記算出したTanθ値に基づき、座標入力有効領域3に対する指または指示具による指示入力点(検出すべき点)のx、y座標を式(8)、式(9)により算出し(ステップS117)、その算出した座標のデータをシリアルインタフェース88を介してPC等の外部機器へ送信する(ステップS118)。シリアルインタフェース88としては、例えばUSBまたはRS232C等のシリアル通信インタフェース等、任意のインタフェースを用いれば良い。   Next, the CPU 83 calculates the x and y coordinates of the instruction input point (point to be detected) by the finger or the pointing tool with respect to the coordinate input effective area 3 based on the calculated Tanθ value according to the equations (8) and (9). The calculated coordinate data is transmitted to an external device such as a PC via the serial interface 88 (step S118). As the serial interface 88, an arbitrary interface such as a serial communication interface such as USB or RS232C may be used.

ステップS118の処理終了後、ステップS111に戻り、以降は、操作者により座標入力装置の電源が切断されるか、もしくは操作者の意図によってリセット状態が設定されるまで、ステップS111からステップS118までの処理を繰り返すことになる。この繰り返し周期を例えば10[msec]程度に設定すれば、座標入力装置は100回/秒の周期で、座標入力有効領域3に対する指または指示具5による指示入力点の座標のデータを外部機器に出力することが可能となる。   After the process of step S118 is completed, the process returns to step S111, and thereafter, the operation from step S111 to step S118 is continued until the operator turns off the power of the coordinate input device or the reset state is set according to the operator's intention. The process will be repeated. If this repetition cycle is set to, for example, about 10 [msec], the coordinate input device transmits the data of the coordinate of the input point indicated by the finger or the pointing tool 5 to the coordinate input effective area 3 to the external device at a cycle of 100 times / second. It becomes possible to output.

<有効画素範囲(有効領域として用いられる画素範囲)の設定方法>
次に、第1の有効画素範囲設定方法を説明する(第2の有効画素範囲設定方法は後述する)。さて、本実施の形態では、外観的にも優れ且つメンテナンスを容易にするために、再帰反射部材4を保護する部材である光透過部材8を上記図1に示したように配置している。光透過部材8の配置により、課題の項で詳述したように、センサユニット1から投光された光の光透過部材8に対する入射角の関係により、光透過部材8の表面で反射が起こり、上記図29(b)に示したような虚像が現れる。
<Method for Setting Effective Pixel Range (Pixel Range Used as Effective Region)>
Next, a first effective pixel range setting method will be described (a second effective pixel range setting method will be described later). In the present embodiment, the light transmitting member 8 that protects the retroreflective member 4 is arranged as shown in FIG. 1 in order to improve the appearance and facilitate maintenance. Due to the arrangement of the light transmitting member 8, as described in detail in the section of the problem, reflection occurs on the surface of the light transmitting member 8 due to the relationship of the incident angle of the light projected from the sensor unit 1 to the light transmitting member 8, A virtual image as shown in FIG. 29B appears.

図15(a)は、有効領域境界と反射光を示す図、図15(b)は、実像と虚像を示す図である。   FIG. 15A is a diagram showing an effective region boundary and reflected light, and FIG. 15B is a diagram showing a real image and a virtual image.

図15において、図15(a)に示すように有効領域(センサユニット1のラインCCD41が出力する信号の有効領域)境界の外側で反射光が観測されている。座標入力有効領域3に対して実際に指または指示具5により指示入力が行われると、図15(b)に示すように有効領域内に指または指示具5の実像が現れるだけでなく、有効領域外に虚像が現れているのが分かる。   In FIG. 15, reflected light is observed outside the boundary of the effective area (the effective area of the signal output from the line CCD 41 of the sensor unit 1) as shown in FIG. When an instruction is actually input to the coordinate input effective area 3 with the finger or the pointing tool 5, not only the real image of the finger or the pointing tool 5 appears in the effective area as shown in FIG. It can be seen that a virtual image appears outside the area.

このような状態で、センサユニット1のラインCCD41の画素番号を最初から読み出し、上述したように、座標入力有効領域3に対する指または指示具による指示入力点の座標値を、式(2)に示した変化率(Norm_data_a[N] / (Bas_data[N] - Ref_data[N]) )から算出した場合に、実像と虚像の中間の座標値が算出される可能性がある。   In such a state, the pixel number of the line CCD 41 of the sensor unit 1 is read from the beginning, and as described above, the coordinate value of the instruction input point by the finger or the pointing tool with respect to the coordinate input effective area 3 is shown in Expression (2). If calculated from the change rate (Norm_data_a [N] / (Bas_data [N]-Ref_data [N])), there is a possibility that a coordinate value between the real image and the virtual image is calculated.

実像と虚像の中間の座標値が算出される可能性を回避するためには、虚像が観測されないように、センサユニット1の投光部からの入力光を遮るように視野絞りを設け、微細な調整を行うことで、図15(a)に示したような有効領域境界の外側を観測できないようにする手法が考えられる。しかしながら、この手法では、課題の項で説明したように、設計上部品が高コストとなるばかりでなく調整などの組立工程が必要になる。   In order to avoid the possibility of calculating an intermediate coordinate value between the real image and the virtual image, a field stop is provided so as to block the input light from the light projecting unit of the sensor unit 1 so that the virtual image is not observed. A method for preventing the outside of the effective area boundary as shown in FIG. 15A from being observed by performing the adjustment is conceivable. However, in this method, as described in the section of the problem, not only the cost of the parts is increased in design, but also an assembly process such as adjustment is required.

そこで、本実施の形態では、センサユニット1のラインCCD41により得られる光量分布の特徴に着目して、有効領域を設定することとする。   Therefore, in the present embodiment, the effective area is set by paying attention to the feature of the light amount distribution obtained by the line CCD 41 of the sensor unit 1.

座標入力装置を座標入力有効領域3が表示装置の表示領域と略一致するように表示装置に重ねて配置して使用する場合、実際に指または指示具5により座標入力が行われる表示領域(座標入力有効領域3に略等しい)に対して実際には大き目の有効領域が設定されている。再帰反射部材4の端部がそれぞれ実効的な有効領域境界となる。   When the coordinate input device is used while being superimposed on the display device so that the coordinate input effective region 3 substantially coincides with the display region of the display device, the display region (coordinates) where the coordinate input is actually performed by the finger or the pointing tool 5 Actually, a larger effective area is set for the input effective area 3). Each end of the retroreflective member 4 is an effective effective area boundary.

図16は、1つのセンサユニットと有効領域の関係を示す図である。   FIG. 16 is a diagram illustrating a relationship between one sensor unit and an effective area.

図16において、図示のA点が有効領域の一方の端部となり、図示のB点が有効領域のもう一方の端部となる。   In FIG. 16, the point A illustrated is one end of the effective region, and the point B illustrated is the other end of the effective region.

図17(a)は、有効領域での光量分布を示す図、図17(b)は、光量分布の微分値を示す図である。   FIG. 17A is a diagram showing a light amount distribution in the effective region, and FIG. 17B is a diagram showing a differential value of the light amount distribution.

図17において、横軸は各CCD画素の画素番号に相当し、縦軸は各CCD画素が出力する光信号のレベルである。上記図16に示したような有効領域での光量分布は、図17(a)に示すようになる。有効領域の一方の端部であるA点の外側(A点から左側の領域)では、座標入力装置のカバーによる反射光が検出されている。有効領域の一方の端部であるA点は、カバーによる反射光との境目であり、上記図16で示したように再帰反射部材4の辺の切れ目となる。有効領域のもう一方の端部であるB点は、上記図16で示したように再帰反射部材4の辺の切れ目となる。また、図示のC点の波形は、やはり再帰反射部材4の辺の切れ目で発生している。このように、再帰反射部材4の端部では特徴的な反射特性が観測されている。   In FIG. 17, the horizontal axis corresponds to the pixel number of each CCD pixel, and the vertical axis represents the level of the optical signal output from each CCD pixel. The light quantity distribution in the effective area as shown in FIG. 16 is as shown in FIG. The reflected light from the cover of the coordinate input device is detected outside the point A which is one end of the effective region (the region on the left side from the point A). Point A, which is one end of the effective region, is a boundary with the reflected light from the cover, and is a break between the sides of the retroreflective member 4 as shown in FIG. The point B, which is the other end of the effective area, becomes a break in the side of the retroreflective member 4 as shown in FIG. In addition, the waveform at the point C shown in the figure is also generated at the break of the side of the retroreflective member 4. Thus, a characteristic reflection characteristic is observed at the end of the retroreflective member 4.

本実施の形態は、この再帰反射部材4の構成に基づく特徴的な反射特性を判定し、有効領域を決定するものである。センサユニット1のラインCCD41が検出した初期状態の光量分布の特徴点は、再帰反射部材4の配置に伴う座標入力有効領域3内における反射特性の変化により定まる点である。特徴点の抽出方法としては、センサユニット1のラインCCD41が検出した光量分布の分布方向における微分値から特徴点を抽出する方法、光量分布の分布方向における差分値から特徴点を抽出する方法のどちらを用いても構わない。特徴点については後述する。   In the present embodiment, characteristic reflection characteristics based on the configuration of the retroreflective member 4 are determined, and an effective area is determined. The characteristic point of the light quantity distribution in the initial state detected by the line CCD 41 of the sensor unit 1 is a point determined by a change in reflection characteristics in the coordinate input effective area 3 due to the arrangement of the retroreflective member 4. As a feature point extraction method, either a method of extracting a feature point from a differential value in the distribution direction of the light amount distribution detected by the line CCD 41 of the sensor unit 1 or a method of extracting a feature point from a difference value in the distribution direction of the light amount distribution. May be used. The feature points will be described later.

図17(a)に示した光量分布を分布方向に微分すると、図17(b)に示すようになる。光量分布を微分することによって、再帰反射部材4の切れ目の点であるA点、B点、C点での反射特性の変化を検出することが可能である。光量分布を微分した信号から、例えば、各符号(+、−)での最大値の点(A’点、B’点)をそれぞれ有効領域の境界として判断し、前記最大値の点にそれぞれ対応するラインCCD41の画素番号を制御・演算ユニット2のメモリ82に記憶しておく。座標入力有効領域3に対する指または指示具による指示入力点の座標値を計算する際に、計算に用いる画素範囲をこれらの点(A’点、B’点)の間の画素に限定すれば、有効領域外にいくら虚像が発生しようとも、虚像によって計算結果が影響されることは無い。   When the light quantity distribution shown in FIG. 17A is differentiated in the distribution direction, it is as shown in FIG. By differentiating the light amount distribution, it is possible to detect a change in reflection characteristics at points A, B, and C, which are the break points of the retroreflective member 4. From the signal obtained by differentiating the light amount distribution, for example, the maximum value point (A ′ point, B ′ point) at each sign (+, −) is determined as the boundary of the effective area, and each corresponds to the maximum value point. The pixel number of the line CCD 41 to be stored is stored in the memory 82 of the control / arithmetic unit 2. When calculating the coordinate value of the pointing input point by the finger or pointing tool with respect to the coordinate input effective area 3, if the pixel range used for the calculation is limited to pixels between these points (A ′ point, B ′ point), No matter how much a virtual image is generated outside the effective area, the calculation result is not affected by the virtual image.

実際の計算では、センサユニット1のラインCCD41の光量分布は画素単位での出力レベルとして与えられるため、厳密な意味での光量分布の微分値は計算できない。その代わりとして、例えば近隣の画素のレベルの差分値を計算することで、その差分値をもって、出力レベル変化の大きい部分を有効領域の境界として判断するように構成する。   In actual calculation, since the light amount distribution of the line CCD 41 of the sensor unit 1 is given as an output level in pixel units, a differential value of the light amount distribution in a strict sense cannot be calculated. Instead, for example, by calculating a difference value between the levels of neighboring pixels, a part having a large output level change is determined as the boundary of the effective region based on the difference value.

微分(差分)計算では、ノイズなどの外乱が強調される傾向にあるので、適宜フィルタを併用したり、センサユニット1のラインCCD41から光量分布を取り込む際に複数回の取り込みを行うことでその平均値を用いたりするなどの手法が有効である。   In the differentiation (difference) calculation, disturbances such as noise tend to be emphasized, so that the average is obtained by using a filter as appropriate, or by acquiring a light quantity distribution from the line CCD 41 of the sensor unit 1 multiple times. Techniques such as using values are effective.

図18及び図19は、有効領域設定処理の第1の例を示すフローチャートである。   18 and 19 are flowcharts showing a first example of the effective area setting process.

図18及び図19において、座標入力装置の制御・演算ユニット2のCPU83は、有効領域設定処理のルーチンがコールされると本処理を開始する(ステップS201)。CPU83は、まず初期設定として、センサユニット1のラインCCD41から読み込む画素の開始番号NMINと終了番号NMAXなどの設定を行う。ここで、開始番号NMINは、座標入力装置を組み込んだシステム毎にどの画素番号から読み込みを開始するかを決定しておけばよく、読み込みを開始する画素番号が0からであれば0を設定する。また、終了番号NMAXには、上述した有効領域が確実に含まれるような最大の画素番号を設定する(ステップS202)。   18 and 19, the CPU 83 of the control / arithmetic unit 2 of the coordinate input device starts this processing when the effective area setting processing routine is called (step S201). The CPU 83 first sets the start number NMIN and end number NMAX of the pixels read from the line CCD 41 of the sensor unit 1 as initial settings. Here, the start number NMIN may be determined from which pixel number to start reading for each system in which the coordinate input device is incorporated. If the pixel number to start reading is 0, 0 is set. . The end number NMAX is set to the maximum pixel number that reliably includes the above-described effective area (step S202).

次に、CPU83は、センサユニット1のラインCCD41からの出力としての光量分布を取り込む前に、ラインCCD41に蓄積されている電荷を除去すべく、所定回数の画素読み込みにより不要なデータの影響を除去するため、予備読み込み回数を設定する(ステップS203)。CPU83は、設定した予備読み込み回数に達するまで(ステップS205でYES)、画素読み込みを行う(ステップS204)。   Next, the CPU 83 removes the influence of unnecessary data by reading a predetermined number of pixels in order to remove the charge accumulated in the line CCD 41 before taking in the light amount distribution as the output from the line CCD 41 of the sensor unit 1. Therefore, the number of preliminary readings is set (step S203). The CPU 83 performs pixel reading until the set number of preliminary readings is reached (YES in step S205) (step S204).

次に、CPU83は、ラインCCD41の開始番号NMINをセットし(ステップS206)、センサユニット1の投光部を照明有り状態(ON)にしたときの光量分布データを取り込み、取り込んだ光量分布データを画素番号に関連付けたデータDon(n)としてメモリ82に記憶する(ステップS207)。CPU83は、ステップS207の処理を読み込み画素番号が終了番号NMAXに達するまで繰り返す(ステップS208)。   Next, the CPU 83 sets the start number NMIN of the line CCD 41 (step S206), captures the light amount distribution data when the light projecting portion of the sensor unit 1 is in the illuminated state (ON), and captures the captured light amount distribution data. Data Don (n) associated with the pixel number is stored in the memory 82 (step S207). The CPU 83 reads the process of step S207 and repeats until the pixel number reaches the end number NMAX (step S208).

次に、CPU83は、有効領域の開始画素番号E_start、終了画素番号E_endに、初期値として開始番号NMIN、終了番号NMAXをそれぞれセットし(ステップS209)、また、差分値の最小値、最大値の格納用に Dif_min、Dif_maxの初期化を行う(ステップS210)。この後、CPU83は、画素番号N=NMIN+1から差分値の計算を行う(ステップS211)。注目画素とその1つ前の画素との差分量をもって差分値DifDon(n)としている。本来の差分値計算では、差分量を2つのデータ間の距離で除した値を用いるが、本実施の形態の差分値計算では、除数を1(画素)として計算している。   Next, the CPU 83 sets the start number NMIN and the end number NMAX as initial values to the start pixel number E_start and end pixel number E_end of the effective area, respectively (step S209), and the minimum value and maximum value of the difference value are set. Dif_min and Dif_max are initialized for storage (step S210). Thereafter, the CPU 83 calculates a difference value from the pixel number N = NMIN + 1 (step S211). The difference value DifDon (n) is the difference between the pixel of interest and the previous pixel. In the original difference value calculation, a value obtained by dividing the difference amount by the distance between two pieces of data is used. However, in the difference value calculation of the present embodiment, the divisor is calculated as 1 (pixel).

次に、CPU83は、上記計算で得られた差分値DifDon(n)と最小値Dif_minとを比較する(ステップS212)。差分値DifDon(n)が最小値Dif_minより小さい値であった場合には、CPU83は、最小値Dif_minを差分値Dif_Don(n)で置き換え、そのときの画素番号nを有効領域の開始画素番号E_startとして記憶する(ステップS213)。差分値DifDon(n)が最小値Dif_minより大きい値であった場合には、CPU83は、差分値DifDon(n)と最大値Dif_Maxとを比較する(ステップS215)。差分値DifDon(n)が最大値Dif_Maxより大きい値であった場合には、CPU83は、最大値Dif_Max を差分値Dif_Don(n)で置き換え、そのときの画素番号nを有効領域の終了画素番号E_endとして記憶する(ステップS216)。   Next, the CPU 83 compares the difference value DifDon (n) obtained by the above calculation with the minimum value Dif_min (step S212). If the difference value DifDon (n) is smaller than the minimum value Dif_min, the CPU 83 replaces the minimum value Dif_min with the difference value Dif_Don (n), and replaces the pixel number n at that time with the start pixel number E_start of the effective area. (Step S213). If the difference value DifDon (n) is greater than the minimum value Dif_min, the CPU 83 compares the difference value DifDon (n) with the maximum value Dif_Max (step S215). If the difference value DifDon (n) is larger than the maximum value Dif_Max, the CPU 83 replaces the maximum value Dif_Max with the difference value Dif_Don (n), and replaces the pixel number n at that time with the end pixel number E_end of the effective area. (Step S216).

CPU83は、上記ステップS211からステップS216までの処理を終了番号NMAXまで繰り返し行い(ステップS214)、終了番号NMAXに達すると、本処理を終了する(ステップS217)。   The CPU 83 repeatedly performs the processing from step S211 to step S216 up to the end number NMAX (step S214), and ends this processing when the end number NMAX is reached (step S217).

このようにすることで、ステップS217の時点で、開始画素番号E_startには図17(b)のA’点の画素番号が入力され、また、終了画素番号E_endには図17(b)のB’点の画素番号が入力されていることになる。   By doing so, at the time of step S217, the pixel number at the point A ′ in FIG. 17B is input to the start pixel number E_start, and the end pixel number E_end is set to B in FIG. 17B. 'The pixel number of the point is input.

以後の座標計算のための処理においては、座標入力有効領域3に対する指または指示具5による指示入力の有無の判定、仮想中心画素の計算などには、開始画素番号E_startと終了画素番号E_endの間の画素データにのみ注目して処理を行えば、虚像などの影響を除去することが可能になる。   In the subsequent processing for coordinate calculation, between the start pixel number E_start and the end pixel number E_end is used for determining whether or not there is an instruction input by the finger or the pointing tool 5 with respect to the coordinate input effective area 3, and for calculating the virtual center pixel. If processing is performed with attention paid only to the pixel data, it is possible to remove the influence of a virtual image or the like.

上述した有効領域の判定方法では、有効領域の両側の特徴点を用いて有効領域を特定しているが、両側の特徴点のうちどちらか一方の特徴点を用いるか、または他の特徴点を用いても良い。例えば、図17(a)のA点付近のカバーによる反射光が大きいなどA点の判定が困難であるような構成を採用せざるを得ないような場合には、図17(a)のB点のみを検出して、有効領域の判定を行うことも可能である。   In the effective area determination method described above, the effective area is specified using the feature points on both sides of the effective area, but either one of the feature points on both sides is used, or another feature point is used. It may be used. For example, in the case where it is unavoidable to adopt a configuration in which it is difficult to determine point A because the reflected light from the cover in the vicinity of point A in FIG. 17A is large, B in FIG. It is also possible to determine the effective area by detecting only the points.

実際、センサユニット1のラインCCD41において有効領域として用いられる画素範囲(角度範囲)は、設計の段階で固定である。但し、座標入力装置の筐体に対するセンサユニット1の取り付けなどの誤差によって、上述した読み込み開始画素はばらついてしまう。   Actually, the pixel range (angle range) used as the effective area in the line CCD 41 of the sensor unit 1 is fixed at the design stage. However, the reading start pixel described above varies due to an error such as attachment of the sensor unit 1 to the casing of the coordinate input device.

そこで、どこか1つの特徴点の画素番号が分かれば、当該特徴点画素番号からの画素範囲を計算することが可能になる。例えば、B点の特徴点画素番号を上記差分計算などで判定できた場合、そこから90度+αに相当する画素数(例えばENUM)戻った位置を、もう一方の有効領域の端部として記憶し、座標計算に用いることが可能である。ここで、上記αは、再帰反射部材4、座標入力有効領域3、センサユニット1の取り付け位置など、座標入力装置の公差などから決定すればよく、有効領域に相当する角度範囲を包含しつつ、不用反射領域にかからない値に設定すればよい。   Thus, if the pixel number of one feature point is known, the pixel range from the feature point pixel number can be calculated. For example, when the feature point pixel number of point B can be determined by the above difference calculation or the like, the position where the number of pixels corresponding to 90 degrees + α (for example, ENUM) has returned is stored as the end of the other effective area. Can be used for coordinate calculation. Here, the α may be determined from the tolerance of the coordinate input device, such as the retroreflective member 4, the coordinate input effective area 3, and the mounting position of the sensor unit 1, and includes an angular range corresponding to the effective area, What is necessary is just to set to the value which does not cover a useless reflection area.

図20及び図21は、有効領域設定処理の第2の例を示すフローチャートである。   20 and 21 are flowcharts showing a second example of the effective area setting process.

図20及び図21において、ステップS301からステップS311までの処理は、図18及び図19のステップS201からステップS211までの処理と同様であるので、説明を省略する。本処理では、有効領域の終了画素番号の検出のみを行っている(ステップS312、ステップS313)。この後、CPU83は、上記ステップS311からステップS313までの処理を終了番号NMAXまで繰り返し行う(ステップS314)。終了番号NMAXに達すると、CPU83は、有効領域範囲の画素数ENUMを終了画素番号E_endから差し引いた値を有効領域の開始画素番号E_startとして設定し(ステップS315)、本処理を終了する(ステップS316)。   20 and 21, the processing from step S301 to step S311 is the same as the processing from step S201 to step S211 in FIG. 18 and FIG. In this process, only the end pixel number of the effective area is detected (steps S312 and S313). Thereafter, the CPU 83 repeats the processing from step S311 to step S313 until the end number NMAX (step S314). When the end number NMAX is reached, the CPU 83 sets a value obtained by subtracting the number of pixels ENUM in the effective area range from the end pixel number E_end as the effective area start pixel number E_start (step S315), and ends this process (step S316). ).

光量分布の特徴点として採用するのは、図17(a)のB点に限らず、A点或いはC点のように反射特性に特徴があり、座標入力装置の構造上、センサユニット1から座標入力有効領域3上のどの角度に位置するかが分かっている点であれば、どの点を用いても構わない。   The feature point of the light quantity distribution is not limited to the point B in FIG. 17A, but has a characteristic in reflection characteristics such as the point A or the point C. Any point may be used as long as it is known at which angle on the input effective area 3.

この場合、全領域における差分値の最大値、最小値などを判定する処理ではなく、センサユニット1のラインCCD41から出力される信号における有効領域範囲を予め設定し、例えばセンサユニット1の取り付け誤差を勘案して、特徴点の取りうる画素番号範囲内の差分値の最小値などの計算を行うことで、特徴点を判定することが可能となる。また、このときの有効領域範囲の設定では、特徴点の位置する場所から、ラインCCD41における画素読み込み開始位置と画素読み込み終了位置までの有効となる画素数を加えたり差し引いたりすることで、開始画素番号、終了画素番号をそれぞれ設定することが可能になる。   In this case, instead of the process of determining the maximum value and the minimum value of the difference values in the entire region, the effective region range in the signal output from the line CCD 41 of the sensor unit 1 is set in advance. In consideration, the feature point can be determined by calculating the minimum value of the difference value within the pixel number range that the feature point can take. In setting the effective area range at this time, the start pixel is added or subtracted from the location where the feature point is located to the pixel reading start position and the pixel reading end position in the line CCD 41. It is possible to set a number and an end pixel number.

上述した例では、差分値で特徴点を判定する判定方法を用いているが、この判定方法に限定されるものではなく、検出される光量分布の特徴点を特定する方法であれば、他の判定方法を用いても良い。例えば図22に示すように各領域(領域I、領域II)毎に閾値をいくつか設定し(閾値1、閾値2)、光量分布と閾値の交点を特徴点として、有効領域を設定しても構わない。   In the above-described example, a determination method for determining a feature point by using a difference value is used. However, the determination method is not limited to this determination method. A determination method may be used. For example, as shown in FIG. 22, several threshold values may be set for each region (region I, region II) (threshold value 1, threshold value 2), and an effective region may be set using the intersection of the light amount distribution and the threshold value as a feature point. I do not care.

以上のように、光量分布の特徴点を判定し有効領域を設定することで、コストの高い視野絞りを設け微細な調整を行う必要もなく、また、光量を変化させるような特別に目印になるような部材を設ける必要もなく、低コストで不要な虚像の影響を除去することが可能になる。   As described above, by determining the feature point of the light quantity distribution and setting the effective area, it is not necessary to provide a high-cost field stop and make fine adjustments, and it is a special mark that changes the light quantity There is no need to provide such a member, and it becomes possible to eliminate the influence of unnecessary virtual images at low cost.

上記では第1の有効画素範囲設定方法を説明したが、次に第2の有効画素範囲設定方法を説明する。第2の有効画素範囲設定方法は、図29(b)に示した指示具の位置で座標入力有効領域3に対する指示入力座標の検出動作を行うことによって、図23に示すように虚像による遮光部位Dと実像による遮光部位Eを実際に検出し、信号領域Fを算出し、例えば信号領域Fの中央値を有効画素範囲(有効領域として用いられる画素範囲)の限界値に設定する方法である。   The first effective pixel range setting method has been described above. Next, the second effective pixel range setting method will be described. The second effective pixel range setting method performs the operation of detecting the instruction input coordinates with respect to the coordinate input effective area 3 at the position of the pointing tool shown in FIG. This is a method of actually detecting a light-shielding part E by D and a real image, calculating a signal area F, and setting a median value of the signal area F to a limit value of an effective pixel range (a pixel range used as an effective area), for example.

第2の有効画素範囲設定方法は、上述した第1の有効画素範囲設定方法に比べ、座標入力有効領域3上でセンサユニット1L及びセンサユニット1R用に各々所定の位置を指示する必要があり、所定の位置が増すと言う点では作業量が倍となるので不利な方法と言えるが、次のような観点から考えると、優れた利点が得られる。   Compared to the first effective pixel range setting method described above, the second effective pixel range setting method needs to indicate a predetermined position for each of the sensor unit 1L and the sensor unit 1R on the coordinate input effective region 3, Although the amount of work is doubled in terms of increasing the predetermined position, it can be said that it is a disadvantageous method, but an excellent advantage can be obtained from the following viewpoint.

つまり、図29(a)に示した筐体開口部に関わる光透過部材108aの寸法とセンサユニット101の位置関係を正確に管理(図30における光線Iの方向が正確の意味)できなければ、上述した第1の有効画素範囲設定方法は信頼性が低下する可能性がある。また、そのような場合であっても理屈が成り立つようにするためには、図30における光線Hと光線Iの範囲を十分に大きくする、換言すれば黒枠部分を十分に大きくする必要がある。   That is, unless the dimension of the light transmitting member 108a related to the housing opening shown in FIG. 29A and the positional relationship of the sensor unit 101 can be accurately managed (the direction of the light beam I in FIG. 30 means accurate) The first effective pixel range setting method described above may have reduced reliability. Further, even in such a case, it is necessary to sufficiently increase the range of the light beam H and the light beam I in FIG. 30, in other words, to sufficiently increase the black frame portion in order to make sense.

このことは、座標入力装置と重ねて配置する表示装置の表示領域(座標入力有効領域3に略等しい)に比べて、座標入力装置全体が大きくなるという製品上の大きな障害を生じさせる。無論、部品公差を高く設定して、光透過部材とセンサユニットの位置関係を正確に管理することは、部品コストを大幅に上昇させてしまうことは言うまでも無い。従って、実際に図23に示すような信号を得ることにより有効画素範囲を設定するように構成することで、部品公差がラフな部品を用いても、黒枠部分を極力小さくし製品を安価に構成することが可能となる。   This causes a large obstacle on the product that the entire coordinate input device becomes larger than the display area (substantially equal to the coordinate input effective area 3) of the display device arranged to overlap the coordinate input device. Needless to say, setting the component tolerances high and accurately managing the positional relationship between the light transmitting member and the sensor unit significantly increases the component cost. Therefore, by configuring the effective pixel range by actually obtaining a signal as shown in FIG. 23, the black frame portion can be made as small as possible and the product can be constructed at low cost, even if a component with a rough component tolerance is used. It becomes possible to do.

以上の設定は、工場における座標入力装置の組立ライン上での設定ばかりでなく、座標入力装置出荷後の市場において実施されても良い。つまり、市場において想定される操作環境(例えば温度や湿度)によって座標入力装置の筐体が変形した場合であっても、操作者が座標入力有効領域の所定の位置を指示することによって、CCD画素の有効画素範囲を必要に応じて再設定し、信頼性の高い状態を維持することも可能である。   The above setting may be performed not only on the assembly line of the coordinate input device in the factory but also in the market after the shipment of the coordinate input device. That is, even if the case of the coordinate input device is deformed due to an operation environment assumed in the market (for example, temperature or humidity), the CCD pixel can be obtained by the operator indicating a predetermined position of the coordinate input effective area. It is also possible to reset the effective pixel range as necessary to maintain a highly reliable state.

更には、図28に示すような大型の座標入力装置にあっては、その設置状況によって座標入力装置の筐体が歪むことが考えられる。つまり、設置による筐体歪みを除去するためには、それなりの装置構成が必須であり、筐体コストが大幅に上昇することは避けられない。しかしながら、多少の歪があったとしても、上記他の有効画素範囲設定方法を実行すれば、信頼性の高い座標検出が可能となる。   Furthermore, in a large coordinate input apparatus as shown in FIG. 28, it is conceivable that the housing of the coordinate input apparatus is distorted depending on the installation state. That is, in order to remove the case distortion due to the installation, a certain device configuration is essential, and it is inevitable that the case cost will increase significantly. However, even if there is some distortion, if the other effective pixel range setting method is executed, highly reliable coordinate detection is possible.

尚、有効画素範囲の限界値を設定する方法は、図23に示した信号領域Fの中央値とする方法の他に、次のような方法がある。即ち、虚像による遮光部位Dの左側のCCD画素番号と実像による遮光部位Eの右側のCCD画素番号から、その中央値を有効画素範囲の限界値に設定する方法がある。また、実像による遮光部位Eの左側のCCD画素番号に所定画素数オフセットさせた値、或いは、虚像による遮光部位Dの右側のCCD画素番号に所定画素数オフセットさせた値を、有効画素範囲の限界値に設定する方法(オフセットさせた結果、有効画素範囲の限界値は信号領域F内のいずれかに設定される)がある。   Note that the method of setting the limit value of the effective pixel range includes the following method in addition to the method of setting the median value of the signal region F shown in FIG. That is, there is a method in which the median value is set as the limit value of the effective pixel range from the CCD pixel number on the left side of the light shielding part D by the virtual image and the CCD pixel number on the right side of the light shielding part E by the real image. Further, a value obtained by offsetting a predetermined number of pixels to the CCD pixel number on the left side of the light shielding part E by the real image or a value obtained by offsetting the predetermined number of pixels by the CCD pixel number on the right side of the light shielding part D by the virtual image is the limit of the effective pixel range. There is a method of setting a value (the limit value of the effective pixel range is set to one in the signal region F as a result of offsetting).

以上説明したように、本実施の形態によれば、座標入力装置のセンサユニット1L、1Rの各ラインCCD41により検出された初期状態の光量分布の特徴点を抽出し、特徴点の画素番号から、各ラインCCD41が出力する信号の有効領域を設定する。更に、設定された有効領域の信号に基づき、座標入力有効領域3に対する指または指示具による指示方向(角度)を検出し、検出された角度に基づき、指または指示具が指示した位置の座標を算出する。   As described above, according to the present embodiment, the feature points of the light quantity distribution in the initial state detected by the line CCDs 41 of the sensor units 1L and 1R of the coordinate input device are extracted, and from the pixel numbers of the feature points, An effective area of a signal output from each line CCD 41 is set. Further, the pointing direction (angle) by the finger or pointing tool with respect to the coordinate input effective area 3 is detected based on the set effective area signal, and the coordinates of the position pointed by the finger or pointing tool are detected based on the detected angle. calculate.

上記のように有効領域を設定することで、従来のような、虚像の影響を除去するためにコストの高い視野絞りを設け微細な調整を行うことなく、再帰反射部材4を保護する光透過部材8の設置により発生する虚像の影響を除去できると共に、高精度な座標算出が可能となる。また、光透過部材8の設置により、メンテナンスが容易となると共に、座標入力有効領域3と筐体開口部との間の黒枠部分を極力小さくでき、座標入力装置の小型化が可能となる。   By setting the effective area as described above, a light transmissive member that protects the retroreflective member 4 without performing fine adjustment by providing a costly field stop for removing the influence of a virtual image as in the prior art. The influence of the virtual image generated by the installation of 8 can be removed, and highly accurate coordinate calculation can be performed. In addition, the installation of the light transmitting member 8 facilitates maintenance, and the black frame portion between the coordinate input effective area 3 and the housing opening can be made as small as possible, and the coordinate input device can be miniaturized.

[第2の実施の形態]
本発明の第2の実施の形態は、上述した第1の実施の形態に対して、有効画素範囲の設定方法が下記の点において相違する。本実施の形態のその他の要素は、上述した第1の実施の形態(図1〜図14)の対応するものと同一なので、説明を省略する。
[Second Embodiment]
The second embodiment of the present invention is different from the first embodiment described above in the effective pixel range setting method in the following points. Since the other elements of the present embodiment are the same as the corresponding ones of the first embodiment (FIGS. 1 to 14) described above, description thereof is omitted.

<有効画素範囲の設定方法>
図24(a)は、座標入力有効領域3に指または指示具で指示入力を行わない場合の光量分布を示す図、図24(b)は、座標入力有効領域3に指または指示具で指示入力を行った場合の光量分布を示す図である。
<Effective pixel range setting method>
FIG. 24A is a diagram showing a light amount distribution when an instruction is not input to the coordinate input effective area 3 with a finger or an indicator, and FIG. 24B is an instruction to the coordinate input effective area 3 with a finger or an indicator. It is a figure which shows light quantity distribution at the time of performing input.

図24において、横軸は各CCD画素の画素番号に相当し、縦軸は各CCD画素が出力する光信号のレベルである。太い実線の波形は、センサユニット1から投光された光の光透過部材8に対する入射角の関係により、光透過部材8の表面で反射が起こり、上記図29(b)に示したような虚像が現れたときのセンサユニット1のラインCCD41から出力される光信号を示している。   In FIG. 24, the horizontal axis corresponds to the pixel number of each CCD pixel, and the vertical axis represents the level of the optical signal output from each CCD pixel. The thick solid line waveform is reflected on the surface of the light transmission member 8 due to the incident angle of the light projected from the sensor unit 1 with respect to the light transmission member 8, and a virtual image as shown in FIG. 2 shows an optical signal output from the line CCD 41 of the sensor unit 1 when appears.

図24(a)は、上記図6と同様に、Aがセンサユニット1の検出部で最大光量を検出した時のレベルであり、Bが最低レベルであるものとする。従って、反射光のない状態では、得られるレベルはB付近になり、反射光量が増えるほどAのレベルに近づくことになる。図24(b)は、上記図29(b)に示した実線の円形の位置に指示具5を配置した時に得られる出力分布の例であり、遮光領域Cを拡大したものが上記図23である。   In FIG. 24A, it is assumed that A is the level when the maximum light amount is detected by the detection unit of the sensor unit 1, and B is the lowest level, as in FIG. Therefore, in a state where there is no reflected light, the level obtained is near B, and the level of A is approached as the amount of reflected light increases. FIG. 24B is an example of an output distribution obtained when the pointing tool 5 is arranged at the solid circular position shown in FIG. 29B. An enlarged view of the light shielding region C is shown in FIG. is there.

上記図23において、遮光部位Dは、指示具5の虚像(図29(b)参照)によって生成される信号であり、遮光部位Eは、指示具5の実像(図29(b)参照)によって生成される信号である。また、センサユニット1、座標入力有効領域3、及び光透過部材8が上記図30に示したような位置関係にあれば、少なくとも光線Hから光線Iの範囲の領域の光線は、虚像の影響を受けず(厳密には図29(b)におけるF地点より十分に下側(この場合、指示具に近い方向)の領域で、光透過部材108aの表面で反射した光線は指示具により遮光されないので、その光線も影響を受けないことになる)、信号領域Fを形成する。従って、座標入力装置は実像と虚像の2つの信号を検出してしまう。   In FIG. 23, the light shielding part D is a signal generated by a virtual image of the pointing tool 5 (see FIG. 29B), and the light shielding part E is a real image of the pointing tool 5 (see FIG. 29B). This is a signal to be generated. Further, if the sensor unit 1, the coordinate input effective area 3, and the light transmitting member 8 are in the positional relationship as shown in FIG. 30, at least the light in the area from the light H to the light I has the influence of the virtual image. Since the light beam reflected on the surface of the light transmitting member 108a is not shielded by the pointing tool in the region that is not received (strictly speaking, in a region sufficiently lower than the point F in FIG. 29B (in this case, the direction close to the pointing tool). , The light beam is not affected), and the signal region F is formed. Therefore, the coordinate input device detects two signals of a real image and a virtual image.

さて、この種の座標入力装置において、座標入力有効領域3上で指示具5と指で同時に座標入力した場合を想定すれば、両者の遮光により2つの信号が生成される。2つ以上の信号が生成された際には、複数の指示手段によって座標入力が行われている(操作者による誤操作である)と判定して検出座標値を無効とする場合(仕様)と、2つ以上の信号の例えば中心座標を検出する場合(仕様)とが想定される。   Now, in this type of coordinate input device, assuming that the coordinate input is simultaneously performed with the pointing tool 5 and the finger on the coordinate input effective area 3, two signals are generated by shielding both. When two or more signals are generated, it is determined that the coordinate input is performed by a plurality of instruction means (incorrect operation by the operator) and the detected coordinate value is invalidated (specification), For example, it is assumed that the center coordinates of two or more signals are detected (specification).

前者の仕様の場合には、上記図23に示したように実像と虚像の信号が得られる結果、座標入力装置は操作者による誤操作と判定し、実際には操作者が指示具により座標入力有効領域3上の所望の位置を1箇所だけ指示しているにも関わらず、座標入力装置は座標入力に対して出力を行わず、操作者の意図を反映しない。一方、後者の仕様の場合には、操作者による座標入力有効領域3に対する指示に対してあたかも虚像と実像の重心(中心)位置を出力する結果となり、つまり操作者が指示した座標とは異なる座標値を出力する結果となり、やはり座標入力装置の誤動作と言わざるを得ない。   In the case of the former specification, as shown in FIG. 23, a real image signal and a virtual image signal are obtained. As a result, the coordinate input device determines that the operator has made an erroneous operation. Even though only one desired position on the area 3 is indicated, the coordinate input device does not output the coordinate input and does not reflect the operator's intention. On the other hand, in the case of the latter specification, as a result of outputting the centroid (center) position of the virtual image and the real image in response to an instruction to the coordinate input effective area 3 by the operator, that is, coordinates different from the coordinates instructed by the operator. As a result, it is necessary to say that the coordinate input device malfunctions.

従って、上記図23に示したように信号領域F内にCCD画素が有効となる領域を設定し、座標入力装置に対する光透過部材8の設置に伴い形成される虚像の影響を排除することが必須となる。そこで、本実施の形態の第1及び第2の有効画素範囲設定方法について説明する。   Therefore, as shown in FIG. 23, it is essential to set an area in which the CCD pixel is effective in the signal area F, and to eliminate the influence of the virtual image formed when the light transmitting member 8 is installed on the coordinate input device. It becomes. Therefore, the first and second effective pixel range setting methods of the present embodiment will be described.

本実施の形態の第1の有効画素範囲設定方法は、図11及び図12で説明した通り、2つのセンサユニット1L、1Rの基準方向(0度方向)の交点位置Poは既知であると共に、CCD画素番号と角度の関係は式(7)により既知である。今、説明を簡単にするために式(7)が線形であるものとして、
θ=A×N+B (10)
A、B:定数、N:検出されたCCD画素番号、θ:角度
と仮定する。
In the first effective pixel range setting method of the present embodiment, as described with reference to FIGS. 11 and 12, the intersection point Po in the reference direction (0 degree direction) of the two sensor units 1L and 1R is known, The relationship between the CCD pixel number and the angle is known from equation (7). Now, for ease of explanation, assuming that equation (7) is linear,
θ = A × N + B (10)
A, B: constant, N: detected CCD pixel number, θ: angle.

角度誤差もなく光学系(センサユニット1L、1R)を製品となる座標入力装置の筐体に設置することが可能であれば、指示具をPoの位置に設けることで、その時得られるCCD画素番号はNoであり、検出される角度は下記の式(11)からθ=0となるはずである。   If the optical system (sensor unit 1L, 1R) can be installed in the housing of the coordinate input device as a product without angular error, the CCD pixel number obtained at that time can be obtained by providing an indicator at the position Po. Is No, and the detected angle should be θ = 0 from the following equation (11).

θ=A×No+B=0 (11)
しかしながら、実際には組立上の設置誤差は存在し、指示具をPoの位置に設けることで得られるCCD画素番号はN1であり、検出される角度はθ=0とはならない。そこで、検出される角度θは、指示具をPoの位置に設けることで得られるCCD画素番号N1を用いて表すと、
θ=A×(N−N1+No)+B (12)
となる。つまり、2つのセンサユニット1L、1Rの各々の基準方向であって、その交点位置であるPoにおいて、指示具による座標入力を行えば、センサユニット1L、1Rの取り付け交差によって生じる座標検出誤差を吸収することができる。
θ = A × No + B = 0 (11)
However, there is actually an installation error in assembly, the CCD pixel number obtained by providing the pointing tool at the position Po is N1, and the detected angle does not become θ = 0. Therefore, the detected angle θ is expressed by using the CCD pixel number N1 obtained by providing the indicator at the position Po.
θ = A × (N−N1 + No) + B (12)
It becomes. In other words, if coordinate input is performed by the pointing tool in the reference direction of each of the two sensor units 1L and 1R and Po, which is the intersection position, the coordinate detection error caused by the mounting intersection of the sensor units 1L and 1R is absorbed. can do.

換言すれば、座標入力有効領域3における特徴点であるPoにおいて座標入力動作を行えば、1回の座標入力動作により2つのセンサユニット1L、1Rの基準方向を決定でき、作業工程上及び信頼性という観点で優位な方法となる。このようにして基準方向を正確に求めることができれば、式(12)及び上記図30に示したようにセンサユニット1L、1Rで検出される有効な角度範囲が45.14度であることを用いて、図11に示すようにラインCCD41の有効画素範囲を正確に設定することが可能となる。   In other words, if a coordinate input operation is performed at Po, which is a feature point in the coordinate input effective area 3, the reference directions of the two sensor units 1L and 1R can be determined by a single coordinate input operation. This is a superior method. If the reference direction can be accurately obtained in this way, the effective angular range detected by the sensor units 1L and 1R is 45.14 degrees as shown in Expression (12) and FIG. Thus, the effective pixel range of the line CCD 41 can be set accurately as shown in FIG.

本実施の形態の第2の有効画素範囲設定方法は、上述した第1の実施の形態における第2の有効画素範囲設定方法と同様であるため、説明を省略する。   Since the second effective pixel range setting method of the present embodiment is the same as the second effective pixel range setting method of the first embodiment described above, description thereof is omitted.

図25及び図26は、有効画素範囲設定処理を示すフローチャートである。   25 and 26 are flowcharts showing the effective pixel range setting process.

まず、製造工程上或いはユーザによる指示(例えばリセットスイッチの押下等)により、画素有効範囲設定処理が開始される(ステップS401)。座標入力装置の制御・演算ユニット2のCPU83は、ポート設定、タイマ設定など様々な初期化を行う(ステップS402)。次に、CPU83は、センサユニット1L、1Rの検出部を構成する光電変換素子であるラインCCD41の有効画素範囲をメモリ82から読み出して設定し(ステップS403)、立ち上げ時に行うラインCCD41の不要電荷除去のための準備を行う。   First, a pixel effective range setting process is started in the manufacturing process or in response to an instruction from the user (for example, pressing a reset switch) (step S401). The CPU 83 of the control / arithmetic unit 2 of the coordinate input device performs various initializations such as port setting and timer setting (step S402). Next, the CPU 83 reads out and sets the effective pixel range of the line CCD 41, which is a photoelectric conversion element constituting the detection unit of the sensor units 1L and 1R, from the memory 82 (step S403), and unnecessary charges of the line CCD 41 performed at the start-up. Prepare for removal.

ラインCCD41などの光電変換素子においては、動作させていない時に不要な電荷が蓄積している場合があり、ラインCCD41の出力データをそのままリファレンスデータとして用いると、検出不能或いは誤検出の原因となる。それを避けるために、センサユニット1L、1Rの投光部から光を投光しない照明無しの状態で、CPU83は、ラインCCD41からの出力データを上記ステップS403で予め設定された回数読み出す(ステップS404)。   In photoelectric conversion elements such as the line CCD 41, unnecessary charges may be accumulated when not being operated, and if the output data of the line CCD 41 is used as it is as reference data, detection may be impossible or erroneous detection may occur. In order to avoid this, the CPU 83 reads the output data from the line CCD 41 the number of times set in advance in step S403 in the absence of illumination that does not project light from the light projecting units of the sensor units 1L and 1R (step S404). ).

CPU83は、ラインCCD41からの出力データを設定回数読み出したか否かを判断し(ステップS405)、設定回数読み出したと判断した場合はステップS406に移行する。次に、CPU83は、センサユニット1L、1Rの投光部から光を投光しない照明無しの状態で、リファレンスデータとして上述したBas_data[N] の取り込みを行い(ステップS406)、メモリ82に記憶し、以降の計算に用いる(ステップS407)。次に、CPU83は、センサユニット1L、1Rの投光部から光を投光する照明有りの状態で、初期光量分布に相当するリファレンスデータとして上述したRef_data[N]の取り込みを行い(ステップS408)、上記同様にメモリ82に記憶し、以降の計算に用いる(ステップS409)。   The CPU 83 determines whether or not the output data from the line CCD 41 has been read a set number of times (step S405). If it is determined that the set number of times has been read, the process proceeds to step S406. Next, the CPU 83 fetches the above-described Bas_data [N] as reference data in the absence of illumination that does not project light from the light projecting units of the sensor units 1L and 1R (step S406), and stores it in the memory 82. This is used for the subsequent calculations (step S407). Next, the CPU 83 captures the above-described Ref_data [N] as reference data corresponding to the initial light amount distribution in a state where there is illumination that projects light from the light projecting units of the sensor units 1L and 1R (step S408). In the same manner as described above, it is stored in the memory 82 and used for the subsequent calculations (step S409).

上記ステップS401からステップS409までが、有効画素範囲設定処理の初期設定動作ということになる。   Steps S401 to S409 are the initial setting operation of the effective pixel range setting process.

次に、CPU83は、カウンタn(n:整数)をインクリメントし(ステップS410)、座標入力有効領域3上の所定位置(基準点)に対する指または指示具による指示入力に伴い、センサユニット1L、1RのラインCCD41から上記所定位置に対応する光量分布を取り込み(ステップS411)、その光量分布のデータをメモリ82に記憶する(ステップS412)。ここで、上記所定位置の設定方法は、センサユニット1L、1RのラインCCD41が検出する角度範囲の中央値となる方向で且つ中央値の交点に設定する方法(図12のPo)、角度範囲の最外角位置となる方向に設定する方法のどちらでもよい。   Next, the CPU 83 increments the counter n (n: integer) (step S410), and in response to an instruction input by a finger or an indicator for a predetermined position (reference point) on the coordinate input effective area 3, the sensor units 1L, 1R The light amount distribution corresponding to the predetermined position is taken in from the line CCD 41 (step S411), and the light amount distribution data is stored in the memory 82 (step S412). Here, the predetermined position is set by a method (Po in FIG. 12) of setting the direction of the angular range detected by the line CCD 41 of the sensor units 1L and 1R and the intersection of the central values. Either of the methods may be used for setting the direction to the outermost corner position.

次に、CPU83は、予め設定されたnmax値とカウンタnの値とを比較し(ステップS413)、カウンタnの値がnmax以下の場合は、センサユニット1L、1Rから座標入力有効領域3上の次の所定位置に対応する光量分布を取得し(ステップS411)、上記同様にメモリ82に記憶する(ステップS412)。ここで、上述した第1の有効画素範囲設定方法では、nmax=1となり、第2の有効画素範囲設定方法ではnmax=2となる。   Next, the CPU 83 compares the preset nmax value with the value of the counter n (step S413). If the value of the counter n is equal to or less than nmax, the CPU 83 receives the value on the coordinate input effective area 3 from the sensor units 1L and 1R. A light quantity distribution corresponding to the next predetermined position is acquired (step S411) and stored in the memory 82 in the same manner as described above (step S412). Here, in the first effective pixel range setting method described above, nmax = 1, and in the second effective pixel range setting method, nmax = 2.

次に、CPU83は、メモリ82に記憶された座標入力有効領域3上の所定の基準点に対する指または指示具5による指示入力に伴う遮光情報から、先に述べた方法により、遮光位置に関するラインCCD41の画素番号(特徴点)を算出し、CCD画素の有効画素範囲(ラインCCD41が出力する信号の有効領域)を演算する(ステップS414)。次に、CPU83は、演算した有効画素範囲をメモリ82に記憶し(ステップS415)、本処理を終了する(ステップS416)。メモリ82に記憶された有効画素範囲情報は、図13のステップS103で呼び出されて、以後の座標算出に用いられることになる。   Next, the CPU 83 determines the line CCD 41 related to the light shielding position from the light shielding information accompanying the instruction input by the finger or the pointing tool 5 with respect to the predetermined reference point on the coordinate input effective area 3 stored in the memory 82 by the method described above. The pixel number (feature point) is calculated, and the effective pixel range of the CCD pixel (the effective area of the signal output from the line CCD 41) is calculated (step S414). Next, the CPU 83 stores the calculated effective pixel range in the memory 82 (step S415), and ends this processing (step S416). The effective pixel range information stored in the memory 82 is called up in step S103 of FIG. 13 and used for subsequent coordinate calculation.

尚、上記処理では、座標入力有効領域3における上記所定位置に対する指示入力に伴い得られるセンサユニット1のラインCCD41の出力結果と、ラインCCD41の出力結果(CCD画素番号)を角度に変換する関数(上記式(7))とに基づき、ラインCCD41が出力する信号の有効領域を設定する。   In the above processing, a function (for converting an output result of the line CCD 41 of the sensor unit 1 and an output result (CCD pixel number) of the line CCD 41 obtained by an instruction input to the predetermined position in the coordinate input effective area 3 into an angle ( Based on the above equation (7), the effective area of the signal output from the line CCD 41 is set.

以上説明したように、本実施の形態によれば、座標入力装置の座標入力有効領域3の所定位置を指または指示具で指示することで得られる、センサユニット1L、1Rの各ラインCCD41による光量分布の検出結果から、検出部が出力する信号の有効領域を設定する。更に、設定された有効領域の信号に基づき指または指示具による指示方向(角度)を検出し、検出された角度に基づき指または指示具が指示した所定位置の座標を算出する。   As described above, according to the present embodiment, the amount of light by each line CCD 41 of the sensor units 1L and 1R obtained by indicating a predetermined position of the coordinate input effective area 3 of the coordinate input device with a finger or an indicator. The effective area of the signal output from the detection unit is set from the distribution detection result. Further, the pointing direction (angle) by the finger or the pointing tool is detected based on the set effective area signal, and the coordinates of the predetermined position indicated by the finger or the pointing tool are calculated based on the detected angle.

上記のように有効領域を設定することで、従来のような、虚像の影響を除去するためにコストの高い視野絞りを設け微細な調整を行うことなく、再帰反射部材4を保護する光透過部材8の設置により発生する虚像の影響を除去できると共に、高精度な座標算出が可能となる。また、光透過部材8の設置により、メンテナンスが容易となると共に、座標入力有効領域3と筐体開口部との間の黒枠部分を極力小さくでき、座標入力装置の小型化が可能となる。   By setting the effective area as described above, a light transmissive member that protects the retroreflective member 4 without performing fine adjustment by providing a costly field stop for removing the influence of a virtual image as in the prior art. The influence of the virtual image generated by the installation of 8 can be removed, and highly accurate coordinate calculation can be performed. In addition, the installation of the light transmitting member 8 facilitates maintenance, and the black frame portion between the coordinate input effective area 3 and the housing opening can be made as small as possible, and the coordinate input device can be miniaturized.

更に、上記所定位置を、センサユニット1L、1Rの各ラインCCD41が検出する角度範囲の中央値となる方向で且つ各検出部の中央値の交点に設定した場合は、座標入力有効領域3に対する1回の座標入力で少なくとも各ラインCCD41の有効画素範囲を設定することができ、各ラインCCD41の有効画素範囲の設定を容易に行うことが可能となる。   Furthermore, when the predetermined position is set in the direction of the median value of the angle range detected by each line CCD 41 of the sensor units 1L and 1R and at the intersection of the median values of the detection units, 1 for the coordinate input effective area 3 is set. The effective pixel range of each line CCD 41 can be set at least by inputting the coordinates once, and the effective pixel range of each line CCD 41 can be easily set.

更に、上記所定位置を、センサユニット1L、1Rの各ラインCCD41が検出する角度範囲の最外角位置となる方向に設定した場合は、工場から市場に出荷された大型の座標入力装置を設置した際に生じる筐体の歪みで発生する不具合を、設置先の市場で容易に回避することが可能となる。   Furthermore, when the predetermined position is set in a direction that is the outermost angle position of the angle range detected by each line CCD 41 of the sensor unit 1L, 1R, when a large coordinate input device shipped from the factory to the market is installed It is possible to easily avoid problems caused by the distortion of the casing in the market of the installation destination.

[他の実施の形態]
上記第1及び第2の実施の形態では、座標入力装置に制御・演算ユニット2を設ける構成としたが、これに限定されるものではなく、座標入力装置にPC等の外部機器を通信可能に接続すると共に該外部機器に制御・演算ユニット2の機能の一部を持たせる構成とすることも可能である。
[Other embodiments]
In the first and second embodiments, the coordinate input device is provided with the control / arithmetic unit 2. However, the present invention is not limited to this, and the coordinate input device can communicate with an external device such as a PC. It is also possible to adopt a configuration in which a part of the function of the control / arithmetic unit 2 is given to the external device while being connected.

本発明は、上述した実施の形態の機能を実現するソフトウェアのプログラム(図13・図14、図18・図19、図20・図21、図25・図26のフローチャート)をコンピュータ又はCPUに供給し、そのコンピュータ又はCPUが該供給されたプログラムを読出して実行することによって、達成することができる。   In the present invention, a software program (the flowcharts in FIGS. 13, 14, 18, 19, 20, 21, 25, and 26) that realizes the functions of the above-described embodiments is supplied to a computer or CPU. This can be achieved by the computer or CPU reading and executing the supplied program.

この場合、上記プログラムは、該プログラムを記録した記憶媒体から直接供給されるか、又はインターネット、商用ネットワーク、若しくはローカルエリアネットワーク等に接続される不図示の他のコンピュータやデータベース等からダウンロードすることにより供給される。   In this case, the program is directly supplied from a storage medium storing the program, or downloaded from another computer or database (not shown) connected to the Internet, a commercial network, a local area network, or the like. Supplied.

上記プログラムの形態は、オブジェクトコード、インタプリタにより実行されるプログラムコード、OS(オペレーティングシステム)に供給されるスクリプトデータ等の形態から成ってもよい。   The form of the program may be in the form of object code, program code executed by an interpreter, script data supplied to an OS (operating system), and the like.

また、本発明は、上述した実施の形態の機能を実現するソフトウェアのプログラムを記憶した記憶媒体をコンピュータ又はCPUに供給し、そのコンピュータ又はCPUが記憶媒体に記憶されたプログラムを読出して実行することによっても、達成することができる。   The present invention also supplies a computer or CPU with a storage medium storing a software program that implements the functions of the above-described embodiments, and the computer or CPU reads and executes the program stored in the storage medium. Can also be achieved.

この場合、格納媒体から読出されたプログラムコード自体が上述した各実施の形態の機能を実現すると共に、そのプログラムコードを記憶した記憶媒体は本発明を構成する。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

プログラムコードを記憶する記憶媒体としては、例えば、ROM、RAM、NV−RAM、フロッピー(登録商標)ディスク、ハードディスク、光ディスク(登録商標)、光磁気ディスク、CD−ROM、MO、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード等がある。   As a storage medium for storing the program code, for example, ROM, RAM, NV-RAM, floppy (registered trademark) disk, hard disk, optical disk (registered trademark), magneto-optical disk, CD-ROM, MO, CD-R, CD -RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic tape, nonvolatile memory card, etc.

上述した実施の形態の機能は、コンピュータから読出されたプログラムコードを実行することによるばかりでなく、コンピュータ上で稼動するOS等がプログラムコードの指示に基づいて実際の処理の一部又は全部を行うことによっても実現することができる。   The function of the above-described embodiment is not only by executing the program code read from the computer, but the OS or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Can also be realized.

本発明の第1の実施の形態に係る座標入力装置の概略構成を示す構成図である。It is a block diagram which shows schematic structure of the coordinate input device which concerns on the 1st Embodiment of this invention. (a)はセンサユニットの投光部を座標入力面に対して垂直方向から見た図、(b)は投光部を座標入力面に対して水平方向から見た図である。(A) is the figure which looked at the light projection part of the sensor unit from the orthogonal | vertical direction with respect to the coordinate input surface, (b) is the figure which looked at the light projection part from the horizontal direction with respect to the coordinate input surface. (a)はセンサユニットの検出部を座標入力面に対して垂直方向から見た図、(b)は検出部を座標入力面に対して水平方向から見た図である。(A) is the figure which looked at the detection part of the sensor unit from the perpendicular | vertical direction with respect to the coordinate input surface, (b) is the figure which looked at the detection part from the horizontal direction with respect to the coordinate input surface. 制御・演算ユニットを中心とした構成を示すブロック図である。It is a block diagram which shows the structure centering on a control / arithmetic unit. CCD制御信号及びLED駆動信号を示すタイミングチャートである。It is a timing chart which shows a CCD control signal and a LED drive signal. (a)は座標入力有効領域に指または指示具で指示入力を行わない場合のセンサユニットの出力としての光量分布を示す図、(b)は座標入力有効領域に指または指示具で指示入力を行った場合のセンサユニットの出力としての光量分布を示す図である。(A) is a figure which shows light quantity distribution as an output of a sensor unit when not performing an instruction input with a finger or an indicator in the coordinate input effective area, and (b) is an instruction input with a finger or an indicator in the coordinate input effective area. It is a figure which shows the light quantity distribution as an output of the sensor unit at the time of performing. 指示具で再帰反射部材の一部を遮光した状態を示す図である。It is a figure which shows the state which shielded some retroreflective members with the indicator. (a)は座標入力有効領域に指または指示具で指示入力を行わない場合の反射光量の変化を示す図、(b)は座標入力有効領域に指または指示具で指示入力を行った場合の反射光量の変化を示す図である。(A) is a figure which shows the change of the amount of reflected light when instruction input is not performed with the finger or the pointing tool in the coordinate input effective area, and (b) is the case where the instruction input is performed with the finger or the pointing tool in the coordinate input effective area. It is a figure which shows the change of reflected light quantity. (a)は式(1)を適用した場合の反射光量変化量と反射光量変化率の関係を示す図、(b)は式(2)を適用した場合の反射光量変化量と反射光量変化率の関係を示す図である。(A) is a diagram showing the relationship between the reflected light amount change amount and the reflected light amount change rate when the equation (1) is applied, and (b) is the reflected light amount change amount and the reflected light amount change rate when the equation (2) is applied. It is a figure which shows the relationship. 遮光範囲検出信号を示す図である。It is a figure which shows the light-shielding range detection signal. CCD画素番号と角度情報の関係を示す図である。It is a figure which shows the relationship between CCD pixel number and angle information. センサユニットによる座標入力有効領域上の検出すべき点を示す図である。It is a figure which shows the point which should be detected on the coordinate input effective area | region by a sensor unit. 座標計算処理を示すフローチャートである。It is a flowchart which shows a coordinate calculation process. 図13のフローチャートの続きである。It is a continuation of the flowchart of FIG. (a)は有効領域境界と反射光を示す図、(b)は実像と虚像を示す図である。(A) is a figure which shows an effective area | region boundary and reflected light, (b) is a figure which shows a real image and a virtual image. 1つのセンサユニットと有効領域の関係を示す図である。It is a figure which shows the relationship between one sensor unit and an effective area | region. (a)は有効領域での光量分布を示す図、(b)は光量分布の微分値を示す図である。(A) is a figure which shows light quantity distribution in an effective area | region, (b) is a figure which shows the differential value of light quantity distribution. 有効領域設定処理の第1の例を示すフローチャートである。It is a flowchart which shows the 1st example of an effective area | region setting process. 図18のフローチャートの続きである。It is a continuation of the flowchart of FIG. 有効領域設定処理の第2の例を示すフローチャートである。It is a flowchart which shows the 2nd example of an effective area | region setting process. 図20のフローチャートの続きである。It is a continuation of the flowchart of FIG. 特徴点の検出方法を示す図である。It is a figure which shows the detection method of a feature point. 有効画素範囲を示す図である。It is a figure which shows an effective pixel range. (a)は座標入力有効領域に指または指示具で指示入力を行わない場合の光量分布を示す図、(b)は座標入力有効領域に指または指示具で指示入力を行った場合の光量分布を示す図である。(A) is a figure which shows the light quantity distribution when not performing an instruction input with the finger or the pointing tool in the coordinate input effective area, and (b) is the light quantity distribution when the instruction input is performed with the finger or the pointing tool in the coordinate input effective area. FIG. 有効画素範囲設定処理を示すフローチャートである。It is a flowchart which shows an effective pixel range setting process. 図25のフローチャートの続きである。It is a continuation of the flowchart of FIG. 従来例に係る座標入力装置の概略構成を示す構成図である。It is a block diagram which shows schematic structure of the coordinate input device which concerns on a prior art example. (a)は座標入力装置の座標入力有効領域と表示装置の表示領域を略一致させた状態を示す図、(b)は(a)の領域A部分を拡大した図である。(A) is a figure which shows the state which made the coordinate input effective area | region of a coordinate input device, and the display area of a display apparatus substantially correspond, (b) is the figure which expanded the area | region A part of (a). (a)は図28(a)の領域B部分を拡大した図、(b)は図28(a)の領域C部分を拡大した図である。(A) is the figure which expanded the area | region B part of Fig.28 (a), (b) is the figure which expanded the area | region C part of Fig.28 (a). 図28(a)の領域C部分の座標入力有効領域隅部を示す図である。It is a figure which shows the coordinate input effective area | region corner of the area | region C part of Fig.28 (a).

符号の説明Explanation of symbols

1L、1R センサユニット(検出手段に対応)
2 制御・演算ユニット
3 座標入力有効領域
4 再帰反射部材
8 光透過部材
83 CPU(抽出手段、設定手段、算出手段に対応)
1L, 1R sensor unit (corresponding to detection means)
2 Control / arithmetic unit 3 Coordinate input effective area 4 Retroreflective member 8 Light transmitting member 83 CPU (corresponding to extraction means, setting means, calculation means)

Claims (5)

座標入力有効領域と、前記座標入力有効領域の外側に配置された再帰反射部材と、前記再帰反射部材と前記座標入力有効領域との間に配置された保護部材と、前記座標入力有効領域の面方向全域に光を投射する投射手段と、前記投射手段で投射された光が前記再帰反射部材で再帰反射され、その再帰反射された光を光電変換素子により検出する検出手段とを備えた座標入力装置であって、
前記検出手段により検出された初期状態の光量分布における前記再帰反射部材の端部の反射特性を特徴点として抽出する抽出手段と、
前記抽出手段により抽出された特徴点に対応する前記光電変換素子の画素番号から、前記検出手段が出力する信号の有効領域を設定する設定手段と、
前記設定手段により設定された有効領域の信号に基づいて前記座標入力有効領域に対する指示位置の前記検出手段からの角度を検出し、前記角度に基づいて前記座標入力有効領域に対する指示位置の座標を算出する算出手段とを備えることを特徴とする座標入力装置。
A coordinate input effective area, a retroreflective member disposed outside the coordinate input effective area, a protective member disposed between the retroreflective member and the coordinate input effective area, and a surface of the coordinate input effective area Coordinates comprising projection means for projecting light over the entire direction , and detection means for detecting light retroreflected by the retroreflective member and detecting the retroreflected light by a photoelectric conversion element. An input device,
Extraction means for extracting the reflection characteristic of the end portion of the retroreflective member in the light quantity distribution in the initial state detected by the detection means as a feature point;
Setting means for setting an effective area of a signal output by the detection means from a pixel number of the photoelectric conversion element corresponding to the feature point extracted by the extraction means;
And based on the signal of the set effective area to detect the angle from the detecting means of the indication position relative to the coordinate input effective region by the setting unit, coordinates of the designated position relative to the coordinate input effective region based on the said angle coordinate input device characterized by comprising a calculating means for calculating a.
前記抽出手段は、前記検出手段により検出された光量分布の分布方向における微分値又は差分値に基づいて前記特徴点を抽出することを特徴とする請求項1記載の座標入力装置。 Said extraction means, said based on the differential value or the difference value in the distribution direction of the detected light amount distribution by the detecting means and extracting a characteristic point according to claim 1 coordinate input device according. 表示装置を更に有し、
前記座標入力有効領域は、前記表示装置の表示領域と略一致するように前記表示装置に重ねて配置されることを特徴とする請求項1記載の座標入力装置。
Further comprising a display device,
The coordinate input device according to claim 1, wherein the coordinate input effective region is arranged to overlap the display device so as to substantially coincide with the display region of the display device.
座標入力有効領域と、前記座標入力有効領域の外側に配置された再帰反射部材と、前記再帰反射部材と前記座標入力有効領域との間に配置された保護部材と、前記座標入力有効領域の面方向全域に光を投射する投射手段と、前記投射手段で投射された光が前記再帰反射部材で再帰反射され、その再帰反射された光を光電変換素子により検出する検出手段とを備えた座標入力装置の制御方法であって、
前記検出手段により検出された初期状態の光量分布における前記再帰反射部材の端部の反射特性を特徴点として抽出し、
前記抽出された特徴点に対応する前記光電変換素子の画素番号から、前記検出手段が出力する信号の有効領域を設定し、
前記設定された有効領域の信号に基づいて前記座標入力有効領域に対する指示位置の前記検出手段からの角度を検出し、前記角度に基づいて前記座標入力有効領域に対する指示位置の座標を算出することを特徴とする座標入力装置の制御方法。
A coordinate input effective area, a retroreflective member disposed outside the coordinate input effective area, a protective member disposed between the retroreflective member and the coordinate input effective area, and a surface of the coordinate input effective area Coordinates comprising projection means for projecting light over the entire direction , and detection means for detecting light retroreflected by the retroreflective member and detecting the retroreflected light by a photoelectric conversion element. An input device control method comprising:
Extract the reflection characteristic of the end portion of the retroreflective material in the light amount distribution of the initial state detected by the detecting means as a characteristic point,
From the pixel number of the photoelectric conversion element corresponding to the extracted feature point, set the effective area of the signal output by the detection means,
Said based on the signal of the set effective area to detect the angle from the detecting means of the indication position relative to the coordinate input effective region, calculates the coordinates of the designated position relative to the coordinate input effective region based on the said angle A control method for a coordinate input device .
座標入力有効領域と、前記座標入力有効領域の外側に配置された再帰反射部材と、前記再帰反射部材と前記座標入力有効領域との間に配置された保護部材と、前記座標入力有効領域の面方向全域に光を投射する投射手段と、前記投射手段で投射された光が前記再帰反射部材で再帰反射され、その再帰反射された光を光電変換素子により検出する検出手段とを備えた座標入力装置の制御方法をコンピュータに実行させるプログラムであって、
前記制御方法は、
前記検出手段により検出された初期状態の光量分布における前記再帰反射部材の端部の反射特性を特徴点として抽出する抽出ステップと、
前記抽出ステップにより抽出された特徴点に対応する前記光電変換素子の画素番号から、前記検出手段が出力する信号の有効領域を設定する設定ステップと、
前記設定ステップにより設定された有効領域の信号に基づいて前記座標入力有効領域に対する指示位置の前記検出手段からの角度を検出し、前記角度に基づいて前記座標入力有効領域に対する指示位置の座標を算出する算出ステップとを備える。
A coordinate input effective area, a retroreflective member disposed outside the coordinate input effective area, a protective member disposed between the retroreflective member and the coordinate input effective area, and a surface of the coordinate input effective area Coordinate input comprising projection means for projecting light over the entire direction, and detection means for detecting light retroreflected by the retroreflective member and detecting the retroreflected light by a photoelectric conversion element. A program for causing a computer to execute an apparatus control method,
The control method is:
An extraction step of extracting, as a feature point, the reflection characteristic of the end of the retroreflective member in the light amount distribution in the initial state detected by the detection means;
From the pixel number of the photoelectric conversion element corresponding to the feature point extracted by the extraction step, a setting step of setting an effective area of the signal output by the detection unit;
The set based on the signal of the set effective region in step detects the angle from the detecting means of the indication position relative to the coordinate input effective region, coordinates of the designated position relative to the coordinate input effective region based on the said angle Ru and a calculation step of calculating a.
JP2004163660A 2004-06-01 2004-06-01 Coordinate input device, control method therefor, and program Expired - Fee Related JP4423113B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004163660A JP4423113B2 (en) 2004-06-01 2004-06-01 Coordinate input device, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004163660A JP4423113B2 (en) 2004-06-01 2004-06-01 Coordinate input device, control method therefor, and program

Publications (3)

Publication Number Publication Date
JP2005346302A JP2005346302A (en) 2005-12-15
JP2005346302A5 JP2005346302A5 (en) 2007-07-12
JP4423113B2 true JP4423113B2 (en) 2010-03-03

Family

ID=35498630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004163660A Expired - Fee Related JP4423113B2 (en) 2004-06-01 2004-06-01 Coordinate input device, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP4423113B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102955595B (en) * 2011-08-21 2016-05-25 宸鸿科技(厦门)有限公司 Sensing method of touch control and device

Also Published As

Publication number Publication date
JP2005346302A (en) 2005-12-15

Similar Documents

Publication Publication Date Title
KR100707847B1 (en) Coordinate input apparatus and its control method
JP4442877B2 (en) Coordinate input device and control method thereof
JP5489886B2 (en) Coordinate input device, light receiving device in the device, and manufacturing method thereof
JP2010257089A (en) Optical position detection apparatus
JP2007072501A (en) Coordinate-input device
JP6031293B2 (en) Coordinate input device, control method therefor, and program
JP4968915B2 (en) Coordinate input device, coordinate detection method, and computer program
JP4423113B2 (en) Coordinate input device, control method therefor, and program
JP2005276019A (en) Optical coordinate input device
JP2004326232A (en) Coordinate input device
JP2004185283A (en) Optical coordinate input device
JP2006350908A (en) Optical information input device
JP2007072506A (en) Coordinate-input device
JP5814608B2 (en) Coordinate input device, control method therefor, and program
JP5049747B2 (en) Coordinate input device, control method therefor, and program
JP2006235710A (en) Coordinate input device
JP2006059153A (en) Optical coordinate input device
JP2005346230A (en) Optical digitizer
JP5865053B2 (en) Coordinate input device, control method of coordinate input device, and program
JP4423003B2 (en) Coordinate input device, control method therefor, and program
JP2007072587A (en) Coordinate-input device, control method of coordinate-input device, control program, and storage medium
JP3085482U (en) Input device
JP4125162B2 (en) Coordinate input device
JP2005352756A (en) Light shielding type coordinate input device and coordinate input method
JP2017040979A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070529

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070529

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20070626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090805

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131211

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees