JP4590296B2 - Coordinate input device - Google Patents
Coordinate input device Download PDFInfo
- Publication number
- JP4590296B2 JP4590296B2 JP2005118979A JP2005118979A JP4590296B2 JP 4590296 B2 JP4590296 B2 JP 4590296B2 JP 2005118979 A JP2005118979 A JP 2005118979A JP 2005118979 A JP2005118979 A JP 2005118979A JP 4590296 B2 JP4590296 B2 JP 4590296B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- coordinate input
- unit
- sensor
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、座標入力領域上の指示位置を検出する座標入力装置に関するものである。 The present invention relates to a coordinate input device that detects a designated position on a coordinate input area.
座標入力面に、指示具(例えば、専用入力ペン、指等)によって指示して座標を入力することにより、接続されたコンピュータを制御したり、文字や図形などを書き込むために用いられる座標入力装置が存在する。 A coordinate input device used to control a connected computer or to write characters, figures, etc. by inputting coordinates on a coordinate input surface by pointing with a pointing tool (for example, a dedicated input pen, finger, etc.) Exists.
従来より、この種の座標入力装置としては、タッチパネルとして、各種方式のものが提案、または製品化されており、特殊な器具などを用いずに、画面上でパーソナルコンピュータ等の端末の操作が簡単にできるため、広く用いられている。 Conventionally, as this type of coordinate input device, various types of touch panels have been proposed or commercialized, and it is easy to operate terminals such as personal computers on the screen without using special equipment. Since it can be used, it is widely used.
座標入力方式としては、抵抗膜を用いたもの、また、超音波を用いたものなど、さまざまなものがあるが、光を用いたものとして、例えば、特許文献1がある。この特許文献1では、座標入力領域の外側に再帰性反射シートを設け、座標入力領域の角端部に配置された光を照明する照明部と光を受光する受光部とにより、座標入力領域内において指等の光を遮蔽する遮蔽物と受光部間の角度を検出し、その検出結果に基づいて、その遮蔽物の指示位置を決定する構成が開示されている。
There are various coordinate input methods such as those using a resistive film and those using ultrasonic waves. For example,
また、特許文献2や3等にあるように、再帰反射部材を座標入力領域周辺に構成し、再帰反射光が遮光される部分(遮光部分)の座標を検出する座標入力装置が開示されている。
Further, as disclosed in
これらの装置において、例えば、特許文献2では、微分等の波形処理演算によって受光部が受光する遮蔽物による遮光部分のピークを検出することにより、受光部に対する遮光部分の角度を検出し、その検出結果からその遮蔽物の座標を算出している。また、特許文献3では、特定のレベルパターンとの比較によって遮光部位の一方の端と他方の端を検出し、それらの座標の中心を検出する構成が示されている。
In these apparatuses, for example, in
ここで、特許文献1乃至3のような、遮光位置を検出して座標を算出する方式を、以下、遮光方式と称する。
Here, a method of detecting coordinates and calculating coordinates as in
また、更に、このような遮光方式の座標入力装置においては、特に、その座標入力領域のサイズが大きい場合には、複数の操作者が同時に入力することを許容して、利便性を向上し、より効率的な会議等の用途での要求がある。そのため、複数の同時入力に対応する座標入力装置が考案されている。 Furthermore, in such a coordinate input device of the light shielding method, in particular, when the size of the coordinate input area is large, a plurality of operators are allowed to input simultaneously, improving convenience, There is a demand for more efficient applications such as meetings. Therefore, a coordinate input device corresponding to a plurality of simultaneous inputs has been devised.
複数の座標を同時に入力するために、特許文献4〜特許文献6では、一つの受光センサで複数の遮光部分の角度を検出し、各センサの角度の組み合わせから数点の入力座標候補を算出し、更に、その入力座標候補から実際に入力した座標を判別する技術が開示されている。 In Patent Documents 4 to 6, in order to input a plurality of coordinates simultaneously, the angles of a plurality of light shielding portions are detected by one light receiving sensor, and several input coordinate candidates are calculated from combinations of the angles of the respective sensors. Furthermore, a technique for discriminating the actually input coordinates from the input coordinate candidates is disclosed.
例えば、2点入力の場合には、入力座標候補として最大4点の座標を算出し、この4点の内、実際に入力した座標2点を判定し、出力する。つまり、この判定は、複数の入力座標候補の中から、実際の入力座標と虚偽の入力座標を選別して、最終的な入力座標を判定する。そして、この判定を、ここでは「虚実判定」と呼ぶことにする。 For example, in the case of two-point input, the coordinates of a maximum of four points are calculated as input coordinate candidates, and two of the four points actually input are determined and output. That is, in this determination, actual input coordinates and false input coordinates are selected from a plurality of input coordinate candidates, and the final input coordinates are determined. This determination will be referred to as “false determination” here.
この虚実判定の具体的な方法としては、特許文献5や特許文献6では、従来の座標入力領域の一辺の両端に、座標入力領域内で指示された座標を精度良く算出するに十分な距離を隔てて設置される第1及び第2センサの他に、これも、第1及び第2センサから入力領域内で指示された座標を精度良く算出するに十分な距離を隔てて第1及び第2センサの間の位置に設置される第3センサを設ける。そして、この第3センサにおける第1及び第2センサの角度情報とは異なる角度情報に基づいて、第1及び第2センサで検出された複数の角度情報に対し、この虚実判定を行う技術が開示されている。
As a concrete method of this truth determination, in
一方で、複数のセンサユニットを所定間隔空けて座標入力領域上の周囲に配置し、ほぼ同じ方向、ほぼ同じ領域を観測させることにより、複数の遮光影が重複した場合でも、一方の影が他方の影に完全に隠れて検出されることを回避する方法が提案されている。また、複数の影が重複したとき、其々の影の一方の端部を観測することにより、影が存在する方向を其々検出する方法が提案されている。
上述の遮光方式の座標入力装置では、光を遮ることによって形成された影を、その数、位置、影の強度とも全てのセンサが互いに矛盾のない基準で正確に検出しなければならない。しかるに、センサと再帰反射部材との位置関係、及びセンサにおける投光部と受光部の位置関係等から、それぞれのセンサから見た影の強度(遮光による光強度の低下率)は、常に、必ずしもそれぞれのセンサで互いに同じ値にはならない。 In the above-described light shielding type coordinate input apparatus, all sensors must accurately detect shadows formed by blocking light based on standards consistent with each other in terms of the number, position, and shadow intensity. However, due to the positional relationship between the sensor and the retroreflective member, and the positional relationship between the light projecting unit and the light receiving unit in the sensor, the intensity of the shadow viewed from each sensor (the rate of decrease in light intensity due to light shielding) is not always necessarily. Each sensor does not have the same value.
以下、影の強度(遮光による光強度の低下率)を、「遮光深さ」、「遮光比率」、「遮光率」等と表現する。 Hereinafter, the intensity of the shadow (light intensity reduction rate due to light shielding) is expressed as “light shielding depth”, “light shielding ratio”, “light shielding ratio”, and the like.
このように、影の遮光深さに違いがあると、例えば、本来、所定の複数のセンサから同時に検知されるべき影が、特定のセンサにおいては所定の位置に検知されるにもかかわらず、他の特定のセンサにおいては所定の位置に検知されるべき影が検知されず、すなわち見逃してしまうということが発生する可能性がある。 In this way, if there is a difference in the shading depth of the shadow, for example, a shadow that should originally be detected simultaneously from a plurality of predetermined sensors is detected at a predetermined position in a specific sensor. In other specific sensors, there is a possibility that a shadow to be detected at a predetermined position is not detected, that is, missed.
このように、何れか1つののセンサで本来検出すべき影を検出できなかった場合、入力された座標を正しく検出することができなくなる。また、特に、この問題は、複数の指示具で同時に、複数の入力を行った場合に影響が大きい。例えば、あるセンサで本来検知できるべき影が検知でき無い場合、そのセンサから見て、その影が他の影と重複していると誤認識してしまうこととなる。その結果、実際に指示具によって入力された位置とは異なる本来ありえない位置、即ち、誤った位置の座標を検出してしまう可能性がある。 In this way, if any one of the sensors cannot detect a shadow that should be detected, the input coordinates cannot be detected correctly. In particular, this problem has a great effect when a plurality of inputs are performed simultaneously with a plurality of pointing devices. For example, when a shadow that should be detected by a certain sensor cannot be detected, it is erroneously recognized that the shadow overlaps with other shadows as viewed from the sensor. As a result, there is a possibility of detecting a position that is not originally possible and that is different from the position actually input by the pointing tool, that is, the coordinates of an incorrect position.
また、複数のセンサで、本来、検知できるはずの影を検知できない場合、座標をあやまると同時に影の数すなわち入力の数を誤る可能性もある。 In addition, when a plurality of sensors cannot detect a shadow that should originally be detected, there is a possibility that the number of shadows, that is, the number of inputs may be mistaken at the same time that the coordinates are distorted.
本発明は上記の課題を解決するためになされたものであり、入力された座標を精度良く検出することができる座標入力装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a coordinate input device that can accurately detect input coordinates.
上記の目的を達成するための本発明による座標入力装置は以下の構成を備える。即ち、
座標入力領域上の指示位置を検出する座標入力装置であって、
前記座標入力領域に対し光を投光する投光部と、到来光を受光する受光部とを備える、前記座標入力領域の周辺に設けられた複数のセンサ手段と、
前記座標入力領域の周辺に設けられ、入射光を再帰的に反射する複数の再帰反射手段と、
指示手段による指示によって、前記複数のセンサ手段それぞれから得られる、光量分布に基づいて、前記指示手段の指示位置の座標を算出する算出手段とを備え、
前記再帰反射手段を構成する部材の上辺が共通の第一の平面を成し、前記部材の下辺が共通の第二の平面を成し、かつ、前記センサ手段の遮光検知範囲である遮光検知窓の上端部が前記第一の平面上に位置し、該遮光検知窓の下端部が前記第二の平面上に位置するように、前記センサ手段及び前記再帰反射手段が配置され、
前記複数のセンサ手段に関わる三次元的遮光検出領域が、前記第一の平面と前記第二の平面に挟まれる空間であって、前記座標入力領域に対応する共通の三次元的立体形状である。
In order to achieve the above object, a coordinate input device according to the present invention comprises the following arrangement. That is,
A coordinate input device for detecting a designated position on a coordinate input area,
A plurality of sensor means provided around the coordinate input area, comprising: a light projecting unit that projects light to the coordinate input area; and a light receiving unit that receives incoming light;
A plurality of retroreflective means provided around the coordinate input region and recursively reflecting incident light;
Calculation means for calculating the coordinates of the indicated position of the instruction means based on the light amount distribution obtained from each of the plurality of sensor means by an instruction by the instruction means;
A light shielding detection window in which the upper side of the member constituting the retroreflective means forms a common first plane, and the lower side of the member forms a common second plane, and is a light shielding detection range of the sensor means The sensor means and the retroreflective means are arranged such that the upper end portion of the light shielding detection window is located on the first plane and the lower end portion of the light shielding detection window is located on the second plane,
The three-dimensional shading detection area related to the plurality of sensor means is a space sandwiched between the first plane and the second plane, and has a common three-dimensional solid shape corresponding to the coordinate input area. .
また、好ましくは、前記三次元的遮光検出領域は、前記センサ手段に対向する再帰反射手段の形状と、前記遮光検知窓によって規定される三次元的立体である。 In a preferred embodiment, the three-dimensional shielding detection region, the shape of the retroreflector facing the sensor means is a three-dimensional solid defined by the light shielding sensing window.
また、好ましくは、前記遮光検知窓は、前記センサ手段が備える投光部の投光範囲である投光窓の下端と、該センサ手段が備える受光部の受光範囲である受光窓の下端の何れか高い方の位置を下端とし、かつ前記投光窓の上端と、前記受光窓の上端の何れか高い方の位置を上端とすることにより定義される。 Preferably, the light shielding detection window is either a lower end of a light projecting window that is a light projecting range of a light projecting unit provided in the sensor means or a lower end of a light receiving window that is a light receiving range of a light receiving unit provided in the sensor means. The higher position is defined as the lower end, and the upper end of the light projecting window or the upper end of the light receiving window is defined as the upper end.
また、好ましくは、前記センサ手段は、前記座標入力領域に垂直な方向に関して、前記投光部の視野範囲が該センサ手段に関わる再帰反射手段を包含し、かつ前記受光部の視野範囲が該センサ手段に関わる再帰反射手段を包含する。 Preferably, the sensor means includes a retroreflective means related to the sensor means with respect to a direction perpendicular to the coordinate input area, and the visual field range of the light receiving part is the sensor. Includes retroreflective means associated with the means.
また、好ましくは、前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを1つ備える。 Preferably, the sensor means includes one optical unit including the light projecting unit and the light receiving unit.
また、好ましくは、前記センサ手段は、前記投光部と前記受光部からなる光学ユニットを2つ備える。 Preferably, the sensor means includes two optical units including the light projecting unit and the light receiving unit.
本発明によれば、入力された座標を精度良く検出することができる座標入力装置を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the coordinate input device which can detect the input coordinate accurately can be provided.
以下、本発明の実施の形態について図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<実施形態1>
図1Aは本発明の実施形態1の座標入力装置の外観構成を示す図である。
図1Aにおいて、L1及びL2はそれぞれ投光部および受光部を有する光学ユニットであり、これらの2組の光学ユニットによって、センサユニット1Lが構成されている。同様に、R1及びR2はそれぞれ投光部および受光部を有する光学ユニットであり、これらの2組の光学ユニットによって、センサユニット1Rが構成されている。
また、センサユニット1L内の光学ユニットL1及びL2は、ほぼ同一の方向、同一の視野で、投光/受光を行い、所定の視差をもって到来光を観測するように配置されている。同様に、センサユニット1R内の光学ユニットR1及びR2は、ほぼ同一の方向、同一の視野で、投光/受光を行い、所定の視差をもって到来光を観測するように配置されている。
更に、センサユニット1L及び1Rは、図示の如く座標入力面であるところの座標入力有効領域3のX軸に平行に、かつY軸に対称な位置に、所定距離離れて配置されている。センサユニット1L及び1Rは、制御・演算ユニット2に接続され、制御信号を制御・演算ユニット2から受信すると共に、検出した信号を制御・演算ユニット2に送信する。
4a〜4cは入射光を到来方向に反射する再帰反射面を有する再帰反射部であり、座標入力有効領域3の外側3辺に図示が如く配置され、それぞれのセンサユニット1L及び1Rから略90°範囲に投光された光を、センサユニット1L及び1Rに向けて再帰反射する。
<
FIG. 1A is a diagram showing an external configuration of a coordinate input device according to
In FIG. 1A, L1 and L2 are optical units each having a light projecting unit and a light receiving unit, and a
In addition, the optical units L1 and L2 in the
Further, the
尚、再帰反射部4a〜4cは、ミクロ的に見て三次元的な構造を有し、現在では、主にビーズタイプの再帰反射テープ、或いはコーナキューブを機械加工等により規則正しく配列することで再帰現象を起こす再帰反射テープが知られている。
The
再帰反射部4a〜4cで再帰反射された光は、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)によって1次元的に検出され、その光量分布が制御・演算ユニット2に送信される。
The light retroreflected by the
座標入力有効領域3は、PDPやリアプロジェクタ、LCDパネルなどの表示装置の表示画面で構成することで、インタラクティブな入力装置として、利用可能となっている。
The coordinate input
このような構成において、座標入力有効領域3に指や指示具等の指示手段による入力指示がなされると、センサユニット1L及び1R内のそれぞれの、光学ユニットL1及びL2と光学ユニットR1及びR2の投光部から投光された光が遮られ(遮光部分)、センサユニット1L及び1R内のそれぞれの、光学ユニットL1及びL2と光学ユニットR1及びR2の受光部ではその遮光部分の光(再帰反射による反射光)を検出できないので、その結果、どの方向からの光が検出できなかったかを判別することが可能となる。
In such a configuration, when an input instruction is given to the coordinate input
そこで、制御・演算ユニット2は、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)が検出する光量変化から、指示具によって入力指示された部分の複数の遮光範囲を検出し、その遮光範囲の情報から、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)それぞれに対する遮光範囲の端部の方向(角度)をそれぞれ算出する。また、指示具が信号発信部を有する場合には、その指示具からのペン信号をペン信号受信部5が受信する。
Therefore, the control /
そして、検出された遮光範囲の数に基づいて、座標算出に用いる遮光範囲から得られるデータを決定し、それぞれ算出された方向(角度)、及びセンサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)間の距離情報等から、座標入力有効領域3上の指示具の遮光位置を幾何学的に算出し、表示装置に接続されているホストコンピュータ等の外部端末に、インタフェース7(例えば、USB、IEEE1394等)を経由してその座標値を出力する。
Then, based on the number of detected light shielding ranges, data obtained from the light shielding ranges used for coordinate calculation is determined, and the calculated direction (angle),
このようにして、指示具によって、画面上に線を描画したり、表示装置に表示されるアイコンを操作する等の外部端末の操作が可能になる。 In this way, the operation of the external terminal such as drawing a line on the screen or operating an icon displayed on the display device can be performed by the pointing tool.
尚、以下の説明では、座標入力有効領域3に垂直な方向を高さ方向(Z方向)とし、座標入力有効領域3に近い場合を「下」、遠い場合を「上」と表現する。また、図1Aにおいて、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)は、遮光を実効的に検知する範囲(遮光範囲)、即ち、遮光検知窓の実態的存在として表現される。特に、高さ方向の幅は、この遮光検知窓の上端下端の幅を意味する。
In the following description, the direction perpendicular to the coordinate input
即ち、センサユニット1L(光学ユニットL1及びL2)及び1R(光学ユニットR1及びR2)の半円筒形状の厚さ(Z方向)が高さ方向に定義される実効的遮光検知窓の大きさである。
That is, the thickness of the semi-cylindrical shape (Z direction) of the
特に、実施形態1においては、図1Bに示すように、再帰反射部4a〜4cの夫々の上辺と、センサユニット1L及び1Rの実効的上端とが略同一の平面S_topを構成している。また、再帰反射部4a〜4cの夫々の下辺と、センサユニット1L及び1Rの実効的下端とが略同一の平面S_botomを構成している。
In particular, in the first embodiment, as shown in FIG. 1B, the upper sides of the
このように、構成することにより、指示具によって遮光された場合に、センサユニット1L及び1Rでは、常に互いに略同一レベルの遮光比率で影を検出することができる。
By configuring in this way, when the light is shielded by the pointing tool, the
尚、図1A及び図1Bでは、1つのセンサユニット内に、2つの光学ユニットを内蔵する複眼(二眼)構成の例を挙げているが、図2A及び図2Bに示すように、1つのセンサユニット内に1つの光学ユニットを内蔵する単眼構成とすることも可能である。 In FIGS. 1A and 1B, an example of a compound eye (two-lens) configuration in which two optical units are built in one sensor unit is shown. However, as shown in FIGS. 2A and 2B, one sensor A monocular configuration in which one optical unit is built in the unit is also possible.
そこで、以下では、説明を簡単にするために、図3〜図23では、図2A及び図2Bの単眼構成の場合を例に挙げて説明するが、図1A及び図1Bの複眼(二眼)構成、あるいは、1つのセンサユニット内に3個以上の光学ユニットを内蔵する複眼構成であっても、本発明を適用することができる。 Therefore, in the following, in order to simplify the description, in FIGS. 3 to 23, the case of the monocular configuration of FIGS. 2A and 2B will be described as an example, but the compound eye (two eyes) of FIGS. 1A and 1B will be described. The present invention can also be applied to a configuration or a compound eye configuration in which three or more optical units are built in one sensor unit.
但し、複眼構成の場合は、センサユニットを構成する各光学ユニットに対して、以下の説明が適用される。つまり、単眼構成の場合、センサユニットとそれが内蔵する1つの光学ユニットは同一視して説明することができるが、複眼構成の場合、センサユニットを構成する複数の光学ユニットそれぞれに対して、図3〜図23の説明が適用されることに注意されたい。 However, in the case of a compound eye configuration, the following description is applied to each optical unit constituting the sensor unit. In other words, in the case of a monocular configuration, the sensor unit and one optical unit incorporated therein can be described with the same view. However, in the case of a compound eye configuration, each of the plurality of optical units constituting the sensor unit is illustrated. Note that the description of 3 to 23 applies.
<課題の説明>
ここで、本発明における、課題を再度、図を用いて詳しく説明する。
<Explanation of issues>
Here, the problem in the present invention will be described again in detail with reference to the drawings.
図3は本発明における課題を説明するための図である。 FIG. 3 is a diagram for explaining the problem in the present invention.
従来より、センサユニット1L及び1R、および再帰反射部4(4a〜4c)は、できるだけ座標入力面に近づけるよう設計されてきた。また、上記特許文献2等で見られるように、センサユニットにおいて、反射ミラー等の光学部材を用いることにより、投光位置と受光位置をできるだけ、同じ位置、高さにすること、できるだけ座標入力面に近づけること、また、投光/受光ともできる限り平行にする(コリメートする)ことを想定した座標入力装置について言及されている。
Conventionally, the
ここで、仮に、投光/受光が厚み方向(ここで厚み方向とは、座標入力面(座標入力有効領域3)に垂直な方向(Z方向)を意味する)に完全に平行にされていて、再帰反射部が投光の指向範囲(視野範囲)、受光の指向範囲(視野範囲)を厚み方向において包含するような形と大きさに設定されているのであれば、三次元的遮光検知領域は、再帰反射部の形状にはよらず、投光あるいは受光の光路のみで決まるということができる。 Here, it is assumed that the light projection / light reception is completely parallel to the thickness direction (here, the thickness direction means a direction (Z direction) perpendicular to the coordinate input surface (coordinate input effective area 3)). If the retroreflective part is set to have a shape and size so as to include the light directivity range (field range) and the light reception directivity range (field range) in the thickness direction, a three-dimensional shading detection region It can be said that this is determined only by the light path of light projection or light reception, regardless of the shape of the retroreflective portion.
しかしながら、実際には、例えば、エコーバックを表示する表示画面との関わり、装置全体の構造などにより、実装制限を受ける、またコスト、精度などの制限により多くの場合、投光/受光とも厚み方向に十分なコリメートができると状態にあるとは言えない。 However, in practice, for example, there are mounting restrictions due to the relationship with the display screen that displays the echo back, the overall structure of the apparatus, etc., and in many cases both the light projection and the light reception are in the thickness direction due to cost and accuracy restrictions. It cannot be said that it is in a state when sufficient collimation is possible.
このため、多くの場合、現実的には、再帰反射部の幅(厚み方向の幅)より、光学ユニットの投光の指向範囲/受光の指向範囲を厚み方向において広く、即ち、投光/受光の厚み方向の指向範囲が再帰反射部を包含するように構成することにより、三次元的遮光検知領域は、再帰反射部の形状によって決まるように構成されている。 For this reason, in many cases, in reality, the light emitting directivity range / light receiving directivity range of the optical unit is wider in the thickness direction than the width of the retroreflective portion (width in the thickness direction), that is, the light projecting / receiving light. By configuring the directivity range in the thickness direction to include the retroreflective portion, the three-dimensional light shielding detection region is configured to be determined by the shape of the retroreflective portion.
このため、夫々のセンサユニットから見た三次元的遮光検知領域は妥協的な形となり、センサユニット1L及び1Rの三次元的遮光検知領域は、共通領域とは必ずしもなっていないのが現状である。
For this reason, the three-dimensional shading detection areas viewed from the respective sensor units are compromised, and the three-dimensional shading detection areas of the
本発明は、このような構成において発生する問題を解決する手法を提案するものである。 The present invention proposes a technique for solving the problems that occur in such a configuration.
以下、図3を例に、課題を説明する。 The problem will be described below with reference to FIG.
図3では、センサユニット1L及び1Rは、座標入力面である座標入力有効領域3に対し、再帰反射部4a〜4cと比べて、より高い位置に設置されている。
In FIG. 3, the
実際、表示装置に、この種の遮光方式の座標入力装置を組み込むあるいはオーバーレイする場合、このような構成配置になることが多い。 In fact, when such a light-shielding coordinate input device is incorporated into or overlaid on a display device, this arrangement is often used.
センサユニット1L及び1Rは、一定の大きさがあるので、表示画面の黒枠(表示面と同一平面で実際には表示されない外側の部分)に設置することができない。そのため、表示装置の外枠(表示面より一段飛び出した部分、いわゆる額縁)に乗り上げるような配置となる。
Since the
一方、座標入力装置としては、違和感のない書き味にするためには、遮光検知領域をできるだけ座標入力面に近づけたいという要望がある。そのため、細長い形状の再帰反射部は、表示画面の黒枠に収める、即ち、表示面に接近した配置となる。 On the other hand, there is a demand for the coordinate input device to make the light-shielding detection region as close as possible to the coordinate input surface in order to make the writing feeling uncomfortable. For this reason, the elongated retroreflective portions are accommodated in the black frame of the display screen, that is, arranged close to the display surface.
ここで、センサユニット1L及び1R夫々の三次元的遮光検知領域を考えてみる。
Here, consider the three-dimensional shading detection area of each of the
まず、センサユニット1Lに関しては、センサユニット1Lから投光される光は、再帰反射部4a及び4cのみにおいて、再帰反射して再度、センサユニット1Lに戻る。ここで、センサユニット1Lの投光/受光の光学系が座標入力面に沿って相当にコリメートされていない限り、現実的には、図4に示すような三次元的な遮光検知領域を形成することとなる。
First, regarding the
同様に、センサユニット1Rに関しても、図5に示すような三次元的遮光検知領域を形成することとなる。
Similarly, a three-dimensional shading detection region as shown in FIG. 5 is also formed for the
ここで、図4及び図5から明らかなように、センサユニット1Lに関わる三次元的遮光領域と、センサユニット1Rに関わる三次元的遮光領域とでは、立体的に異なる。即ち、両者間では、略同一の三次元遮光検知領域を構成しているわけではない。
Here, as is apparent from FIGS. 4 and 5, the three-dimensional light-shielding region related to the
ここで、図3のC点に指示具を挿入することを考える。 Here, consider inserting an indicator at point C in FIG.
C点では、図4に示すように、センサユニット1Lに関する三次元的遮光検知領域は、センサユニット1Lに近いため、比較的高い位置(座標入力面から離れた位置)にある。
At point C, as shown in FIG. 4, the three-dimensional shading detection area related to the
一方、図5に示すように、センサユニット1Rに関する三次元的遮光検知領域は、C点では、近傍の再帰反射部4cの高さに近い高さ、即ち、比較的低い位置(座標入力面に接近した位置)にある。
On the other hand, as shown in FIG. 5, the three-dimensional shading detection region relating to the
ここで、図6に示すような、「ペン先高さ 対 遮光率」特性を考える。図6において、横軸は、ペン先高さH(即ち、指示具の実効的先端と座標入力面との距離)である。一方、縦軸は、センサユニットにおける遮光率であり、例えば、指示具を座標入力面に近づけて行く場合は、図6において、右から左に移動することとなる。 Here, the “pen tip height vs. light blocking ratio” characteristic as shown in FIG. 6 is considered. In FIG. 6, the horizontal axis is the pen tip height H (that is, the distance between the effective tip of the pointing tool and the coordinate input surface). On the other hand, the vertical axis represents the light shielding ratio of the sensor unit. For example, when the pointing tool is moved closer to the coordinate input surface, the vertical axis moves from right to left in FIG.
指示具が挿入されていない時点は、遮光率は0%(規格化光強度100%)であり、座標入力面に対しある高さ位置まで近づくと、遮光率は上昇し始め(規格化光強度は低下し始め)、さらにある位置でおよそ100%近くに達し、その後、一定となる。
When the pointing device is not inserted, the light shielding rate is 0% (standardized
C点の位置において、指示具の挿入操作を行った場合、破線がセンサユニット1Lに関する遮光率の変位を示す軌跡であり、実線がセンサユニット1Rに関するものである。
When the pointing tool is inserted at the point C, the broken line is a locus indicating the displacement of the light shielding rate related to the
C点の近傍において、センサユニット1Lに関する三次元的遮光検知領域は高い位置にあるので、図6で示す破線の軌跡が大きく変化する部分は右に寄っている。
In the vicinity of the point C, the three-dimensional shading detection region related to the
一方、センサユニット1Rに関する三次元的遮光検知領域は低い位置にあるので、図6中で示す実線の軌跡が大きく変化する部分は左に寄っている。
On the other hand, since the three-dimensional shading detection region related to the
そして、何れもこの大きく変化する部分が、センサユニット1L及び1Rの各センサユニットの三次元遮光検知領域を通過する部分であるということができる。
And it can be said that the part which changes greatly is a part which passes the three-dimensional shading detection area | region of each sensor unit of the
また、これらの図3〜図5に示す構成の場合、C点の近傍において、センサユニット1Lに関する三次元的遮光検知領域は、センサユニット1Rに関する三次元的遮光検知領域よりも高さ方向に対して薄いので、図6において、遮光率の軌跡(カーブ)の変化する部分が、センサユニット1Lの方がセンサユニット1Rに比べて狭くて急峻である。
3 to 5, in the vicinity of the point C, the three-dimensional shading detection area related to the
以上のように、従来構成においては、左右のセンサユニット1L及び1Rで検知する「ペン先高さ 対 遮光率」特性が異なる。
As described above, in the conventional configuration, the “pen tip height vs. light shielding rate” characteristics detected by the left and
そして、このよう特性において遮光検知を行う場合、次のような問題が発生する。 When the light shielding detection is performed with such characteristics, the following problems occur.
例えば、指示具が座標入力面に対して上から挿入されて行き、その高さHが、図6のHth_R≦H≦Hth_Lで示される範囲に至った時で、かつセンサユニット1L及び1R夫々が検出する影の強度、即ち、遮光率が所定閾値thsh0を超えた時に、影が有りと判定するとする。
For example, when the pointing tool is inserted into the coordinate input surface from above and its height H reaches the range indicated by Hth_R ≦ H ≦ Hth_L in FIG. 6, and each of the
このような構成の場合、センサユニット1Lでは、H=Hth_Lのとき、影を最初に検知する。一方、センサユニット1Rでは、H=Hth_Rのとき、影を最初に検知する。
In such a configuration, the
従って、Hth_R≦H≦Hth_Lで示される範囲にあっては、指示具の影は、センサユニット1Lでは観測されるが、センサユニット1Rでは観測されない状態となる。
Therefore, in the range indicated by Hth_R ≦ H ≦ Hth_L, the shadow of the pointing tool is observed in the
これは、特に、複数入力を行った時、大きい問題となる。 This is a big problem especially when a plurality of inputs are performed.
以下、この複数入力時の問題について説明する。まず、この問題を説明するに当たり、単一入力時の座標検出について説明する。 Hereinafter, the problem at the time of multiple input will be described. First, in explaining this problem, coordinate detection at the time of single input will be explained.
図7は、図3における単一入力操作を上から見た図である。 FIG. 7 is a top view of the single input operation in FIG.
図7において、C点の位置に入力を行った場合、通常、図8及び図9のθL、θRの位置に影ができる。ここで、図8は、指示具の高さH≦H2_Rのとき(即ち、指示具が十分座標入力面近傍まできたとき)の、センサユニット1L及び1Rそれぞれが検出する影の形を表している。また、図9は、Hth_R≦H≦Hth_Lのとき(即ち、指示具が座標入力有効領域に入る際、ないし出る際)のときの、センサユニット1L及び1Rそれぞれが検出する影の形を表している。
In FIG. 7, when an input is made at the position of point C, a shadow is usually formed at the positions of θL and θR in FIGS. Here, FIG. 8 shows the shape of the shadow detected by each of the
このとき、上述のように、センサユニット1Lからは、指示具の影が検知されていて、センサユニット1Rからは指示具の影は検知されていない。
At this time, as described above, the shadow of the pointing tool is detected from the
ここで、単一入力の場合は、2つのセンサユニット両方が影を検出した場合のみ、入力あり(一方のみ検知した場合は入力なし)として扱えば問題ない。 Here, in the case of a single input, there is no problem if it is treated as having an input (no input when only one of the two sensor units detects a shadow).
ところが、複数入力の場合は問題が大きい、以下、これについて説明する。 However, in the case of multiple inputs, the problem is great. This will be described below.
図10は複数入力操作を上から見た図である。 FIG. 10 is a view of a multi-input operation as viewed from above.
図10では、P12及びP21点に複数入力を行った場合を示している。 FIG. 10 shows a case where a plurality of inputs are performed at points P12 and P21.
この場合、図11のように、センサユニット1Lにおいて、θL1、θL2の位置に影が検出される。また、センサユニット1Rにおいて、θR1、θR2の位置に影が検出される。この2組の角度データをもとに、4つの座標候補点P11、P12、P21及びP22が算出される。そして、これらの座標候補点の中から、何らかの手段によって虚実判定することにより、例えば、P11、P22は虚像であり、P12、P21が実像であることが判別され、座標入力点を決定することになる。
In this case, as shown in FIG. 11, in the
次に、座標入力点が誤検出される場合の複数入力例について説明する。この誤検出パターン(1)としては、図12に示すように、P12点(図7のC点に対応)及びP21点で複数入力を行った場合で、かつ各点における指示具の高さHが図6に示すHth_R≦H≦Hth_Lの場合を考える。 Next, an example of a plurality of inputs when a coordinate input point is erroneously detected will be described. As this erroneous detection pattern (1), as shown in FIG. 12, when a plurality of inputs are made at point P12 (corresponding to point C in FIG. 7) and point P21, and the height H of the indicator at each point Consider the case of Hth_R ≦ H ≦ Hth_L shown in FIG.
このとき、図13に示すように、センサユニット1Rでは、θR2が検知されない。
At this time, as shown in FIG. 13, the
この場合、実際には、C点(P12)、P21の位置に2つの入力を行っているにも関わらず、センサユニット1Rからは、θR1のみ検知されてθR2が検知されない(即ち、P12の入力の影が観測されない)。そのため、P12は、センサユニット1Rから重複して観測される点、即ち、図12のP11が座標入力点であると誤認識をしてしまう。即ち、本来の座標入力点P12を座標入力点P11と誤検出してしまう。
In this case, in fact, although two inputs are made at the positions of point C (P12) and P21, only θR1 is detected and θR2 is not detected from the
次に、誤検出パターン(2)として、図14に示すように、P12点(図7のC点に対応)及びP21点(C点に対して、およそ左右対称な位置C’点)に複数入力を行った場合で、かつC点の位置での指示具の高さHが図6に示すHth_R ≦ H ≦ Hth_Lで、C’点の位置での指示具の高さHが、図6のセンサユニット1Lと1Rとの関係を入れ替えた関係で、Hth_L(C´)≦H(C´)≦Hth_R(C´)の場合を考える。
Next, as shown in FIG. 14, there are a plurality of false detection patterns (2) at point P12 (corresponding to point C in FIG. 7) and point P21 (point C ′ approximately symmetrical with respect to point C). When the input is performed and the height H of the pointing tool at the position of the point C is Hth_R ≦ H ≦ Hth_L shown in FIG. 6, the height H of the pointing tool at the position of the point C ′ is as shown in FIG. Consider the case of Hth_L (C ′) ≦ H (C ′) ≦ Hth_R (C ′) with the relationship between the
このとき、図15に示すように、センサユニット1LからはθL2が観測されず、同様に、センサユニット1RからはθR2が観測されない。この場合、実際には、C(P12)、C’(P21)に入力しているにもかかわらず、夫々、実際に検出している角度θL1、θR1の交点、即ち、図14のP11が座標入力点であると誤認識してしまう。即ち、この場合、単一入力であると誤検出してしまう。
At this time, as shown in FIG. 15, θL2 is not observed from the
このように、指示具の高さHが所定範囲(例えば、C点の位置である場合、Hth_R≦H≦Hth_L)であるとき、本来、センサユニット1L及び1Rの両者で検出されるべき影が、ぞれぞれの三次元的遮光検知領域が異なるために、複数入力時で検出した座標候補点から正しい組み合せで座標入力点を検出できない。
As described above, when the height H of the pointing device is within a predetermined range (for example, Hth_R ≦ H ≦ Hth_L in the case of the position of the point C), the shadow that should be originally detected by both the
また、この所定範囲(例えば、C点の位置である場合、Hth_R≦H≦Hth_L)は、座標入力有効領域に対し、指示具が入る際ないし出る際において必ず存在する。そのため、座標の誤検出や、座標候補点の誤算出が発生してしまう。 In addition, this predetermined range (for example, in the case of the position of point C, Hth_R ≦ H ≦ Hth_L) always exists when the pointing tool enters or exits the coordinate input effective area. For this reason, erroneous detection of coordinates and erroneous calculation of coordinate candidate points occur.
そこで、本発明は、これらの問題を解決する構成を提案するものであり、特に、本発明においては、左右のセンサユニット1L及び1Rの三次元的遮光検知領域を同一(共通)にすることにより、これらの問題を解決するものである。
Therefore, the present invention proposes a configuration that solves these problems. In particular, in the present invention, the three-dimensional shading detection areas of the left and
<共通の三次元的遮光検知領域の定義>
まず、本発明において提案する構成は、例えば、図4と図5に示す、センサユニット1L及び1R夫々の三次元的遮光検知領域をいかに同一空間にするかということである。
<Definition of common 3D shading detection area>
First, the configuration proposed in the present invention is, for example, how to make the three-dimensional shading detection areas of the
まず、考えられるのは、例えば、センサユニット1Lの左辺近傍におけるの光路の断面と、センサユニット1Rに関わる再帰反射部4bの形状を略同一にするということである。同様に、センサユニット1Rの右辺近傍における光路の断面と、センサユニット1Lに関わる再帰反射部4aの形状を略同一にするということである。
First, it is conceivable that, for example, the cross section of the optical path in the vicinity of the left side of the
このようにすると、図2Aに示すような、三次元的遮光検知領域を形成することができ、この領域は、センサユニット1L及び1Rにおいて共通となる。つまり、座標入力有効領域に対応する共通の三次元的立体形状となる。
In this way, a three-dimensional shading detection region as shown in FIG. 2A can be formed, and this region is common to the
図2Aにおいては、再帰反射部4cは長方形、再帰反射部4a及び4bは同一の台形、センサユニット1L及び1Rは対称な形状である。また、センサユニット1Lの上端は、再帰反射部4bの上辺の延長上にあり、下端は下辺の延長上にある。また、センサユニット1Rの上端は、再帰反射部4aの上辺の延長上にあり、下端は下辺の延長上にある。
In FIG. 2A, the retroreflective portion 4c is rectangular, the
<実効的なセンサユニットの遮光検知窓について>
上述したように、図2Aにおいて、センサユニット1L及び1Rは、光の投光/受光を含めて遮光を実効的に検知する遮光検知窓の実態的存在として、特に、高さ方向に意味をなすように表現されている。即ち、センサユニット1L及び1Rの半円筒形状の厚さが高さ方向に定義される実効的遮光検知窓の大きさである。
<Effective sensor unit shading detection window>
As described above, in FIG. 2A, the
以下、この遮光検出領域(遮光検知窓)の断面について、図16〜図19を用いて説明する。 Hereinafter, a cross section of the light shielding detection region (light shielding detection window) will be described with reference to FIGS.
図16〜図19においては、センサユニットを構成する、実効的な投光部102を格子パターンで、実効的な受光部106を斜め縞パターンで表現している。夫々は、図中に示される幅によって、投光の幅(実効的窓の幅)、受光の幅(実効的窓の幅)が表される。また、ここでは、センサユニット1Lに着目して説明する。
16 to 19, the effective
センサユニットは、投光部と受光部とからなり、これらは本来同一位置に配置すれば、理想的だが現実にはコスト、精度等の制限でそれはできないことが多い。そのため、実際には、以下のような配置構成が採用されている。 The sensor unit is composed of a light projecting unit and a light receiving unit, which are ideal if they are originally arranged at the same position, but in reality, this is often not possible due to limitations such as cost and accuracy. Therefore, the following arrangement configuration is actually employed.
(1)投光部102が受光部106の上に配置される場合(図16)
(2)受光部106が投光部102の上に配置される場合(図17)
(3−a)投光部102と受光部106が横に並んで配置され、投光部102の方が大きい場合(図18)
(3−b)投光部102と受光部106が横に並んで配置され、受光部106の方が大きい場合(図19)
(4)ハーフミラーを用いて、投光部と受光部が等価的に同じ位置に配置される場合
等がある。
(1) When the
(2) When the
(3-a) if the
(3-b) when the
(4) Using a half mirror, the light projecting unit and the light receiving unit may be equivalently arranged at the same position.
本発明においては、座標入力面からの高さ方向のみを問題としているので、(3)と(4)の配置構成は同じ扱いをする。 In the present invention, since only the height direction from the coordinate input surface is a problem, the arrangement configurations of (3) and (4) are handled in the same way.
次に、センサユニットの遮光検知窓がどのように定義されるかについて説明する。 Next, how the light shielding detection window of the sensor unit is defined will be described.
図16〜図19において、H_led_1は実際の投光部の寸法ではなく、実効的な投光部の目の上端の高さ、H_led_2は下端の高さである。H_sense_1は実際の受光部の寸法ではなく、実効的に受光部内のセンサの光電変換部に像を結ぶ範囲の上端の高さ、H_sense_2は下端の高さである。 16 to 19, H_led_1 is not the actual size of the light projecting unit, but the height of the upper end of the eye of the effective light projecting unit, and H_led_2 is the height of the lower end. H_sense_1 is not the actual size of the light receiving portion, but the height of the upper end of the range in which an image is effectively formed on the photoelectric conversion portion of the sensor in the light receiving portion, and H_sense_2 is the height of the lower end.
また、H_ref_1はセンサユニットに対向する再帰反射部4aの実効的な上端の高さである。H_ref_2はセンサユニットに対向する再帰反射部4aの実効的な下端の高さである。
H_ref_1 is the effective upper end height of the
指示具の挿入に従って、最初に影が現れる位置(指示具と座標入力面との距離)をH_A、また、影の深さ(遮光率)が略100%に達する位置(指示具と座標入力面の距離)をH_Bで示す。 According to the insertion of the pointing tool, the position where the shadow first appears (distance between the pointing tool and the coordinate input surface) is H_A, and the position where the shadow depth (shading rate) reaches approximately 100% (the pointing tool and the coordinate input surface) ) Is indicated by H_B.
さらに、重要な点として、厚み方向(座標入力面に垂直な方向)に関して、投光部の視野範囲は、再帰反射領域H_ref_1〜H_ref_2よりも広く、これを包含する。また、受光部の視野範囲も、同様に、再帰反射領域H_ref_1〜H_ref_2よりも広く、これを包含する。 Further, as an important point, in the thickness direction (direction perpendicular to the coordinate input surface), the visual field range of the light projecting unit is wider than and includes the retroreflective areas H_ref_1 to H_ref_2. Similarly, the visual field range of the light receiving unit is wider than and includes the retroreflective regions H_ref_1 to H_ref_2.
図16〜図19においては、投光部の実効的光路は、line_led_1とline_led_2で挟まれる領域であり、即ち、投光の窓は、H_led_1とH_led_2で定義される。同様に、受光部の実効的光路は、line_sens_1とline_sens_2で挟まれる領域であり、即ち、受光の窓は、H_sense_1とH_sense_2で定義される。 16 to 19, the effective light path of the light projecting unit is an area sandwiched between line_led_1 and line_led_2, that is, the light projection window is defined by H_led_1 and H_led_2. Similarly, the effective optical path of the light receiving unit is a region sandwiched between line_sens_1 and line_sens_2, that is, the light receiving window is defined by H_sense_1 and H_sense_2.
センサユニットの構成が図16の場合、指示具がline_led_1の位置まで近づいたとき、投光部の実効的光路が遮られるので、ここで、遮光の影が始めて観測される。さらに、指示具がline_led_2の位置に至ったとき、投光部の実効的光路が略100%遮られる。そのため、ここでline_led_2より下の部分を残していても、即ち、受光部がまだ完全に遮られていなくても影の遮光率は略100%に達する。 In the case of the configuration of the sensor unit in FIG. 16, when the pointing tool approaches the position of line_led_1, the effective light path of the light projecting unit is blocked, and here, the shadow of the light shielding is observed for the first time. Furthermore, when the pointing tool reaches the position of line_led_2, the effective light path of the light projecting unit is blocked by approximately 100%. Therefore, even if the portion below line_led_2 is left here, that is, even if the light receiving portion is not completely blocked, the shadow shading rate reaches approximately 100%.
従って、遮光検知領域は、line_led_1とline_led_2の間となる。即ち、センサユニットの遮光検知窓は、上端がH_led_1で下端がH_led_2である。尚、H_led_2とH_sens_1に関しては、その順番が入れ替わっても同じである。 Therefore, the light blocking detection region is between line_led_1 and line_led_2. That is, the light shielding detection window of the sensor unit has an upper end of H_led_1 and a lower end of H_led_2. It should be noted that H_led_2 and H_sens_1 are the same even if their order is changed.
次に、センサユニットの構成が図17の場合、指示具がline_sens_1の位置まで近づいたとき、受光部の実効的光路が遮られるので、ここで、遮光の影が始めて観測される。さらに、指示具がline_sens_2の位置に至ったとき、受光部の実効的光路が略100%遮られる。そのため、ここでline_sens_2より下の部分を残していても、即ち、投光部がまだ完全に遮られていなくても影の遮光率は略100%に達する。 Next, in the case of the configuration of the sensor unit in FIG. 17, when the pointing tool approaches the position of line_sens_1, the effective optical path of the light receiving unit is blocked. Furthermore, when the pointing tool reaches the position of line_sens_2, the effective light path of the light receiving unit is blocked by approximately 100%. Therefore, even if the portion below line_sens_2 is left here, that is, the light shielding ratio of the shadow reaches approximately 100% even if the light projecting portion is not completely blocked.
従って、遮光検知領域は、line_sens_1とline_sens_2の間となる。即ち、センサユニットの遮光検知窓は、上端がH__sens_1で下端がH_sens_2である。尚、H_sens_2とH_led_1に関してはその順番が入れ替わっても同じである。 Accordingly, the light shielding detection region is between line_sens_1 and line_sens_2. That is, the light shielding detection window of the sensor unit has an upper end of H__sens_1 and a lower end of H_sens_2. Note that H_sens_2 and H_led_1 are the same even if their order is changed.
次に、センサユニットの構成が図18の場合、指示具がline_led_1の位置まで近づいたとき、投光部の実効的光路が遮られるので、ここで、遮光の影が始めて観測される。さらに、指示具がline_sens_2の位置に至ったとき、今度は、受光部の実効的光路が略100%遮られる。そのため、ここでline_sens_2より下の部分を残していても、即ち、投光部がまだ完全に遮られていなくても影の遮光率は略100%に達する。 Next, in the case of the configuration of the sensor unit in FIG. 18, when the pointing tool approaches the position of line_led_1, the effective light path of the light projecting unit is blocked, and here, the shadow of the light shielding is observed for the first time. Further, when the pointing tool reaches the position of line_sens_2, this time, the effective optical path of the light receiving unit is blocked by approximately 100%. Therefore, even if the portion below line_sens_2 is left here, that is, the light shielding ratio of the shadow reaches approximately 100% even if the light projecting portion is not completely blocked.
従って、遮光検知領域は、line_led_1とline_sens_2の間となる。即ち、センサユニットの遮光検知窓は、上端がH_led_1で下端がH_sens_2である。 Therefore, the light-shielding detection region is between line_led_1 and line_sens_2. That is, the light shielding detection window of the sensor unit has an upper end H_led_1 and a lower end H_sens_2.
次に、センサユニットの構成が図19の場合、指示具がline_sens_1の位置まで近づいたとき、受光部の実効的光路が遮られるので、ここで、遮光の影が始めて観測される。さらに、指示具がline_led_2の位置に至ったとき、今度は、投光部の実効的光路が略100%遮られる。そのため、ここでline_led_2より下の部分を残していても、即ち、受光部がまだ完全に遮られていなくても影の遮光率は略100%に達する。
Next, in the case of the configuration of the sensor unit in FIG. 19, when the pointing tool approaches the position of
従って、遮光検知領域は、line_sens_1とline_led_2の間となる。即ち、センサユニットの遮光検知窓は、上端がH_sens_1で下端がH_led_2である。
Accordingly, the light blocking detection region is between line_sens_1 and line_led_2. That is, the light shielding detection window of the sensor unit has an upper end of
尚、上述したように、例えば、特許文献2等のように、ハーフミラーを用いて投光部ないし受光部の光路を重ねて、仮想的に同一位置に配置するセンサユニットの構成は、ここでは、図18及び図19の構成に含まれる。
In addition, as described above, for example, as in
以上のように、投光部の投光範囲である投光窓と、受光部の受光範囲である受光窓の位置関係を全て考慮して一般化すると、「センサユニットの実効的遮光検知窓の上端は、実効的投光窓の上端と実効的受光窓の上端の内の高い方に等しく」、また、「センサユニットの実効的遮光検知窓の下端は、実効的投光窓の下端と実効的受光窓の下端の内の高い方に等しい」ということができる。 As described above, considering all the positional relationship between the light projection window that is the light projection range of the light projecting unit and the light reception window that is the light reception range of the light receiving unit, "The upper end is equal to the higher of the upper end of the effective light projection window and the upper end of the effective light reception window", and "the lower end of the effective light shielding detection window of the sensor unit is equal to the lower end of the effective light emission window. It is equivalent to the higher of the lower ends of the target light receiving windows.
これを、式で整理すると下記のようになる。 This can be organized as follows:
H_opt_1=Higher(H_led_1,H_sens_1) (1)
H_opt_2=Higher(H_led_2,H_sens_2) (2)
ここで、
H_opt_1 :センサユニットの実効的遮光検知窓の上端
H_opt_2 :センサユニットの実効的遮光検知窓の下端
H_led_1 :センサユニットの実効的投光窓の上端
H_led_2 :センサユニットの実効的投光窓の下端
H_sens_1 :センサユニットの実効的受光窓の下端
H_sens_2 :センサユニットの実効的受光窓の下端
Higher(*1,*2) :*1,*2から高い方を選択する演算
H_opt_1 = Higher (H_led_1, H_sens_1) (1)
H_opt_2 = Higher (H_led_2, H_sens_2) (2)
here,
H_opt_1: Upper end of effective light shielding detection window of sensor unit H_opt_2: Lower end of effective light shielding detection window of sensor unit H_led_1: Upper end of effective light projection window of sensor unit H_led_2: Lower end of effective light projection window of sensor unit H_sens_1: Lower end of effective light receiving window of sensor unit H_sens_2: Lower end of effective light receiving window of sensor unit Higher (* 1, * 2): Calculation to select higher one from * 1, * 2
<共通の三次元的遮光検知領域の定義の拡張>
ここまで述べてきたように、例えば、図2Aの構成において、図2Bに示すような2つの平面S_top、S_botomを定義し、2つのセンサユニット1L及び1Rの実行的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、センサユニット1L及び1Rに関わる三次元的遮光検知領域を共通にすることができ、夫々のセンサユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。
<Extended definition of common 3D shading detection area>
As described so far, for example, in the configuration of FIG. 2A, two planes S_top and S_bottom as shown in FIG. 2B are defined, and the upper ends of the effective light-shielding detection windows of the two
このことは、上記2つのセンサユニットの場合に限らず、一般的に、3個以上の複数のセンサユニットで構成される座標入力装置において、全てのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができる。 This is not limited to the case of the two sensor units described above, and generally, in a coordinate input device composed of three or more sensor units, the upper ends of effective light shielding detection windows of all sensor units are flat. If the lower end of S_top substantially matches the plane S_bottom, all three-dimensional shading detection areas can be made common.
尚、図1Aの複眼構成の場合は、図1Bに示すような平面S_top、S_botomを定義することになる。この場合、センサユニット1L及び1Rそれぞれが内蔵する光学ユニット、L1、L2、R1及びR2において、それぞれの光学ユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。
In the case of the compound eye configuration of FIG. 1A, planes S_top and S_bottom as shown in FIG. 1B are defined. In this case, in the optical units L1, L2, R1, and R2 built in the
以下、図2Bの構成における応用例について、いくつか説明する。 Hereinafter, some application examples in the configuration of FIG. 2B will be described.
例えば、図20は、センサユニット1L及び1Rの同一直線状に、新たなセンサユニット1Cを配置することにより、2つの座標を入力できるように構成したものである。この場合も、それぞれのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。
For example, FIG. 20 is configured so that two coordinates can be input by arranging a
また、図21のように、再帰反射部4cの形状が台形形状になっていて、平面S_top及びS_botomともX方向に勾配を持つような場合においても、それぞれのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。 Further, as shown in FIG. 21, even when the shape of the retroreflective portion 4c is trapezoidal and the planes S_top and S_bottom have a gradient in the X direction, the effective light shielding detection window of each sensor unit is If the upper end substantially coincides with the plane S_top and the lower end substantially coincides with the plane S_bottom, all three-dimensional shading detection areas can be made common, and the depth of shading shadow (light shielding ratio) observed by each optical unit can be made. ) Are observed as substantially the same value.
さらには、図20や図21のように、各センサユニットが直線上に並ばない場合で、例えば、図22のように、センサユニット1Cが、センサユニット1L、1Rよりも座標入力有効領域3に対し離れた位置に配置されている場合においても、それぞれのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。
Furthermore, as shown in FIG. 20 and FIG. 21, when the sensor units are not aligned on a straight line, for example, as shown in FIG. 22, the
また、図23に示すように、さらに新たなセンサユニット2C,3Cなどが加わっても、それぞれのセンサユニットの実効的遮光検知窓の上端が平面S_topに、下端が平面S_botomに略一致していれば、全ての三次元的遮光検知領域を共通にすることができ、夫々の光学ユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される。
Further, as shown in FIG. 23, even if
即ち、実効的な再帰反射部の上辺及び下辺が、夫々、第一の平面と第二の平面を構成する関係をなしていて、夫々のセンサユニットは、その位置における実効的遮光検知窓が、第一及び第二の平面の間隙を埋める形になっていればよい。 That is, the upper side and the lower side of the effective retroreflective portion have a relationship forming the first plane and the second plane, respectively, and each sensor unit has an effective light-shielding detection window at that position, It suffices to fill the gap between the first and second planes.
ここで、第一及び第二の平面は何れも曲面や、折れ目のある面ではなく、平面である必要がある。但し、これらの第一及び第二の平面は、必ずしも平行である必要はない。更に、再帰反射部、センサユニットは、必ずしも座標入力有効領域の周辺に沿って位置する必要はなく、所定の条件を満足してさえいれば、少し離れた(下がった)位置からに配置されても良い。 Here, both the first and second planes need to be flat surfaces, not curved surfaces or creased surfaces. However, these first and second planes do not necessarily have to be parallel. Furthermore, the retroreflecting unit and the sensor unit do not necessarily have to be positioned along the periphery of the coordinate input effective area, and are arranged from a position slightly separated (down) as long as a predetermined condition is satisfied. Also good.
以上、ここまで説明した条件は、あくまでも、指示具による入力があった場合にセンサユニットで観測される影の深さ(遮光率)が、全てのセンサユニットで略同じ値に観測できるということであり、正しい座標を算出するための条件ではない。 As described above, the condition described so far is that the shadow depth (light-shielding rate) observed by the sensor unit when there is an input from the pointing tool can be observed at substantially the same value by all the sensor units. Yes, it is not a condition for calculating correct coordinates.
即ち、正しい座標を算出するためには、第一及び第二の平面等に略平行な座標入力面方向において、夫々の再帰反射部、夫々のセンサユニットが適正な関係で平面内に配置されていなければならないことは言うまでもない。 That is, in order to calculate correct coordinates, each retroreflecting unit and each sensor unit are arranged in a plane in an appropriate relationship in the coordinate input plane direction substantially parallel to the first and second planes. Needless to say, you have to.
本発明の実施形態1、2は、もちろん、上記の条件をも満足するものである。
Of course,
つまり、本発明における座標入力装置の構成を特徴づける特徴条件を、最も一般化すると
「座標入力領域を囲む夫々の実効的再帰反射部の上辺が略共通の第一の平面を構成し、 前記実効的再帰反射部の下辺が略共通の第二の平面を構成し、
夫々のセンサユニットの実効的遮光検知窓の上端が前記第一の平面に略一致し、前記実効的遮光検知窓の下端が前記第二の平面に略一致する場合に、夫々のセンサユニットで観測される遮光影の深さ(遮光率)は、略同一の値として観測される」
と表現することができる。
In other words, the characteristic condition that characterizes the configuration of the coordinate input device according to the present invention is most generalized as follows. The lower side of the retroreflective part constitutes a substantially common second plane,
Observation by each sensor unit when the upper end of the effective shading detection window of each sensor unit substantially coincides with the first plane and the lower end of the effective shading detection window substantially coincides with the second plane. The depth of the shaded shadow (shading rate) is observed as approximately the same value. "
It can be expressed as
<座標検出原理>
実施形態1における座標検出原理について説明する。
<Coordinate detection principle>
The coordinate detection principle in the first embodiment will be described.
図24は本発明の実施形態1の座標検出原理を説明するための図である。 FIG. 24 is a diagram for explaining the principle of coordinate detection according to the first embodiment of the present invention.
ここで、図24は、図1A(あるいは図2A)の座標入力装置を上方から見た場合の概略図となっている。また、以下で、図1A(あるいは図2A)や図24を用いる説明する場合には、必要に応じて、再帰反射部4a〜4cは、再帰反射部4と総称する。
Here, FIG. 24 is a schematic diagram when the coordinate input device of FIG. 1A (or FIG. 2A) is viewed from above. In the following description, when referring to FIG. 1A (or FIG. 2A) or FIG. 24, the
<センサユニット1の詳細説明>
次に、センサユニット1L及び1R内の構成について、図25を用いて説明する。尚、ここでは、センサユニット1L及び1Rそれぞれが、光学ユニットL1及びL2と光学ユニットR1及びR2を内蔵する二眼構成の場合を例に挙げて説明する。
<Detailed description of
Next, the configuration in the
図25は本発明の実施形態1のセンサユニットの詳細構成を示す図である。 FIG. 25 is a diagram showing a detailed configuration of the sensor unit according to the first embodiment of the present invention.
図25において、101A及び101Bは、赤外光を発する赤外LEDであり、各々投光レンズ102A及び102Bによって、再帰反射部4に向けて略90°範囲に光を投光する。ここで、センサユニット1L及び1R中の投光部は、この赤外LED101A及び101Bと、投光レンズ102A及び102Bによって実現される。これにより、センサユニット1L及び1Rには、それぞれ2つの投光部が構成されることになる。
In FIG. 25, 101A and 101B are infrared LEDs which emit infrared light, and project light in a range of approximately 90 ° toward the retroreflecting unit 4 by the
そして、投光部より投光された赤外光は、再帰反射部4により到来方向に再帰反射され、センサユニット1L及び1R中の受光部によって、その光を検出する。
Then, the infrared light projected from the light projecting unit is retroreflected in the arrival direction by the retroreflecting unit 4, and the light is detected by the light receiving units in the
受光部は、光線の視野を制限すると共に電気的なシールドをになうシールド部材105を設けた1次元のラインCCD104、集光光学系としての受光用レンズ(例えば、fθレンズ)106A及び106B、入射光の入射方向を概略制限する絞り108A及び108B、及び可視光等の余分な光(外乱光)の入射を防止する赤外フィルター107A及び107Bからなる。
The light receiving unit includes a one-
そして、再帰反射部4によって反射された光は、赤外フィルター107A及び107B、絞り108A及び108Bを抜けて受光用レンズ106A及び106Bによって、ラインCCD104の検出素子110面上に集光される。これにより、センサユニット1L及び1Rには、それぞれ2つの受光部が構成されることになる。
The light reflected by the retroreflecting unit 4 passes through the
部材103及び部材109は、投光部及び受光部を構成する光学部品を配置するとともに、投光部で投光した光が直接受光部に入射することを防ぐ、あるいは外来光をカットするための上フード103、下フード109として機能する。
The
尚、実施形態1においては、絞り108A及び108Bは下フード109に一体で成型されているが、別部品であってもよいことはいうまでもなく、さらには、上フード103側に、絞り108A及び108Bと受光用レンズ106A及び106Bの位置決め部を設けることで、投光部の発光中心に対する受光部の位置決めを容易にする構成(つまり、上フード103のみで、すべての主要な光学部品が配置される構成)に実現することも可能である。
In the first embodiment, the
図26Aは、図25の状態のセンサユニット1L(1R)を組み上げた状態を、正面方向(座標入力面に対し垂直方向)から見た図である。図26Aに示すように、センサユニット1L(1R)中の2つの投光部は、所定距離d離れた状態で、それぞれの主光線方向が略平行となるように配置され、各々の投光レンズ102A及び102Bによって、それぞれ略90°範囲に光を投光するように構成している。
26A is a view of the assembled state of the
図26Bは、図26Aの太矢印で示される部分の断面図であり、赤外LED101A(101B)からの光は、投光レンズ102A(102B)により、座標入力面に略平行に制限された光束として、主に再帰反射部4に対して光が投光されるように構成している。
FIG. 26B is a cross-sectional view of the portion indicated by the thick arrow in FIG. 26A. The light from the
一方、図26Cは、図26Aにおける赤外LED101A及び101B、投光レンズ102A及び102B、上フード103を取り除いた状態を、正面方向(座標入力面に対し垂直方向)から見た図である。
On the other hand, FIG. 26C is a view of the state in which the
ここで、実施形態1の場合、投光部と受光部は、座標入力面である座標入力有効領域3の垂直方向に対し重ねた配置構成(図26B参照)となっており、正面方向(座標入力面に対し垂直方向)から見て、投光部の発光中心と受光部の基準位置(つまり、角度を計測するための基準点位置に相当し、実施形態1にあっては絞り108A(108B)の位置であって、図中の光線が交差する点となる)が一致する構造となっている。
Here, in the case of
従って、前述した通り、2つの投光部は所定距離d離れた状態で、それぞれの主光線方向略平行となるように配置されているので、2つの受光部も同様に所定距離d離れた状態で、かつ各々の光軸(光学的な対称軸)が略平行となるように構成されている。 Therefore, as described above, since the two light projecting portions are arranged so as to be substantially parallel to each other in the principal ray direction with a predetermined distance d apart, the two light receiving portions are similarly separated by the predetermined distance d. And each optical axis (optical symmetry axis) is configured to be substantially parallel.
また、投光部により投光された座標入力面に略平行な光束であって、面内方向に略90°方向に投光されている光は、再帰反射部4により光の到来方向に再帰反射され、赤外フィルター107A(107B)、絞り108A(108B)、集光レンズ106A(106B)を経て、ラインCCD104の検出素子110面上に集光、結像することになる。
In addition, light that is approximately parallel to the coordinate input surface projected by the light projecting unit and is projected in a direction of approximately 90 ° in the in-plane direction is recursed in the light arrival direction by the retroreflecting unit 4. The light is reflected, passes through the
従って、ラインCCD104の出力信号は、反射光の入射角に応じた光量分布を出力することになるので、ラインCCD104を構成する各画素の画素番号が角度情報を示すことになる。
Accordingly, since the output signal of the
尚、図26Bに示す投光部と受光部の距離Lは、投光部から再帰反射部4までの距離に比べて十分に小さな値であり、距離Lを有していても十分な再帰反射光を受光部で検出することが可能な構成となっている。 Note that the distance L between the light projecting unit and the light receiving unit shown in FIG. 26B is sufficiently smaller than the distance from the light projecting unit to the retroreflective unit 4, and sufficient retroreflection is possible even if the distance L is present. The light can be detected by the light receiving unit.
以上説明したように、センサユニット1L(1R)は、少なくとも2つの投光部と、各々の投光部で投光された光を各々検出する2つの受光部(実施形態1の場合、投光部が2組、受光部が2組)を有する構成である。
As described above, the
また、実施形態1にあっては、受光部の一部であるラインCCD104におけるライン状に配置された検出素子110の左側部分を第1受光部の集光領域、右側部分を第2受光部の集光領域とすることで、部品の共通化を図っているが、これに限定されるものでなく、各受光部毎に個別にラインCCDを設けてもよいことは言うまでもない。
Further, in the first embodiment, the left side portion of the
<制御・演算ユニットの説明>
制御・演算ユニット2とセンサユニット1L及び1Rの間では、主に、受光部内のラインCCD104用のCCD制御信号、CCD用クロック信号と出力信号、及び投光部内の赤外LED101A及び101Bの駆動信号がやり取りされている。
<Description of control / arithmetic unit>
Between the control /
ここで、制御・演算ユニット2の詳細構成について、図27を用いて説明する。
Here, a detailed configuration of the control /
図27は本発明の実施形態1の制御・演算ユニットの詳細構成を示すブロック図である。 FIG. 27 is a block diagram showing a detailed configuration of the control / arithmetic unit according to the first embodiment of the present invention.
CCD制御信号は、ワンチップマイコン等で構成される演算制御回路(CPU)21から出力され、ラインCCD104のシャッタタイミングやデータの出力制御等が行われる。
The CCD control signal is output from an arithmetic control circuit (CPU) 21 constituted by a one-chip microcomputer or the like, and shutter timing of the
尚、この演算制御回路21は、クロック発生回路(CLK)22からのクロック信号に従って動作する。また、CCD用のクロック信号は、クロック発生回路(CLK)22からセンサユニット1L及び1Rに送信されると共に、各センサユニット内部のラインCCD104との同期をとって各種制御を行うために、演算制御回路21にも入力されている。
The
投光部の赤外LED101A及び101Bを駆動するためのLED駆動信号は、演算制御回路21からLED駆動回路(不図示)を介して、対応するセンサユニット1L及び1Rの投光部内の赤外LED101A及び101Bに供給されている。
The LED drive signal for driving the
センサユニット1L及び1Rそれぞれの受光部内のラインCCD104からの検出信号は、A/Dコンバータ23に入力され、演算制御回路21からの制御によって、デジタル値に変換される。この変換されたデジタル値は、メモリ132に記憶され、指示具の角度計算に用いられる。そして、この計算された角度から座標値が算出され、外部端末にシリアルインタフェース7(例えば、USB、IEEE1394、RS232Cインタフェース等)を介して出力される。
Detection signals from the
また、指示具としてペンを用いる場合、ペンからのペン信号を受信するペン信号受信部5からは、ペン信号を復調したデジタル信号が出力され、ペン信号検出回路としてのサブCPU24に入力され、ペン信号が解析された後、その解析結果が演算制御回路21に出力される。
When a pen is used as the pointing tool, a digital signal obtained by demodulating the pen signal is output from the pen
<センサユニット1の光学配置に関する詳細説明>
図28は本発明の実施形態1の座標入力装置の光学的な配置を説明するための説明図である。
<Detailed description regarding optical arrangement of
FIG. 28 is an explanatory diagram for explaining the optical arrangement of the coordinate input device according to the first embodiment of the present invention.
図28では、特に、左側センサユニット1Lの配置について説明する。尚、右側センサユニット1Rについては、図中Y軸について左側センサユニット1Lと対称な関係にある以外は、その特徴は同一なので、その説明は省略する。
In FIG. 28, the arrangement of the
先に述べた通り、センサユニット1Lには、2組の投光部と受光部(光学ユニットL1及びL2)を有し、両者の光軸(光学的な対称軸であって、光線151、及び光線161に相当)は、略平行にかつ所定距離d離れて配置されている。また、センサユニット1Lは、そのセンサ面が、座標入力有効領域3の一辺に対し、θsだけ傾いた方向となるように配置されている。
As described above, the
また、センサユニット1L中の一方の投光部の投光範囲(もしくは受光部の検出角度範囲)を光線152及び光線153、もう一方のそれを光線162及び光線163と定義する。
Further, the light projecting range (or the detection angle range of the light receiving unit) of one light projecting unit in the
尚、センサユニット1Rには、2組の投光部と受光部(光学ユニットR1及びR2)を有している。
The
光線152及び光線153、もしくは光線162及び光線163で定義される2組の光学ユニット(投光部及び受光部)の有効視野範囲は略90°であり、無論その範囲を、例えば、100°とすることも可能であるが、その有効視野範囲をより大きく設定、設計することは、例えば、光学ユニットを構成する光学部品(例えば、レンズ)の光学歪が大きくなり、安価に光学系を構成するという点で不利となる。
The effective visual field range of the two sets of optical units (the light projecting unit and the light receiving unit) defined by the
従って、各々の受光部で、投光された光を遮光する指示具の指示位置情報を得るためには、光線152及び光線163で定義される領域内に、座標入力有効領域を設定するのが好ましい形態である。そこで、座標入力有効領域を図示が如く領域171に設定すれば、センサユニット1L中の2組の受光部で、領域171中の指示具(遮光物体)の遮光位置を検出することが可能となる。
Accordingly, in order to obtain the pointing position information of the pointing tool that blocks the projected light at each light receiving unit, it is necessary to set the coordinate input effective area within the area defined by the
しかしながら、このように設定することで、例えば、各部品を内蔵した座標入力装置の筐体172と座標入力可能な領域171の関係で決まる筐体枠が大きくなり、操作可能な領域に比べ、座標入力装置全体の大きさが大きくなってしまうという課題が生じる。この課題を解決するためには、センサユニット1L(1R)の形状を小さくすることはいうまでも無く、さらには、光線151及び光線161で定義される2組の光学ユニット(投光部及び受光部)の所定距離dをより小さくするのが好ましい。
However, by setting in this way, for example, the housing frame determined by the relationship between the
実施形態1の座標入力装置に有っては、座標入力有効領域3と筐体172で決まる筐体枠を極力小さくするために、センサユニット1L(1R)中の一方の受光部は、座標入力有効領域3の全ての領域を有効視野に収めているが、もう一方の受光部は、図中領域173で定義される領域が有効視野外となる設定となっている。
In the coordinate input device of the first embodiment, in order to make the casing frame determined by the coordinate input
さて、距離dは、指示具が座標入力有効領域3の左右端部ないし上端部にあるときに、指示具の方向から見た投影成分、即ち、d*cos(θL−θs)が、指示具の半径と略等しくなるよう構成されている。
The distance d is determined by the projection component viewed from the direction of the pointing tool when the pointing tool is at the left or right end or upper end of the coordinate input
このようにすることにより、図28において、背後の指示具が図中の光線151及び光線161の間の領域に完全に入り込んでしまうことがないように構成されている。
By doing so, in FIG. 28, the pointing tool behind is configured not to completely enter the region between the
実施形態1は、例えば、図28中の光学ユニットL1、L2、R2、R1夫々から得られる光強度分布を取得する。そして、この光強度分布から夫々の光学ユニットで得られる、影の数、影の位置(角度)を算出し、センサユニット1Lを構成する光学ユニットL1あるいはL2と、センサユニット1Rを構成する光学ユニットR1あるいはR2から得られる4種類の組み合わせ、即ち、(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)を順番に選択する。
In the first embodiment, for example, the light intensity distribution obtained from each of the optical units L1, L2, R2, and R1 in FIG. 28 is acquired. Then, the number of shadows and the shadow position (angle) obtained by each optical unit are calculated from the light intensity distribution, and the optical unit L1 or L2 constituting the
次に、それぞれの組み合わせにおいて、座標候補点の確定ないし座標候補点の重複状況の確定を行い、その中から、適切な光学ユニットの組み合わせを選定する。これにより、座標候補点の中から、実入力点を判定(所謂、虚実判定)し、最終的に、2つの入力座標を決定する。 Next, in each combination, the coordinate candidate points are determined or the overlapping situation of the coordinate candidate points is determined, and an appropriate combination of the optical units is selected from them. Thereby, an actual input point is determined from so-called coordinate candidate points (so-called true / false determination), and finally two input coordinates are determined.
以降、(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)の4通りの組み合わせを、「LR光学ユニット組み合わせ」ないし「LR組み合わせ」と表現する。
次に、実施形態1における座標算出処理について、図29を用いて説明する。
Hereinafter, the four combinations (L1, R1), (L1, R2), (L2, R1), and (L2, R2) are expressed as “LR optical unit combinations” or “LR combinations”.
Next, the coordinate calculation process in
図29は本発明の実施形態1の座標入力装置が実行する座標算出処理を示すフローチャートである。 FIG. 29 is a flowchart showing coordinate calculation processing executed by the coordinate input device according to the first embodiment of the present invention.
まず、ステップS101で、光学ユニットL1、L2、R1及びR2の各光学ユニットにおける光強度分布データを取得する。次に、ステップS102で、取得した光強度分布データより、各光学ユニットが検出する影(遮光影)の数、影の位置(角度)を算出する。 First, in step S101, light intensity distribution data in each optical unit of the optical units L1, L2, R1, and R2 is acquired. Next, in step S102, the number of shadows (light-shielding shadows) detected by each optical unit and the position (angle) of the shadows are calculated from the acquired light intensity distribution data.
次に、「LR組み合わせ」及び各光学ユニットが検出する影数に基づいて、各光学ユニットにおける影数の検出状態を判定し、その判定結果に基づいて、座標算出に用いる座標候補点を確定する座標候補点確定ルーチン(ステップS103〜ステップS114)を実行する。 Next, the detection state of the number of shadows in each optical unit is determined based on the “LR combination” and the number of shadows detected by each optical unit, and coordinate candidate points used for coordinate calculation are determined based on the determination result. A coordinate candidate point determination routine (steps S103 to S114) is executed.
特に、実施形態1では、各光学ユニットにおける影数の検出状態として、以下の4種類について考慮する。尚、(Ln,Rm)(n=1、2、m=1、2)に対する影数の組み合わせを、[X−Y](X=1、2、Y=1、2)と表現する。 In particular, in the first embodiment, the following four types are considered as the detection state of the number of shadows in each optical unit. The combination of the number of shadows for (Ln, Rm) (n = 1, 2, m = 1, 2) is expressed as [XY] (X = 1, 2, Y = 1, 2).
検出状態[1]:全てのLR組み合わせにおいて、影数が[1−1]である。 Detection state [1]: The number of shadows is [1-1] in all LR combinations.
検出状態[2]:[2−2]のLR組み合わせが2つ以上存在する。 Detection state [2]: There are two or more LR combinations of [2-2].
検出状態[3]:[2−2]のLR組み合わせと[2−1]のLR組み合わせが存在する。 Detection state [3]: There is an LR combination of [2-2] and an LR combination of [2-1].
検出状態[4]:[2−1]のLR組み合わせが2つ存在する。 Detection state [4]: There are two LR combinations of [2-1].
実施形態1では、各光学ユニットにおける影数の検出状態を判定し(ステップS103〜ステップS105、ステップS108及びステップS109)、その判定した検出状態に応じて予め定義された座標算出方法[1]〜[4]で座標算出を行う(ステップS110〜ステップS113)。そして、座標算出結果を出力する(ステップS114)。一方、上記の検出状態のいずれも判定されない場合は、座標検出が不可能であると判定して、処理を終了する(ステップS106あるいはステップS109)。 In the first embodiment, the detection state of the number of shadows in each optical unit is determined (step S103 to step S105, step S108, and step S109), and a coordinate calculation method [1] to a predefined coordinate calculation method according to the determined detection state is performed. The coordinates are calculated in [4] (steps S110 to S113). Then, the coordinate calculation result is output (step S114). On the other hand, if none of the above detection states is determined, it is determined that coordinate detection is impossible, and the process ends (step S106 or step S109).
以下、座標算出方法[1]〜[4]それぞれの詳細について説明する。 The details of each of the coordinate calculation methods [1] to [4] will be described below.
座標算出方法[1](ステップS110:検出状態[1]の場合)
検出状態[1]の場合とは、単一入力がなされている場合である。この場合、どのLR組み合わせでも座標算出を実行することが可能であるが、例えば、(L1,R1)の光学ユニット組み合わせにおいて、後述する<座標算出処理(1)>によって座標算出を実行する。
Coordinate calculation method [1] (in the case of step S110: detection state [1])
The case of the detection state [1] is a case where a single input is made. In this case, coordinate calculation can be executed with any LR combination. For example, in the optical unit combination of (L1, R1), coordinate calculation is executed by <coordinate calculation processing (1)> described later.
座標算出方法[2](ステップS111:検出状態[2]の場合)
検出状態[2]の場合とは、LR組み合わせ(L1,R1)、(L1,R2)、(L2,R1)及び(L2,R2)の中から2組以上[2−2]が存在する場合である。
Coordinate calculation method [2] (in the case of step S111: detection state [2])
The detection state [2] means that there are two or more pairs [2-2] from among the LR combinations (L1, R1), (L1, R2), (L2, R1), and (L2, R2). It is.
この中から2つの組を選択し、其々から得られる4座標候補点を比較する。 Two sets are selected from these, and the four coordinate candidate points obtained from each are compared.
ここで、具体例として、(L1,R1)と(L2,R1)が[2−2]である場合を、図30及び図31を用いて説明する。 Here, as a specific example, the case where (L1, R1) and (L2, R1) are [2-2] will be described with reference to FIGS.
図30は(L1,R1)の組み合わせから、後述する<座標算出処理(1)>に基づいて、P11,P12,P21,P22を決定する。同様に、図31は(L2,R1)の組み合わせから、後述する<座標算出処理(2)>に基づいて、P’11,P’12,P’21,P’22を決定する。 In FIG. 30, P11, P12, P21, and P22 are determined from the combination of (L1, R1) based on <coordinate calculation processing (1)> described later. Similarly, in FIG. 31, P′11, P′12, P′21, and P′22 are determined from the combination of (L2, R1) based on <Coordinate calculation processing (2)> described later.
ここで、それぞれのLR組み合わせから得られた4座標候補点の値を比較する。 Here, the values of the four coordinate candidate points obtained from the respective LR combinations are compared.
この中で、現実に入力された座標に基づく座標候補点は、どちらのLR組み合わせにおいても原理的に同じ座標となる。一方、現実に入力された座標に基づかない座標(いわゆる、虚像としての座標候補点)は、光学ユニット位置のオフセットの影響で夫々の組み合わせにおいて異なった座標となる。 Among them, the coordinate candidate points based on the actually input coordinates are the same in principle in both LR combinations. On the other hand, coordinates that are not based on the actually input coordinates (so-called coordinate candidate points as virtual images) are different in each combination due to the offset of the optical unit position.
従って、それぞれのLR組みあわせから得られた4座標候補点の値を比較して、その比較結果が略一致した座標候補点が、2入力点の真実の座標値であるとして決定することができる。 Therefore, by comparing the values of the four coordinate candidate points obtained from the respective LR combinations, it is possible to determine that the coordinate candidate point whose comparison result substantially matches is the true coordinate value of the two input points. .
尚、図30及び図31の例では、P11,P22が現実の入力に基づく2入力点として決定されている。 In the example of FIGS. 30 and 31, P11 and P22 are determined as two input points based on actual inputs.
座標算出方法[3](ステップS112:検出状態[3]の場合)
検出状態[3]とは、[2−2]のLR組み合わせと[2−1]のLR組み合わせが存在する場合である。
Coordinate calculation method [3] (step S112: detection state [3])
The detection state [3] is a case where the LR combination [2-2] and the LR combination [2-1] exist.
ここで、具体例として、(L1,R2)が[2−2],(L1,R1)が[2−1]の場合を、図32及び図33を用いて説明する。 Here, as a specific example, the case where (L1, R2) is [2-2] and (L1, R1) is [2-1] will be described with reference to FIGS.
図32は(L1,R2)の組み合わせから、後述する<座標算出処理(2)>に基づいて、P11,P12,P21,P22を決定する。同様に、図33は(L1,R1)の組み合わせから、後述する<座標算出処理(1)>に基づいて、PP1,PP2を決定する。
ここで、図32におけるP11,P12,P21,P22のなかで、(P11,P22)または(P12,P21)のどちらかの内、図33における(PP1,PP2)に相対的に近い座標候補点を選択し、それらを2入力点の座標値の組として決定する。
In FIG. 32, P11, P12, P21, and P22 are determined from the combination of (L1, R2) based on <coordinate calculation processing (2)> described later. Similarly, FIG. 33 determines PP1 and PP2 from the combination of (L1, R1) based on <coordinate calculation processing (1)> described later.
Here, among P11, P12, P21, and P22 in FIG. 32, one of (P11, P22) and (P12, P21), which is a coordinate candidate point relatively close to (PP1, PP2) in FIG. And determine them as a set of coordinate values of two input points.
尚、図32及び図33の例では、P12,P21が現実の入力に基づく2入力点として決定されている。 In the example of FIGS. 32 and 33, P12 and P21 are determined as two input points based on actual inputs.
座標算出方法[4](ステップS113:検出状態[4]の場合)
検出状態[4]とは、[2−1]のLR組み合わせが2つ存在する場合である。
Coordinate calculation method [4] (in the case of step S113: detection state [4])
The detection state [4] is a case where there are two LR combinations of [2-1].
ここで、具体例として、(L1,R1)と(L1,R2)が[2−1]である場合を、図34及び図35を用いて説明する。 Here, as a specific example, the case where (L1, R1) and (L1, R2) are [2-1] will be described with reference to FIGS.
図34においては、光学ユニットR1から検出される重複した1つの影の両端の略中心部分を近似的に1つの角度θRとして扱い、<座標算出処理(2)>に基づいて、PP1、PP2を決定する。あるいは、図35においては、光学ユニットR2から検出される重複した1つの影の両端の略中心部分を近似的に1つの角度θRとして扱い、<座標算出処理(3)>に基づいて、PP’1、PP’2を決定する。 In FIG. 34, the substantially central portions of both ends of one overlapping shadow detected from the optical unit R1 are approximately treated as one angle θR, and PP1 and PP2 are represented based on <coordinate calculation processing (2)>. decide. Alternatively, in FIG. 35, approximately the center portions at both ends of one overlapping shadow detected from the optical unit R2 are approximately treated as one angle θR, and PP ′ is based on <coordinate calculation process (3)>. 1. Determine PP′2.
そして、通常は、図35に示すように、影の重複率の高い方の組み合わせを採用した方が、このような近似的な計算の場合には良好な算出結果が得られる。 In general, as shown in FIG. 35, when the combination with the higher shadow overlap rate is employed, a better calculation result can be obtained in the case of such approximate calculation.
以上のような、座標算出方法[1]〜[4]のいずれかで算出された1入力点ないし2入力点の座標算出結果は、外部端末にシリアルインタフェース7を介して出力され、画像表示装置等の出力装置にカーソルの動きないし軌跡として表示される。
The coordinate calculation result of one input point or two input points calculated by any one of the coordinate calculation methods [1] to [4] as described above is output to the external terminal via the
次に、座標算出処理(1)〜(3)の処理内容の詳細について説明する。 Next, details of the processing contents of the coordinate calculation processes (1) to (3) will be described.
<座標算出処理(1)>
ここでは、光学ユニットL1及びR1の組み合わせによって座標を算出する座標算出処理(1)について、図36を用いて説明する。
<Coordinate calculation process (1)>
Here, a coordinate calculation process (1) for calculating coordinates by a combination of the optical units L1 and R1 will be described with reference to FIG.
図36のセンサユニット1L及び1Rにおいて、座標入力有効領域3に対し、左右外側の光学ユニットが光学ユニット(L1、R1)となる。また、左右内側の光学ユニットが光学ユニット(L2、R2)となる。
In the
そして、各光学ユニットから得られる角度データは、対応するセンサユニットから見てY軸下方向を0°とし、内側に向かって、かつ左右対象な方向に角度が大となるように定義する。また、各光学ユニットが存在する座標位置をP(L1),P(L2),P(R1),P(R2)とする。 The angle data obtained from each optical unit is defined so that the Y axis downward direction is 0 ° when viewed from the corresponding sensor unit, and the angle increases inward and in the left and right target directions. In addition, the coordinate positions where each optical unit exists are P (L1), P (L2), P (R1), and P (R2).
そして、例えば、光学ユニットL1及びR1から得られる角度データに基づいて座標を算出する場合、点Oを原点として、図示のように、X及びY方向を決める、以下のような関数Xt、Ytを定義する。 For example, when calculating coordinates based on the angle data obtained from the optical units L1 and R1, the following functions Xt and Yt are used to determine the X and Y directions as shown in the figure with the point O as the origin. Define.
Xt(θL-45,θR-45)
=(tan(θL-45)-tan(θR-45))/[2*(1-tan(θL-45)*tan(θR-45))] (120)
Yt(θL-45 , B-45)
=(-1)*[(1-tan(θL-45))*(1-tan(θR-45))
/(2*(1-tan(θL-45)*tan(θR-45)))-0.5] (121)
このように定義すると、図36の点Oを原点としたときの点P(X,Y)の座標は、
X = DLR*Xt(θL-45,θR-45) (122)
Y = DLR*Yt(θL-45,θR-45) (123)
となる。
Xt (θL-45, θR-45)
= (tan (θL-45) -tan (θR-45)) / [2 * (1-tan (θL-45) * tan (θR-45))] (120)
Yt (θL-45, B-45)
= (-1) * [(1-tan (θL-45)) * (1-tan (θR-45))
/(2*(1-tan(θL-45)*tan(θR-45)))-0.5] (121)
When defined in this way, the coordinates of the point P (X, Y) when the point O in FIG.
X = DLR * Xt (θL-45, θR-45) (122)
Y = DLR * Yt (θL-45, θR-45) (123)
It becomes.
<座標算出処理(2)>
ここでは、光学ユニットL2とR1の組み合わせによって座標を算出する座標算出処理(2)について、図37を用いて説明する。
<Coordinate calculation process (2)>
Here, a coordinate calculation process (2) for calculating coordinates by a combination of the optical units L2 and R1 will be described with reference to FIG.
図37において、指示具の指示位置をP’とする。また、直線P(L1)−P(R1)と直線P(L2)−P’の交点をS’とする。 In FIG. 37, the pointing position of the pointing tool is P ′. Further, an intersection of the straight line P (L1) -P (R1) and the straight line P (L2) -P 'is defined as S'.
図37において、3点S’,P(R1),O’の位置関係からP’の座標を算出することは、図36で、3点P(L1),P(R1),OからPの座標を算出することと同等である。ここで、ベクトルO’P’をO’→P’、そのX成分を(O’→P’)x、Y成分を(O’→P’)yと表記し、式(120)及び(121)を用いると、
(O'→P')x = (DLR-ΔD)*Xt(θL-45,θR-45) (130)
(O'→P')y = (DLR-ΔD)*Yt(θL-45,θR-45) (131)
となる。ここで、図37より
ΔD = Sx+Sy*tan(θL) (132)
但し、Sx=d*cos(θs),Sy=d*sin(θs) (133)
さらに、図37から明らかなように
(O→O')x = ΔD/2 (134)
(O→O')y = (-1)*ΔD/2 (135)
となる。これにより、点Oを原点としたP’の座標は、(O→P')=(O→O')+(O→P')のX成分とY成分として算出することができる。
In FIG. 37, the calculation of the coordinates of P ′ from the positional relationship between the three points S ′, P (R1), and O ′ is performed from the three points P (L1), P (R1), and O to P in FIG. Equivalent to calculating coordinates. Here, the vector O′P ′ is expressed as O ′ → P ′, the X component is expressed as (O ′ → P ′) x, the Y component is expressed as (O ′ → P ′) y, and the equations (120) and (121) are expressed. )
(O '→ P') x = (DLR-ΔD) * Xt (θL-45, θR-45) (130)
(O '→ P') y = (DLR-ΔD) * Yt (θL-45, θR-45) (131)
It becomes. Here, from FIG. 37, ΔD = Sx + Sy * tan (θL) (132)
However, Sx = d * cos (θs), Sy = d * sin (θs) (133)
Furthermore, as apparent from FIG.
(O → O ') x = ΔD / 2 (134)
(O → O ') y = (-1) * ΔD / 2 (135)
It becomes. Thus, the coordinates of P ′ with the point O as the origin can be calculated as the X component and the Y component of (O → P ′) = (O → O ′) + (O → P ′).
ここで、同様に、光学ユニットL1、光学ユニットR2の組み合わせによって座標を算出する場合には、上述のX成分のみ符号を変えれば、同様に算出することができる。 Here, similarly, when the coordinates are calculated by the combination of the optical unit L1 and the optical unit R2, the calculation can be similarly performed by changing only the above-mentioned X component.
<座標算出処理(3)>
ここでは、光学ユニットL2及びR2の組み合わせによって座標を算出する座標算出処理(3)について、図38を用いて説明する。
<Coordinate calculation process (3)>
Here, a coordinate calculation process (3) for calculating coordinates by a combination of the optical units L2 and R2 will be described with reference to FIG.
図38において、3点P(L2),P(R2),O’’の位置関係からP’’の座標を算出することは、図36で、3点P(L1),P(R1),OからPの座標を算出することと同等である。ここで、ベクトルO’’P’’をO’’→P’’、そのX成分を(O’’→P’’)x、Y成分を(O’’→P’’)yと表記し、式(120)及び(121)を用いると、 In FIG. 38, calculating the coordinates of P ″ from the positional relationship of the three points P (L2), P (R2), and O ″ is shown in FIG. 36 as three points P (L1), P (R1), It is equivalent to calculating the coordinates of P from O. Here, the vector O ″ P ″ is expressed as O ″ → P ″, the X component is expressed as (O ″ → P ″) x, and the Y component is expressed as (O ″ → P ″) y. Using the equations (120) and (121),
(O''→P'')x = (DLR-2*Sx)*Xt(θL-45,θR-45) (141)
(O''→P'')y = (DLR-2*Sx)*Yt(θL-45,θR-45) (142)
となる。また、図38から明らかなように、
(O→O'')x = 0 (143)
(O→O'')y=(-1)*(Sx+Sy) (144)
となる。
(O '' → P '') x = (DLR-2 * Sx) * Xt (θL-45, θR-45) (141)
(O '' → P '') y = (DLR-2 * Sx) * Yt (θL-45, θR-45) (142)
It becomes. As is clear from FIG.
(O → O ″) x = 0 (143)
(O → O ″) y = (-1) * (Sx + Sy) (144)
It becomes.
これにより、点Oを原点としたP’’の座標は、(O→P'')=(O→O'')+(O→P'')のX成分とY成分として算出することができる。 As a result, the coordinates of P ″ with the point O as the origin can be calculated as the X and Y components of (O → P ″) = (O → O ″) + (O → P ″). it can.
以上のように、実施形態1では、LR組み合わせのすべてにおいて座標を算出することができる。 As described above, in the first embodiment, coordinates can be calculated for all LR combinations.
以上説明したように、実施形態1によれば、座標入力有効領域の周囲に配置する再帰反射部を、上述の特徴条件及び式(1)及び(2)を満足するように構成することで、同一の入力に伴って、夫々のセンサユニットにて検出される影が、夫々のセンサユニットにおいて、レベル(遮光比率)の差をもって検知されることを防止して、常に互いに略同一のレベル(遮光比率)で検知されることが可能となる。 As described above, according to the first embodiment, the retroreflecting unit disposed around the coordinate input effective area is configured so as to satisfy the above-described feature condition and the expressions (1) and (2). A shadow detected by each sensor unit with the same input is prevented from being detected with a difference in level (light shielding ratio) in each sensor unit, and is always at substantially the same level (light shielding). Ratio).
これにより、単一入力時には、入力座標を検出しそこなうことを防止し、複数の入力時には、入力座標と異なる、誤った座標を検出して入力座標の数を誤ることを防止することができる。特に、指示具が入力に伴って遮光入力領域への入る際と出る際において、発生頻度が高くなる上記問題を回避して、安定した座標入力を実現することができる。 Accordingly, it is possible to prevent the input coordinates from being missed at the time of a single input, and to prevent an erroneous number of input coordinates from being detected by detecting wrong coordinates different from the input coordinates at the time of a plurality of inputs. In particular, when the pointing tool enters and exits the light-shielding input area with input, it is possible to avoid the above-mentioned problem that the frequency of occurrence is high and to realize stable coordinate input.
<実施形態2>
実施形態2は、実施形態1の図10に示す構成に対し、図39に示すように、センサユニット1Cを新たに追加した構成について説明する。
<
In the second embodiment, a configuration in which a
図39では、P12及びP21点に複数入力を行った場合を示している。 FIG. 39 shows a case where a plurality of inputs are performed at points P12 and P21.
この場合、図40(a)のように、センサユニット1Lにおいて、θL1、θL2の位置に影が検出される。また、図40(b)のように、センサユニット1Rにおいて、θR1、θR2の位置に影が検出される。更に、図40(c)のように、センサユニット1Cにおいて、θC1、θC4の位置に影が検出される。この3組の角度データをもとに、4つの座標候補点P11、P12、P21及びP22が算出される。そして、これらの座標候補点の中から、何らかの手段によって虚実判定することにより、例えば、P11、P22は実像であり、P12、P21が虚像であることが判別され、座標入力点を決定することになる。
In this case, as shown in FIG. 40A, a shadow is detected at the positions of θL1 and θL2 in the
また、図39に示すセンサユニット1Cは、センサユニット1Lや1Rとほぼ同等の構成であるが、内蔵する光学ユニット(受光部及び投光部)の構造が異なり、センサユニット1L及び1Rの視野範囲がおよそ90度であるのに対し、センサユニット1Cの視野範囲はおよそ180度である。
The
最も重要なことは、センサユニット1L、1R及び1Cと、座標入力有効領域3の周囲に配置される再帰反射部の構成が、実施形態1における特徴条件と、式(1)及び(2)を満足することである。
The most important thing is that the configuration of the
即ち、実施形態2においても、座標入力有効領域の周辺に位置する全ての実効的な再帰反射部の上辺が1つの平面(第一の平面)をなし、かつ、その実効的な再帰反射部分の下辺が1つの平面(第二の平面)をなし、かつ、夫々のセンサユニットの実効的遮光検知窓の上端が第一の平面に略一致し、下端が第二の平面に略一致するということである。 That is, also in the second embodiment, the upper sides of all effective retroreflective portions located around the coordinate input effective area form one plane (first plane), and the effective retroreflective portions The lower side forms one plane (second plane), and the upper end of the effective light shielding detection window of each sensor unit substantially coincides with the first plane, and the lower end substantially coincides with the second plane. It is.
このように構成することにより、指示具によって入力が行われた場合に、センサユニット1L、1R及び1Cの夫々で観測される遮光影の深さ(遮光率)が略同一の値として観測される。
With this configuration, when the input is performed by the pointing tool, the shaded shadow depth (shielded rate) observed in each of the
従って、常に、センサユニット1L、1R及び1Cの関係から正しい座標検出を行うことができる。特に、指示具が座標入力有効領域に対して入力を行う入り際、または終了する出る際においても、遮光影を誤認識することなく安定した座標算出を実行することができる。
Therefore, correct coordinate detection can always be performed from the relationship between the
実施形態2においては、センサユニット1L及び1Rで座標候補点を検出し、センサユニット1Cで検知される影との位置関係によって、座標候補点の中から、実入力点を判定(所謂、虚実判定)し、最終的に、2つの入力座標を決定する。
In the second embodiment, the coordinate candidate points are detected by the
例えば、図39では、センサユニット1L及び1Rにより、4つの座標候補点P11,P12,P21,P22が観測される。そして、これらの座標候補点の中で、センサユニット1Cによって、所定方向に観測される座標候補点が、実入力点の座標候補点であり、これらが最終的に2つの入力座標として出力される。特に、図39の場合では、センサユニット1Cにおいて、θC1、θC4の影のみが観測されるので、P11とP22が実入力点の座標となる。
For example, in FIG. 39, four coordinate candidate points P11, P12, P21, and P22 are observed by the
以下、実施形態2における座標算出処理について、図41を用いて説明する。 Hereinafter, the coordinate calculation process according to the second embodiment will be described with reference to FIG.
図41は本発明の実施形態2の座標入力装置が実行する座標算出処理を示すフローチャートである。 FIG. 41 is a flowchart showing coordinate calculation processing executed by the coordinate input device according to the second embodiment of the present invention.
まず、ステップS201で、センサユニット1L、1R及び1Cにおける光強度分布データを取得する。次に、取得した光強度分布データより、各センサユニットが検出する影(遮光影)の数、影の位置(角度)を算出する。
First, in step S201, light intensity distribution data in the
次に、各センサユニットが検出する影数に基づいて、各センサユニットにおける影数の検出状態を判定し、その判定結果に基づいて、座標算出に用いる座標候補点を確定する座標候補点確定ルーチン(ステップS202〜ステップS208)を実行する。 Next, based on the number of shadows detected by each sensor unit, a detection state of the number of shadows in each sensor unit is determined, and based on the determination result, a coordinate candidate point determination routine for determining coordinate candidate points used for coordinate calculation (Steps S202 to S208) are executed.
特に、実施形態2では、各センサユニットにおける影数の検出状態として、以下の3種類について考慮する。尚、実施形態2では、センサユニット1Lとセンサユニット1Rに対に影数の組み合わせを、[X−Y](X=1、2、Y=1、2)と表現する。
In particular, in the second embodiment, the following three types are considered as the detection state of the number of shadows in each sensor unit. In the second embodiment, the combination of the number of shadows for the
検出状態[1]:センサユニット1Lとセンサユニット1Rによって決定される影数が[1−1]である。
Detection state [1]: The number of shadows determined by the
検出状態[2]:センサユニット1Lとセンサユニット1Rによって決定される影数が[2−2]である。
Detection state [2]: The number of shadows determined by the
検出状態[3]:センサユニット1Lとセンサユニット1Rによって決定される影数が[2−1]である。
Detection state [3]: The number of shadows determined by the
実施形態2では、センサユニット1Lとセンサユニット1Rにおける影数の検出状態を判定し(ステップS202〜ステップS204)、その判定した検出状態に応じて予め定義された座標算出方法[5a]〜[5c]で座標算出を行う(ステップS205〜ステップS207)。そして、座標算出結果を出力する(ステップS208)。一方、上記の検出状態のいずれも判定されない場合は、座標検出が不可能であると判定して、処理を終了する(ステップS209)。
In the second embodiment, the detection state of the number of shadows in the
以下、座標算出方法[5a]〜[5c]それぞれの詳細について説明する。 Hereinafter, the details of each of the coordinate calculation methods [5a] to [5c] will be described.
座標算出方法[5a](ステップS205:検出状態[1]の場合)
検出状態[1]の場合とは、単一入力がなされている場合である。この場合、実施形態1で説明した<座標算出処理(1)>によって座標算出を実行する。
Coordinate calculation method [5a] (in the case of step S205: detection state [1])
The case of the detection state [1] is a case where a single input is made. In this case, the coordinate calculation is executed by the <coordinate calculation process (1)> described in the first embodiment.
座標算出方法[5b](ステップS206:検出状態[2]の場合)
検出状態[2]の場合とは、センサユニット1L及び1Rで[2−2]となる場合である。
Coordinate calculation method [5b] (in the case of step S206: detection state [2])
The case of the detection state [2] is a case where the
この場合、実施形態1で説明した<座標算出処理(1)>によって、得られる4座標候補点の座標値を算出する。また、夫々の座標候補点をセンサユニット1Cから観測した場合の角度を予め計算する。
In this case, the coordinate values of the obtained four coordinate candidate points are calculated by the <coordinate calculation process (1)> described in the first embodiment. Further, the angle when each coordinate candidate point is observed from the
この中で、実際にセンサユニット1Cで観測された影の角度と略位置しているものを2つの入力座標として採用する。
Among these, what is substantially positioned with the shadow angle actually observed by the
座標算出方法[5c](ステップS206:検出状態[3]の場合)
検出状態[3]の場合とは、センサユニット1L及び1Rで[2−1]となる場合である。
Coordinate calculation method [5c] (in the case of step S206: detection state [3])
The case of the detection state [3] is a case where the
この場合は、重複している方の影の両端の略中央の角度上に2つの入力座標が存在すると近似して、夫々他方の二つの影と組み合わせて、実施形態1で説明した<座標算出処理(1)>に基づいて、座標を決定する。尚、センサユニット1Cが検出する光強度分布データは、虚実判定には用いず、決定した座標値の精度を向上させるための検算用に用いる。
In this case, it is approximated that there are two input coordinates on the substantially central angle at both ends of the overlapping shadow, and each of them is combined with the other two shadows in the <coordinate calculation described in the first embodiment. Coordinates are determined based on processing (1)>. The light intensity distribution data detected by the
以上説明したように、実施形態2によれば、実施形態1で説明した効果に加えて、センサユニット1Cを構成することにより、より効率良くかつ精度良く、座標算出に係る虚実判定を実現することができる。
As described above, according to the second embodiment, in addition to the effects described in the first embodiment, by configuring the
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the embodiments have been described in detail above, the present invention can take an embodiment as, for example, a system, an apparatus, a method, a program, or a storage medium, and specifically includes a plurality of devices. The present invention may be applied to a system that is configured, or may be applied to an apparatus that includes a single device.
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。 In the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the drawing) that realizes the functions of the above-described embodiment is directly or remotely supplied to the system or apparatus, and the computer of the system or apparatus Is also achieved by reading and executing the supplied program code.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。 As a recording medium for supplying the program, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card ROM, DVD (DVD-ROM, DVD-R) and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。 In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on an instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。 Furthermore, after the program read from the recording medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.
1L、1R センサユニット
2 演算・制御ユニット
3 座標入力有効領域
4a〜4c 再帰反射部
5 ペン信号受信部
1L,
Claims (6)
前記座標入力領域に対し光を投光する投光部と、到来光を受光する受光部とを備える、前記座標入力領域の周辺に設けられた複数のセンサ手段と、
前記座標入力領域の周辺に設けられ、入射光を再帰的に反射する複数の再帰反射手段と、
指示手段による指示によって、前記複数のセンサ手段それぞれから得られる、光量分布に基づいて、前記指示手段の指示位置の座標を算出する算出手段とを備え、
前記再帰反射手段を構成する部材の上辺が共通の第一の平面を成し、前記部材の下辺が共通の第二の平面を成し、かつ、前記センサ手段の遮光検知範囲である遮光検知窓の上端部が前記第一の平面上に位置し、該遮光検知窓の下端部が前記第二の平面上に位置するように、前記センサ手段及び前記再帰反射手段が配置され、
前記複数のセンサ手段に関わる三次元的遮光検出領域が、前記第一の平面と前記第二の平面に挟まれる空間であって、前記座標入力領域に対応する共通の三次元的立体形状である
ことを特徴とする座標入力装置。 A coordinate input device for detecting a designated position on a coordinate input area,
A plurality of sensor means provided around the coordinate input area, comprising: a light projecting unit that projects light to the coordinate input area; and a light receiving unit that receives incoming light;
A plurality of retroreflective means provided around the coordinate input region and recursively reflecting incident light;
Calculation means for calculating the coordinates of the indicated position of the instruction means based on the light amount distribution obtained from each of the plurality of sensor means by an instruction by the instruction means;
A light shielding detection window in which the upper side of the member constituting the retroreflective means forms a common first plane, and the lower side of the member forms a common second plane, and is a light shielding detection range of the sensor means The sensor means and the retroreflective means are arranged such that the upper end portion of the light shielding detection window is located on the first plane and the lower end portion of the light shielding detection window is located on the second plane,
The three-dimensional shading detection area related to the plurality of sensor means is a space sandwiched between the first plane and the second plane, and has a common three-dimensional solid shape corresponding to the coordinate input area. A coordinate input device characterized by that.
ことを特徴とする請求項1に記載の座標入力装置。 The three-dimensional shielding detection region, the shape of the retroreflector facing the sensor means, the coordinate input device according to claim 1, wherein a three-dimensional stereoscopic defined by the light shielding sensing window .
ことを特徴とする請求項1に記載の座標入力装置。 The light-shielding detection window is a higher one of the lower end of the light projecting window that is the light projecting range of the light projecting unit provided in the sensor means and the lower end of the light receiving window that is the light receiving range of the light receiving unit provided in the sensor means. The coordinate input device according to claim 1, wherein the coordinate input device is defined as a lower end, and the upper end of the light projecting window and the upper end of the light receiving window is set as the upper end.
ことを特徴とする請求項1に記載の座標入力装置。 The sensor means includes retroreflective means in which the field of view of the light projecting unit relates to the sensor means with respect to a direction perpendicular to the coordinate input area, and the field of view of the light receiving unit relates to retroreflection to the sensor means. The coordinate input device according to claim 1, further comprising: means.
ことを特徴とする請求項1に記載の座標入力装置。 The coordinate input device according to claim 1, wherein the sensor unit includes one optical unit including the light projecting unit and the light receiving unit.
ことを特徴とする請求項1に記載の座標入力装置。 The coordinate input device according to claim 1, wherein the sensor unit includes two optical units including the light projecting unit and the light receiving unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005118979A JP4590296B2 (en) | 2005-04-15 | 2005-04-15 | Coordinate input device |
US11/401,389 US7538894B2 (en) | 2005-04-15 | 2006-04-11 | Coordinate input apparatus, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005118979A JP4590296B2 (en) | 2005-04-15 | 2005-04-15 | Coordinate input device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006301743A JP2006301743A (en) | 2006-11-02 |
JP2006301743A5 JP2006301743A5 (en) | 2008-05-29 |
JP4590296B2 true JP4590296B2 (en) | 2010-12-01 |
Family
ID=37469994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005118979A Expired - Fee Related JP4590296B2 (en) | 2005-04-15 | 2005-04-15 | Coordinate input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4590296B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5516102B2 (en) * | 2010-06-11 | 2014-06-11 | セイコーエプソン株式会社 | Optical position detection device, electronic device and display device |
KR102376701B1 (en) * | 2021-03-17 | 2022-03-21 | 주식회사 나노시스템즈 | Method for setting 3d detection area of lidar |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331265A (en) * | 2000-05-19 | 2001-11-30 | Ricoh Co Ltd | Coordinate detecting device |
JP2002132435A (en) * | 2000-10-19 | 2002-05-10 | Newcom:Kk | Method and device for position detector |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0991094A (en) * | 1995-09-21 | 1997-04-04 | Sekisui Chem Co Ltd | Coordinate detector for touch panel |
-
2005
- 2005-04-15 JP JP2005118979A patent/JP4590296B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331265A (en) * | 2000-05-19 | 2001-11-30 | Ricoh Co Ltd | Coordinate detecting device |
JP2002132435A (en) * | 2000-10-19 | 2002-05-10 | Newcom:Kk | Method and device for position detector |
Also Published As
Publication number | Publication date |
---|---|
JP2006301743A (en) | 2006-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4455391B2 (en) | Coordinate input device, control method therefor, and program | |
US7538894B2 (en) | Coordinate input apparatus, control method thereof, and program | |
JP4455392B2 (en) | Coordinate input device, control method therefor, and program | |
JP4522113B2 (en) | Coordinate input device | |
JP4757144B2 (en) | Coordinate input device, control method therefor, and program | |
US7443387B2 (en) | Coordinate input apparatus, its control method, and program | |
JP4442877B2 (en) | Coordinate input device and control method thereof | |
US20110267264A1 (en) | Display system with multiple optical sensors | |
JP4484796B2 (en) | Coordinate input device | |
US20110115904A1 (en) | Object-detecting system | |
CN102063230A (en) | Optical imaging touch sensing system and imaging method | |
JP4590295B2 (en) | Coordinate input device, control method therefor, and program | |
JP4590296B2 (en) | Coordinate input device | |
CN105308548A (en) | Optical touch screens | |
JP4546224B2 (en) | Coordinate input method and apparatus | |
JP2006099273A (en) | Coordinate input device and its method | |
JP5865053B2 (en) | Coordinate input device, control method of coordinate input device, and program | |
JP5717514B2 (en) | Coordinate input device, control method therefor, and program | |
JP2007072508A (en) | Coordinate input device and control method and program therefor | |
JP2006251878A (en) | Device and program for inputting coordinate, and coordinate input control method | |
JP3085482U (en) | Input device | |
JP2006251877A (en) | Coordinate input device | |
JP2016045527A (en) | Coordinate input device, control method of the same and program thereof | |
JP2016045528A (en) | Coordinate input device, control method of the same and program thereof | |
JP2015170294A (en) | Coordinate input device, control method therefore, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080410 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100906 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4590296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130917 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |