JP2012234413A - Coordinate input device, method for controlling the same, and program - Google Patents

Coordinate input device, method for controlling the same, and program Download PDF

Info

Publication number
JP2012234413A
JP2012234413A JP2011103225A JP2011103225A JP2012234413A JP 2012234413 A JP2012234413 A JP 2012234413A JP 2011103225 A JP2011103225 A JP 2011103225A JP 2011103225 A JP2011103225 A JP 2011103225A JP 2012234413 A JP2012234413 A JP 2012234413A
Authority
JP
Japan
Prior art keywords
coordinate input
light
input area
light quantity
retroreflective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011103225A
Other languages
Japanese (ja)
Other versions
JP2012234413A5 (en
JP5814608B2 (en
Inventor
Hajime Sato
肇 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011103225A priority Critical patent/JP5814608B2/en
Publication of JP2012234413A publication Critical patent/JP2012234413A/en
Publication of JP2012234413A5 publication Critical patent/JP2012234413A5/ja
Application granted granted Critical
Publication of JP5814608B2 publication Critical patent/JP5814608B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a coordinate input device capable of configuring a multiple screen system to be miniaturized without impairing designability of a display and video effects such as enhanced realism in the multiple screen system made laterally long.SOLUTION: The coordinate input device comprises: sensors 1A to 1H constituted of light projection parts and light receiving parts arranged at at least two portions on two sides opposed to rectangular coordinate input regions 4A and 4B; and a first retroreflection part 3A and a second retroreflection part 3B for recursively reflecting incident light. A plurality of first light quantity distributions are detected by the sensors 1B, 1C, 1F, and 1G opposed to the first retroreflection part 3A. A plurality of second light quantity distributions are detected by timing different from the first light quantity distributions by the sensors 1A, 1D, 1E, and 1H opposed to the second retroreflection part 3B. An instruction position is calculated in each of the coordinate input regions 4A and 4B on the basis of at least two light quantity distributions of at least four light quantity distributions of the plurality of first light quantity distributions and the plurality of second light quantity distributions.

Description

本発明は、矩形状の座標入力領域に対する指示位置の座標を算出する座標入力装置及びその制御方法、プログラムに関するものである。   The present invention relates to a coordinate input device that calculates the coordinates of a designated position with respect to a rectangular coordinate input region, a control method therefor, and a program.

座標入力面に、指示具(例えば、専用入力ペン、指等)によって指示して座標を入力することで、接続されたコンピュータの制御をしたり、文字や図形等を書き込むために用いられる座標入力装置が存在する。   Coordinate input used to control the connected computer or write characters, graphics, etc. by pointing to the coordinate input surface with a pointing tool (for example, a dedicated input pen or finger) and inputting the coordinates The device exists.

従来より、この種の座標入力装置としては、タッチパネルとして、各種方式のものが提案、または製品化されており、特殊な器具を用いずに、画面上でパーソナルコンピュータ等の端末の操作が簡単にできるため、広く用いられている。   Conventionally, as this type of coordinate input device, various types of touch panels have been proposed or commercialized, and it is easy to operate a terminal such as a personal computer on the screen without using a special instrument. It can be used widely.

座標入力方式としては、抵抗膜を用いたもの、また、超音波を用いたものなど、さまざまなものがあるが、光を用いたものとして、例えば、特許文献1がある。この特許文献1では、座標入力領域の外側に再帰性反射シートを設け、座標入力領域の角端部に配置された光を照明する照明部と光を受光する受光部とにより、座標入力領域内において指等の光を遮蔽する遮蔽物と受光部間の角度を検出する。そして、その検出結果に基づいて、その遮蔽物の指示位置を決定する構成が開示されている。   There are various coordinate input methods such as those using a resistive film and those using ultrasonic waves. For example, Patent Document 1 discloses a method using light. In Patent Document 1, a retroreflective sheet is provided outside the coordinate input area, and an illumination unit that illuminates light disposed at a corner end of the coordinate input area and a light receiving unit that receives the light are used in the coordinate input area. The angle between a light shielding unit and a light shielding unit that shields light such as a finger is detected. And the structure which determines the instruction | indication position of the shield based on the detection result is disclosed.

また、特許文献2や3等にあるように、再帰反射部材を座標入力領域周辺に構成し、再帰反射光が遮光される部分(遮光部分)の座標を検出する座標入力装置が開示されている。   Further, as disclosed in Patent Documents 2 and 3 and the like, a coordinate input device is disclosed in which a retroreflective member is configured around a coordinate input region to detect the coordinates of a portion (light shielding portion) where the retroreflected light is shielded. .

これらの装置において、例えば、特許文献2では、微分等の波形処理演算によって受光部が受光する遮蔽物による遮光部分のピークを検出することにより、受光部に対する遮光部分の角度を検出し、その検出結果からその遮蔽物の座標を算出している。また、特許文献3では、特定のレベルパターンとの比較によって遮光部位の一方の端と他方の端を検出し、それらの座標の中心を検出する構成が示されている。   In these apparatuses, for example, in Patent Document 2, the angle of the light-shielding part relative to the light-receiving part is detected by detecting the peak of the light-shielding part by the shielding object received by the light-receiving part by waveform processing calculation such as differentiation, and the detection The coordinates of the shielding object are calculated from the result. Patent Document 3 discloses a configuration in which one end and the other end of a light shielding part are detected by comparison with a specific level pattern, and the center of those coordinates is detected.

ここで、特許文献1乃至3のような、遮光位置を検出して座標を算出する方式を、以下、遮光方式と称する。   Here, a method of detecting coordinates and calculating coordinates as in Patent Documents 1 to 3 is hereinafter referred to as a light shielding method.

上述した座標入力装置のシステムとして、フロントプロジェクタ等の投影装置により座標入力装置の座標入力面であるスクリーン機能を有するボードに投影し、投影画像に対して、直接的に入力が可能な構成とする場合が考えられる。   As a system of the coordinate input device described above, a projection device such as a front projector projects the image onto a board having a screen function that is a coordinate input surface of the coordinate input device, and the projection image can be directly input. There are cases.

このようなシステムは、比較的安価に画面を大型化することができるため、複数人で使用する会議や、ネットワークに接続されたビデオカメラ等の撮像装置を用いた複数人で行う遠隔会議などに利用されている。   Since such a system can enlarge the screen relatively inexpensively, it can be used for conferences that are used by multiple people, remote conferences that are performed by multiple people using an imaging device such as a video camera connected to a network, etc. It's being used.

但し、上述した用途においては、ユーザの要求が満たされているわけではない。遠隔地にある会議室の人物映像があたかも同一空間の会議室に存在するかのような仮想会議室の臨場感をさらに高めたい、表示できる情報量を増やしたいといったような要求があることから、さらなる大画面化が望まれている。   However, the user's request is not satisfied in the above-described application. Because there is a demand to increase the presence of the virtual conference room as if the person video of the conference room in the remote place exists in the same conference room, to increase the amount of information that can be displayed, A larger screen is desired.

しかしながら、上述した遮光方式の座標入力装置においては、座標入力領域を制限無く大きくできるわけではなく、受光部では、座標入力領域内の遮蔽物の指示位置を算出できる程度の光量分布を得る必要がある。光量は、光を照明する照明部の発光強度、再帰反射部材の再帰反射効率、受光部の受光感度等の各構成要素により決定される。従って、座標入力領域の1面のサイズは、これらの各構成要素の制限によって決まることになる。   However, in the above-described light shielding type coordinate input device, the coordinate input area cannot be enlarged without limitation, and it is necessary for the light receiving unit to obtain a light amount distribution that can calculate the indicated position of the shielding object in the coordinate input area. is there. The amount of light is determined by each component such as the light emission intensity of the illumination unit that illuminates the light, the retroreflection efficiency of the retroreflective member, and the light receiving sensitivity of the light receiving unit. Therefore, the size of one surface of the coordinate input area is determined by the limitations of these components.

従って、大画面化のための実用的なシステム構成として、1面の座標入力領域を有する座標入力装置のシステムを横に並べるように組み合わせて、画面を横長にする構成とすることが考えられる。   Therefore, as a practical system configuration for enlargement of the screen, it is conceivable that the system of the coordinate input device having the coordinate input area of one surface is combined side by side to make the screen horizontally long.

このような横長化の構成として、特許文献4には、複数台の光遮断検出装置を、互いの表示領域がほぼ連続するように連接し、その境界部を両面に再帰反射部材が設けられた仕切部材により仕切る構成が開示されている。   As such a horizontally long configuration, Patent Document 4 includes a plurality of light blocking detection devices connected so that their display areas are substantially continuous, and a retroreflective member is provided on both sides of the boundary portion. The structure which partitions off with a partition member is disclosed.

また、特許文献5には、縦長化の構成として、検出領域内に置かれる物体の影の位置を検出するセンサ部と、検出領域の方向に光を放射する光源部とを有する検出ユニットが検出領域の外側に設けられた構成が示されている。そして、さらに再帰反射材は検出領域を覆うことなく、光源からの光を再帰反射するように、検出領域の一側だけに、再帰反射材と検出ユニットとで、検出領域を挟むように構成する内容が開示されている。   In Patent Document 5, a detection unit having a sensor unit that detects the position of a shadow of an object placed in a detection region and a light source unit that emits light in the direction of the detection region is detected as a vertically long configuration. A configuration provided outside the region is shown. Further, the retroreflective material is configured to sandwich the detection region between the retroreflective material and the detection unit only on one side of the detection region so as to retroreflect light from the light source without covering the detection region. The contents are disclosed.

また、特許文献6には、複数台の光遮断検出装置を並べて使用する場合において、カーソル等の連続性の維持をカーソルの停留時間で判断して隣の画面でも引き続きドラッグや先を引けるようにする内容が開示されている。   Further, in Patent Document 6, when a plurality of light blocking detection devices are used side by side, the maintenance of the continuity of the cursor or the like is determined based on the stop time of the cursor so that the drag or the destination can be continued on the adjacent screen. The contents to be disclosed are disclosed.

米国特許第4507557号公報U.S. Pat. No. 4,507,557 特開2000−105671号公報JP 2000-105671 A 特開2001−142642号公報JP 2001-142642 A 特許登録第4167789号公報Patent Registration No. 4167789 特許登録第3742634号公報Patent Registration No. 3742634 特許登録第4094796号公報Patent registration No. 4094796

1面の座標入力装置を有する座標入力装置を複数個並べて2面以上の横長のマルチ画面システムを構成する場合、従来の3辺に再帰反射部材がある構成では、隣接させた繋ぎ目に再帰反射部材があるので座標入力面が断続的となる。そこで、2面の座標入力領域に跨って入力するときに操作性が低下するという課題がある。   When a plurality of coordinate input devices having one surface coordinate input device are arranged to form a horizontally long multi-screen system having two or more surfaces, in a conventional configuration having retroreflective members on three sides, retroreflection is performed at adjacent joints. Since there is a member, the coordinate input surface becomes intermittent. Therefore, there is a problem that operability is lowered when input is performed across two coordinate input areas.

さらに、例えば、プロジェクタで投影する表示画像も断続的になることから、システムのデザイン性が低下するとともに、表示される映像の臨場感を損なうという課題もある。   Further, for example, since the display image projected by the projector becomes intermittent, there are problems that the design of the system is lowered and the sense of reality of the displayed video is impaired.

特許文献4は、検出ユニットと対向する辺の再帰反射部材を隣接させて、極力隣接させた部分を薄型にする構成が示されているが、上述したような問題を解決していない。   Patent Document 4 discloses a configuration in which the retroreflective member on the side facing the detection unit is adjacent to make the adjacent portion as thin as possible, but does not solve the above-described problem.

また、座標入力領域が2面に跨る構成に対する入力の操作性に関して、特許文献6では、カーソル等の連続性の維持をカーソルの停留時間で判断して隣の画面でも引き続き操作できるようにしている。しかし、ユーザに指示具を一定時間停留させる操作を強いるため、自然な操作を妨げてしまうという課題がある。   In addition, regarding the operability of input for a configuration in which the coordinate input area extends over two surfaces, Patent Document 6 determines that the continuity of the cursor or the like is maintained based on the stop time of the cursor so that the operation can be continued on the adjacent screen. . However, since the user is forced to stop the pointing device for a certain period of time, there is a problem that a natural operation is hindered.

一方で、特許文献5に示されているように、1辺のみに再帰反射部材を有する構成では、座標入力装置を構成するセンサユニットと再帰反射部材からなる面積に対して、入力可能な領域の割合が小さくなる。すなわち、入力領域(画面領域)と比して座標入力装置が大型とならざるを得ないという課題がある。   On the other hand, as shown in Patent Document 5, in a configuration having a retroreflective member on only one side, an area that can be input is compared to an area composed of a sensor unit and a retroreflective member constituting the coordinate input device. The ratio becomes smaller. That is, there is a problem that the coordinate input device must be large compared to the input area (screen area).

また、特許文献5に示されている内容で2面以上で構成する場合に、投影面自体は、隣接させることができるので、連続した投影画像とすることが可能ではあるが、座標入力領域が連続的にはならないという問題がある。   Further, in the case of being configured with two or more surfaces with the contents shown in Patent Document 5, since the projection surfaces themselves can be adjacent to each other, a continuous projection image can be obtained, but the coordinate input area is There is a problem that it must not be continuous.

本発明は上記の課題を解決するためになされたものであり、横長化されたマルチ画面システムの表示のデザイン性や臨場感等の映像効果を損なわず、かつ小型にシステムを構成することが可能な座標入力装置を提供することを目的とする。   The present invention has been made in order to solve the above-described problems, and can reduce the size of a multi-screen system that has a horizontally long display without impairing visual effects such as display design and presence. An object is to provide a coordinate input device.

上記の目的を達成するための本発明による座標入力装置は以下の構成を備える。即ち、
矩形状の座標入力領域に対する指示位置の座標を算出する座標入力装置であって、

前記座標入力領域の対向する2辺に少なくとも2箇所ずつ配置されるセンサ手段であって、それぞれが、前記座標入力領域に向けて投光する投光部と、該座標入力領域への指示に伴う光量分布の変化を検出する受光部とにより構成されるセンサ手段と、
前記座標入力領域の第1の辺に設けられ、入射光を再帰的に反射する第1の再帰反射手段と、
前記座標入力領域の前記第1の辺に対向する第2の辺に設けられ、入射光を再帰的に反射する第2の再帰反射手段と、
前記第1の再帰反射手段と対向する前記センサ手段により得られる第1の複数の光量分布と、前記第2の再帰反射手段と対向する前記センサ手段により、前記第1の複数の光量分布とは異なるタイミングで得られる第2の複数の光量分布と、前記第1の複数の光量分布及び前記第2の複数の光量分布の少なくとも4つの光量分布のうち、少なくとも2つの光量分布に基づいて、前記座標入力領域における指示位置を算出する算出手段と
を備える。
In order to achieve the above object, a coordinate input device according to the present invention comprises the following arrangement. That is,
A coordinate input device that calculates the coordinates of a designated position with respect to a rectangular coordinate input region,

Sensor means arranged at least two locations on two opposite sides of the coordinate input area, each of which projects a light projecting toward the coordinate input area, and accompanying an instruction to the coordinate input area Sensor means comprising a light receiving unit for detecting a change in the light amount distribution;
First retroreflective means provided on the first side of the coordinate input area and recursively reflects incident light;
A second retroreflecting means provided on a second side opposite to the first side of the coordinate input area and recursively reflecting incident light;
The first plurality of light quantity distributions obtained by the sensor means facing the first retroreflective means and the first plurality of light quantity distributions by the sensor means facing the second retroreflective means. Based on at least two light quantity distributions among at least four light quantity distributions of the second plurality of light quantity distributions obtained at different timings and the first plurality of light quantity distributions and the second plurality of light quantity distributions, Calculating means for calculating the indicated position in the coordinate input area.

本発明によれば、横長化されたマルチ画面システムの表示のデザイン性や臨場感等の映像効果を損なわず、かつ小型にシステムを構成することが可能な座標入力装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the coordinate input device which can comprise a system compactly, without impairing image effects, such as the design of display of a multi-screen system extended horizontally and a realistic feeling, can be provided.

実施形態1の座標入力装置の概略構成を示す図である。It is a figure which shows schematic structure of the coordinate input device of Embodiment 1. FIG. 実施形態1のセンサユニットの詳細構成を示す図である。It is a figure which shows the detailed structure of the sensor unit of Embodiment 1. FIG. 実施形態1のセンサユニットの詳細構成を示す図である。It is a figure which shows the detailed structure of the sensor unit of Embodiment 1. FIG. 実施形態1の制御・演算ユニットのブロック図である。FIG. 2 is a block diagram of a control / arithmetic unit according to the first embodiment. 実施形態1の制御・演算ユニットの動作を説明するための図である。FIG. 6 is a diagram for explaining the operation of the control / arithmetic unit of the first embodiment. 実施形態1の光量分布を説明するための図である。It is a figure for demonstrating the light quantity distribution of Embodiment 1. FIG. 実施形態1の光量分布を説明するための図である。It is a figure for demonstrating the light quantity distribution of Embodiment 1. FIG. 実施形態1の光量分布を説明するための図である。It is a figure for demonstrating the light quantity distribution of Embodiment 1. FIG. 実施形態1の各センサユニットの組み合わせで座標計算可能な座標入力領域の座標検出範囲を示す図である。It is a figure which shows the coordinate detection range of the coordinate input area which can be coordinate-calculated by the combination of each sensor unit of Embodiment 1. FIG. 実施形態1の座標入力領域上に定義する座標のセンサユニットとの位置関係を示す図である。It is a figure which shows the positional relationship with the sensor unit of the coordinate defined on the coordinate input area of Embodiment 1. FIG. 実施形態1の座標算出処理を示すフローチャートである。3 is a flowchart illustrating a coordinate calculation process according to the first embodiment. 実施形態2の座標入力装置を説明するための図である。It is a figure for demonstrating the coordinate input device of Embodiment 2. FIG. 実施形態2の座標入力装置を説明するための図である。It is a figure for demonstrating the coordinate input device of Embodiment 2. FIG. 実施形態2のセンサユニットの回転移動機構を説明するための図である。It is a figure for demonstrating the rotational movement mechanism of the sensor unit of Embodiment 2. FIG. 実施形態2の座標入力装置を説明するための図である。It is a figure for demonstrating the coordinate input device of Embodiment 2. FIG. 実施形態2の制御・演算ユニットのブロック図である。6 is a block diagram of a control / arithmetic unit of Embodiment 2. FIG. 実施形態3の座標入力装置を説明するための図である。It is a figure for demonstrating the coordinate input device of Embodiment 3. FIG.

以下、本発明の実施の形態について図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<実施形態1>
<装置構成の概略説明>
本発明の実施形態1の座標入力装置の概略構成について図1を用いて説明する。
<Embodiment 1>
<Overview of device configuration>
A schematic configuration of the coordinate input device according to the first embodiment of the present invention will be described with reference to FIG.

図1中、1A〜1D及び1E〜1Hは投光部及び受光部を有するセンサユニット(センサ部)であり、矩形状の座標入力領域4A及び4Bに対して互いに所定の距離離されて設置されている。より具体的には、座標入力領域4A(第1の座標入力領域)の対向する2辺(第1の辺及び第2の辺)に少なくとも2箇所ずつセンサユニット1A及び1D、センサユニット1B及び1Cが設けられている。また、座標入力領域4B(第2の座標入力領域)の対向する2辺(第1の辺及び第2の辺)に少なくとも2箇所ずつセンサユニット1E及び1H、センサユニット1F及び1Gが設けられている。   In FIG. 1, 1A to 1D and 1E to 1H are sensor units (sensor units) each having a light projecting unit and a light receiving unit, and are installed at a predetermined distance from the rectangular coordinate input regions 4A and 4B. ing. More specifically, at least two sensor units 1A and 1D and sensor units 1B and 1C are provided at two opposite sides (first side and second side) of the coordinate input area 4A (first coordinate input area). Is provided. Further, at least two sensor units 1E and 1H and sensor units 1F and 1G are provided on two opposing sides (first side and second side) of the coordinate input area 4B (second coordinate input area). Yes.

センサユニット1Aと1D及び1Bと1Cはそれぞれ、制御・演算を行う制御・演算ユニット2A及び2Bに接続され、制御信号を制御・演算ユニット2A及び2Bから受信すると共に、検出した信号を制御・演算ユニット2A及び2Bに送信する。また、センサユニット1Eと1H及び1Fと1Gはそれぞれ、制御・演算を行う制御・演算ユニット2C及び2Dに接続され、制御信号を制御・演算ユニット2C及び2Dから受信すると共に、検出した信号を制御・演算ユニット2C及び2Dに送信する。   The sensor units 1A and 1D and 1B and 1C are connected to the control / arithmetic units 2A and 2B for controlling and calculating, respectively, receive control signals from the control / arithmetic units 2A and 2B, and control and calculate the detected signals. Transmit to units 2A and 2B. The sensor units 1E and 1H and 1F and 1G are connected to the control / arithmetic units 2C and 2D for controlling and calculating, respectively, and receive control signals from the control / arithmetic units 2C and 2D and control the detected signals. Transmit to the arithmetic units 2C and 2D.

3A及び3Bはそれぞれ、座標入力領域4A及び4Bの対向する2辺に設けられている再帰反射部(第1の再帰反射部及び第2の再帰反射部)である。再帰反射部3A及び3Bは、入射光を到来方向に反射する再帰反射面を有し、それぞれのセンサユニット1A〜1Hから投光された光を、センサユニット1A〜1Hに向けて再帰的に反射する。反射された光は、集光光学系とラインCCD等の構成部品によって構成されたセンサユニットの受光部によって1次元的に検出され、その光量分布が制御・演算ユニット2A〜2Cに送信される。   3A and 3B are retroreflective portions (a first retroreflective portion and a second retroreflective portion) provided on two opposing sides of the coordinate input areas 4A and 4B, respectively. The retroreflective portions 3A and 3B have retroreflective surfaces that reflect incident light in the direction of arrival, and recursively reflect the light projected from the sensor units 1A to 1H toward the sensor units 1A to 1H. To do. The reflected light is detected one-dimensionally by a light receiving portion of a sensor unit configured by components such as a condensing optical system and a line CCD, and the light amount distribution is transmitted to the control / arithmetic units 2A to 2C.

4A及び4Bは座標を入力する座標入力領域であり、座標入力領域4Aに対する指示入力が、センサユニット1A〜1Dによって検出される。また、座標入力領域4Bに対する指示入力が、センサユニット1E〜1Hによって検出される。   Reference numerals 4A and 4B denote coordinate input areas for inputting coordinates, and instruction inputs to the coordinate input area 4A are detected by the sensor units 1A to 1D. In addition, instruction inputs to the coordinate input area 4B are detected by the sensor units 1E to 1H.

実施形態1において、再帰反射部3A及び3Bは、座標入力領域4A及び4Bの2辺に構成されており、センサユニット1A、1D、1E及び1Hは、2辺の再帰反射部3A及び3Bのうち一方の再帰反射部3Bに対して投光した光を受光する。同様に、センサユニット1B、1C、1F及び1Gは、もう一方である再帰反射部3Aに対して投光した光を受光する。   In the first embodiment, the retroreflective portions 3A and 3B are configured on two sides of the coordinate input areas 4A and 4B, and the sensor units 1A, 1D, 1E, and 1H are the two sides of the retroreflective portions 3A and 3B. The light projected to one of the retroreflective portions 3B is received. Similarly, the sensor units 1B, 1C, 1F, and 1G receive the light projected on the other retroreflective portion 3A.

尚、実施形態1においては、座標入力領域4A及び4Bの2面で隙間無く隣接された状態で形成されている。各座標入力領域における指等の指示具による入力指示の座標を算出するために用いるセンサユニット1A〜1Hは、図示の如く座標入力領域4A及び4Bの外側に配置されている。そして、座標入力領域4A及び4BをPDPやリアプロジェクタ、LCDパネル等の表示装置(表示部)の表示画面で構成したり、フロントプロジェクタで画像を投影したりすることで、インタラクティブな座標入力装置として、利用可能となっている。   In the first embodiment, the two coordinate input areas 4A and 4B are adjacent to each other with no gap. The sensor units 1A to 1H used for calculating the coordinates of the input instruction by the pointing tool such as a finger in each coordinate input area are arranged outside the coordinate input areas 4A and 4B as shown in the drawing. Then, the coordinate input areas 4A and 4B are configured by a display screen of a display device (display unit) such as a PDP, a rear projector, or an LCD panel, or an image is projected by a front projector, thereby providing an interactive coordinate input device. Is available.

このような構成において、座標入力領域4A及び4Bに指等の指示具による入力指示がなされると、投光部から投光された光が遮られ、再帰反射による反射光が得られなくなるため、入力指示位置のみ光量が得られなくなる。   In such a configuration, when an input instruction is given to the coordinate input areas 4A and 4B by an indicator such as a finger, the light projected from the light projecting unit is blocked, and reflected light due to retroreflection cannot be obtained. The amount of light cannot be obtained only at the input instruction position.

制御・演算ユニット2A及び2B、及び2C及び2Dはそれぞれ、双方にデータを通信する無線通信部を有する。制御・演算ユニット2A〜2Dは、センサユニット1A〜1Hの光量変化から、入力指示された部分の遮光範囲を検出し、同遮光範囲内での検出点を特定して、それぞれの遮光範囲とセンサユニットとの間の角度を算出する。算出された角度及びセンサユニット間の距離等から、座標入力領域上の指示具の指示位置の座標を算出し、表示装置に接続されているPC等の情報処理装置に、USB等のインタフェースを経由して指示位置の座標値を出力する。   Each of the control / arithmetic units 2A and 2B and 2C and 2D has a wireless communication unit that communicates data with each other. The control / arithmetic units 2A to 2D detect the light shielding range of the input instructed part from the light quantity change of the sensor units 1A to 1H, specify the detection point within the light shielding range, and identify the respective light shielding ranges and sensors. Calculate the angle to the unit. From the calculated angle and the distance between the sensor units, the coordinates of the pointing position of the pointing tool on the coordinate input area are calculated, and the information processing device such as a PC connected to the display device is connected via an interface such as a USB. To output the coordinate value of the indicated position.

このようにして、指等の指示具によって、画面上に線を描画したり、アイコンの操作をする等の情報処理装置の操作が可能になる。   In this way, operations of the information processing apparatus such as drawing a line on the screen and operating icons can be performed by an indicator such as a finger.

<センサユニットの詳細説明>
次に、センサユニット1A〜1Hの構成について、図2及び図3を用いて説明する。尚、センサユニット1A〜1Hは、大きく分けて投光部と受光部から構成される。
<Detailed explanation of sensor unit>
Next, the structure of sensor unit 1A-1H is demonstrated using FIG.2 and FIG.3. The sensor units 1A to 1H are roughly composed of a light projecting unit and a light receiving unit.

図2は本発明の実施形態1のセンサユニットの詳細構成を示す図である。   FIG. 2 is a diagram showing a detailed configuration of the sensor unit according to the first embodiment of the present invention.

図2(a)は、センサユニット1A〜1Hそれぞれの投光部100を示している。101は赤外光を発する赤外LEDであり、投光レンズ102によって、再帰反射部3に向けて所定範囲に光を投光する。ここで、センサユニット1A〜1H中のそれぞれの投光部100は、この赤外LED101と投光レンズ102によって実現される。そして、投光部100より投光された赤外光は、再帰反射部3により到来方向に再帰的に反射され、センサユニット1A〜1H中の受光部200によって、その光を検出する。   Fig.2 (a) has shown the light projection part 100 of each sensor unit 1A-1H. Reference numeral 101 denotes an infrared LED that emits infrared light, and projects light in a predetermined range toward the retroreflecting unit 3 by a light projecting lens 102. Here, each light projecting unit 100 in the sensor units 1 </ b> A to 1 </ b> H is realized by the infrared LED 101 and the light projecting lens 102. Then, the infrared light projected from the light projecting unit 100 is recursively reflected in the arrival direction by the retroreflecting unit 3, and the light is detected by the light receiving unit 200 in the sensor units 1A to 1H.

図2(b)は、センサユニット1A〜1Hそれぞれの受光部200を示している。受光部200は、1次元のラインCCD103、集光光学系としての受光用レンズ104、入射光の入射方向を概略制限する絞り105、及び可視光等の余分な光(外乱光)の入射を防止する赤外フィルター106からなる。そして、再帰反射部3によって反射された光は、赤外フィルター106、絞り105を抜けて受光用レンズ104によって、ラインCCD103の検出素子面上に集光される。   FIG. 2B shows the light receiving unit 200 of each of the sensor units 1A to 1H. The light receiving unit 200 prevents the incidence of extraneous light (disturbance light) such as visible light, a one-dimensional line CCD 103, a light receiving lens 104 as a condensing optical system, a diaphragm 105 that roughly restricts the incident direction of incident light. And an infrared filter 106. Then, the light reflected by the retroreflecting unit 3 passes through the infrared filter 106 and the diaphragm 105 and is condensed on the detection element surface of the line CCD 103 by the light receiving lens 104.

図3は、図1のセンサユニット1A及び1B側から見た断面図である。センサユニット1Aの赤外LED101Aからの光は、投光レンズ102Aにより、座標入力面に略平行に制限された光束として、主に再帰反射部3Bに対して光が投光されるように構成されている。同様に、センサユニット1Bの赤外LED101Bからの光は、投光レンズ102Bにより、主に再帰反射部3Aに対して光が投光されるように構成されている。   3 is a cross-sectional view seen from the sensor units 1A and 1B side of FIG. The light from the infrared LED 101A of the sensor unit 1A is configured such that the light is mainly projected onto the retroreflective portion 3B as a light beam that is limited substantially parallel to the coordinate input surface by the light projecting lens 102A. ing. Similarly, the light from the infrared LED 101B of the sensor unit 1B is configured so that the light is mainly projected to the retroreflective portion 3A by the light projection lens 102B.

ここで、実施形態1の場合、投光部100と受光部200は、座標入力面である座標入力領域4A及び4Bの垂直方向に対し重ねた配置構成となっている。そして、正面方向(座標入力面に対し垂直方向)から見て、投光部100の発光中心と受光部200の基準位置(つまり、角度を計測するための基準点位置に相当し、実施形態1にあっては絞り105の位置)が一致する構造となっている。   Here, in the case of the first embodiment, the light projecting unit 100 and the light receiving unit 200 are arranged to overlap each other in the vertical direction of the coordinate input areas 4A and 4B that are coordinate input surfaces. The first embodiment corresponds to the light emission center of the light projecting unit 100 and the reference position of the light receiving unit 200 (that is, the reference point position for measuring the angle) as viewed from the front direction (perpendicular to the coordinate input surface). In this case, the position of the aperture 105 is matched.

また、投光部100により投光された座標入力面に略平行な光束であって、座標入力面内方向に所定角度方向に投光されている光は、再帰反射部3Aあるいは3Bにより光の到来方向に再帰反射される。そして、赤外フィルター106A(106B)、絞り105A(105B)、受光用レンズ104A(104B)を経て、ラインCCD103A(103B)の検出素子面上に集光、結像することになる。   In addition, the light that is substantially parallel to the coordinate input surface projected by the light projecting unit 100 and is projected in a predetermined angle direction in the direction of the coordinate input surface is reflected by the retroreflecting unit 3A or 3B. Retroreflected in the direction of arrival. Then, light passes through the infrared filter 106A (106B), the stop 105A (105B), and the light receiving lens 104A (104B), and is condensed and imaged on the detection element surface of the line CCD 103A (103B).

従って、ラインCCD103の出力信号は、反射光の入射角に応じた光量分布を出力することになるので、ラインCCD103を構成する各画素の画素番号が角度情報を示すことになる。   Therefore, since the output signal of the line CCD 103 outputs a light amount distribution corresponding to the incident angle of the reflected light, the pixel number of each pixel constituting the line CCD 103 indicates angle information.

尚、図3に示す投光部100と受光部200の距離Lは、投光部100から再帰反射部3までの距離に比べて十分に小さな値であり、距離Lを有していても十分な再帰反射光を受光部200で検出することが可能な構成となっている。   Note that the distance L between the light projecting unit 100 and the light receiving unit 200 shown in FIG. 3 is sufficiently smaller than the distance from the light projecting unit 100 to the retroreflective unit 3, and it is sufficient that the distance L is present. The retroreflected light can be detected by the light receiving unit 200.

また、図3では、センサユニット1A及び1Bについて説明しているが、同様の関係を有する、センサユニット1E及び1F、センサユニット1D及び1C、及びセンサユニット1H及び1Gも、センサユニット1A及び1Bと同様の構成を有する。   Further, in FIG. 3, the sensor units 1A and 1B are described. However, the sensor units 1E and 1F, the sensor units 1D and 1C, and the sensor units 1H and 1G having the same relationship are also the sensor units 1A and 1B. It has the same configuration.

以上説明したように、センサユニット1A〜1Hは、投光部100と、各々の投光部100で投光された光を各々検出する受光部200を有する構成である。   As described above, the sensor units 1 </ b> A to 1 </ b> H are configured to include the light projecting unit 100 and the light receiving unit 200 that respectively detects the light projected by each light projecting unit 100.

<制御・演算ユニットの説明>
図1の制御・演算ユニット2A〜2Dとセンサユニット1A〜1Hの間では、CCD制御信号、CCD用クロック信号とCCDの出力信号、及び、LED駆動信号がやり取りされている。尚、制御・演算ユニット2Aは、センサユニット1A及び1Dと接続されている。同様に、制御・演算ユニット2Bは、センサユニット1B及び1Cと接続されている。制御・演算ユニット2Cは、センサユニット1E及び1Hと接続されている。制御・演算ユニット2Dは、センサユニット1F及び1Gと接続されている。
<Description of control / arithmetic unit>
A CCD control signal, a CCD clock signal, a CCD output signal, and an LED drive signal are exchanged between the control / arithmetic units 2A to 2D and the sensor units 1A to 1H in FIG. The control / arithmetic unit 2A is connected to the sensor units 1A and 1D. Similarly, the control / arithmetic unit 2B is connected to the sensor units 1B and 1C. The control / arithmetic unit 2C is connected to the sensor units 1E and 1H. The control / arithmetic unit 2D is connected to the sensor units 1F and 1G.

図4は本発明の実施形態1の制御・演算ユニットのブロック図である。尚、図4では、センサユニット1Aと1Dに接続される制御・演算ユニット2Aの構成を例に挙げて説明するが、制御・演算ユニット2B〜2Dも同様の回路構成となっている。   FIG. 4 is a block diagram of the control / arithmetic unit according to the first embodiment of the present invention. In FIG. 4, the configuration of the control / arithmetic unit 2A connected to the sensor units 1A and 1D will be described as an example, but the control / arithmetic units 2B to 2D have the same circuit configuration.

CCD制御信号はワンチップマイコン等の構成部品で構成されるCPU41から出力され、CCDのシャッタタイミングやデータの出力制御等を行っている。CCD用クロック信号はクロック発生回路CLK42からセンサユニットに送信されるとともに、CCDとの同期をとって、各種制御を行うためにCPU41にも入力されている。LED駆動信号はCPU41から、センサユニット1Aと1Dの赤外LED101に供給されている。   The CCD control signal is output from the CPU 41 constituted by components such as a one-chip microcomputer, and performs CCD shutter timing, data output control, and the like. The CCD clock signal is transmitted from the clock generation circuit CLK42 to the sensor unit, and is also input to the CPU 41 in order to perform various controls in synchronization with the CCD. The LED drive signal is supplied from the CPU 41 to the infrared LEDs 101 of the sensor units 1A and 1D.

センサユニット1Aと1Dの受光部200からの検出信号は、制御・演算ユニット2AのA/Dコンバータ43に入力され、CPU41からの制御によって、デジタル値に変換される。変換されたデジタル値はメモリ44に記憶され、角度計算に用いられる。そして、計算された角度から、座標値が算出され、外部PC等の情報処理装置にシリアルインタフェース48等の通信インタフェースを介して出力される。尚、シリアルインタフェース48は、制御・演算ユニット2A〜2Dのいずれか1つがPCと接続される。   Detection signals from the light receiving units 200 of the sensor units 1A and 1D are input to the A / D converter 43 of the control / arithmetic unit 2A and converted into digital values under the control of the CPU 41. The converted digital value is stored in the memory 44 and used for angle calculation. Then, a coordinate value is calculated from the calculated angle, and is output to an information processing apparatus such as an external PC via a communication interface such as the serial interface 48. In the serial interface 48, any one of the control / arithmetic units 2A to 2D is connected to the PC.

ここで、実施形態1では、センサユニット1Aと1Dとそれに対する制御・演算ユニット2Aと、センサユニット1Bと1Cとそれに対する制御・演算ユニット2Bが、座標入力領域4Aに対して上部と下部にそれぞれ分離して配置された構成となっている。また、センサユニット1Eと1Hとそれに対する制御・演算ユニット2Cと、センサユニット1Fと1Gとそれに対する制御・演算ユニット2Dが、座標入力領域4Bに対して上部と下部にそれぞれ分離して配置された構成となっている。更に、座標入力領域4Aと4Bの上部と下部のそれぞれにおいて、各座標入力領域の座標を検出する対応するセンサユニットと制御・演算ユニットとの組に接続された回路構成となっている。   Here, in the first embodiment, the sensor units 1A and 1D and the control / arithmetic unit 2A for the sensor units 1A and 1D, and the sensor units 1B and 1C and the control / arithmetic unit 2B for the sensor units 1A and 1D are respectively located above and below the coordinate input area 4A. It is the structure arranged separately. Further, the sensor units 1E and 1H and the control / arithmetic unit 2C for the sensor units 1F and 1G and the control / arithmetic unit 2D for the sensor units 1F and 1G are arranged separately from the upper and lower parts of the coordinate input area 4B. It has a configuration. Furthermore, in each of the upper part and the lower part of the coordinate input areas 4A and 4B, the circuit configuration is connected to a pair of a corresponding sensor unit and a control / arithmetic unit for detecting the coordinates of each coordinate input area.

また、実施形態1においては、制御・演算ユニット間で通信を行うための通信機能を有している。   Further, the first embodiment has a communication function for performing communication between the control / arithmetic units.

まず、上部と下部のそれぞれにおける制御・演算ユニット2A及び2C間、及び2B及び2D間の通信には、有線シリアル通信部からなるインタフェース47で行う。このインタフェースを介して、上部のセンサユニット1A、1D、1E及び1H、下部のセンサユニット1B、1C、1F及び1Gの制御信号の同期が行われる。また、メモリ44に格納された各種のデータがやりとりされる。   First, communication between the control / arithmetic units 2A and 2C and between 2B and 2D in the upper part and the lower part is performed by an interface 47 including a wired serial communication unit. The control signals of the upper sensor units 1A, 1D, 1E and 1H and the lower sensor units 1B, 1C, 1F and 1G are synchronized via this interface. Various data stored in the memory 44 are exchanged.

また、上部と下部の間の制御・演算ユニット2A〜2Dの通信には、無線通信部が用いられる。実施形態1では、無線通信部の1つである赤外線通信インタフェース46を介して、サブCPU45で処理されたデータにより、制御・演算ユニット2A〜2D間のやりとりが行われる。   In addition, a wireless communication unit is used for communication between the upper and lower control / arithmetic units 2A to 2D. In the first embodiment, exchange between the control / arithmetic units 2A to 2D is performed by the data processed by the sub CPU 45 via the infrared communication interface 46 which is one of the wireless communication units.

尚、各制御・演算ユニット2A〜2Dは、マスター・スレーブ制御にて動作する。実施形態1の場合は、制御・演算ユニット2Aがマスターで、その他の制御・演算ユニット2B〜2Dがスレーブである。また、各制御・演算ユニット2A〜2Dは、マスター・スレーブのどちらにもなりうるが、ディップスイッチ(不図示)等の切替部で、CPU41のポートに切替信号を入力することでマスター/スレーブを切り替えることが可能となっている。   Each of the control / arithmetic units 2A to 2D operates under master / slave control. In the case of the first embodiment, the control / arithmetic unit 2A is a master, and the other control / arithmetic units 2B to 2D are slaves. Each of the control / arithmetic units 2A to 2D can be either a master or a slave, but the master / slave can be selected by inputting a switching signal to the port of the CPU 41 by a switching unit such as a dip switch (not shown). It is possible to switch.

マスターである制御・演算ユニット2Aからは、各センサユニット1A〜1Hの制御信号を送信するタイミングを制御する制御信号がスレーブの制御・演算ユニット2B〜2Dに赤外線通信インタフェース46を介して送信される。そして、上述の手順に従って座標値が算出され、PC等の情報処理装置に送信される。   From the control / arithmetic unit 2A, which is the master, a control signal for controlling the timing of transmitting the control signals of the sensor units 1A-1H is transmitted to the slave control / arithmetic units 2B-2D via the infrared communication interface 46. . Then, coordinate values are calculated according to the above-described procedure, and transmitted to an information processing apparatus such as a PC.

<光量分布検出の説明>
図5は制御信号のタイミングチャートである。
<Explanation of light intensity distribution detection>
FIG. 5 is a timing chart of control signals.

51、52、53がCCD制御用のCCD制御信号であり、SH信号(51)の間隔で、CCDのシャッタ解放時間が決定される。52、53はそれぞれ上部センサユニット(センサユニット1A、1D、1E及び1H)と下部センサユニット(センサユニット1B、1C、1F及び1G)へのゲート信号であり、CCD内部の光電変換部の電荷を読出部へ転送する信号である。   Reference numerals 51, 52, and 53 denote CCD control signals for CCD control, and the shutter release time of the CCD is determined by the interval of the SH signal (51). 52 and 53 are gate signals to the upper sensor unit (sensor units 1A, 1D, 1E, and 1H) and the lower sensor unit (sensor units 1B, 1C, 1F, and 1G), respectively. This signal is transferred to the reading unit.

54、55は赤外LEDの駆動信号であり、SH信号(51)の最初の周期で上部センサユニットの赤外LEDを点灯するためにLEDU信号(54)がLED駆動回路を経て赤外LEDに供給される。そして、次の周期で下部センサユニットの赤外LEDを点灯するためにLEDD信号(55)がLED駆動回路を経て赤外LEDに供給される。双方の赤外LEDの駆動が終了した後に、ラインCCDの信号がセンサユニットから読み出される。従って、上部センサユニットと下部センサユニットとでは、異なるタイミングで投光(56Uと56Dの投光期間)されて、各センサユニットの各ラインCCDが受光した複数のデータ(光量分布)が読み出されることになる。   54 and 55 are infrared LED drive signals. In order to turn on the infrared LED of the upper sensor unit in the first cycle of the SH signal (51), the LEDU signal (54) passes through the LED drive circuit to the infrared LED. Supplied. Then, in order to turn on the infrared LED of the lower sensor unit in the next cycle, the LEDD signal (55) is supplied to the infrared LED through the LED driving circuit. After the driving of both infrared LEDs is completed, the signal of the line CCD is read from the sensor unit. Therefore, the upper sensor unit and the lower sensor unit emit light at different timings (light emission periods of 56U and 56D), and a plurality of data (light quantity distribution) received by each line CCD of each sensor unit is read out. become.

読み出される信号は、入力がない場合には、それぞれのセンサユニット1A〜1Hからの出力として、図6のような光量分布が得られる。もちろん、このような光量分布がどのシステムでも必ず得られるわけではなく、再帰反射部3A及び3Bの特性や赤外LED101の特性、また、経時変化(反射面の汚れ等)によって、光量分布は変化する。   When the signal to be read is not input, a light amount distribution as shown in FIG. 6 is obtained as an output from each of the sensor units 1A to 1H. Of course, such a light amount distribution is not necessarily obtained in any system, and the light amount distribution changes depending on the characteristics of the retroreflective portions 3A and 3B, the characteristics of the infrared LED 101, and the change over time (such as dirt on the reflecting surface). To do.

同図においては、Aレベルが最大光量のレベルであり、Bレベルが最低光量のレベルとなる。つまり、反射光のない状態では、得られるレベルがBレベル付近になり、反射光量が増えるほどAレベルの方向になっている。このように、ラインCCD103から出力されたデータは、逐次A/D変換されCPU41にデジタルデータとして取り込まれる。   In the figure, the A level is the maximum light amount level, and the B level is the minimum light amount level. That is, when there is no reflected light, the level obtained is near the B level, and the direction of the A level increases as the amount of reflected light increases. In this way, the data output from the line CCD 103 is sequentially A / D converted and taken into the CPU 41 as digital data.

図7は指等の指示具で入力を行った場合、つまり、再帰反射光を遮った場合の出力の例である。C部分が指等の指示具で反射光が遮られたためその部分のみ、光量が低下している。検出は、この光量分布の変化から行う。   FIG. 7 shows an example of output when input is performed with an indicator such as a finger, that is, when retroreflected light is blocked. Since the reflected light is blocked by an indicator such as a finger at the portion C, the amount of light is reduced only at that portion. Detection is performed from the change in the light amount distribution.

具体的には、図6のような入力の無い初期状態を予め記憶しておいて、それぞれのサンプル期間に図6のような変化があるか初期状態との差分によって検出し、変化があったらその部分を入力点として入力角度を決定する演算を行う。   Specifically, an initial state without input as shown in FIG. 6 is stored in advance, and whether there is a change as shown in FIG. 6 in each sample period is detected by the difference from the initial state. An operation for determining an input angle is performed using that portion as an input point.

<角度計算の説明>
センサユニット1A〜1Hに対する指示具の角度計算にあたっては、まず、指示具による遮光範囲を検出する必要がある。
<Description of angle calculation>
In calculating the angle of the pointing tool with respect to the sensor units 1A to 1H, it is first necessary to detect a light shielding range by the pointing tool.

上述したように、センサユニット1A〜1Hが検出する光量分布は、経時変化等の要因で一定ではないため、その初期状態の光量分布は、例えば、システムの起動時毎にメモリ44に記憶することが望ましい。そうすることで、例えば、再帰反射面がほこり等で汚れていても、全く反射しないような場合を除いて使用可能になる。   As described above, since the light amount distribution detected by the sensor units 1A to 1H is not constant due to factors such as a change with time, the light amount distribution in the initial state is stored in the memory 44 every time the system is started, for example. Is desirable. By doing so, for example, even if the retroreflective surface is dirty with dust or the like, it can be used except when it does not reflect at all.

以下、一つのセンサユニット1Aによる指示具の角度計算について説明するが、他のセンサユニット1B〜1Hでも同様の角度計算を行っていることは言うまでもない。   Hereinafter, although the angle calculation of the pointing tool by one sensor unit 1A will be described, it is needless to say that the same angle calculation is performed by the other sensor units 1B to 1H.

電源投入時、入力の無い(遮光部分がない)状態で、まず、センサユニット1A内の投光部100からの投光を停止している状態で、受光部200のラインCCD103の出力をA/D変換して、この値をBas_Data[N]として、メモリ44に記憶する。   When the power is turned on, there is no input (there is no light-shielding portion), and first, the light output from the light projecting unit 100 in the sensor unit 1A is stopped. After D conversion, this value is stored in the memory 44 as Bas_Data [N].

尚、この値は、受光部200(ラインCCD103)のバイアスのばらつき等を含んだデータとなり、図6のBレベル付近のデータとなる。ここで、NはラインCCD103を構成する画素の画素番号であり、有効な入力範囲(有効範囲)に対応する画素番号が用いられる。   This value is data including variations in bias of the light receiving unit 200 (line CCD 103), and is data near the B level in FIG. Here, N is a pixel number of a pixel constituting the line CCD 103, and a pixel number corresponding to an effective input range (effective range) is used.

次に、投光部100からの投光を行っている状態で、受光部200の出力である光量分布をA/D変換して、この値をRef_Data[N]としてメモリ44に記憶する。この値は、例えば、図6の実線で示されるデータである。   Next, in a state where light is emitted from the light projecting unit 100, the light amount distribution that is the output of the light receiving unit 200 is A / D converted, and this value is stored in the memory 44 as Ref_Data [N]. This value is, for example, data indicated by a solid line in FIG.

そして、このメモリ44に記憶されたBas_data[N]とRef_data[N]とを用いて、まずは、指示具による入力の有無、かつ遮光範囲の有無の判定を行う。ここで、センサユニット1Aの出力のサンプル期間内のN番目の画素の画素データをNorm_Data[N]とする。   Then, using Bas_data [N] and Ref_data [N] stored in the memory 44, first, the presence / absence of input by the pointing tool and the presence / absence of the light shielding range are determined. Here, the pixel data of the Nth pixel within the sample period of the output of the sensor unit 1A is Norm_Data [N].

まず、遮光範囲を特定するために、画素データの変化の絶対量によって、遮光範囲の有無を判定する。これは、ノイズ等による誤判定を防止し、所定量の確実な変化を検出するためである。   First, in order to specify the light shielding range, the presence or absence of the light shielding range is determined based on the absolute amount of change in the pixel data. This is to prevent erroneous determination due to noise or the like and to detect a certain amount of reliable change.

具体的には、画素データの変化の絶対量を、ラインCCD103の各々の画素において、以下の計算を行い、予め決定してある閾値Vthaと比較する。   Specifically, the absolute amount of change in the pixel data is calculated for each pixel of the line CCD 103 and compared with a predetermined threshold value Vtha.

Norm_Data[N]_a = Norm_Data[N] - Ref_Data[N] (1)
ここで、Norm_Data[N]は、ラインCCD103の各画素における絶対変化量である。
Norm_Data [N] _a = Norm_Data [N]-Ref_Data [N] (1)
Here, Norm_Data [N] is an absolute change amount in each pixel of the line CCD 103.

この処理は、ラインCCD103の各画素の絶対変化量Norm_data_a[N]を算出し、それを閾値Vthaと比較するだけである。従って、その処理時間をさほど必要とせず、入力の有無の判定を高速に行うことが可能である。そして、特に、閾値Vthaを初めて超えた画素が所定数を超えて検出された場合に、指示具の入力があると判定する。   This process merely calculates the absolute change amount Norm_data_a [N] of each pixel of the line CCD 103 and compares it with the threshold value Vtha. Therefore, it is possible to determine the presence or absence of input at high speed without requiring much processing time. In particular, when the number of pixels exceeding the threshold value Vtha for the first time is detected exceeding a predetermined number, it is determined that there is an input from the pointing tool.

次に、より高精度に指示具による入力を検出するために、画素データの変化の比を計算して入力点の決定を行う。   Next, in order to detect input by the pointing tool with higher accuracy, the ratio of changes in pixel data is calculated to determine the input point.

Norm_Data[N]_r = Norm_Data[N] / (Bas_Data[N] - Ref_Data[N]) (2)
この画素データに対して、閾値Vthrを適用して、遮光範囲に対応する画素データ分布の立ち上がり部と立下り部に対応する画素番号を取得する。そして、この両者の中央を指示具による入力に対応する画素とすることで、より正確な指示具の入力位置を決定することができる。
Norm_Data [N] _r = Norm_Data [N] / (Bas_Data [N]-Ref_Data [N]) (2)
A threshold value Vthr is applied to this pixel data to obtain pixel numbers corresponding to rising and falling portions of the pixel data distribution corresponding to the light shielding range. And the center of both of these is made into the pixel corresponding to the input by an indicator, and the more accurate input position of an indicator can be determined.

図8は、この比計算を終了した後の検出の例である。指示具による遮光範囲を検出するための閾値Vthrに対して、その閾値Vthrを横切る画素データ分布の立ち上がり部分がNr番目の画素、立ち下がり部分がNf番目の画素であるとする。   FIG. 8 shows an example of detection after the ratio calculation is completed. Assume that the rising portion of the pixel data distribution crossing the threshold value Vthr is the Nrth pixel and the falling portion is the Nfth pixel with respect to the threshold value Vthr for detecting the light shielding range by the pointing tool.

この場合、両者の画素の中心画素Npを
Np = Nr + (Nf - Nr) / 2 (3)
のように計算してもよいが、そうすると、ラインCCD103の画素間隔が最小の分解能になってしまう。より高分解能に検出するために、それぞれの画素のデータレベルとその一つ前の隣接画素のデータレベルを用いて、閾値Vthrを横切る仮想の画素番号を計算する。
In this case, the central pixel Np of both pixels is
Np = Nr + (Nf-Nr) / 2 (3)
However, in this case, the pixel interval of the line CCD 103 becomes the minimum resolution. In order to detect with higher resolution, a virtual pixel number crossing the threshold value Vthr is calculated using the data level of each pixel and the data level of the immediately preceding adjacent pixel.

ここで、Nr板面の画素のデータレベルをLr、Nr−1番目の画素のデータレベルをLr−1とする。また、Nf番目の画素のデータレベルをLf、Nf−1番目の画素のデータレベルをLf−1とする。この場合、それぞれの仮想画素番号Nrv、Nfvは、
Nrv = Nr-1 + ( Vthr - Lr-1 ) / ( Lr - Lr-1 ) (4)
Nfv = Nf-1 + ( Vthr - Lf-1 ) / ( Lf - Lf-1 ) (5)
と計算できる。そして、これの仮想画素番号Nrv、Nfvの仮想中心画素Npvは、
Npv = Nrv + ( Nfv - Nrv ) / 2 (6)
で決定される。
Here, the data level of the pixel on the Nr plate surface is Lr, and the data level of the Nr-1st pixel is Lr-1. The data level of the Nf-th pixel is Lf, and the data level of the Nf-1th pixel is Lf-1. In this case, the respective virtual pixel numbers Nrv and Nfv are
Nrv = Nr-1 + (Vthr-Lr-1) / (Lr-Lr-1) (4)
Nfv = Nf-1 + (Vthr-Lf-1) / (Lf-Lf-1) (5)
Can be calculated. And the virtual center pixel Npv of these virtual pixel numbers Nrv and Nfv is
Npv = Nrv + (Nfv-Nrv) / 2 (6)
Determined by

このように、閾値Vthrを越えるデータレベルの画素の画素番号とその隣接する画素番号と、それらのデータレベルから、閾値Vthrを横切る仮想的な仮想画素番号を計算することで、より分解能の高い検出を実現できる。このようにして得られた遮光範囲の中心点を示す中心画素番号から、実際の指示具の座標値を計算するためには、この中心画素番号を角度情報に変換する必要がある。   Thus, detection with higher resolution can be performed by calculating a virtual virtual pixel number that crosses the threshold Vthr from the pixel number of the pixel of the data level exceeding the threshold Vthr and the adjacent pixel number and the data level. Can be realized. In order to calculate the actual coordinate value of the pointing tool from the center pixel number indicating the center point of the light shielding range obtained in this way, it is necessary to convert the center pixel number into angle information.

後述する実際の座標計算では、角度そのものよりもその角度における正接(tanθ)の値を算出するほうが都合がよい。尚、画素番号から、tanθへの変換には、テーブル参照や変換式を用いる。この変換式は、例えば、高次多項式を用いると精度を確保できるが次数等は計算能力及び精度スペック等を鑑みて決定すればよい。   In actual coordinate calculation to be described later, it is more convenient to calculate the value of the tangent (tan θ) at the angle rather than the angle itself. A table reference or a conversion formula is used for conversion from the pixel number to tan θ. For example, a high-order polynomial can be used for this conversion formula to ensure accuracy, but the order and the like may be determined in view of calculation capability, accuracy specifications, and the like.

ここで、5次多項式を用いる場合の例を示すと、5次多項式を用いる場合には係数が6個必要になるので、出荷時等にこのデータをメモリ44に記憶しておけばよい。5次多項式の係数をL5、L4、L3、L2、L1、L0としたとき、tanθは、
tanθ = (L5* Npr + L4) * Npr + L3) * Npr + L2) * Npr + L1) * Npr + L0 (7)
であらわすことができる。
Here, an example in the case of using a 5th order polynomial requires 6 coefficients in the case of using a 5th order polynomial, so this data may be stored in the memory 44 at the time of shipment or the like. When the coefficient of the fifth order polynomial is L5, L4, L3, L2, L1, L0, tan θ is
tanθ = (L5 * Npr + L4) * Npr + L3) * Npr + L2) * Npr + L1) * Npr + L0 (7)
Can be represented.

同様なことを、各々のセンサユニットに対して行えば、それぞれの角度データを決定できる。もちろん、上記例では、tanθを算出しているが、角度そのものを算出し、その後tanθを算出しても構わない。   If the same thing is done for each sensor unit, the respective angle data can be determined. Of course, in the above example, tan θ is calculated, but the angle itself may be calculated, and then tan θ may be calculated.

<座標計算方法の説明>
次に、画素番号から変換された角度データ(tanθ)から、指示具の位置座標を算出する座標算出方法について説明する。
<Description of coordinate calculation method>
Next, a coordinate calculation method for calculating the position coordinates of the pointing tool from the angle data (tan θ) converted from the pixel number will be described.

図9は本発明の実施形態1の各センサユニットの組み合わせで座標計算可能な座標入力領域の座標検出範囲を示す図である。尚、図9では、座標入力領域4Aに対するセンサユニット1A〜1Dについて説明するが、座標入力領域4Bに対するセンサユニット1E〜1Hについても同様である。   FIG. 9 is a diagram showing a coordinate detection range of a coordinate input area in which coordinates can be calculated by a combination of sensor units according to the first embodiment of the present invention. 9, the sensor units 1A to 1D for the coordinate input area 4A will be described, but the same applies to the sensor units 1E to 1H for the coordinate input area 4B.

図9に示すように、各センサユニットの投光及び受光範囲が交わる領域が座標計算可能な領域となる。従って、センサユニット1Cと1Dで座標計算可能な範囲は、図9(a)の斜線の範囲91である。同様に、センサユニット1Bと1Cで座標計算可能な範囲は、図9(b)の斜線の範囲92である。センサユニット1Aと1Bで座標計算可能な範囲は、図9(c)の斜線の範囲93である。センサユニット1Aと1Dで座標計算可能な範囲は、図9(d)の斜線の範囲94となる。   As shown in FIG. 9, the area where the light projection and light reception ranges of the sensor units intersect is an area where coordinates can be calculated. Accordingly, the range in which coordinates can be calculated by the sensor units 1C and 1D is the hatched range 91 in FIG. Similarly, the range in which coordinates can be calculated by the sensor units 1B and 1C is a hatched range 92 in FIG. 9B. The range in which coordinates can be calculated by the sensor units 1A and 1B is a hatched range 93 in FIG. A range in which coordinates can be calculated by the sensor units 1A and 1D is a hatched range 94 in FIG.

図10は本発明の実施形態1の座標入力領域上に定義する座標のセンサユニットとの位置関係を示す図である。尚、図10では、座標入力領域4Aに対するセンサユニット1A〜1Dについて説明するが、座標入力領域4Bに対するセンサユニット1E〜1Hについても同様である。   FIG. 10 is a diagram showing a positional relationship with the coordinate sensor unit defined on the coordinate input area according to the first embodiment of the present invention. In FIG. 10, the sensor units 1A to 1D for the coordinate input area 4A will be described, but the same applies to the sensor units 1E to 1H for the coordinate input area 4B.

図10では、座標入力領域4Aの水平方向にX軸、垂直方向にY軸を定義し、座標入力領域4Aの中央を原点位置O(0,0)に定義している。そして、座標入力領域4Aの座標入力範囲の上辺及び下辺左右に、それぞれのセンサユニット1A〜1DをY軸に対称に取り付けてある。点Pの位置に入力があった場合、このときセンサユニット1Bと1Cにて遮光データが検出される。   In FIG. 10, the X axis is defined in the horizontal direction of the coordinate input area 4A, the Y axis is defined in the vertical direction, and the center of the coordinate input area 4A is defined as the origin position O (0, 0). The sensor units 1A to 1D are attached symmetrically to the Y axis on the left and right sides of the upper and lower sides of the coordinate input range of the coordinate input area 4A. When there is an input at the position of the point P, at this time, the light shielding data is detected by the sensor units 1B and 1C.

尚、センサユニット1Bと1C間の距離はDhであらわされており、また、画面中央が画面の原点位置であり、P0(0,P0Y)は、センサユニット1Bと1Cの角度0の交点である。それぞれの角度をθL、θRとして、それぞれtanθL、tanθRを上記多項式を用いて算出する。このとき点Pの(x、y)座標は、
x = Dh * (tanθL + tanθR) / ( 1 + (tanθL * tanθR) (8)
y = - Dh * (tanθR - tanθL - ( 2 * tanθL * tanθR) )
/ ( 1+ ( tanθL * tanθR) ) + P0Y (9)
で計算される。
The distance between the sensor units 1B and 1C is expressed as Dh, the center of the screen is the origin position of the screen, and P0 (0, P0Y) is the intersection of the sensor units 1B and 1C with an angle of 0. . The respective angles are θL and θR, and tan θL and tan θR are calculated using the above polynomials. At this time, the (x, y) coordinates of the point P are
x = Dh * (tanθL + tanθR) / (1 + (tanθL * tanθR) (8)
y =-Dh * (tanθR-tanθL-(2 * tanθL * tanθR))
/ (1+ (tanθL * tanθR)) + P0Y (9)
Calculated by

尚、座標入力領域4によって、センサユニット1A〜1Dの組み合わせが変更になることは先述した通りであるが、センサユニット1A〜1Dの組み合わせで、座標算出式のパラメータが変更になる。   Note that, as described above, the combination of the sensor units 1A to 1D is changed by the coordinate input area 4, but the parameters of the coordinate calculation formula are changed by the combination of the sensor units 1A to 1D.

例えば、センサユニット1Cと1Dで検出された遮光データで計算する場合は、計算式(8)、(9)において、図10に示した値を用いて、Dh→Dv、P0Y→P1Xの変換を行い、さらに計算されたx及びyは、相互に変換される。   For example, in the case of calculating the shading data detected by the sensor units 1C and 1D, the conversion formulas (8) and (9) are used to convert Dh → Dv and P0Y → P1X using the values shown in FIG. Then, the further calculated x and y are converted to each other.

同様に、センサユニット1Aと1Bの組み合わせ、センサユニット1Aと1Dの組み合わせで遮光データが検出された場合も、パラメータを変更し、上記の計算式(8)、(9)にて計算することができる。   Similarly, when the light shielding data is detected by the combination of the sensor units 1A and 1B and the combination of the sensor units 1A and 1D, the parameters can be changed and the calculation can be performed by the above formulas (8) and (9). it can.

尚、各センサユニットの組み合わせによる座標検出可能な座標入力領域は、座標検出範囲が重なる座標入力領域があるため、複数の座標が検出されることがあるが、算出された座標値を平均するなどして、最終的な座標を決定すればよい。   The coordinate input area where the coordinates can be detected by the combination of the sensor units includes a coordinate input area where the coordinate detection ranges overlap, so that a plurality of coordinates may be detected, but the calculated coordinate values are averaged, etc. Then, the final coordinates may be determined.

また、実施形態1では、2面の座標入力領域を有しているが、センサユニット1E〜1Hで検出されたデータで座標を算出する場合も、上述と同様に座標値を算出することができる。   In the first embodiment, the coordinate input area has two surfaces. However, when the coordinates are calculated using the data detected by the sensor units 1E to 1H, the coordinate values can be calculated in the same manner as described above. .

但し、情報処理装置に出力される座標値は、情報処理装置の表示モードによって異なる場合がある。例えば、2面のデスクトップ画面に同じ画像が表示されるいわゆるクローン表示の場合は、算出された座標値をそのままPCに送信すればよい。また、2面の画像を1つのデスクトップ画面として扱ういわゆる拡張デスクトップモードの場合は、算出された座標値をオフセットして情報処理装置に送信することが望ましい。   However, the coordinate value output to the information processing apparatus may differ depending on the display mode of the information processing apparatus. For example, in the case of so-called clone display in which the same image is displayed on two desktop screens, the calculated coordinate values may be transmitted to the PC as they are. In the case of the so-called extended desktop mode in which two images are handled as one desktop screen, it is desirable to offset the calculated coordinate values and transmit them to the information processing apparatus.

このように、算出された座標値を情報処理装置の表示モードによって、適宜オフセットさせるなどして、情報処理装置に出力してもよいが、これに限定されない。例えば、座標値は、算出されたまま情報処理装置に出力し、情報処理装置にインストールされたドライバ等のアプリケーションで、表示モードに従って、座標値を適宜変更してもよい。   As described above, the calculated coordinate value may be output to the information processing apparatus by appropriately offsetting it according to the display mode of the information processing apparatus, but is not limited thereto. For example, the coordinate value may be output to the information processing apparatus as it is calculated, and the coordinate value may be appropriately changed according to the display mode by an application such as a driver installed in the information processing apparatus.

<座標算出処理の説明>
図11は本発明の実施形態1の座標入力装置が実行する座標算出処理を示すフローチャートである。尚、図11では、座標入力領域4Aに対する制御・演算ユニット2A及び2B及びセンサユニット1A〜1Dについての座標算出処理を説明するが、座標入力領域4Bに対する制御・演算ユニット2C及び2D及びセンサユニット1E〜1Hについても同様である。
<Description of coordinate calculation processing>
FIG. 11 is a flowchart showing coordinate calculation processing executed by the coordinate input device according to the first embodiment of the present invention. 11 illustrates coordinate calculation processing for the control / arithmetic units 2A and 2B and the sensor units 1A to 1D for the coordinate input area 4A. However, the control / arithmetic units 2C and 2D and the sensor unit 1E for the coordinate input area 4B are described. The same applies to ˜1H.

まず、座標入力装置の電源が投入されると、ステップS102で、制御・演算ユニット2A及び2Bのポート設定、タイマ設定等の座標入力装置に係る各種初期化を行う。ステップS103で、ラインCCD103のCCD画素有効範囲を、例えば、メモリ44に予め記憶されている設定値から設定する。また、ラインCCD103の初期読込動作の初期読込回数を設定する。   First, when the power of the coordinate input device is turned on, in step S102, various initializations related to the coordinate input device such as port setting and timer setting of the control / arithmetic units 2A and 2B are performed. In step S103, the CCD pixel effective range of the line CCD 103 is set from a set value stored in advance in the memory 44, for example. In addition, the initial reading count of the initial reading operation of the line CCD 103 is set.

尚、この初期読込動作は、座標入力装置の起動時におけるラインCCD103の不要電荷除去を行うための動作である。ラインCCD103では、動作させていないときに不要な電荷を蓄積している場合があり、その電荷が蓄積されている状態で座標入力動作を実行すると、検出不能になったり、誤検出の原因となる。そこで、これを避けるために、ステップS104で、投光部100による投光を停止している状態で、所定回数の読込動作を実行する。これにより、不要電荷の除去を行う。   This initial reading operation is an operation for removing unnecessary charges from the line CCD 103 when the coordinate input device is activated. In the line CCD 103, unnecessary charges may be accumulated when the line CCD 103 is not operated. If the coordinate input operation is performed in a state where the charges are accumulated, detection becomes impossible or erroneous detection is caused. . Therefore, in order to avoid this, in step S104, a predetermined number of reading operations are executed in a state where light projection by the light projecting unit 100 is stopped. Thereby, unnecessary charges are removed.

ステップS105で、所定回数以上の読込を実行したか否かを判定する。所定回数以上の読込を実行していない場合(ステップS105でNO)、ステップS104に戻る。一方、所定回数以上の読込を実行した場合(ステップS105でYES)、ステップS106に進む。   In step S105, it is determined whether or not reading has been performed a predetermined number of times or more. If reading has not been performed a predetermined number of times or more (NO in step S105), the process returns to step S104. On the other hand, when the reading is executed a predetermined number of times or more (YES in step S105), the process proceeds to step S106.

ステップS106で、ベースデータとして、投光部100による投光を停止している状態でのラインCCD103の画素データ(Bas_data[N])を取り込む。ステップS107で、ベースデータをメモリ44に記憶する。次に、ステップS108で、リファレンスデータとして、投光部100からの投光を行っている状態でのラインCCD103の画素データ(Ref_data[N])を取り込む。ステップS109で、リファレンスデータをメモリ44に記憶する。   In step S106, pixel data (Bas_data [N]) of the line CCD 103 in a state where the light projection by the light projecting unit 100 is stopped is captured as base data. In step S107, the base data is stored in the memory 44. Next, in step S108, pixel data (Ref_data [N]) of the line CCD 103 in a state where light is emitted from the light projecting unit 100 is fetched as reference data. In step S109, the reference data is stored in the memory 44.

尚、この投光したときのデータは、上部のセンサユニットの組と下部のセンサユニットの組で異なるタイミング(第1検出と第2検出)で投光してデータ(第1の複数の光量分布と第2の複数の光量分布)を取り込む。これは、上部のセンサユニットと下部のセンサユニットが対向する配置であるため、同時に投光してしまうと、互いの投光を互いの受光部にて検出してしまうことを避けるためである。   Note that the data when the light is projected is the data (first plurality of light quantity distributions) projected at different timings (first detection and second detection) between the upper sensor unit pair and the lower sensor unit pair. And a second plurality of light quantity distributions). This is because the upper sensor unit and the lower sensor unit are opposed to each other, and therefore, if light is projected at the same time, it is possible to avoid detecting each other's light projection with each other's light receiving unit.

そして、ステップS110で、全てのセンサユニットにおいて、リファレンスデータの取込が終了したか否かを判定する。終了していない場合(ステップS110でNO)、ステップS108に戻る。一方、終了した場合(ステップS110でYES)、つまり、全てのセンサユニットにおいてリファレンスデータの取込が終了した場合、ステップS111に進む。   In step S110, it is determined whether or not the reference data has been taken in all the sensor units. If not completed (NO in step S110), the process returns to step S108. On the other hand, if the process is completed (YES in step S110), that is, if reference data has been taken in all sensor units, the process proceeds to step S111.

ここまでの処理が、電源投入時の初期設定動作になる。この初期設定動作は、座標入力装置に構成されているリセットスイッチ等により操作者の意図によって動作するように構成しても良いことは言うまでも無い。この初期設定動作を経て、通常の座標入力動作状態に移行することになる。   The processing so far is the initial setting operation when the power is turned on. It goes without saying that this initial setting operation may be configured to operate according to the operator's intention using a reset switch or the like configured in the coordinate input device. After this initial setting operation, the normal coordinate input operation state is entered.

ステップS111で、座標入力サンプリング状態で、ラインCCD103の通常取込動作を実行して、画素データ(Norm_data[N])を取り込む。ステップS112で、全てのセンサユニットにおいて取込が終了したかどうかを判定する。終了していない場合(ステップS112でNO)、ステップS111に戻る。一方、終了した場合(ステップS112でYES)、つまり、全てのセンサユニットにおいて取込が終了した場合、ステップS113に進む。   In step S111, in the coordinate input sampling state, the normal capture operation of the line CCD 103 is executed to capture pixel data (Norm_data [N]). In step S112, it is determined whether or not capturing has been completed for all sensor units. If not completed (NO in step S112), the process returns to step S111. On the other hand, if the process has been completed (YES in step S112), that is, if the acquisition has been completed for all sensor units, the process proceeds to step S113.

ステップS113で、全てのセンサユニットにおいて、リファレンスデータ(Ref_data[N])と画素データ(Norm_data[N])の差分値を計算する。ステップS114で、その差分値と上述の閾値Vthrに基づいて、指示具による入力(遮光部分)の有無を判定する。入力がない場合(ステップS114でNO)、ステップS111に戻る。一方、入力がある場合(ステップS114でYES)、ステップS115に進み、画素データの変化の比を、式(2)用いて計算する。   In step S113, the difference value between the reference data (Ref_data [N]) and the pixel data (Norm_data [N]) is calculated in all the sensor units. In step S114, based on the difference value and the above-described threshold value Vthr, the presence / absence of an input (light-shielding portion) by the pointing tool is determined. If there is no input (NO in step S114), the process returns to step S111. On the other hand, if there is an input (YES in step S114), the process proceeds to step S115, and the ratio of change in pixel data is calculated using equation (2).

ステップS116で、計算された画素データの変化の比に対して、指示具による遮光範囲に対応する画素データ分布の立ち下がりと立ち上がりの検出を行う。そして、検出された立ち下がり及び立ち上がりと、(4)、(5)及び(6)式を用いて、遮光範囲の中心となる仮想的な中心画素番号を決定する。そして、ステップS117で得られた中心画素番号から近似多項式よりTanθを計算する。   In step S116, the falling and rising of the pixel data distribution corresponding to the light shielding range by the pointing tool are detected with respect to the calculated change ratio of the pixel data. And the virtual center pixel number used as the center of a light-shielding range is determined using the detected fall and rise, and (4), (5), and (6) Formula. Then, Tanθ is calculated from an approximate polynomial from the center pixel number obtained in step S117.

ステップS118で、遮光領域が有りと判定されたセンサユニットの組み合わせから、式(8)、(9)においてセンサ間距離等のTanθ以外のパラメータを選択して、計算式を変更する。そして、ステップS119で、センサユニットでのTanθ値から指示具の入力座標P(x,y)を、(8)及び(9)式を用いて算出する。   In step S118, parameters other than Tanθ such as the inter-sensor distance are selected in equations (8) and (9) from the combination of sensor units determined to have a light shielding area, and the calculation equation is changed. In step S119, the input coordinate P (x, y) of the pointing tool is calculated from the Tan θ value in the sensor unit using the equations (8) and (9).

ステップS120で、ステップS114で「入力有り」と判定されたセンサユニットの全ての組み合わせで座標計算が行われたか否かを判定する。全ての組み合わせで座標計算が終了していない場合(ステップS120でNO)、ステップS115に戻る。一方、全ての組み合わせで座標計算が終了した場合(ステップS120でYES)、ステップS121に進む。   In step S120, it is determined whether coordinate calculation has been performed for all combinations of sensor units determined as “input present” in step S114. If coordinate calculation has not been completed for all combinations (NO in step S120), the process returns to step S115. On the other hand, when coordinate calculation is completed for all the combinations (YES in step S120), the process proceeds to step S121.

次に、これまでの処理で出力された座標について、ステップS121で、座標入力領域4Aがタッチされたか否かを判定する。これは、例えば、マウスのボタンを押下せずにカーソルを移動させている状態のような近接入力状態と、左ボタンを押した状態であるタッチダウン状態の判定を行っている。実際には、先に得られた比の最大値が、ある所定値(例えば、0.5)を超えていればダウンと判定し、それ以下なら近接入力状態と判定する。この結果に従って、ステップS121でダウンフラグのセット、あるいはステップS122でダウンフラグの解除を行う。   Next, in step S121, it is determined whether or not the coordinate input area 4A has been touched for the coordinates output in the processes so far. For example, a proximity input state in which the cursor is moved without pressing a mouse button and a touch-down state in which the left button is pressed are determined. Actually, if the maximum value of the previously obtained ratio exceeds a certain predetermined value (for example, 0.5), it is determined to be down, and if it is less than that, the proximity input state is determined. According to this result, the down flag is set in step S121, or the down flag is canceled in step S122.

ステップS123で、座標値とダウン状態が決定されたので、そのデータをホストPCへ出力する。この出力は、シリアル通信で送信しても良いし、任意のインタフェースで送信しても良い。データを受信したホストPC側では、ドライバが受信データを解釈して、カーソルの移動、マウスボタン状態の変更を、座標値、フラグ等のデータを参照して行うことで、PC画面の操作が可能になる。   Since the coordinate value and the down state are determined in step S123, the data is output to the host PC. This output may be transmitted by serial communication or by an arbitrary interface. On the host PC side that receives the data, the driver interprets the received data, and moves the cursor and changes the mouse button state with reference to data such as coordinate values and flags, allowing operation of the PC screen. become.

ここでの送信は、例えば、マスターである制御・演算ユニット2Aから、各センサユニット1A〜1Hの制御信号を送信するタイミングを制御する制御信号がスレーブの制御・演算ユニット2B〜2Dに赤外線通信インタフェース46を介して送信する。そして、上述の処理を経て算出した座標値を、マスターである制御・演算ユニット2Aから、PC等の情報処理装置に送信する。   The transmission here is, for example, a control signal for controlling the timing of transmitting the control signals of the sensor units 1A to 1H from the control / arithmetic unit 2A as a master to the slave control / arithmetic units 2B to 2D by an infrared communication interface. 46. Then, the coordinate value calculated through the above-described process is transmitted from the master control / arithmetic unit 2A to an information processing apparatus such as a PC.

尚、ステップS123の処理が終了したら、ステップS111に戻り、以降、電源OFFまで、もしくは、操作者の意図によってリセット状態が設定されるまで、上記の処理を繰り返すことになる。   When the process of step S123 is completed, the process returns to step S111, and thereafter, the above process is repeated until the power is turned off or until the reset state is set by the operator's intention.

ここで、この繰り返し周期を10[msec]程度に設定すれば、座標入力装置は100回/秒の周期で指あるいは指示具による指示座標を外部機器等に出力することが可能となる。   Here, if the repetition cycle is set to about 10 [msec], the coordinate input device can output the coordinate indicated by the finger or the pointing tool to the external device or the like at a cycle of 100 times / second.

以上説明したように、実施形態1によれば、複数の座標入力領域を連結して1つの座標入力領域として使用することを可能にする座標入力装置を実現することができる。   As described above, according to the first embodiment, it is possible to realize a coordinate input device that enables a plurality of coordinate input areas to be connected and used as one coordinate input area.

<実施形態2>
実施形態1では、座標入力領域を2面で使用する使用形態に対して、センサユニット等の構成要素が座標入力領域に対して据え付けた状態で構成される座標入力装置に関して説明している。実施形態2では、1面の座標入力領域同士を複数個隣接させて2面以上の座標入力領域を有する座標入力装置で使用する場合の実施形態について説明する。
<Embodiment 2>
In the first embodiment, a coordinate input device configured in a state where components such as a sensor unit are installed on the coordinate input area is described with respect to a usage pattern in which the coordinate input area is used on two surfaces. In the second embodiment, an embodiment in which a plurality of coordinate input areas on one surface are adjacent to each other and used in a coordinate input device having two or more coordinate input areas will be described.

図12は本発明の実施形態2の座標入力装置を説明するための図である。図中、実施形態1と同一の構成要素に関しては同一の参照番号を用いる。図12は、センサユニット1A〜1Dで1面の座標入力領域4Aを構成する座標入力装置の短辺側(センサユニット1Cと1D側)ともう1台の座標入力装置の座標入力領域4Bの短辺側(センサユニット1Eと1F側)で2台を近接させている構成を示している。   FIG. 12 is a diagram for explaining the coordinate input device according to the second embodiment of the present invention. In the figure, the same reference numerals are used for the same components as those in the first embodiment. FIG. 12 shows a short side of the coordinate input device (sensor unit 1C and 1D side) constituting the coordinate input region 4A of one surface by the sensor units 1A to 1D and a short of the coordinate input region 4B of the other coordinate input device. The structure which has adjoined two units | sets by the side (sensor unit 1E and 1F side) is shown.

図12の5A〜5D、5E〜5Fは、センサユニットを再帰反射部3A〜3D(あるいはその筐体(不図示))に取り付けるための取付金具であり、各センサユニットを座標算出可能な位置に正確に取り付けるためのものである。尚、実施形態2では、センサ間距離がDhに設定されており、各センサユニットの焦点位置の間隔がDhになるようにセンサユニットが取付金具に取り付けられている。   12A to 5D and 5E to 5F in FIG. 12 are mounting brackets for mounting the sensor unit to the retroreflective portions 3A to 3D (or their housings (not shown)), and each sensor unit is located at a position where coordinates can be calculated. It is for attaching correctly. In the second embodiment, the distance between the sensors is set to Dh, and the sensor units are attached to the mounting bracket so that the distance between the focal positions of the sensor units is Dh.

図12の構成では、センサユニット1C〜1Fと取付金具5C〜5Fが座標入力領域4A及び4Bの短辺の延長線方向から座標入力領域4A及び4Bに対して外側にはみ出してしまっている。そのため、各センサユニットが互いに干渉してしまい座標検出ができない領域が存在することになる。これは、各センサユニットは、光学的に限られた視野角を有する構成であるため、座標入力領域をカバーするように光量分布を獲得しようとすると、座標入力領域よりも外側にセンサユニットを配置せざるを得ないためである。   In the configuration of FIG. 12, the sensor units 1C to 1F and the mounting brackets 5C to 5F protrude outward from the coordinate input areas 4A and 4B from the extension direction of the short sides of the coordinate input areas 4A and 4B. Therefore, there is a region where the sensor units interfere with each other and cannot be detected. This is because each sensor unit has an optically limited viewing angle. Therefore, if a light intensity distribution is obtained so as to cover the coordinate input area, the sensor unit is arranged outside the coordinate input area. This is because it must be done.

従って、座標入力領域4Aと座標入力領域4Bを隙間無く隣接させるためには、座標入力領域4Aの短辺の延長線方向6Bから、センサユニット1C及び1D、取付金具5C及び5D、再帰反射部3A及び3Bが座標入力領域4A側になる構成をとる必要がある。また、座標入力領域4Bの短辺の延長線方向6Cから、センサユニット1E及び1F、取付金具5E及び5F、再帰反射部3C及び3Dが座標入力領域4B側になる構成をとる必要がある。   Therefore, in order to make the coordinate input area 4A and the coordinate input area 4B adjacent to each other without a gap, the sensor units 1C and 1D, the mounting brackets 5C and 5D, and the retroreflective portion 3A are extended from the direction 6B of the short side of the coordinate input area 4A. And 3B need to be on the coordinate input area 4A side. Moreover, it is necessary to take a configuration in which the sensor units 1E and 1F, the mounting brackets 5E and 5F, and the retroreflective portions 3C and 3D are located on the coordinate input region 4B side from the extension line direction 6C of the short side of the coordinate input region 4B.

実施形態2では、センサユニットが回転移動することによって取付位置を変更可能な回転移動機構を有し、かつセンサユニットが回転移動後は、取付金具及び再帰反射部が折り曲がる折曲機構を有することで、上述の問題を解決している。   In the second embodiment, the sensor unit has a rotation mechanism that can change the mounting position by rotating, and the sensor unit has a bending mechanism that bends the mounting bracket and the retroreflective portion after the sensor unit rotates. Thus, the above-mentioned problem is solved.

図13は座標入力領域4Aと4Bを隙間無く隣接するために、図12のセンサユニット1C〜1Fを取付金具内で回転移動させ、取付金具5C〜5F及び再帰反射部3A〜3Dの隣接側を所定位置から折り曲げた状態を示している。   In FIG. 13, in order to make the coordinate input areas 4A and 4B adjacent to each other without a gap, the sensor units 1C to 1F in FIG. 12 are rotated in the mounting bracket, and the adjacent sides of the mounting brackets 5C to 5F and the retroreflective portions 3A to 3D are moved. The state bent from the predetermined position is shown.

図13に示すように、センサユニット1C〜1F、取付金具5C〜5F、再帰反射部3A〜3Dが、座標入力領域4A及び4Bを隣接させる側の短辺の延長線方向6Bと6Cから座標入力領域4A及び4Bの外側にはみ出さない所定範囲内の位置に固定される。尚、センサユニット1C、1Dは、回転移動して取付位置が変更になった後は、座標入力領域4Bの入力座標を算出するために使用される。同様に、センサユニット1E、1Fは、回転移動して取付位置が変更になった後には、座標入力領域4Aの入力座標を算出するために使用される。   As shown in FIG. 13, the sensor units 1C to 1F, the mounting brackets 5C to 5F, and the retroreflective portions 3A to 3D are coordinate input from the extension line directions 6B and 6C on the short side on the side where the coordinate input areas 4A and 4B are adjacent to each other. It is fixed at a position within a predetermined range that does not protrude outside the regions 4A and 4B. The sensor units 1C and 1D are used to calculate the input coordinates of the coordinate input area 4B after the rotational position is changed and the mounting position is changed. Similarly, the sensor units 1E and 1F are used to calculate the input coordinates of the coordinate input area 4A after the rotational movement and the mounting position are changed.

そのため、センサユニット1Cは、再帰反射部3Dに対して、投光及び受光が行われ、センサユニット1Dは、再帰反射部3Cに対して、投光及び受光が行われる。同様に、センサユニット1Eは、再帰反射部3Bに対して、投光及び受光が行われ、センサユニット1Fは、再帰反射部3Aに対して、投光及び受光が行われる。   Therefore, the sensor unit 1C performs light projection and light reception on the retroreflective portion 3D, and the sensor unit 1D performs light projection and light reception on the retroreflective portion 3C. Similarly, the sensor unit 1E performs light projection and light reception on the retroreflection unit 3B, and the sensor unit 1F performs light projection and light reception on the retroreflection unit 3A.

図14は、センサユニット1Dの回転移動機構、及び取付金具5D、再帰反射部3Aの折曲機構に関して説明するための図である。   FIG. 14 is a diagram for explaining the rotational movement mechanism of the sensor unit 1D, the mounting bracket 5D, and the bending mechanism of the retroreflective portion 3A.

図14(a)は、センサユニット1Dが回転移動前の状態(図12の状態)を示している。151はセンサユニットを回転移動させるための溝であり、センサユニットをこの溝を滑らせて移動させて、座標入力領域4Aの隣接側短辺の延長線方向6Bに対して移動前と対称の位置に固定される。152は移動検出スイッチ(検出機構)であり、センサユニット1Dの移動(取付固定位置への移動)を検出するために使用される。   FIG. 14A shows a state before the sensor unit 1D is rotationally moved (the state shown in FIG. 12). Reference numeral 151 denotes a groove for rotating the sensor unit. The sensor unit is moved by sliding the groove so that the position is symmetric with respect to the extension line direction 6B of the adjacent short side of the coordinate input area 4A. Fixed to. Reference numeral 152 denotes a movement detection switch (detection mechanism), which is used to detect movement of the sensor unit 1D (movement to the fixed mounting position).

図14(b)は、センサユニット1Dを溝151に沿わせて移動して固定させた後の状態を示している。先述したとおり、回転移動後は、移動前と座標を検出する座標入力領域が座標入力領域4Aから座標入力領域4Bに切り替わる。この切替は、先述した移動検出スイッチ152で、センサユニット1Dが回転移動して取付位置が変更されたことを検出することによって行われる。   FIG. 14B shows a state after the sensor unit 1D is moved along the groove 151 and fixed. As described above, after the rotational movement, the coordinate input area for detecting the coordinates before the movement is switched from the coordinate input area 4A to the coordinate input area 4B. This switching is performed by detecting that the attachment position has been changed by the rotational movement of the sensor unit 1D by the movement detection switch 152 described above.

図14(c)は、取付金具5Dの折曲機構を説明するための図で、説明のためにセンサユニットを取り外した状態を示している。図に示すように矢印の方向に折り曲がる折曲機構を有している。尚、折り曲がり位置は、座標入力領域の短辺の延長線方向からはみ出さない位置となっている。   FIG. 14C is a diagram for explaining the bending mechanism of the mounting bracket 5D, and shows a state in which the sensor unit is removed for explanation. As shown in the figure, it has a bending mechanism that bends in the direction of the arrow. The bending position is a position that does not protrude from the direction of the extended line of the short side of the coordinate input area.

図14(d)は、再帰反射部3Aの折曲機構を説明するための図で、取付金具と同様に、矢印方向に所定位置から折り曲がり、折り曲げ後は、座標入力領域の短辺の延長線方向からはみ出さないようになっている。尚、取付金具及び再帰反射部の折曲機構は、ヒンジ部を有することなどにより実現すればよい。   FIG. 14D is a diagram for explaining the bending mechanism of the retroreflective portion 3A. Like the mounting bracket, it is bent from a predetermined position in the direction of the arrow, and after bending, the short side of the coordinate input area is extended. It does not protrude from the line direction. The folding mechanism of the mounting bracket and the retroreflective portion may be realized by having a hinge portion or the like.

以上のような構成により、図15に示すように、座標入力装置の座標入力領域4Aと4Bが、隙間無く隣接させることができるとともに、隣接させた後のセンサ間距離を変更することなく構成することができる。   With the configuration as described above, as shown in FIG. 15, the coordinate input regions 4A and 4B of the coordinate input device can be adjacent to each other without a gap, and are configured without changing the distance between the sensors after being adjacent. be able to.

図15に示すように、座標入力領域4Aと4Bの隣接後、座標入力領域4Aの座標を算出するセンサユニット1Bと1Fの間のセンサ間距離はDhであり、これは、隣接する前の1面で使用する場合のセンサ間距離と同じである。   As shown in FIG. 15, after the adjacent coordinate input areas 4A and 4B, the inter-sensor distance between the sensor units 1B and 1F for calculating the coordinates of the coordinate input area 4A is Dh, which is 1 before the adjacent one. It is the same as the distance between sensors when used on a surface.

図16は本発明の実施形態2の制御・演算ユニットのブロック図である。実施形態2の制御・演算ユニットは、実施形態1の制御・演算ユニット2Aに対して、以下の点で異なる。まず、図14の取付金具5Dに配置するセンサユニット1Dが回転移動して取付位置が変更されたことを検知するための移動検出スイッチ152の入力がCPU41の入力ポートに接続されている。また、図14には示していないが、上述と同様に、図12の取付金具5Aに配置されているセンサユニット1Aの移動検出スイッチ152が、CPU41の入力ポートに接続されている。   FIG. 16 is a block diagram of a control / arithmetic unit according to the second embodiment of the present invention. The control / arithmetic unit of the second embodiment differs from the control / arithmetic unit 2A of the first embodiment in the following points. First, the input of the movement detection switch 152 for detecting that the sensor unit 1D arranged on the mounting bracket 5D of FIG. 14 is rotationally moved and the mounting position is changed is connected to the input port of the CPU 41. Although not shown in FIG. 14, the movement detection switch 152 of the sensor unit 1 </ b> A disposed on the mounting bracket 5 </ b> A in FIG. 12 is connected to the input port of the CPU 41, as described above.

CPU41は、移動検出スイッチからの検出信号に基づき、座標入力領域の座標を算出するために用いるセンサユニットで検出された各データを選択する。すなわち、図11の座標算出処理において、ステップS118では、遮光領域が有りと判定されたセンサユニットの組み合わせから、式(8)、(9)においてセンサ間距離などのTanθ以外のパラメータを選択して、計算式を変更する。そして、ステップS119で、移動検出スイッチの検出信号に基づき選択されたセンサユニットでのTanθ値から指示具の入力座標P(x,y)を、(8)及び(9)式を用いて算出する。   CPU41 selects each data detected with the sensor unit used in order to calculate the coordinate of a coordinate input area | region based on the detection signal from a movement detection switch. That is, in the coordinate calculation process of FIG. 11, in step S118, parameters other than Tanθ such as the distance between sensors are selected from the combinations of sensor units determined to have a light-shielding region in equations (8) and (9). Change the calculation formula. In step S119, the input coordinate P (x, y) of the pointing tool is calculated from the Tan θ value of the sensor unit selected based on the detection signal of the movement detection switch using the equations (8) and (9). .

尚、座標入力領域を隣接させた場合は、実施形態1と同様に、上部と下部で各制御・演算ユニットのインタフェース47を接続させることによって、各制御・演算ユニット2A〜2Dは、マスター・スレーブ制御により動作する。そして、マスターとなる制御・演算ユニットがPC等の情報処理装置に座標値を送信する。   When the coordinate input areas are adjacent to each other, the control / arithmetic units 2A to 2D are connected to the master / slave units by connecting the interfaces 47 of the respective control / arithmetic units at the upper and lower portions, as in the first embodiment. Operates by control. Then, the control / arithmetic unit serving as a master transmits coordinate values to an information processing apparatus such as a PC.

このように、再帰反射部は、座標入力領域の長辺より長い再帰反射部材から構成され、再帰反射部材を座標入力領域の長辺上に配置した場合に、座標入力領域の短辺の延長線上の所定位置から当該再帰反射部材が長辺方向に折れ曲がる第1折曲機構を備える。また、センサユニットを再帰反射部に取り付ける取付部として、当該取付部を所定位置から座標入力領域の長辺方向に折り曲げる第2折曲機構と、センサユニットの取付位置を移動する移動機構を有する。   As described above, the retroreflective portion is configured of a retroreflective member that is longer than the long side of the coordinate input area, and when the retroreflective member is arranged on the long side of the coordinate input area, A first bending mechanism in which the retroreflective member is bent in the long side direction from the predetermined position. In addition, as a mounting portion for mounting the sensor unit to the retroreflective portion, a second bending mechanism that bends the mounting portion from a predetermined position in the long side direction of the coordinate input area, and a moving mechanism that moves the mounting position of the sensor unit.

また、座標入力領域同士を隣接させる場合には、再帰反射部の第1折曲機構、取付部の第2折曲機構をそれぞれ折り曲げる。これによって、座標入力領域の短辺同士を隣接させ、かつセンサユニットの取付位置が、座標入力領域を隣接させる短辺の延長線方向から座標入力領域側となるように移動機構によって取り付けられる。   When the coordinate input areas are adjacent to each other, the first bending mechanism of the retroreflective portion and the second bending mechanism of the attachment portion are each bent. As a result, the short sides of the coordinate input area are adjacent to each other, and the attachment position of the sensor unit is attached by the moving mechanism so as to be on the coordinate input area side from the extending direction of the short side adjacent to the coordinate input area.

また、移動機構は、延長線方向を中心に線対称の位置に前記センサユニットを取り付け可能とする。   Further, the moving mechanism can attach the sensor unit at a line-symmetrical position about the extension line direction.

以上説明したように、実施形態2によれば、1面で使用可能な座標入力装置を2台並べて、座標入力領域2面を隙間無く隣接させた状態で、座標を算出することが可能となり、座標入力領域が横長のシステムを構成することができる。   As described above, according to the second embodiment, it is possible to calculate coordinates in a state where two coordinate input devices that can be used on one surface are arranged and the two surfaces of the coordinate input region are adjacent to each other without a gap. A system in which the coordinate input area is horizontally long can be configured.

尚、実施形態2では、座標入力領域を2面に構成した場合について説明しているが、これに限定されない。例えば、3面以上の構成においても、座標入力領域の隣接する側のセンサユニット、取付金具、再帰反射部を回転移動機構、折曲機構により構成することにより、同様に実現可能である。   In the second embodiment, the case where the coordinate input area is configured on two surfaces has been described. However, the present invention is not limited to this. For example, a configuration with three or more surfaces can be similarly realized by configuring the sensor unit, the mounting bracket, and the retroreflective portion on the adjacent side of the coordinate input area with a rotational movement mechanism and a bending mechanism.

<実施形態3>
実施形態1では、座標入力領域が2面で使用する使用形態に対して、センサユニット等の構成要素が座標入力領域に対して据え付けた状態で構成される座標入力装置に関して説明している。また、実施形態2では、センサユニット等の構成要素を回転させることが可能な構成により、1面の座標入力領域を2つ隣接させて2面の座標入力領域を構成可能とし、使用形態によって変更できる装置構成に関して説明している。
<Embodiment 3>
In the first embodiment, a coordinate input device configured in a state where components such as a sensor unit are installed on the coordinate input area is described with respect to a usage pattern in which the coordinate input area is used on two surfaces. Further, in the second embodiment, a configuration in which components such as a sensor unit can be rotated makes it possible to configure two coordinate input regions by adjoining two coordinate input regions on one surface, and change depending on the usage mode. The device configuration that can be used is described.

実施形態3では、1面でも2面でもセンサユニット部を移動・回転などすることなしに、1面で使用する状態のまま、隣接させて2面での使用も可能な実施形態について説明する。   In the third embodiment, an embodiment in which the sensor unit unit can be used on two adjacent surfaces while being used on one surface without moving or rotating the sensor unit portion on one surface or two surfaces will be described.

図17は本発明の実施形態3の座標入力装置を説明するための図である。   FIG. 17 is a diagram for explaining a coordinate input apparatus according to the third embodiment of the present invention.

図17において、17A〜17Eはミラーであり、センサユニット1A〜1Eによる投光及び受光の光路上に配置される。実施形態2の構成とは、このミラー17A〜17Eを有するところが異なる。   In FIG. 17, reference numerals 17A to 17E denote mirrors, which are arranged on the light paths of the light projection and light reception by the sensor units 1A to 1E. It differs from the configuration of the second embodiment in that the mirrors 17A to 17E are provided.

ミラー17A〜17Eは曲面ミラーで構成され、センサユニット1A〜1Eからの投光を折り返して再帰反射部3A〜3Eへ投光し、再帰反射部3A〜3Eからの反射光を折り返してセンサユニット1A〜1Eの受光部200のラインCCD103に結像させる。   The mirrors 17A to 17E are composed of curved mirrors, and the light emitted from the sensor units 1A to 1E is folded back and projected to the retroreflective portions 3A to 3E, and the reflected light from the retroreflective portions 3A to 3E is folded back to the sensor unit 1A. The image is formed on the line CCD 103 of the light receiving unit 200 of ˜1E.

従って、図17に示すように、センサユニット1A〜1Eは、座標入力領域4A及び4Bの左右方向へはみ出さないでコンパクトに構成することが可能となる。   Therefore, as shown in FIG. 17, the sensor units 1 </ b> A to 1 </ b> E can be configured compactly without protruding in the horizontal direction of the coordinate input areas 4 </ b> A and 4 </ b> B.

つまり、センサユニットの投光部からの投光と受光部での受光における光路上に配置されるミラーは、座標入力領域の短辺に複数個隣接させる場合に、座標入力領域同士が隣接する辺とそれに対向する辺の各々の延長線方向に配置される。   In other words, when a plurality of mirrors arranged on the optical path for light projection from the light projecting unit and light reception by the light receiving unit are adjacent to the short side of the coordinate input region, the sides where the coordinate input regions are adjacent to each other And it is arrange | positioned in the extension line direction of each of the edge | side which opposes it.

このように構成することによって、座標入力領域4Aと座標入力領域4Bを容易に隣接させることが可能となる。   With this configuration, the coordinate input area 4A and the coordinate input area 4B can be easily adjacent to each other.

以上説明したように、実施形態3によれば、1面で使用可能な座標入力装置を2台並べて、座標入力領域2面を隙間無く隣接させた状態で、座標を算出することが可能となり、座標入力領域が横長のシステムを構成することができる。   As described above, according to the third embodiment, it is possible to calculate coordinates in a state where two coordinate input devices that can be used on one surface are arranged and the two surfaces of the coordinate input region are adjacent to each other without a gap. A system in which the coordinate input area is horizontally long can be configured.

尚、実施形態3における曲面ミラーは、楕円、放物線、双曲線、凹面、凸面等で構成され、センサユニットの位置や、座標入力領域と再帰反射部の位置関係、再帰反射部の長さなどによって、適宜選択すればよい。   The curved mirror in the third embodiment is configured by an ellipse, a parabola, a hyperbola, a concave surface, a convex surface, and the like. Depending on the position of the sensor unit, the positional relationship between the coordinate input area and the retroreflective portion, the length of the retroreflective portion, etc. What is necessary is just to select suitably.

尚、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (10)

矩形状の座標入力領域に対する指示位置の座標を算出する座標入力装置であって、

前記座標入力領域の対向する2辺に少なくとも2箇所ずつ配置されるセンサ手段であって、それぞれが、前記座標入力領域に向けて投光する投光部と、該座標入力領域への指示に伴う光量分布の変化を検出する受光部とにより構成されるセンサ手段と、
前記座標入力領域の第1の辺に設けられ、入射光を再帰的に反射する第1の再帰反射手段と、
前記座標入力領域の前記第1の辺に対向する第2の辺に設けられ、入射光を再帰的に反射する第2の再帰反射手段と、
前記第1の再帰反射手段と対向する前記センサ手段により得られる第1の複数の光量分布と、前記第2の再帰反射手段と対向する前記センサ手段により、前記第1の複数の光量分布とは異なるタイミングで得られる第2の複数の光量分布と、前記第1の複数の光量分布及び前記第2の複数の光量分布の少なくとも4つの光量分布のうち、少なくとも2つの光量分布に基づいて、前記座標入力領域における指示位置を算出する算出手段と
を備えることを特徴とする座標入力装置。
A coordinate input device that calculates the coordinates of a designated position with respect to a rectangular coordinate input region,

Sensor means arranged at least two locations on two opposite sides of the coordinate input area, each of which projects a light projecting toward the coordinate input area, and accompanying an instruction to the coordinate input area Sensor means comprising a light receiving unit for detecting a change in the light amount distribution;
First retroreflective means provided on the first side of the coordinate input area and recursively reflects incident light;
A second retroreflecting means provided on a second side opposite to the first side of the coordinate input area and recursively reflecting incident light;
The first plurality of light quantity distributions obtained by the sensor means facing the first retroreflective means and the first plurality of light quantity distributions by the sensor means facing the second retroreflective means. Based on at least two light quantity distributions among at least four light quantity distributions of the second plurality of light quantity distributions obtained at different timings and the first plurality of light quantity distributions and the second plurality of light quantity distributions, A coordinate input device comprising: calculation means for calculating an indicated position in the coordinate input area.
前記座標入力領域は、当該座標入力領域を前記第1の辺及び前記第2の辺とは異なる方向の辺に複数個隣接させた2面以上の座標入力領域で形成されている
ことを特徴とする請求項1に記載の座標入力装置。
The coordinate input area is formed of two or more coordinate input areas in which a plurality of the coordinate input areas are adjacent to a side in a direction different from the first side and the second side. The coordinate input device according to claim 1.
2つの前記座標入力領域として、第1の座標入力領域と第2の座標入力領域とが隣接している場合、
前記第1の座標入力領域と前記第2の座標入力領域と隣接する辺から、前記第1の座標入力領域の前記第1の辺及び前記第2の辺の所定範囲内の位置に、前記第2の座標入力領域に対するセンサ手段が配置され、
前記第1の座標入力領域と前記第2の座標入力領域と隣接する辺から、前記第2の座標入力領域の前記第1の辺及び前記第2の辺の所定範囲内の位置に、前記第1の座標入力領域に対するセンサ手段が配置される
ことを特徴とする請求項2に記載の座標入力装置。
When the first coordinate input area and the second coordinate input area are adjacent as the two coordinate input areas,
From the side adjacent to the first coordinate input region and the second coordinate input region, the first side and the second side of the first coordinate input region are positioned within a predetermined range. Sensor means for two coordinate input areas are arranged,
From the side adjacent to the first coordinate input region and the second coordinate input region, the first side and the second side of the second coordinate input region are positioned within a predetermined range. The coordinate input device according to claim 2, wherein sensor means for one coordinate input area is arranged.
前記第1の再帰反射手段及び前記第2の再帰反射手段は、前記矩形状の座標入力領域の長辺より長い再帰反射部材から構成され、前記再帰反射部材を前記座標入力領域の長辺上に配置した場合に、前記座標入力領域の短辺の延長線上の所定位置から当該再帰反射部材が長辺方向に折れ曲がる第1折曲機構を備え、
前記センサ手段を前記第1の再帰反射手段及び前記第2の再帰反射手段それぞれに取り付ける取付手段であって、当該取付手段を前記所定位置から前記長辺方向に折り曲げる第2折曲機構と、前記センサ手段の取付位置を移動する移動機構を有する取付手段と
を更に備えることを特徴とする請求項2に記載の座標入力装置。
The first retroreflective means and the second retroreflective means are composed of a retroreflective member longer than the long side of the rectangular coordinate input region, and the retroreflective member is placed on the long side of the coordinate input region. A first bending mechanism in which the retroreflective member bends in the long side direction from a predetermined position on the extended line of the short side of the coordinate input area when arranged,
An attachment means for attaching the sensor means to each of the first retroreflective means and the second retroreflective means, a second bending mechanism for bending the attachment means in the long side direction from the predetermined position; The coordinate input device according to claim 2, further comprising: an attaching unit having a moving mechanism that moves an attachment position of the sensor unit.
複数個の前記座標入力領域を隣接させる場合には、前記第1の再帰反射手段及び前記第2の再帰反射手段それぞれの第1折曲機構、前記取付手段の第2折曲機構をそれぞれ折り曲げることによって、該座標入力領域の短辺同士を隣接させ、かつ前記センサ手段の取付位置が、前記座標入力領域を隣接させる短辺の延長線方向から前記座標入力領域側となるように前記移動機構によって取り付けられる
ことを特徴とする請求項4に記載の座標入力装置。
When a plurality of the coordinate input areas are adjacent to each other, the first folding mechanism of each of the first retroreflective means and the second retroreflective means and the second folding mechanism of the mounting means are respectively bent. By the moving mechanism, the short sides of the coordinate input area are adjacent to each other, and the attachment position of the sensor means is on the side of the coordinate input area from the extended line direction of the short side adjacent to the coordinate input area. The coordinate input device according to claim 4, wherein the coordinate input device is attached.
前記移動機構は、前記延長線方向を中心に線対称の位置に前記センサ手段を取り付け可能とする
ことを特徴とする請求項5に記載の座標入力装置。
The coordinate input device according to claim 5, wherein the moving mechanism is capable of attaching the sensor means at a line-symmetrical position about the extension line direction.
前記取付手段は、更に、前記センサ手段の取付固定位置への移動を検出する検出機構を更に備え、
前記検出機構による検出信号に基づいて、前記センサ手段が座標を検出する座標入力領域を切り替える
ことを特徴とする請求項6に記載の座標入力装置。
The attachment means further includes a detection mechanism for detecting movement of the sensor means to the attachment fixing position,
The coordinate input device according to claim 6, wherein the coordinate input area in which the sensor means detects coordinates is switched based on a detection signal from the detection mechanism.
前記センサ手段の投光部からの投光と前記受光部での受光における光路上に配置されるミラーであって、前記座標入力領域を前記第1の辺及び前記第2の辺とは異なる方向の辺に複数個隣接させる場合に、前記座標入力領域が隣接する辺とそれに対向する辺の各々の延長線方向に配置されるミラーを更に備える
ことを特徴とする請求項1に記載の座標入力装置。
A mirror disposed on an optical path for light projection from the light projecting unit and light reception by the light receiving unit of the sensor means, wherein the coordinate input area is in a direction different from the first side and the second side 2. The coordinate input according to claim 1, further comprising: a plurality of mirrors arranged in the extension line direction of each of the adjacent sides and the opposite sides when the plurality of sides are adjacent to each other. apparatus.
矩形状の座標入力領域に対する指示位置の座標を算出する座標入力装置として、
前記座標入力領域の対向する2辺に少なくとも2箇所ずつ配置されるセンサ手段であって、それぞれが、前記座標入力領域に向けて投光する投光部と、該座標入力領域への指示に伴う光量分布の変化を検出する受光部とにより構成されるセンサ手段と、
前記座標入力領域の第1の辺に設けられ、入射光を再帰的に反射する第1の再帰反射手段と、
前記座標入力領域の前記第1の辺に対向する第2の辺に設けられ、入射光を再帰的に反射する第2の再帰反射手段と
を備える座標入力装置の制御方法であって、
前記第1の再帰反射手段と対向する前記センサ手段により、第1の複数の光量分布を検出する第1検出工程と、
前記第2の再帰反射手段と対向する前記センサ手段により、前記第1の複数の光量分布とは異なるタイミングで第2の複数の光量分布を検出する第2検出工程と、
前記第1の複数の光量分布及び前記第2の複数の光量分布の少なくとも4つの光量分布のうち、少なくとも2つの光量分布に基づいて、前記座標入力領域における指示位置を算出する算出工程と
を備えることを特徴とする座標入力装置の制御方法。
As a coordinate input device that calculates the coordinates of the designated position for a rectangular coordinate input area,
Sensor means arranged at least two locations on two opposite sides of the coordinate input area, each of which projects a light projecting toward the coordinate input area, and accompanying an instruction to the coordinate input area Sensor means comprising a light receiving unit for detecting a change in the light amount distribution;
First retroreflective means provided on the first side of the coordinate input area and recursively reflects incident light;
A control method for a coordinate input device, comprising: a second retroreflective means provided on a second side opposite to the first side of the coordinate input region and recursively reflecting incident light;
A first detection step of detecting a first plurality of light quantity distributions by the sensor means facing the first retroreflective means;
A second detection step of detecting a second plurality of light quantity distributions at a timing different from the first plurality of light quantity distributions by the sensor means facing the second retroreflecting means;
A calculation step of calculating an indicated position in the coordinate input area based on at least two light quantity distributions among at least four light quantity distributions of the first plurality of light quantity distributions and the second plurality of light quantity distributions. A control method for a coordinate input device.
矩形状の座標入力領域に対する指示位置の座標を算出する座標入力装置として、
前記座標入力領域の対向する2辺に少なくとも2箇所ずつ配置されるセンサ手段であって、それぞれが、前記座標入力領域に向けて投光する投光部と、該座標入力領域への指示に伴う光量分布の変化を検出する受光部とにより構成されるセンサ手段と、
前記座標入力領域の第1の辺に設けられ、入射光を再帰的に反射する第1の再帰反射手段と、
前記座標入力領域の前記第1の辺に対向する第2の辺に設けられ、入射光を再帰的に反射する第2の再帰反射手段と
を備える座標入力装置の制御をコンピュータに実行させるためのプログラムであって、
前記コンピュータに、
前記第1の再帰反射手段と対向する前記センサ手段により、第1の複数の光量分布を検出する第1検出工程と、
前記第2の再帰反射手段と対向する前記センサ手段により、前記第1の複数の光量分布とは異なるタイミングで第2の複数の光量分布を検出する第2検出工程と、
前記第1の複数の光量分布及び前記第2の複数の光量分布の少なくとも4つの光量分布のうち、少なくとも2つの光量分布に基づいて、前記座標入力領域における指示位置を算出する算出工程と
を実行させることを特徴とするプログラム。
As a coordinate input device that calculates the coordinates of the designated position for a rectangular coordinate input area,
Sensor means arranged at least two locations on two opposite sides of the coordinate input area, each of which projects a light projecting toward the coordinate input area, and accompanying an instruction to the coordinate input area Sensor means comprising a light receiving unit for detecting a change in the light amount distribution;
First retroreflective means provided on the first side of the coordinate input area and recursively reflects incident light;
A second retroreflective means provided on a second side opposite to the first side of the coordinate input area and recursively reflecting incident light; A program,
In the computer,
A first detection step of detecting a first plurality of light quantity distributions by the sensor means facing the first retroreflective means;
A second detection step of detecting a second plurality of light quantity distributions at a timing different from the first plurality of light quantity distributions by the sensor means facing the second retroreflecting means;
A calculation step of calculating an indicated position in the coordinate input area based on at least two light quantity distributions among at least four light quantity distributions of the first plurality of light quantity distributions and the second plurality of light quantity distributions. A program characterized by letting
JP2011103225A 2011-05-02 2011-05-02 Coordinate input device, control method therefor, and program Expired - Fee Related JP5814608B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011103225A JP5814608B2 (en) 2011-05-02 2011-05-02 Coordinate input device, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011103225A JP5814608B2 (en) 2011-05-02 2011-05-02 Coordinate input device, control method therefor, and program

Publications (3)

Publication Number Publication Date
JP2012234413A true JP2012234413A (en) 2012-11-29
JP2012234413A5 JP2012234413A5 (en) 2014-06-05
JP5814608B2 JP5814608B2 (en) 2015-11-17

Family

ID=47434665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011103225A Expired - Fee Related JP5814608B2 (en) 2011-05-02 2011-05-02 Coordinate input device, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP5814608B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9436319B2 (en) 2013-12-18 2016-09-06 Canon Kabushiki Kaisha Coordinate input apparatus, method thereof, and storage medium
JP2017207915A (en) * 2016-05-18 2017-11-24 シャープ株式会社 Touch scan controller, touch scan control method, and program for touch scan control

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61118827A (en) * 1984-10-18 1986-06-06 ソニー・テクトロニクス株式会社 Positional information detector
JP2000267809A (en) * 1999-03-16 2000-09-29 Fujitsu Ltd Optical scanning type touch panel
JP2001142630A (en) * 1999-11-11 2001-05-25 Newcom:Kk Optical digitizer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61118827A (en) * 1984-10-18 1986-06-06 ソニー・テクトロニクス株式会社 Positional information detector
JP2000267809A (en) * 1999-03-16 2000-09-29 Fujitsu Ltd Optical scanning type touch panel
JP2001142630A (en) * 1999-11-11 2001-05-25 Newcom:Kk Optical digitizer

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9436319B2 (en) 2013-12-18 2016-09-06 Canon Kabushiki Kaisha Coordinate input apparatus, method thereof, and storage medium
JP2017207915A (en) * 2016-05-18 2017-11-24 シャープ株式会社 Touch scan controller, touch scan control method, and program for touch scan control

Also Published As

Publication number Publication date
JP5814608B2 (en) 2015-11-17

Similar Documents

Publication Publication Date Title
JP4442877B2 (en) Coordinate input device and control method thereof
JP5725774B2 (en) Coordinate input device and coordinate input method
JP5366789B2 (en) Input indication tool, control method therefor, and coordinate input device
JP5591069B2 (en) Coordinate input device, control method therefor, and program
US8941622B2 (en) Coordinate input apparatus
TW201214245A (en) Touch system using optical components to image multiple fields of view on an image sensor
JP2015060296A (en) Spatial coordinate specification device
JP5814608B2 (en) Coordinate input device, control method therefor, and program
JP4592085B2 (en) Information processing apparatus, control method therefor, and program
JP2012048403A (en) Coordinate input device and control method thereof, and program
JP5806573B2 (en) Coordinate input device, control method therefor, and coordinate input system
JP4074020B2 (en) Shape measuring instrument
JP2017045189A (en) Coordinate input device, information processing method, and program
JP2017040979A (en) Information processing apparatus, information processing method, and program
JP5049747B2 (en) Coordinate input device, control method therefor, and program
JP2006350908A (en) Optical information input device
JP5865053B2 (en) Coordinate input device, control method of coordinate input device, and program
JP6334980B2 (en) Coordinate input device, control method therefor, and program
JP3085482U (en) Input device
JP2012133487A (en) Coordinate input device and coordinate input method
JP2017045152A (en) Coordinate input device, information processing method, and program
JP5717514B2 (en) Coordinate input device, control method therefor, and program
JP2006059153A (en) Optical coordinate input device
EP4258090A1 (en) Calibration method for an electronic display screen for touchless gesture control
JP2017139012A (en) Input device, aerial image interaction system, and input method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150918

R151 Written notification of patent or utility model registration

Ref document number: 5814608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees