JP2016058046A - Coordinate input device, control method thereof, program, coordinate input system, and control method thereof - Google Patents

Coordinate input device, control method thereof, program, coordinate input system, and control method thereof Download PDF

Info

Publication number
JP2016058046A
JP2016058046A JP2014186564A JP2014186564A JP2016058046A JP 2016058046 A JP2016058046 A JP 2016058046A JP 2014186564 A JP2014186564 A JP 2014186564A JP 2014186564 A JP2014186564 A JP 2014186564A JP 2016058046 A JP2016058046 A JP 2016058046A
Authority
JP
Japan
Prior art keywords
touch operation
coordinate input
light
sensor
sensor units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014186564A
Other languages
Japanese (ja)
Inventor
貴幸 橋本
Takayuki Hashimoto
貴幸 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014186564A priority Critical patent/JP2016058046A/en
Publication of JP2016058046A publication Critical patent/JP2016058046A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the cost for manufacturing a coordinate input device.SOLUTION: A coordinate input device 100 includes two sensor bars 1L, 1R each having two sensor units 21L, 22L, 21R, 22R comprising projection means 30 and light-receiving means 40, and an arithmetic control circuit 3L. A main arithmetic operation section 71 of the arithmetic control circuit 3L functions as: touch position calculation means which calculates a position of touch operation on a coordinate input area 5, on the basis of a light quantity distribution of light received by the light-receiving means 40; request means which prompts touch operation on a position different from an intersection α of two straight lines connecting the two sensor units located in a diagonal direction, in a third overlap area 93 where all the four sensor units 21L, 22L, 21R, 22R can detect a touch position; and relative position calculation means which calculates a relative position between the four sensor units 21L, 22L, 21R, 22R, on the basis of a result of calculating the touch operation position.SELECTED DRAWING: Figure 9

Description

本発明は、座標入力領域へのタッチ操作の位置を光学的に検出する座標入力装置と、この座標入力装置の制御方法と、この座標入力装置の制御方法を実行するためのプログラムと、この座標入力装置を有する座標入力システムと、この座標入力システムの制御方法に関する。特には、座標入力領域を設ける面などに着脱可能で可搬性を有する座標入力装置と、この座標入力装置の制御方法と、この座標入力装置の制御方法を実行するためのプログラムと、この座標入力装置を有する座標入力システムと、この座標入力システムの制御方法に関する。   The present invention relates to a coordinate input device that optically detects the position of a touch operation on a coordinate input region, a control method for the coordinate input device, a program for executing the control method for the coordinate input device, and the coordinates The present invention relates to a coordinate input system having an input device and a control method of the coordinate input system. In particular, a coordinate input device that can be attached to and detached from the surface on which the coordinate input area is provided and is portable, a control method for the coordinate input device, a program for executing the control method for the coordinate input device, and the coordinate input device The present invention relates to a coordinate input system having a device and a control method of the coordinate input system.

光を用いる方式の座標入力装置として、座標入力領域の外側に再帰性反射材を設け、投光手段からの光を再帰反射材で反射し、その光量分布を受光手段により検出する方式が知られている。特許文献1には、座標入力領域内が指等でタッチされて光路が遮られると、遮光された方向を検知することでタッチ位置を算出するという構成が開示されている。このような光学式の座標入力装置は、少なくとも2基のセンサユニットにより検出されるタッチ位置の方向(角度)と、これら2基のセンサユニット間の距離の情報に基づき、座標入力領域へのタッチ位置を幾何学的に算出する。   As a coordinate input device using light, a method is known in which a retroreflecting material is provided outside the coordinate input area, the light from the light projecting means is reflected by the retroreflecting material, and the light quantity distribution is detected by the light receiving means. ing. Patent Document 1 discloses a configuration in which, when a coordinate input area is touched with a finger or the like and the optical path is blocked, the touch position is calculated by detecting the shielded direction. Such an optical coordinate input device touches a coordinate input area based on information on the direction (angle) of the touch position detected by at least two sensor units and the distance between the two sensor units. The position is calculated geometrically.

特開2004−272353号公報JP 2004-272353 A

ところで、このような座標入力装置においては、センサユニットの相対位置を確定しなければ、タッチ操作の位置の座標を算出できない。そして、センサユニットの相対位置を確定するためには、あるセンサユニットから見た他のセンサユニットの相対的な方向(角度)のみならず、ある絶対的な基準方向に対するセンサユニットの方向が必要になる。そこで、このような座標入力装置の製造においては、センサユニットを筺体へと組み込んだ後、基準となる方向(角度)を取得して、座標入力装置に保持させていた。例えば、筺体の垂直方向の角度を専用の冶具を用いて予め計測し、基準点角度情報として保持させていた。しかしながら、センサユニットを筺体へ組み込んだ後に基準となる角度を取得する際には、高い作業精度が求められる。このため、高い作業精度の要求を満たすような専用の治具と、このような基準方向の取得と付与の工数が必要であり、製造コストの上昇を招いていた。   By the way, in such a coordinate input device, the coordinates of the position of the touch operation cannot be calculated unless the relative position of the sensor unit is determined. In order to determine the relative position of the sensor unit, not only the relative direction (angle) of another sensor unit viewed from one sensor unit, but also the direction of the sensor unit with respect to a certain absolute reference direction is required. Become. Therefore, in manufacturing such a coordinate input device, after the sensor unit is incorporated into the housing, a reference direction (angle) is acquired and held in the coordinate input device. For example, the angle in the vertical direction of the housing is measured in advance using a dedicated jig and held as reference point angle information. However, when the reference angle is acquired after the sensor unit is incorporated into the housing, high working accuracy is required. For this reason, a dedicated jig that satisfies the requirement for high work accuracy and the number of steps for obtaining and giving such a reference direction are required, resulting in an increase in manufacturing cost.

本発明は上述した問題を解決するためになされたものであり、座標入力装置の製造において基準方向の取得と付与の工程を省略することにより、製造コストの削減を図ることである。   The present invention has been made to solve the above-described problems, and is intended to reduce the manufacturing cost by omitting the process of obtaining and assigning the reference direction in the manufacture of the coordinate input device.

上記課題を解決するため、本発明の座標入力装置は、入射光を再帰反射する再帰反射手段と、前記再帰反射手段に向けて投光する投光手段と、前記投光手段から投光されて前記再帰反射手段で再帰反射した反射光を受光する受光手段と、を有する少なくとも4基のセンサユニットと、前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出手段と、前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求手段と、前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出手段と、を有することを特徴とする。   In order to solve the above problems, a coordinate input device according to the present invention includes a retroreflective unit that retroreflects incident light, a light projecting unit that projects light toward the retroreflective unit, and a light projected from the light projecting unit. A light receiving means for receiving reflected light retroreflected by the retroreflecting means, and a position of a touch operation on a rectangular coordinate input area based on a light quantity distribution received by the light receiving means. Touch position calculation means for calculating the position of the touch input operation, and two of the four sensor units located at the four corners of the coordinate input area, which are located in the diagonal direction in the overlapping area where the position of the touch operation can be detected. Request means for performing a process for prompting a touch operation to a position different from the intersection of the two straight lines connecting the sensor unit, the position of the touch operation is calculated, and the position of the touch operation is the overlap region Relative position calculation means for calculating the relative position of the four sensor units based on the calculation result of the position of the touch operation when the position is different from the intersection of To do.

本発明によれば、使用時において、自動的に基準方向の取得ができる。このため、座標入力装置の製造において基準方向の取得と付与の工程を省略することができ、製造コストの削減を図ることができる。   According to the present invention, the reference direction can be automatically acquired during use. For this reason, in the manufacture of the coordinate input device, the process of obtaining and assigning the reference direction can be omitted, and the manufacturing cost can be reduced.

本発明の第1の実施形態に係る座標入力装置および座標入力システムの概略構成の例を模式的に示す図である。It is a figure which shows typically the example of schematic structure of the coordinate input device and coordinate input system which concern on the 1st Embodiment of this invention. PCの構成例を模式的に示す図である。It is a figure which shows the structural example of PC typically. センサユニットの概略構成の例を模式的に示す図である。It is a figure which shows typically the example of schematic structure of a sensor unit. (A)は、座標入力装置の概略構成と投光手段と受光手段の配置の例を模式的に示す図であり、(B)〜(D)は受光強度と投光強度の分布の例を模式的に示すグラフである。(A) is a figure which shows typically the example of schematic structure of a coordinate input device, and the arrangement | positioning of a light projection means and a light reception means, (B)-(D) is an example of distribution of received light intensity and light projection intensity | strength. It is a graph typically shown. センサバーの概略構成の例を示す断面図である。It is sectional drawing which shows the example of schematic structure of a sensor bar. (A)は演算制御回路の機能構成の例を示すブロック図であり、(B)はセンサユニットの動作を示すタイミングチャートである。(A) is a block diagram showing an example of the functional configuration of the arithmetic control circuit, and (B) is a timing chart showing the operation of the sensor unit. 受光手段により検出される光量分布の例を模式的に示すグラフである。It is a graph which shows typically an example of light quantity distribution detected by a photo acceptance unit. センサユニットが検出する視野範囲および各重複領域を模式的に示す図である。It is a figure which shows typically the visual field range and each overlapping area | region which a sensor unit detects. 4基のセンサユニットの相対位置関係を模式的に示す図である。It is a figure which shows typically the relative positional relationship of four sensor units. 電源が投入されてからの初期設定処理を示すフローチャートである。It is a flowchart which shows the initial setting process after a power supply is turned on. 表示装置が表示する表示領域内に第3の重複領域が含まれる状態を模式的に示す図である。It is a figure which shows typically the state in which the 3rd duplication area | region is included in the display area which a display apparatus displays. タッチ操作の位置を第3の重複領域に誘導する処理の内容の例を模式的に示す図である。It is a figure which shows typically the example of the content of the process which guide | induces the position of touch operation to a 3rd duplication area | region.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、説明の便宜上、「光」という場合には、可視光以外の波長領域の電磁波(特に赤外線)も含むものとする。また、以下の各実施形態において示す構成は本発明の具体化の例に過ぎず、本発明は以下の各実施形態に示す構成に限定されるものではない。   Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. For convenience of explanation, the term “light” includes electromagnetic waves (especially infrared rays) in a wavelength region other than visible light. The configurations shown in the following embodiments are merely examples of the present invention, and the present invention is not limited to the configurations shown in the following embodiments.

(第1の実施形態)
まず、第1の実施形態に係る座標入力装置100と座標入力システム101の概略構成を、図1と図2を参照して説明する。図1は、本発明の第1の実施形態に係る座標入力装置100と座標入力システム101の概略構成の例を模式的に示す図である。図1に示すように、座標入力装置100は、筺体として2基で一組のセンサバー1L,1Rを有する。2基のセンサバー1L,1Rには、それぞれ、少なくとも2基のセンサユニット21L,22L,21R,22Rが設けられる。このため、座標入力装置100は、全体で少なくとも4基のセンサユニット21L,22L,21R,22Rを有する。
(First embodiment)
First, schematic configurations of the coordinate input device 100 and the coordinate input system 101 according to the first embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a diagram schematically illustrating an example of a schematic configuration of a coordinate input device 100 and a coordinate input system 101 according to the first embodiment of the present invention. As shown in FIG. 1, the coordinate input device 100 includes a pair of sensor bars 1L and 1R as two housings. The two sensor bars 1L and 1R are provided with at least two sensor units 21L, 22L, 21R and 22R, respectively. For this reason, the coordinate input device 100 has at least four sensor units 21L, 22L, 21R, and 22R as a whole.

座標入力システム101は、座標入力装置100と、座標入力装置100の外部機器であるコンピュータ(以下、PC300と記す)と、表示装置200とを有する。図2は、PC300のハードウェア構成の例を示す図である。図2に示すように、PC300は、CPU301と、RAM302と、ROM303と、外部メモリ304と、入力部305と、表示部306と、通信I/F部307と、バスを有して構成されている。CPU301は、PC300における動作を統括的に制御するものであり、バスを介してPC300の各部を制御する。RAM302は、CPU301の主メモリ、ワークエリア等として機能する。ROM303には、CPU301が処理を実行するために必要なプログラム等が記憶されている。外部メモリ304には、後述する処理を実行するためのアプリケーションのプログラムが格納されている。外部メモリ304としては、たとえはHDD(ハードディスクドライブ)やSSD(シリコンソリッドディスク)などの公知の各種記憶デバイスが適用できる。入力部305は、使用者等がPC300を操作する部分である。入力部305としては、例えばキーボードやマウスなどの公知の各種入力デバイスが適用できる。表示部306は、CPU301の制御に従い、各種画像や情報などを表示する。表示部306には、液晶表示装置など、公知の各種表示デバイスが適用できる。通信I/F部307は、外部(本実施形態では、座標入力装置100と表示装置200)との通信を司るものである。バスは、CPU301と、RAM302と、ROM303と、外部メモリ304と、入力部305と、表示部306と、通信I/F部307とを通信可能に接続する。そして、CPU301は、処理の実行に際して、外部メモリ304に格納されているコンピュータプログラムを読み出し、RAM302をワークエリアとして使用することにより、当該プログラム実行する。これにより各種の機能動作を実現する。   The coordinate input system 101 includes a coordinate input device 100, a computer (hereinafter referred to as a PC 300) that is an external device of the coordinate input device 100, and a display device 200. FIG. 2 is a diagram illustrating an example of the hardware configuration of the PC 300. As shown in FIG. 2, the PC 300 includes a CPU 301, a RAM 302, a ROM 303, an external memory 304, an input unit 305, a display unit 306, a communication I / F unit 307, and a bus. Yes. The CPU 301 controls the overall operation of the PC 300 and controls each part of the PC 300 via a bus. The RAM 302 functions as a main memory, work area, and the like for the CPU 301. The ROM 303 stores a program necessary for the CPU 301 to execute processing. The external memory 304 stores an application program for executing processing to be described later. As the external memory 304, various known storage devices such as HDD (Hard Disk Drive) and SSD (Silicon Solid Disk) can be applied. The input unit 305 is a part where a user or the like operates the PC 300. As the input unit 305, various known input devices such as a keyboard and a mouse can be applied. The display unit 306 displays various images and information according to the control of the CPU 301. Various known display devices such as a liquid crystal display device can be applied to the display unit 306. The communication I / F unit 307 manages communication with the outside (in this embodiment, the coordinate input device 100 and the display device 200). The bus connects the CPU 301, the RAM 302, the ROM 303, the external memory 304, the input unit 305, the display unit 306, and the communication I / F unit 307 so that they can communicate with each other. When executing the processing, the CPU 301 reads the computer program stored in the external memory 304 and executes the program by using the RAM 302 as a work area. As a result, various functional operations are realized.

なお、PC300は、上記構成に限定されない。PC300は、所定のアプリケーションを実行できるとともに、座標入力装置100と表示装置200と通信できる構成であればよい。PC300には、例えば、公知の各種パーソナルコンピュータ(ラップトップタイプやPDAタイプも含む)が適用できる。   The PC 300 is not limited to the above configuration. The PC 300 may have any configuration as long as it can execute a predetermined application and can communicate with the coordinate input device 100 and the display device 200. For example, various known personal computers (including a laptop type and a PDA type) can be applied to the PC 300.

表示装置200は、座標入力装置100が生成した画像や、PC300のアプリケーションが生成した画像を座標入力領域5(後述)の内側に投影(表示)する。表示装置200が画像を投影(表示)する領域が表示領域111である。表示装置200は、外部(本実施形態では座標入力装置100とPC300)から入力された画像を投影(表示)できる構成であればよく、具体的な構成は特に限定されない。表示装置200には、公知のプロジェクタなど、公知の各種表示装置が適用できる。   The display device 200 projects (displays) an image generated by the coordinate input device 100 or an image generated by an application of the PC 300 inside the coordinate input area 5 (described later). A region where the display device 200 projects (displays) an image is a display region 111. The display device 200 may be any configuration that can project (display) an image input from the outside (in this embodiment, the coordinate input device 100 and the PC 300), and the specific configuration is not particularly limited. Various known display devices such as a known projector can be applied to the display device 200.

図1に示すように、座標入力装置100の各々のセンサバー1L,1Rは、矩形状の座標入力領域5の対向する2辺の外側に配置されて使用される。そして、その状態で、4基のセンサユニット21L,22L,21R,22Rのそれぞれは、矩形状の座標入力領域5の四隅部近傍に位置する。より具体的には、各々のセンサバー1L,1Rの2基のセンサユニット21L,22L,21R,22Rのそれぞれは、矩形状の座標入力領域5の対向する2辺のそれぞれの両端部近傍に位置する。なお、座標入力領域5とは、座標入力装置100により座標の入力が可能な領域をいうものとする。換言すると、略平行に配置される2基のセンサバー1L,1Rの間に、座標入力領域5が設けられる。表示装置200としてフロントプロジェクタが適用され、平面状のホワイトボード6などに画像を投影する場合には、表示装置200による表示領域111(表示画面)は、座標入力装置100による座標入力領域5の範囲内に設定される。なお、画像を投影する対象は、ホワイトボード6に限定されるものではなく、壁面やスクリーンなどであっても良い。説明の便宜上、平面状で矩形状の座標入力領域5における横方向をX軸方向(向かって右向きが+)とし、縦方向をY方向(下向きが+)とし、法線方向(図1中の紙面に直角な方向)をZ方向とする。   As shown in FIG. 1, the sensor bars 1 </ b> L and 1 </ b> R of the coordinate input device 100 are arranged and used outside two opposing sides of a rectangular coordinate input region 5. In this state, each of the four sensor units 21L, 22L, 21R, and 22R is positioned near the four corners of the rectangular coordinate input area 5. More specifically, each of the two sensor units 21L, 22L, 21R, and 22R of each sensor bar 1L and 1R is located in the vicinity of both ends of the two opposing sides of the rectangular coordinate input area 5. . The coordinate input area 5 refers to an area in which coordinates can be input by the coordinate input device 100. In other words, the coordinate input area 5 is provided between the two sensor bars 1L and 1R arranged substantially in parallel. When a front projector is applied as the display device 200 and an image is projected onto the flat whiteboard 6 or the like, the display area 111 (display screen) by the display device 200 is the range of the coordinate input area 5 by the coordinate input device 100. Set in. The target on which the image is projected is not limited to the whiteboard 6 but may be a wall surface or a screen. For convenience of explanation, the horizontal direction in the planar and rectangular coordinate input area 5 is the X-axis direction (the rightward direction is +), the vertical direction is the Y direction (downward is +), and the normal direction (in FIG. 1). The direction perpendicular to the paper surface is defined as the Z direction.

一方のセンサバー1L(図1においては左側に配置されるセンサバー)には、少なくとも2基のセンサユニット21L,22Lと、演算制御回路3Lとが内蔵される。同様に、もう一方のセンサバー1R(図1においては右側に配置されるセンサバー)には、少なくとも2基のセンサユニット21R,22Rと、演算制御回路3Rとが内蔵される。センサユニット21L,22L,21R,22Rは、それぞれ、投光手段30と受光手段40を有する。また、各々のセンサバー1L,1Rの使用状態において互いに対向する側面には、入射光を再帰反射する再帰反射手段4L,4Rが設けられる。再帰反射手段4L,4Rは、座標入力領域5の対向する2辺の各々に設けられたセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rの投光手段30が投光した赤外線を再帰反射させる。再帰反射手段4L,4Rは、入射光を再帰反射させる構成であればよい。このため、再帰反射手段4L,4Rには、公知の各種再帰反射材(再帰反射テープなど)が適用できる。   One sensor bar 1L (a sensor bar arranged on the left side in FIG. 1) includes at least two sensor units 21L and 22L and an arithmetic control circuit 3L. Similarly, at least two sensor units 21R and 22R and an arithmetic control circuit 3R are built in the other sensor bar 1R (sensor bar arranged on the right side in FIG. 1). Each of the sensor units 21L, 22L, 21R, and 22R includes a light projecting unit 30 and a light receiving unit 40. Further, retroreflective means 4L and 4R for retroreflecting incident light are provided on the side surfaces facing each other in the usage state of the sensor bars 1L and 1R. The retroreflective means 4L and 4R retroreflect the infrared rays projected by the light projecting means 30 of the sensor units 21L, 22L, 21R, and 22R of the sensor bars 1L and 1R provided on the two opposite sides of the coordinate input area 5, respectively. Let The retroreflective means 4L and 4R may be configured to retroreflect incident light. For this reason, various known retroreflective materials (such as a retroreflective tape) can be applied to the retroreflective means 4L and 4R.

一方のセンサバー1Lに内蔵される演算制御回路3Lは、センサユニット21L,22Lを制御するとともに、それらの出力結果を演算処理する。さらに、一方のセンサバー1Lに内蔵される演算制御回路3Lは、もう一方のセンサバー1Rに内蔵される演算制御回路3Rを制御する。もう一方のセンサバー1Rに内蔵される演算制御回路3Rは、センサユニット21R,22Rを制御するとともに、それらの出力結果を演算処理する。そして、演算処理の結果を、一方のセンサバー1Lに内蔵される演算制御回路3Lに送信する。そして、使用者等が座標入力領域5内の所望の位置を指示やタッチ等すると、一方のセンサバー1Lに設けられる演算制御回路3Lは、4基のセンサユニット21L,22L,21R,22Rからの出力結果を処理して指示やタッチ等の位置を算出する。本発明の実施形態では、使用者等による座標入力領域5への指示やタッチを「タッチ操作」と称し、タッチ操作された位置を「タッチ位置」と称する。なお、タッチ操作は、座標入力領域5の面に接触する動作でなくてもよい。そして、演算制御回路3Lは、タッチ位置の算出結果を、PC300へ出力する。なお、図1においては、一方のセンサバー1Lに内蔵される演算制御回路3Lと、もう一方のセンサバー1Rに内蔵される演算制御回路3Rとが、ケーブル7で接続されて有線通信する構成を示す。ただし、一方のセンサバー1Lに内蔵される演算制御回路3Lともう一方のセンサバー1Rに内蔵される演算制御回路3Rとが無線通信する構成であってもよい。   The calculation control circuit 3L built in one sensor bar 1L controls the sensor units 21L and 22L and calculates the output results thereof. Further, the calculation control circuit 3L built in one sensor bar 1L controls the calculation control circuit 3R built in the other sensor bar 1R. The calculation control circuit 3R built in the other sensor bar 1R controls the sensor units 21R and 22R and calculates the output results thereof. And the result of a calculation process is transmitted to the calculation control circuit 3L built in one sensor bar 1L. When the user or the like instructs or touches a desired position in the coordinate input area 5, the arithmetic control circuit 3L provided on one sensor bar 1L outputs from the four sensor units 21L, 22L, 21R, and 22R. The result is processed to calculate a position such as an instruction or a touch. In the embodiment of the present invention, an instruction or touch to the coordinate input area 5 by a user or the like is referred to as a “touch operation”, and a position where the touch operation is performed is referred to as a “touch position”. The touch operation may not be an operation of touching the surface of the coordinate input area 5. Then, the arithmetic control circuit 3L outputs the calculation result of the touch position to the PC 300. FIG. 1 shows a configuration in which a calculation control circuit 3L built in one sensor bar 1L and a calculation control circuit 3R built in the other sensor bar 1R are connected by a cable 7 to perform wired communication. However, the configuration may be such that the calculation control circuit 3L built in one sensor bar 1L and the calculation control circuit 3R built in the other sensor bar 1R communicate wirelessly.

図3は、センサユニット21Lの概略構成の例を模式的に示す図である。具体的には、図3(A)は図1のA−A線断面図である。図3(B)は、センサユニット21Lに含まれる投光手段30をZ軸方向から見た正面図である。図3(C)は、センサユニット21Lに含まれる受光手段40をZ軸方向から見た正面図である。なお、図3においては、4基のセンサユニット21L,22L,21R,22Rのうちの1基のセンサユニット21Lの構成を示すが、他のセンサユニット22L,21R,22Rも、センサユニット21Lと同様の構成を有する。具体的には、センサユニット22L,21Rは、センサユニット21Lと鏡面対象の構成を有し、センサユニット22Rは、センサユニット21Lと点対称の構成(構成は同じで配置の向きが異なる)を有する。   FIG. 3 is a diagram schematically illustrating an example of a schematic configuration of the sensor unit 21L. Specifically, FIG. 3A is a cross-sectional view taken along line AA in FIG. FIG. 3B is a front view of the light projecting means 30 included in the sensor unit 21L as viewed from the Z-axis direction. FIG. 3C is a front view of the light receiving means 40 included in the sensor unit 21L as viewed from the Z-axis direction. 3 shows the configuration of one sensor unit 21L among the four sensor units 21L, 22L, 21R, and 22R, the other sensor units 22L, 21R, and 22R are similar to the sensor unit 21L. It has the composition of. Specifically, the sensor units 22L and 21R have a mirror surface configuration with the sensor unit 21L, and the sensor unit 22R has a point-symmetric configuration (the configuration is the same and the arrangement direction is different) with the sensor unit 21L. .

センサユニット21Lは、一方のセンサバー1Lに内蔵されている。図3(A)に示すように、センサユニット21Lは、投光手段30と受光手段40とを有する。投光手段30の光軸Apと受光手段40の光軸Arとは、座標入力領域5(すなわち、X−Y平面)に平行であり、Z軸方向に距離Lpdをおいて離れている。そして、センサバー1Lの側面には、投光手段30の光軸Apと受光手段40の光軸Arとの間に、再帰反射手段4Lが設けられる。なお、センサバー1Lの側面には、投光手段30が発する赤外線と再帰反射手段4Rで反射して入射する赤外線とが通過する開口部が設けられ、この開口部を塞ぐように光透過性を有する保護部材45が設けられる。保護部材45は、開口部を塞ぐことによって、センサバー1Lの内部へのゴミ等の異物の侵入を防止する。   The sensor unit 21L is built in one sensor bar 1L. As shown in FIG. 3A, the sensor unit 21L includes a light projecting unit 30 and a light receiving unit 40. The optical axis Ap of the light projecting means 30 and the optical axis Ar of the light receiving means 40 are parallel to the coordinate input area 5 (that is, the XY plane) and are separated by a distance Lpd in the Z-axis direction. On the side surface of the sensor bar 1L, retroreflective means 4L is provided between the optical axis Ap of the light projecting means 30 and the optical axis Ar of the light receiving means 40. The side surface of the sensor bar 1L is provided with an opening through which the infrared ray emitted from the light projecting means 30 and the infrared ray reflected and incident by the retroreflecting means 4R pass, and has a light transmitting property so as to close the opening. A protective member 45 is provided. The protective member 45 prevents foreign matter such as dust from entering the sensor bar 1L by closing the opening.

図3(B)に示すように、投光手段30は、光源の例である赤外LED31と、投光レンズ32とを有する。赤外LED31と投光レンズ32とは、例えば接着層33により固定される。赤外LED31は赤外線を発する。投光レンズ32は、赤外LED31が発する赤外線を、座標入力領域5の面(例えばホワイトボード6の面)に略平行な光束に成形する。そして、投光手段30は、対向する辺に設けられるもう一方のセンサバー1Rの再帰反射手段4Rの全領域を照明するように設けられる。具体的には、投光手段30は、Z軸方向視において、投光範囲が方向gから方向hの範囲であって、頂点が点Opの位置の扇状の光束を出射する。また、投光手段30の光軸は方向fに設定される。方向fは、もう一方のセンサバー1Rの長手方向の端部であって、センサユニット21Lから遠い側の端部(対角方向に位置する端部)に向かう方向である。具体的には、向かって左側のセンサバー1Lの上端に設けられるセンサユニット21Lを基準とすると、方向fは、このセンサユニット21Lから右側のセンサバー1Rの下端に向かう方向となる。   As illustrated in FIG. 3B, the light projecting unit 30 includes an infrared LED 31 that is an example of a light source, and a light projecting lens 32. The infrared LED 31 and the light projecting lens 32 are fixed by, for example, an adhesive layer 33. The infrared LED 31 emits infrared light. The light projecting lens 32 shapes the infrared light emitted from the infrared LED 31 into a light beam substantially parallel to the surface of the coordinate input area 5 (for example, the surface of the whiteboard 6). The light projecting means 30 is provided so as to illuminate the entire region of the retroreflective means 4R of the other sensor bar 1R provided on the opposite side. Specifically, the light projecting means 30 emits a fan-shaped light flux whose light projection range is from the direction g to the direction h and whose apex is at the point Op when viewed in the Z-axis direction. The optical axis of the light projecting means 30 is set in the direction f. The direction f is a direction toward the end in the longitudinal direction of the other sensor bar 1R and toward the end far from the sensor unit 21L (the end located in the diagonal direction). Specifically, based on the sensor unit 21L provided at the upper end of the left sensor bar 1L, the direction f is a direction from the sensor unit 21L toward the lower end of the right sensor bar 1R.

図3(C)に示すように、受光手段40は、投光手段30が投光し、対向する辺に設けられたセンサバー1L,1Rに装着されている再帰反射手段4L,4Rにおいて反射(再帰反射)して入射した光を検出する。受光手段40は、検出手段の例であるラインCCD41と、受光レンズ42と、視野絞り43と、赤外線通過フィルター44とを有する。なお、保護部材45に赤外通過フィルター機能を設け、受光手段40に赤外線通過フィルター44を設けない構成であってもよい。受光手段40の光軸の方向は、X軸方向に平行な方向に設定される。また、図3(C)においては、前述の方向gから方向hの範囲が受光手段40の視野範囲となり、点Orの位置が光学的な中心位置となる。なお、受光手段40は、その光軸に対して非対称な光学系となっている。ラインCCD41には、複数の画素(光電変換素子)が直線状に並べられた構成を有する。そして、入射する光の方向に応じて、受光手段40のラインCCD41のいずれかの画素に集光される。このため、ラインCCD41の画素番号は入射する光の入射角度の情報を表すことになる。   As shown in FIG. 3C, the light receiving means 40 is reflected (recursively) by the retroreflective means 4L and 4R mounted on the sensor bars 1L and 1R provided on the opposite sides, which are projected by the light projecting means 30. The reflected light is detected. The light receiving means 40 includes a line CCD 41, which is an example of a detection means, a light receiving lens 42, a field stop 43, and an infrared passage filter 44. The protection member 45 may be provided with an infrared pass filter function, and the light receiving means 40 may not be provided with the infrared pass filter 44. The direction of the optical axis of the light receiving means 40 is set in a direction parallel to the X-axis direction. In FIG. 3C, the range from the direction g to the direction h is the visual field range of the light receiving means 40, and the position of the point Or is the optical center position. The light receiving means 40 is an optical system that is asymmetric with respect to the optical axis. The line CCD 41 has a configuration in which a plurality of pixels (photoelectric conversion elements) are arranged in a straight line. Then, the light is condensed on any pixel of the line CCD 41 of the light receiving means 40 according to the direction of the incident light. For this reason, the pixel number of the line CCD 41 represents information on the incident angle of the incident light.

そして、投光手段30と受光手段40とは、Z軸方向視において、点Opと点Orの位置、および、方向gと方向hとが略一致するように、Z軸方向に重ねて配置される(図3(A)参照)。   The light projecting means 30 and the light receiving means 40 are arranged so as to overlap in the Z-axis direction so that the positions of the point Op and the point Or and the direction g and the direction h substantially coincide with each other when viewed in the Z-axis direction. (See FIG. 3A).

図4(A)は、座標入力装置100の概略構成と、投光手段30と受光手段40の配置の例を模式的に示す図である。センサバー1Lのセンサユニット21Lの投光手段30は、方向gから方向hの範囲に赤外線を投光する。そして、センサバー1Lのセンサユニット21Lの投光手段30から投光される赤外線のうち、もう一方のセンサバー1Rの再帰反射手段4Rが装着されている範囲(図4においては、方向jから方向fの範囲)に入射した光が再帰反射する。そして、再帰反射手段4Rで再帰反射した光は、センサバー1Lの受光手段40で検出される。このように、2基のセンサバー1L,1Rは、互いに、相手方のセンサバー1L,1Rの2基のセンサユニット21L,22L,21R,22Rから見て方向gと方向hの間に配置された状態で使用される。さらに、一方のセンサバー1Lの各々のセンサユニット21L,22Lから見て、それぞれ方向fにもう一方のセンサバー1Rのそれぞれの端部が位置する状態で使用される。なお、図4においては、一方のセンサバー1Lについて方向f,g,hを示すが、もう一方のセンサバー1Rについても同様である。   FIG. 4A is a diagram schematically illustrating an example of the schematic configuration of the coordinate input device 100 and the arrangement of the light projecting unit 30 and the light receiving unit 40. The light projecting means 30 of the sensor unit 21L of the sensor bar 1L projects infrared rays in the range from the direction g to the direction h. Of the infrared rays projected from the light projecting means 30 of the sensor unit 21L of the sensor bar 1L, a range in which the retroreflective means 4R of the other sensor bar 1R is mounted (in FIG. 4, from the direction j to the direction f). The light incident on (range) is retroreflected. The light retroreflected by the retroreflective means 4R is detected by the light receiving means 40 of the sensor bar 1L. In this way, the two sensor bars 1L and 1R are arranged between the direction g and the direction h when viewed from the two sensor units 21L, 22L, 21R and 22R of the counterpart sensor bar 1L and 1R. used. Furthermore, it is used in a state where the respective end portions of the other sensor bar 1R are positioned in the direction f as viewed from the sensor units 21L and 22L of the one sensor bar 1L. FIG. 4 shows directions f, g, and h for one sensor bar 1L, but the same applies to the other sensor bar 1R.

ところで、投光手段30が発する光束は、完全には平行とはならず、投光手段30から離れるにしたがって光束の幅が広くなる(図3(A)参照)。このため、再帰反射手段4Rで再帰反射する光量は、投光手段30からの距離が大きくなるにしたがって減少する。したがって、投光手段30の中心点Opから再帰反射手段4Rまでの距離が近い方向jに比べ、距離の遠い方向fは、入射する光の強度が低い。さらに、再帰反射手段4Rにおける再帰反射光率は、再帰反射手段4Rの再帰反射面に直角方向から入射した場合に比較すると、入射角が大きくなるにしたがって低下する。換言すると、再帰反射手段4L,4Rへの入射光が再帰反射光として再帰反射する割合は、再帰反射手段4L,4Rへの入射光の入射角に依存する。そして、方向fは、再帰反射手段4L,4Rへの入射角が最も大きい方向であるから、再帰反射する割合が最も低下する。一方、受光手段40の光軸Arは、X軸方向に平行な方向に設定されている。そして、入射する反射光と受光手段40の光軸Arとがなす角度は、方向fから入射する反射光において最も大きくなる。一般的な光学レンズのレンズ特性は、光軸となす角度が大きくなるに従って集光効率が低下する。このため、方向fは、集光効率の低下により最も暗くなる方向であると言える。したがって、投光手段30が方向gから方向hの範囲の全域で一定の強度の光を投光(照射)できたとしても、受光手段40で検出できる再帰反射光は、方向jからの再帰反射光が最も強くなり、方向jから方向fに向かうに従って弱くなる(図4(B)参照)。   By the way, the luminous flux emitted from the light projecting means 30 is not completely parallel, and the width of the luminous flux increases as the distance from the light projecting means 30 increases (see FIG. 3A). For this reason, the quantity of light retroreflected by the retroreflective means 4R decreases as the distance from the light projecting means 30 increases. Therefore, the intensity of incident light is low in the direction f far from the direction j where the distance from the center point Op of the light projecting means 30 to the retroreflective means 4R is short. Further, the retroreflected light rate in the retroreflective means 4R decreases as the incident angle increases as compared to the case where the retroreflective means 4R enters the retroreflective surface of the retroreflective means 4R from a right angle direction. In other words, the rate at which the incident light on the retroreflective means 4L and 4R is retroreflected as retroreflected light depends on the incident angle of the incident light on the retroreflective means 4L and 4R. And since the direction f is the direction where the incident angle to the retroreflective means 4L, 4R is the largest, the ratio of retroreflecting is the lowest. On the other hand, the optical axis Ar of the light receiving means 40 is set in a direction parallel to the X-axis direction. The angle formed between the incident reflected light and the optical axis Ar of the light receiving means 40 is the largest in the reflected light incident from the direction f. As for the lens characteristics of a general optical lens, the light collection efficiency decreases as the angle formed with the optical axis increases. For this reason, it can be said that the direction f is the darkest direction due to a decrease in the light collection efficiency. Therefore, even if the light projecting unit 30 can project (irradiate) light having a constant intensity in the entire range from the direction g to the direction h, the retroreflected light that can be detected by the light receiving unit 40 is retroreflected from the direction j. The light becomes the strongest and becomes weaker from the direction j toward the direction f (see FIG. 4B).

一方で、赤外LED31の赤外線の強度は、一般的に光軸方向において最大となる。そして光軸とのなす角度が大きくなるに従って、赤外線の強度は低下する。このような投光強度(照射強度)の低下の度合いは、一般的には図4(C)に示すように、投光強度(照射強度)が光軸方向の半分となる角度『半値角』で定義される。本実施形態においては、再帰反射光の強度が最も弱くなる方向fに投光手段30の光軸Apを向ける構成とする。これにより、方向fへの投光強度を増大させ、方向fから方向jに向かうにしたがって、相対的に投光強度を低下させている。このような構成であると、図4(D)に示すように、方向jから方向fまでの範囲において、検出できる再帰反射光の強度の不均一の低減または解消ができる。したがって、方向によらず安定した信号が得られるようになる。なお、本実施形態では、赤外LED31の投光強度の分布に応じて、投光手段30の光軸を再帰反射光レベルが最も弱い方向fに向ける構成を示した。しかしながら、投光手段30の受光手段40に対する傾斜角は前述の角度に限られるものではない。例えば、投光レンズ32に非対称の光学特性を持たせた場合には、図4(C)に示す光量分布も非対称性を有することになる。この場合、その非対称性を有する分布において投光強度が最大となる方向を、方向fに一致させる構成であってもよい。   On the other hand, the infrared intensity of the infrared LED 31 is generally maximum in the optical axis direction. And the intensity | strength of infrared rays falls as the angle made with an optical axis becomes large. As shown in FIG. 4C, the degree of decrease in such light projection intensity (irradiation intensity) is generally an angle “half-value angle” at which the light projection intensity (irradiation intensity) is half of the optical axis direction. Defined by In this embodiment, it is set as the structure which orient | assigns the optical axis Ap of the light projection means 30 to the direction f where the intensity | strength of retroreflection light becomes the weakest. Thereby, the light projection intensity in the direction f is increased, and the light projection intensity is relatively lowered in the direction from the direction f to the direction j. With such a configuration, as shown in FIG. 4D, non-uniformity in the intensity of the retroreflected light that can be detected can be reduced or eliminated in the range from the direction j to the direction f. Therefore, a stable signal can be obtained regardless of the direction. In the present embodiment, the configuration in which the optical axis of the light projecting means 30 is directed in the direction f where the retroreflected light level is the weakest according to the distribution of the light projection intensity of the infrared LED 31 is shown. However, the inclination angle of the light projecting means 30 with respect to the light receiving means 40 is not limited to the aforementioned angle. For example, when the light projecting lens 32 has asymmetric optical characteristics, the light amount distribution shown in FIG. 4C also has asymmetric property. In this case, a configuration in which the direction in which the light projection intensity is maximum in the distribution having the asymmetry is made to coincide with the direction f may be employed.

次に、センサバー1L,1Rの構成について、図5を参照して説明する。本実施形態では、2基のセンサバー1L,1Rを、例えばホワイトボード6や壁面などの平面状の領域に取り付けて使用する。そして、ホワイトボード6や壁面に投影されている表示領域111を直接にタッチ操作できるようにする。表示領域111の大きさは、ホワイトボード6の大きさや壁面の大きさに応じて使用者等が適宜設定するものであり、固定値ではない。例えば、ホワイトボード6を用いる場合であっても、市販のホワイトボードには種々のサイズが有る。投影画面のスクリーンとして大画面を投影できるサイズには、例えば、縦横寸法が900×1200mm、900×1800mm、1200×1800mmのものがある。ただし、これらの寸法は、ホワイトボードとして有効に使える範囲を意味しているのではなく、四辺周囲部の筺体枠を含む寸法であることが多い。したがって、座標入力領域5として実際に使える領域はそれより小さく、大きさもメーカによってまちまちとなっている。   Next, the configuration of the sensor bars 1L and 1R will be described with reference to FIG. In the present embodiment, the two sensor bars 1L and 1R are used by being attached to a planar region such as a white board 6 or a wall surface. Then, the display area 111 projected on the whiteboard 6 or the wall surface can be directly touch-operated. The size of the display area 111 is appropriately set by the user or the like according to the size of the whiteboard 6 or the size of the wall surface, and is not a fixed value. For example, even when the whiteboard 6 is used, commercially available whiteboards have various sizes. As a screen for a projection screen, there are sizes that can project a large screen, for example, vertical and horizontal dimensions of 900 × 1200 mm, 900 × 1800 mm, and 1200 × 1800 mm. However, these dimensions do not mean a range that can be effectively used as a whiteboard, but are often dimensions including a frame around the four sides. Accordingly, the area actually usable as the coordinate input area 5 is smaller than that, and the size varies depending on the manufacturer.

そこで、本実施形態では、種々の寸法に対応できるように、座標入力装置100のセンサバー1L,1Rには、長手方向に伸縮する伸縮機構が設けられる。そして、センサバー1L,1Rの伸縮機構を伸縮させることによって、各々のセンサバー1L,1Rに内蔵される2基のセンサユニット21L,22L,21R,22Rの距離を変更できる。例えば、縦寸法が筺体900〜1200mmのホワイトボード6の平面部分の大きさ820mmから1200mmに装着できるように、センサバー1L,1Rの外形長さが820〜1200mmの範囲で可変である構成が適用できる。   Therefore, in the present embodiment, the sensor bars 1L and 1R of the coordinate input device 100 are provided with an expansion / contraction mechanism that expands and contracts in the longitudinal direction so as to correspond to various dimensions. And the distance of the two sensor units 21L, 22L, 21R, 22R built in each sensor bar 1L, 1R can be changed by extending / contracting the expansion / contraction mechanism of the sensor bars 1L, 1R. For example, a configuration in which the outer length of the sensor bars 1L and 1R is variable within a range of 820 to 1200 mm can be applied so that the size of the flat portion of the white board 6 having a vertical dimension of 900 to 1200 mm can be mounted from 820 mm to 1200 mm. .

図5(A)は、センサバー1Lの概略構成の例を示す断面図である。なお、もう一方のセンサバー1Rも、センサバー1Lと同様の構成を有する。各々のセンサバー1L,1Rは、上側筺体ケース61と下側筺体ケース62とを有する。上側筺体ケース61と下側筺体ケース62の一方には外側パイプ63が設けられ、他方には内側パイプ64が設けられる。内側パイプ64は、その少なくとも一部が外側パイプ63の内側に嵌まり込んでいる。そして、内側パイプ64と外側パイプ63は、互いに軸線方向にスライド式に往復動可能である。また、外側パイプ63は上側筺体ケース61に固定され、内側パイプ64は下側筺体ケース62に固定される。ただし、外側パイプ63が下側筺体ケース62に固定され、内側パイプ64が上側筺体ケース61に固定される構成であってもよい。図5(B)に示すように、センサバー1L,1Rを伸縮させると、外側パイプ63と内側パイプ64とが勘合関係を維持した状態でスライドする。本実施形態においては、外側パイプ63と内側パイプ64とが金属製である構成が適用される。外側パイプ63と内側パイプ64とを金属製とすることにより、伸縮動作時のセンサバー1L,1Rの機械的強度を確保している。なお、金属製である外側パイプ63と内側パイプ64の各々の一端は、プレス成形などによって押しつぶされている。そして、当該押しつぶされた部分において、上側筺体ケース61と下側筺体ケース62の各々に機械的に結合される。さらに、当該押しつぶされた部分に、センサユニット21L,22L,21R,22Rの各々が装着される。   FIG. 5A is a cross-sectional view illustrating an example of a schematic configuration of the sensor bar 1L. The other sensor bar 1R has the same configuration as the sensor bar 1L. Each sensor bar 1 </ b> L, 1 </ b> R has an upper housing case 61 and a lower housing case 62. One of the upper housing case 61 and the lower housing case 62 is provided with an outer pipe 63, and the other is provided with an inner pipe 64. At least a part of the inner pipe 64 is fitted inside the outer pipe 63. The inner pipe 64 and the outer pipe 63 can reciprocate in a sliding manner in the axial direction. The outer pipe 63 is fixed to the upper casing case 61, and the inner pipe 64 is fixed to the lower casing case 62. However, the outer pipe 63 may be fixed to the lower casing case 62 and the inner pipe 64 may be fixed to the upper casing case 61. As shown in FIG. 5B, when the sensor bars 1L and 1R are expanded and contracted, the outer pipe 63 and the inner pipe 64 slide in a state in which the mating relationship is maintained. In the present embodiment, a configuration in which the outer pipe 63 and the inner pipe 64 are made of metal is applied. The outer pipe 63 and the inner pipe 64 are made of metal, so that the mechanical strength of the sensor bars 1L and 1R during expansion and contraction is ensured. One end of each of the outer pipe 63 and the inner pipe 64 made of metal is crushed by press molding or the like. The crushed portion is mechanically coupled to each of the upper housing case 61 and the lower housing case 62. Further, each of the sensor units 21L, 22L, 21R, and 22R is attached to the crushed portion.

本実施形態においては、センサユニット21L,22L,21R,22Rは、それらの受光手段40の光軸Arがセンサバー1L,1Rの長手方向(伸縮方向)に対して直角な方向となるように配置されている。そして、受光手段40の視野範囲は、光軸Arに対して非対称に設けられている。このような構成によれば、筺体であるセンサバー1L,1Rを細くできる。すなわち、ラインCCD41およびこのラインCCD41が実装される回路基板の長手方向を、センサバー1L,1Rの長手方向に平行にできる。   In the present embodiment, the sensor units 21L, 22L, 21R, and 22R are arranged so that the optical axis Ar of the light receiving means 40 is perpendicular to the longitudinal direction (stretching direction) of the sensor bars 1L and 1R. ing. The field of view of the light receiving means 40 is provided asymmetrically with respect to the optical axis Ar. According to such a configuration, the sensor bars 1L and 1R, which are housings, can be thinned. That is, the longitudinal direction of the line CCD 41 and the circuit board on which the line CCD 41 is mounted can be parallel to the longitudinal direction of the sensor bars 1L and 1R.

例えば、図5(C)に示すように、センサユニット21L,22L,21R,22Rが軸対称な光学系有しているとする。このような構成では、受光手段40に必要な視野範囲を確保するために、受光手段40の光学系の光軸を、センサバー1L,1Rの長手方向(図5(C)においては上下方向)に対して傾けなければならない。このため、その光学系を収納するセンサバー1L,1Rの幅Lwは、光軸が長手方向に直角である構成と比較して大きくなる。その結果、筺体であるセンサバー1L,1Rも大きくなって重量が増加する。このため、可搬性が低下するだけではなく、センサバー1L,1Rを装着するために必要な面積がより大きくなる。したがって、ホワイトボード6等に装着する場合には、表示装置200による表示領域111の面積が小さくなる。   For example, as shown in FIG. 5C, it is assumed that the sensor units 21L, 22L, 21R, and 22R have an axially symmetric optical system. In such a configuration, the optical axis of the optical system of the light receiving means 40 is set in the longitudinal direction of the sensor bars 1L and 1R (vertical direction in FIG. 5C) in order to secure the field of view necessary for the light receiving means 40. You must lean against it. For this reason, the width Lw of the sensor bars 1L and 1R that house the optical system is larger than that of the configuration in which the optical axis is perpendicular to the longitudinal direction. As a result, the sensor bars 1L and 1R, which are casings, are also increased and the weight is increased. For this reason, not only portability falls, but an area required in order to mount sensor bars 1L and 1R becomes larger. Therefore, in the case of mounting on the whiteboard 6 or the like, the area of the display area 111 by the display device 200 is reduced.

また、受光手段40の光学系が、光軸Arに関して軸対称で、かつ、光軸Arがセンサバー1L,1Rのスライド方向に直角な方向である構成について考える。そして、受光手段40の光学系に設けられるミラーなどの光学部材によって光線を折り曲げて必要な視野範囲を確保するものとする。このような構成では、光路上にミラー等の新たな光学素子を設けなければならなくなり、センサユニット21L,22L,21R,22Rが大型化する。したがって、このような構成では、非軸対称な光学系を用いる構成に比較して、センサバー1L,1Rの幅が大きくなる。   Consider a configuration in which the optical system of the light receiving means 40 is axially symmetric with respect to the optical axis Ar, and the optical axis Ar is perpendicular to the sliding direction of the sensor bars 1L and 1R. Then, the light beam is bent by an optical member such as a mirror provided in the optical system of the light receiving means 40 to ensure a necessary visual field range. In such a configuration, a new optical element such as a mirror must be provided on the optical path, and the sensor units 21L, 22L, 21R, and 22R are increased in size. Therefore, in such a configuration, the widths of the sensor bars 1L and 1R are larger than the configuration using a non-axisymmetric optical system.

また、受光手段40の光学系が、光軸(X軸)に関して軸対称で、十分に大きな視野範囲(例えば、光軸Arを中心として±50°の視野範囲)である構成について考える。この場合には、受光手段40の光学系の視野範囲は、図5(A)に示すように、方向hから方向mの範囲となる。なお、方向mは、光軸(X軸)に関して、方向hに対称な方向である。この場合には、光軸(X軸)と方向hがなす角度=光軸(X軸)と方向hがなす角度(=50°)の関係となる。これに対し、座標入力装置100が必要とする視野範囲は、対向する辺に設けられた再帰反射手段4L,4Rの全域をカバーする範囲であり、これは、方向fから方向jの範囲のみである。このため、光軸(X軸)の片側略半分の視野範囲(すなわち、方向jから方向mの範囲)は、使用しない領域となる。従って、このような構成であっても、受光手段40の有効な視野範囲は、実質的に光軸Arに関して非対称な光学系を採用しているのと同等である。   Consider a configuration in which the optical system of the light receiving means 40 is axially symmetric with respect to the optical axis (X axis) and has a sufficiently large visual field range (for example, a visual field range of ± 50 ° with respect to the optical axis Ar). In this case, the visual field range of the optical system of the light receiving means 40 is a range from the direction h to the direction m as shown in FIG. The direction m is a direction symmetrical to the direction h with respect to the optical axis (X axis). In this case, the angle formed by the optical axis (X axis) and the direction h = the angle formed by the optical axis (X axis) and the direction h (= 50 °). On the other hand, the visual field range required by the coordinate input device 100 is a range that covers the entire area of the retroreflective means 4L and 4R provided on opposite sides, and this is only in the range from the direction f to the direction j. is there. For this reason, the visual field range (that is, the range from the direction j to the direction m) that is substantially half on one side of the optical axis (X axis) is an unused area. Therefore, even with such a configuration, the effective visual field range of the light receiving means 40 is substantially equivalent to the case where an asymmetric optical system with respect to the optical axis Ar is employed.

なお、本実施形態では、座標入力領域5が横長の矩形状であり、その左右のそれぞれにセンサバー1L,1Rを配置する構成を示す(図1参照)。この場合には、センサバー1L,1Rの伸縮量は、座標入力領域5の短尺方向である縦寸法を基準にして設定されることになる。ただし、本発明は、このような構成に限定されるものではない。例えば、横長の矩形状の座標入力領域5の左右でなく、上下のそれぞれに配置する構成であってもよい。この場合には、矩形状の座標入力領域5の左右のそれぞれに装着して用いる場合に比較して、センサバー1L,1Rを最大限伸ばした場合の寸法を大きくすることになる。さらに、壁面等などに大きな画面を投影するような場合には、想定する最大表示領域の大きさに応じて、センサバー1L,1Rの伸縮機構の伸縮量を設定することになる。   In this embodiment, the coordinate input area 5 has a horizontally long rectangular shape, and sensor bars 1L and 1R are arranged on the left and right sides thereof (see FIG. 1). In this case, the amount of expansion / contraction of the sensor bars 1L and 1R is set based on the vertical dimension which is the short direction of the coordinate input area 5. However, the present invention is not limited to such a configuration. For example, a configuration in which the horizontally long rectangular coordinate input area 5 is arranged on the upper and lower sides of the coordinate input area 5 may be employed. In this case, the dimensions when the sensor bars 1L and 1R are extended to the maximum are increased as compared with the case where the rectangular coordinate input area 5 is mounted on both the left and right sides. Further, when a large screen is projected on a wall surface or the like, the expansion / contraction amount of the expansion / contraction mechanism of the sensor bars 1L and 1R is set according to the assumed size of the maximum display area.

なお、ホワイトボード6のような横長の矩形状の面に、横長の矩形状の座標入力領域5を設定する場合には、センサバー1L,1Rを、左右のそれぞれ(すなわち短辺)に装着する構成であることが好ましい。すなわち、一般的に、ホワイトボード6のアスペクト比は、公知の各種表示装置の表示領域のアスペクト比に比較して、横長となる比を有する。このため、ホワイトボード6に表示装置200の表示領域111を最大限確保しようとすると、ホワイトボード6の左右両端部に空白(画像が表示されない領域)が形成されることになる。このため、ホワイトボード6の左右両端部にセンサバー1L,1Rを配置しても、表示装置200の表示領域111が小さくならない。このため、より大きな表示領域111を使用できる操作環境を提供できる。   In the case where the horizontally long rectangular coordinate input area 5 is set on a horizontally long rectangular surface such as the whiteboard 6, the sensor bars 1L and 1R are mounted on the left and right sides (that is, short sides). It is preferable that That is, in general, the aspect ratio of the whiteboard 6 has a horizontally long ratio as compared with the aspect ratios of display areas of various known display devices. For this reason, when it is attempted to secure the maximum display area 111 of the display device 200 on the whiteboard 6, blanks (areas in which no image is displayed) are formed at the left and right ends of the whiteboard 6. For this reason, even if the sensor bars 1L and 1R are arranged at the left and right ends of the whiteboard 6, the display area 111 of the display device 200 does not become small. For this reason, it is possible to provide an operating environment in which a larger display area 111 can be used.

また、表示装置200の表示領域111のアスペクト比は、横長となる比を有する。このため、センサバー1L,1Rを、座標入力領域5の左右(すなわち短辺)のそれぞれに装着する構成であれば、上下(すなわち長辺)のそれぞれに装着する構成に比較して、センサバー1L,1Rの最大長さを小さくできる。着脱可能な座標入力装置100は、取り扱いや搬送の便宜のため、軽量で小型であることが好ましい。例えば、使用者等が所望の使用場所(例えば会議室等)に搬送し、使用場所に設置されているホワイトボード6や壁面を座標入力領域5として用いることにより、使用場所に搬送して直ちに使用できることが好ましい。矩形状の座標入力領域5の短辺に装着する構成であれば、長辺に装着する構成に比較して、小型化と軽量化を図ることができる。したがって、搬送や使用準備が容易となる。   Further, the aspect ratio of the display area 111 of the display device 200 has a ratio of being horizontally long. Therefore, if the sensor bars 1L, 1R are configured to be mounted on the left and right sides (that is, the short sides) of the coordinate input area 5, the sensor bars 1L, 1L, The maximum length of 1R can be reduced. The detachable coordinate input device 100 is preferably lightweight and small for convenience of handling and transportation. For example, a user or the like transports to a desired place of use (for example, a conference room), and uses the whiteboard 6 or wall surface installed at the place of use as the coordinate input area 5 so that it can be transported to the place of use and used immediately Preferably it can be done. If it is the structure attached to the short side of the rectangular coordinate input area 5, it can achieve size reduction and weight reduction compared with the structure attached to the long side. Therefore, conveyance and use preparation become easy.

また、センサバー1L,1Rを座標入力領域5の左右のそれぞれに配置する構成であると、配置が容易である。すなわち、座標入力領域5の上下のそれぞれに装着する構成では、高所作業が必要になることがある。これに対して、座標入力領域5の左右のそれぞれに設置する構成であれば、このような高所作業が不要である。   Further, if the sensor bars 1L and 1R are arranged on the left and right sides of the coordinate input area 5, the arrangement is easy. That is, in the configuration in which the coordinate input area 5 is mounted on each of the upper and lower sides, work at a high place may be required. On the other hand, if it is the structure installed in each of the right and left of the coordinate input area 5, such an aerial work is unnecessary.

次に、座標入力装置100の機能構成の例について、図6(A)を参照して説明する。図6(A)は、演算制御回路3L,3Rの機能構成の例を示すブロック図である。本実施形態においては、一方のセンサバー1Lに内蔵される演算制御回路3Lと、もう一方のセンサバー1Rに内蔵される演算制御回路3Rとは、外部へのインタフェースの仕様を除き、同様の構成を有する。そして、演算制御回路3L,3Rは、各々接続されるセンサユニット21L,22L,21R,22Rの制御や各種演算を行っている。   Next, an example of a functional configuration of the coordinate input device 100 will be described with reference to FIG. FIG. 6A is a block diagram illustrating an example of a functional configuration of the arithmetic control circuits 3L and 3R. In the present embodiment, the calculation control circuit 3L built in one sensor bar 1L and the calculation control circuit 3R built in the other sensor bar 1R have the same configuration except for the specifications of the interface to the outside. . The arithmetic control circuits 3L and 3R control the sensor units 21L, 22L, 21R, and 22R connected thereto and perform various calculations.

メイン演算部71は、CPUとROMとRAMとを含むワンチップマイコンなどで構成される。そして、メイン演算部71は、センサユニット21L,22L,21R,22RにCCD制御信号を出力してラインCCD41のシャッタタイミングや、データの出力制御などを行っている。クロック発生部CLK72は、ラインCCD41用のクロックを生成し、センサユニット21L,22L,21R,22Rに送信する。また、このクロックは、ラインCCD41と同期して各種制御を行うために、メイン演算部71にも送信される。さらに、メイン演算部71は、センサユニット21L,22L,21R,22Rの赤外LED31を駆動するLED駆動信号を生成し、センサユニット21L,22L,21R,22Rに送信する。   The main calculation unit 71 is configured by a one-chip microcomputer including a CPU, a ROM, and a RAM. The main calculation unit 71 outputs a CCD control signal to the sensor units 21L, 22L, 21R, and 22R to perform shutter timing of the line CCD 41, data output control, and the like. The clock generator CLK72 generates a clock for the line CCD 41 and transmits it to the sensor units 21L, 22L, 21R, and 22R. This clock is also transmitted to the main calculation unit 71 in order to perform various controls in synchronization with the line CCD 41. Further, the main calculation unit 71 generates an LED drive signal for driving the infrared LEDs 31 of the sensor units 21L, 22L, 21R, and 22R, and transmits the LED drive signal to the sensor units 21L, 22L, 21R, and 22R.

センサユニット21L,22L,21R,22Rにおける検出手段の例であるラインCCD41からの検出信号は、A/Dコンバータ73に入力される。A/Dコンバータ73は、メイン演算部71による制御にしたがって、検出信号をアナログデータからデジタルデータに変換する。変換された検出信号のデジタルデータはメモリ74に記憶される。メイン演算部71は、記憶された検出信号のデジタルデータを用いて、光束の入射方向(角度)を算出する角度計算を行う。そして、メイン演算部71は、計算した光束の入射方向の角度情報から、幾何学的なタッチ位置を算出し、USBインタフェース78などを介してPC300に出力する。   A detection signal from a line CCD 41, which is an example of detection means in the sensor units 21L, 22L, 21R, and 22R, is input to the A / D converter 73. The A / D converter 73 converts the detection signal from analog data to digital data according to control by the main calculation unit 71. The converted digital data of the detection signal is stored in the memory 74. The main calculation unit 71 performs angle calculation for calculating the incident direction (angle) of the light beam using the stored digital data of the detection signal. Then, the main calculation unit 71 calculates a geometric touch position from the calculated angle information of the incident direction of the light flux, and outputs it to the PC 300 via the USB interface 78 or the like.

各々のセンサバー1L,1Rに内蔵される演算制御回路3L,3Rは、各々のセンサバー1L,1Rに内蔵される2基のセンサユニット21L,22L,21R,22Rを制御する。そして、例えば一方のセンサバー1Lに内蔵される演算制御回路3Lがマスター機能を果たすものとする。この場合には、この演算制御回路3Lのメイン演算部71は、シリアル通信を行うインタフェース77を介して、もう一方のセンサバー1Rに内蔵される演算制御回路3Rに制御信号を送信し、演算制御回路3L,3R間で同期をとる。そして、一方のセンサバー1Lに内蔵される演算制御回路3Lは、もう一方のセンサバー1Rに内蔵される演算制御回路3Rから、必要なデータを取得する。なお、2つの演算制御回路3L,3Rは、マスター・スレーブ制御にて動作する。本実施形態では、演算制御回路3Lがマスターで、演算制御回路3Rがスレーブである構成を例に示す。ただし、2つの演算制御回路3L,3Rは、いずれがマスターとなり、いずれがスレーブとなるかは限定されない。例えば、2つの演算制御回路3L,3Rには、メイン演算部71のポートに切替え信号を入力するための不図示のディップスイッチ等が設けられる構成であってもよい。この場合には、使用者等は、このディップスイッチ等を操作してマスターとスレーブを切替えることができる。   Arithmetic control circuits 3L, 3R built in each sensor bar 1L, 1R control two sensor units 21L, 22L, 21R, 22R built in each sensor bar 1L, 1R. For example, it is assumed that the arithmetic control circuit 3L incorporated in one sensor bar 1L performs the master function. In this case, the main calculation unit 71 of the calculation control circuit 3L transmits a control signal to the calculation control circuit 3R built in the other sensor bar 1R via the interface 77 that performs serial communication. Synchronize between 3L and 3R. Then, the calculation control circuit 3L built in one sensor bar 1L acquires necessary data from the calculation control circuit 3R built in the other sensor bar 1R. The two arithmetic control circuits 3L and 3R operate under master / slave control. In the present embodiment, a configuration in which the arithmetic control circuit 3L is a master and the arithmetic control circuit 3R is a slave is shown as an example. However, it is not limited which of the two arithmetic control circuits 3L and 3R is a master and which is a slave. For example, the two arithmetic control circuits 3L and 3R may be provided with a dip switch (not shown) or the like for inputting a switching signal to the port of the main arithmetic unit 71. In this case, the user or the like can switch between the master and the slave by operating the dip switch or the like.

マスターである演算制御回路3Lは、対向する辺に設けられるセンサバー1Rに内蔵されるセンサユニット21R,22Rのデータを取得するために、スレーブである演算制御回路3Rに、インタフェース77を介して制御信号を送信する。そして、スレーブである演算制御回路3Rは、センサユニット21R,22Rによる検出結果からタッチ位置の角度情報を算出し、算出した角度情報を、インタフェース77を介してマスター側の演算制御回路3Lに送信する。なお、USBインタフェース78は、本実施形態においては、マスターである演算制御回路3Lに実装される。   The arithmetic control circuit 3L, which is the master, sends control signals to the arithmetic control circuit 3R, which is the slave, via the interface 77 in order to acquire data of the sensor units 21R and 22R built in the sensor bar 1R provided on the opposite side. Send. Then, the arithmetic control circuit 3R as a slave calculates angle information of the touch position from the detection results of the sensor units 21R and 22R, and transmits the calculated angle information to the arithmetic control circuit 3L on the master side via the interface 77. . In this embodiment, the USB interface 78 is mounted on the arithmetic control circuit 3L that is a master.

このほか、演算制御回路3L,3Rは、不図示の専用ペン(不図示)が発する赤外線を検出する赤外線受光手段76と、専用ペンからの信号をデコードするためのサブ演算部75とを有する。専用ペンは、ペン先が入力面に押圧されたことを検出するスイッチ手段と、ペン筺体のサイド部に設けられる種々のスイッチ手段を有する。そして専用ペンは、それらのスイッチ手段の状態やペンの識別情報を、専用ペンに設けられる赤外線発光手段で送信する。演算制御回路3L,3Rは、専用ペンが発する赤外線を受信してデコードすることにより、専用ペンの操作状態を検知できる。   In addition, the arithmetic control circuits 3L and 3R have an infrared light receiving means 76 for detecting infrared rays emitted from a dedicated pen (not shown) and a sub-operation unit 75 for decoding a signal from the dedicated pen. The dedicated pen has switch means for detecting that the pen tip has been pressed against the input surface, and various switch means provided on the side portion of the pen housing. The dedicated pen transmits the state of the switch means and the identification information of the pen by the infrared light emitting means provided in the dedicated pen. The arithmetic control circuits 3L and 3R can detect the operation state of the dedicated pen by receiving and decoding the infrared rays emitted by the dedicated pen.

さらに、演算制御回路3L,3Rには、インジケータ79とスピーカ80とを有する。インジケータ79は、メイン演算部71の制御に従い、所定の表示を行う。インジケータ79には、例えば液晶表示装置やLEDインジケータなど、公知の各種インジケータが適用できる。スピーカ80は、メイン演算部71の制御に従い、音声を発する。なお、インジケータ79とスピーカ80は、演算制御回路3L,3Rと物理的に離れた位置に配置されていてもよい。   Further, the arithmetic control circuits 3L and 3R include an indicator 79 and a speaker 80. The indicator 79 performs a predetermined display according to the control of the main calculation unit 71. Various known indicators such as a liquid crystal display device and an LED indicator can be applied to the indicator 79, for example. The speaker 80 emits sound according to the control of the main calculation unit 71. Note that the indicator 79 and the speaker 80 may be arranged at positions physically separated from the arithmetic control circuits 3L and 3R.

一方のセンサバー1Lのセンサユニット21L,22Lと、もう一方のセンサバー1Rのセンサユニット21R,22Rとは、異なるタイミングで交互に動作する。これにより、それぞれのセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rは、互いに他方のセンサユニット21L,22L,21R,22Rの投光手段30からの赤外線を検出しない。このため、自身に設けられる投光手段30が発した赤外線の再帰反射光を検出できる。具体的には、次のとおりである。   The sensor units 21L and 22L of one sensor bar 1L and the sensor units 21R and 22R of the other sensor bar 1R operate alternately at different timings. Thereby, the sensor units 21L, 22L, 21R, and 22R of the sensor bars 1L and 1R do not detect the infrared rays from the light projecting means 30 of the other sensor units 21L, 22L, 21R, and 22R, respectively. For this reason, the infrared retroreflected light emitted by the light projecting means 30 provided in the device can be detected. Specifically, it is as follows.

図6(B)は、センサユニット21L,22Lの動作を示すタイミングチャートである。SH信号701と、ICGL信号702と、ICGR信号703は、センサユニット21L,22L,21R,22RのラインCCD41を制御する制御信号である。SH信号701の間隔によってラインCCD41のシャッタ開放時間が決定される。ICGL信号702は、一方のセンサバー1Lのセンサユニット21L,22Lへのゲート信号である。ICGR信号703は、もう一方のセンサバー1Rのセンサユニット21R,22Rへのゲート信号である。ICGL信号702とICGR信号703は、ラインCCD41の電荷を読み出し部へ転送する信号である。ICGR信号703は、マスターとして動作する一方のセンサバー1Lの演算制御回路3Lから、インタフェース77を介して、スレーブとして動作するもう一方のセンサバー1Rの演算制御回路3Rに送信される。そして、演算制御回路3Rは、ラインCCD41の電荷を読み出し部へ転送する信号を生成する。CCDL信号704は、一方のセンサバー1Lのセンサユニット21L,22LのラインCCD41のシャッタ開放時間を示す信号である。CCDR信号705は、もう一方のセンサバー1Rのセンサユニット21R,22RのラインCCD41のシャッタ開放時間を示す信号である。   FIG. 6B is a timing chart showing the operation of the sensor units 21L and 22L. The SH signal 701, the ICGL signal 702, and the ICGR signal 703 are control signals for controlling the line CCD 41 of the sensor units 21L, 22L, 21R, and 22R. The shutter open time of the line CCD 41 is determined by the interval of the SH signal 701. The ICGL signal 702 is a gate signal to the sensor units 21L and 22L of one sensor bar 1L. The ICGR signal 703 is a gate signal to the sensor units 21R and 22R of the other sensor bar 1R. The ICGL signal 702 and the ICGR signal 703 are signals for transferring the charge of the line CCD 41 to the reading unit. The ICGR signal 703 is transmitted from the arithmetic control circuit 3L of one sensor bar 1L operating as a master to the arithmetic control circuit 3R of the other sensor bar 1R operating as a slave via the interface 77. Then, the arithmetic control circuit 3R generates a signal for transferring the charge of the line CCD 41 to the reading unit. The CCDL signal 704 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 21L and 22L of one sensor bar 1L. The CCDR signal 705 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 21R and 22R of the other sensor bar 1R.

LEDL信号706は、一方のセンサバー1Lのセンサユニット21L,22Lの投光手段30に設けられる赤外LED31を駆動する駆動信号である。LEDR信号707は、もう一方のセンサバー1Rのセンサユニット21R,22Rの投光手段30に設けられる赤外LED31を駆動する駆動信号である。SH信号701の最初の周期において、一方のセンサバー1Lの演算制御回路3Lは、センサユニット21L,22Lの投光手段30の赤外LED31を点灯するために、LEDL信号706をセンサユニット21L,22Lに送信する。これにより、センサユニット21L,22Lの投光手段30の赤外LED31が発光する。SH信号701の次の周期で、演算制御回路3Lは、インタフェース77を介して、もう一方のセンサバー1Rの演算制御回路3RにLEDR信号707を送信する。もう一方のセンサバー1Rの演算制御回路3Rは、演算制御回路3LからLEDR信号707を受信すると、センサユニット21R,22Lの投光手段30の赤外LED31を点灯するための信号を生成し、赤外LED31を発光させる。   The LEDL signal 706 is a drive signal for driving the infrared LED 31 provided in the light projecting means 30 of the sensor units 21L and 22L of the one sensor bar 1L. The LEDR signal 707 is a drive signal for driving the infrared LED 31 provided in the light projecting means 30 of the sensor units 21R and 22R of the other sensor bar 1R. In the first cycle of the SH signal 701, the arithmetic control circuit 3L of one sensor bar 1L sends the LEDL signal 706 to the sensor units 21L and 22L in order to turn on the infrared LED 31 of the light projecting means 30 of the sensor units 21L and 22L. Send. Thereby, infrared LED31 of the light projection means 30 of sensor unit 21L, 22L light-emits. In the next cycle of the SH signal 701, the arithmetic control circuit 3L transmits the LEDR signal 707 to the arithmetic control circuit 3R of the other sensor bar 1R via the interface 77. When the calculation control circuit 3R of the other sensor bar 1R receives the LEDR signal 707 from the calculation control circuit 3L, the calculation control circuit 3R generates a signal for turning on the infrared LED 31 of the light projecting means 30 of the sensor units 21R and 22L. The LED 31 is caused to emit light.

演算制御回路3L,3Rは、赤外LED31の発光とラインCCD41のシャッタ開放が終了した後に、ラインCCD41の信号を読み出し、後述する方法で角度情報を算出する。そして、スレーブとして動作する演算制御回路3Rの演算結果は、マスターとして動作する演算制御回路3Lに、インタフェース77を介して送信される。以下、このような動作を繰り返す。このように、一方のセンサバー1Lのセンサユニット21L,22Lと、対向するもう一方のセンサバー1Rのセンサユニット21R,22Rとは、交互に異なるタイミングで動作する。このような構成によれば、それぞれのセンサバー1L,1Rの21L,22L,21R,22Rは、互いに他方のセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rの赤外光を検出しない。すなわち、自身に設けられる投光手段30が発光した赤外線の再帰反射光のみを検出できる。   The arithmetic control circuits 3L and 3R read the signal of the line CCD 41 after the light emission of the infrared LED 31 and the shutter release of the line CCD 41 are completed, and calculate angle information by a method described later. Then, the calculation result of the calculation control circuit 3R that operates as a slave is transmitted via the interface 77 to the calculation control circuit 3L that operates as a master. Thereafter, such an operation is repeated. Thus, the sensor units 21L and 22L of one sensor bar 1L and the sensor units 21R and 22R of the other sensor bar 1R facing each other operate at different timings alternately. According to such a configuration, 21L, 22L, 21R, 22R of each sensor bar 1L, 1R does not detect the infrared light of sensor units 21L, 22L, 21R, 22R of the other sensor bar 1L, 1R. That is, it is possible to detect only the infrared retroreflected light emitted by the light projecting means 30 provided in itself.

次に、センサバー1L,1Rのセンサユニット21L,22L,21R,22Rが出力する信号について、図7を参照して説明する。図7(A)は、投光手段30が投光していない状態での受光手段40の出力を模式的に示すグラフである。図7(B)は、投光している状態での受光手段40の出力を模式的に示すグラフである。図7(B)のCCD出力のレベルAは、最大レベルの光量を検出した場合の出力であり、レベルBは受光する光量のレベルが0である(すなわち受光していない)場合の出力である。   Next, signals output from the sensor units 21L, 22L, 21R, and 22R of the sensor bars 1L and 1R will be described with reference to FIG. FIG. 7A is a graph schematically showing the output of the light receiving means 40 when the light projecting means 30 is not projecting light. FIG. 7B is a graph schematically showing the output of the light receiving means 40 in a state where light is projected. The level A of the CCD output in FIG. 7B is an output when the maximum amount of light is detected, and the level B is an output when the amount of received light is 0 (that is, no light is received). .

センサユニット21L,22Lは、投光手段30により対向して設けられる相手方のセンサバー1L,1Rの再帰反射手段4L,4Rに向けて赤外線を投光する。そして、再帰反射手段4L,4Rで再帰反射した赤外線を自身のセンサユニット21L,22Lの受光手段40で検出する。したがって、図7(B)に示すように、レベルAまたはレベルAに近いレベルの出力が得られる範囲の一端の画素番号Niにより規定される方向が、方向j(図4参照)である。同様にこの範囲の反対側の一端の画素番号Nfにより規定される方向は、方向f(図4参照)となる。なお、画素番号Njから画素番号Nfまでの範囲における光量レベルは、表示領域111の大きさやそのアスペクト比、それに対応したセンサバー1L,1Rの配置状態(例えば、二つのセンサバー1L,1Rどうしの距離)や伸縮状態等によって変化する。   The sensor units 21L and 22L project infrared rays toward the retroreflective means 4L and 4R of the counterpart sensor bars 1L and 1R provided to face each other by the light projecting means 30. The infrared light retroreflected by the retroreflective means 4L, 4R is detected by the light receiving means 40 of the sensor units 21L, 22L. Therefore, as shown in FIG. 7B, the direction defined by the pixel number Ni at one end of the range in which the output of level A or a level close to level A is obtained is the direction j (see FIG. 4). Similarly, the direction defined by the pixel number Nf at one end on the opposite side of this range is the direction f (see FIG. 4). The light amount level in the range from the pixel number Nj to the pixel number Nf is the size of the display area 111, the aspect ratio thereof, and the arrangement state of the sensor bars 1L and 1R corresponding thereto (for example, the distance between the two sensor bars 1L and 1R). It changes depending on the expansion / contraction state.

演算制御回路3L,3Rのメイン演算部71は、最適な光量レベルが得られるように、SH信号701を調整してラインCCD41のシャッタ開放時間と赤外LED31の露光時間を制御する。すなわち、光量レベルが高い場合にはシャッタ開放時間と露光時間の一方または両方を短くし、低い場合にはシャッタ開放時間と露光時間の一方または両方を長くする。このほか、演算制御回路3L,3Rは、検出された光量レベルに応じて、赤外LED31に流す電流を調整しても良い。このように演算制御回路3L,3Rは、センサユニット21L,22L,21R,22Rの出力信号を監視することで、最適な光量レベルを得る。なお、演算制御回路3L,3Rは、このような制御を、検出される光量レベルに変動が生じた場合に適宜行っても良い。また、ひとたびセンサバー1L,1Rが配置され、その状態が保持されている間は、光量レベルは安定するはずである。そこで、このような光量の調整は、配置が完了した後の電源投入時に行う構成であってもよい。   The main calculation unit 71 of the calculation control circuits 3L and 3R adjusts the SH signal 701 to control the shutter open time of the line CCD 41 and the exposure time of the infrared LED 31 so as to obtain an optimum light amount level. That is, when the light amount level is high, one or both of the shutter opening time and the exposure time are shortened, and when it is low, one or both of the shutter opening time and the exposure time are lengthened. In addition, the arithmetic control circuits 3L and 3R may adjust the current flowing through the infrared LED 31 according to the detected light amount level. As described above, the arithmetic control circuits 3L and 3R monitor the output signals of the sensor units 21L, 22L, 21R, and 22R to obtain an optimum light amount level. Note that the arithmetic control circuits 3L and 3R may appropriately perform such control when the detected light amount level varies. Further, once the sensor bars 1L and 1R are arranged and the state is maintained, the light amount level should be stable. Therefore, such a light amount adjustment may be performed when the power is turned on after the arrangement is completed.

図7(C)は、使用者等が座標入力領域5にタッチ操作して光路を遮った場合の出力レベルの例を模式的に示すグラフである。図7(C)に示すように、座標入力領域5に対してタッチ操作を行って光路を遮ると、遮られた光路に対応する画素(ここでは、画素番号Ncを例に示す)においては再帰反射光が検出されない。したがって、遮られた光路に対応する位置Cにおいて検出される光量レベルはレベルB(またはレベルBに近いレベル)となる。   FIG. 7C is a graph schematically showing an example of the output level when the user or the like touches the coordinate input area 5 to block the optical path. As shown in FIG. 7C, when a touch operation is performed on the coordinate input area 5 to block the optical path, the pixel corresponding to the blocked optical path (here, the pixel number Nc is taken as an example) is recursed. The reflected light is not detected. Therefore, the light amount level detected at the position C corresponding to the blocked optical path is level B (or a level close to level B).

<タッチ位置算出>
演算制御回路3L,3Rのメイン演算部71は、タッチ位置算出手段の例として機能し、図7(A)、(B)、(C)に示すこれらの信号を用いて、タッチ位置の方向(換言すると角度)を算出している。ここで、タッチ位置の方向を算出する方法について説明する。
<Calculation of touch position>
The main calculation unit 71 of the calculation control circuits 3L and 3R functions as an example of touch position calculation means, and uses these signals shown in FIGS. 7A, 7B, and 7C to determine the direction of the touch position ( In other words, the angle) is calculated. Here, a method for calculating the direction of the touch position will be described.

まず、座標入力装置100の起動時(電源投入時)やリセット時に、自動的にまたは使用者等の操作によって、基準データを取得する。具体的には、次のとおりである。マスターとなる演算制御回路3Lのメイン演算部71は、投光手段30が赤外線を発しておらず、かつ、使用者等によるタッチ操作が行われてない状態で、ラインCCD41の出力レベルを取得する。そして、取得した出力レベルをA/Dコンバータ73によりA/D変換し、これを基準データBase_Data[N](NはラインCCD41の画素番号)としてメモリ74に記憶する。この基準データBase_Data[N]は、図7(A)に示すように、レベルB付近の出力レベルを有するデータである。また、この基準データBase_Data[N]は、ラインCCD41であるCCDのバイアスのばらつき等を含んでいる。   First, when the coordinate input device 100 is activated (when the power is turned on) or reset, the reference data is acquired automatically or by an operation of a user or the like. Specifically, it is as follows. The main calculation unit 71 of the arithmetic control circuit 3L serving as a master acquires the output level of the line CCD 41 in a state where the light projecting unit 30 does not emit infrared rays and the touch operation by the user or the like is not performed. . The acquired output level is A / D converted by the A / D converter 73 and stored in the memory 74 as reference data Base_Data [N] (N is the pixel number of the line CCD 41). This reference data Base_Data [N] is data having an output level near level B as shown in FIG. The reference data Base_Data [N] includes variations in the bias of the CCD that is the line CCD 41, and the like.

また、メイン演算部71は、投光手段30が赤外線を発しており、かつ、使用者等によるタッチ操作が行われてない状態で、ラインCCD41の出力レベルを取得する。そして、前記同様に、取得した出力レベルをA/Dコンバータ73によってA/D変換し、これを基準データRef_Data[N]としてメモリ74に記憶する。この基準データは、図7(B)に示すようなデータとなる。すなわち、ある範囲における出力レベルはレベルAまたはその近傍のレベルとなり、それ以外の範囲における出力レベルはレベルBまたはその近傍のレベルとなる。図7(B)では、画素番号NjからNfの範囲における出力レベルがレベルAまたはその近傍のレベルとなる例を示す。画素番号Njは、方向jに対応する画素の番号である。画素番号Nfは、方向fに対応する画素の番号である。   In addition, the main calculation unit 71 acquires the output level of the line CCD 41 in a state where the light projecting unit 30 emits infrared rays and no touch operation is performed by the user or the like. Similarly to the above, the acquired output level is A / D converted by the A / D converter 73 and stored in the memory 74 as reference data Ref_Data [N]. This reference data is data as shown in FIG. That is, the output level in a certain range is level A or a level in the vicinity thereof, and the output level in other ranges is a level B or a level in the vicinity thereof. FIG. 7B shows an example in which the output level in the range of pixel numbers Nj to Nf is level A or a level in the vicinity thereof. The pixel number Nj is the number of the pixel corresponding to the direction j. The pixel number Nf is a pixel number corresponding to the direction f.

その後、メイン演算部71は、図6(B)に示すタイミングでサンプリングを開始する。サンプリング中において、タッチ操作が行われていなければ、図7(B)に示すようなサンプリングデータが取得されることになる。また、タッチ操作が行われると、そのタッチ操作により生じる遮光範囲の位置に応じて図7(C)に示すようなサンプリングデータが検出される。すなわち、タッチ操作の位置に応じて、局所的に出力レベルがレベルBに近いレベルCとなる部分が現れる。このレベルCとなる部分の位置が、タッチ操作の位置に対応する。このため、局所的にレベルCとなる部分の位置は、タッチ位置に応じて変化する。投光手段30が投光している状態で取得するサンプリングデータをNorm_Data[N]とする。   Thereafter, the main calculation unit 71 starts sampling at the timing shown in FIG. If no touch operation is performed during sampling, sampling data as shown in FIG. 7B is acquired. Further, when a touch operation is performed, sampling data as shown in FIG. 7C is detected according to the position of the light shielding range generated by the touch operation. That is, a portion where the output level is locally level C close to level B appears depending on the position of the touch operation. The position of the level C level corresponds to the touch operation position. For this reason, the position of the part which becomes level C locally changes according to a touch position. Sampling data acquired in a state where the light projecting means 30 is projecting is assumed to be Norm_Data [N].

メイン演算部71は、これらのデータを用い、使用者等のタッチ操作による生じた遮光範囲が座標入力領域5にあるか否かの判定を行う。まず遮光範囲を特定するために、メイン演算部71は、ラインCCD41の各々の画素について、出力レベルの変化の絶対量を算出する。各画素の出力レベルの変化の絶対量Norm_Data0[N]は、次の式(1)で算出される。

Norm_Data0[N] = Norm_Data[N] - Ref_Data[N] (1)

そして、メイン演算部71は、各画素のNorm_Data0[N]の値と予め設定してある閾値Vthaとを比較する。メイン演算部71は、閾値を超えるNorm_Data0[N]が例えば所定数以上の連続した画素で発生した場合に、タッチ操作が有ったと判断する。閾値Vthaとの差分を用いることにより、ノイズなどによる誤判定を防止し、検出レベルの変化を確実に検出できる。なお、この処理は、差分を算出して比較するだけであるため短時間で可能である。このため、メイン演算部71は、タッチ操作の有無の判定を高速に行うことができる。
The main calculation unit 71 uses these data to determine whether or not the coordinate input area 5 has a light shielding range caused by a touch operation by the user or the like. First, in order to specify the light shielding range, the main calculation unit 71 calculates the absolute amount of the change in output level for each pixel of the line CCD 41. The absolute amount Norm_Data0 [N] of the change in the output level of each pixel is calculated by the following equation (1).

Norm_Data0 [N] = Norm_Data [N]-Ref_Data [N] (1)

Then, the main calculation unit 71 compares the value of Norm_Data0 [N] of each pixel with a preset threshold value Vtha. The main calculation unit 71 determines that there is a touch operation when Norm_Data0 [N] exceeding the threshold value is generated in, for example, a predetermined number or more of continuous pixels. By using the difference from the threshold value Vtha, erroneous determination due to noise or the like can be prevented, and a change in detection level can be reliably detected. Note that this process is possible in a short time because it is only necessary to calculate and compare the differences. For this reason, the main calculating part 71 can determine the presence or absence of a touch operation at high speed.

次に、メイン演算部71は、タッチ操作の位置の座標をより高精度に検出するために、検出レベルの変化の比を計算する。そして、この計算結果に基づき、タッチ操作の位置を決定する。検出レベルの変化の比Norm_DataR[N]は、次の式(2)により算出される。

Norm_DataR[N] = Norm_Data0[N] / (Base_Data[N] - Ref_Data[N]) (2)

この検出レベルの変化の比に対して、あらかじめ設定される閾値Vthrを適用する。そして、メイン演算部71は、変化の比が閾値Vthrを超える範囲の立ち上がり部と立下り部の画素番号を抽出し、それら抽出した画素の中央に位置する画素を入力画素として、角度を算出する。
Next, the main calculation unit 71 calculates a ratio of change in the detection level in order to detect the coordinates of the position of the touch operation with higher accuracy. Then, based on the calculation result, the position of the touch operation is determined. The detection level change ratio Norm_DataR [N] is calculated by the following equation (2).

Norm_DataR [N] = Norm_Data0 [N] / (Base_Data [N]-Ref_Data [N]) (2)

A preset threshold value Vthr is applied to the ratio of the detection level changes. Then, the main calculation unit 71 extracts the pixel numbers of the rising and falling parts in the range where the change ratio exceeds the threshold value Vthr, and calculates the angle using the pixel located at the center of the extracted pixels as the input pixel. .

図7(D)は、検出レベルの変化の比の算出結果の例を示すグラフである。図7(D)に示すように、遮光領域の立ち上がり部分において、検出レベルの変化の比はNs番目の画素でレベルLsとなって閾値Vthrを超えたとする。そして、立下りの部分において、検出レベルの変化の比はNt番目の画素でレベルLtとなって閾値Vthr以下になったとする。中心画素Npは、次の式(3)を用いて算出(決定)できる。

Np = Ns + (Nt - Ns) / 2 (3)

ただし、式(3)を用いる方法では、ラインCCD41の画素の間隔が、検出の最小の分解能となる。そこで、より細かく検出するために、それぞれの画素のレベルとその一つ前の画素のレベルを用い閾値を横切った仮想の画素番号を計算してもよい。すなわち、例えば、画素Nsの検出レベルをLsとし、画素Ns−1番の検出レベルをLs-1とし、画素NtのレベルをLtとし、画素Nt−1の検出レベルをLt-1とする。そうすると、それぞれの仮想画素番号Nsv,Ntvは、

Nsv = Ns-1 + ( Vthr - Ls-1 ) / ( Ls - Ls-1 ) (4)
Ntv = Nt-1 + ( Vthr - Lt-1 ) / ( Lt - Lt-1 ) (5)

と計算できる。そして、仮想的な中心画素Npvは、次の式(6)で決定される。

Npv = Nsv + ( Ntv - Nsv ) / 2 (6)

このように、画素番号とその検出レベルから仮想的な画素番号を計算(決定)することで、より分解能の高い検出ができる。
FIG. 7D is a graph illustrating an example of a calculation result of a ratio of detection level changes. As shown in FIG. 7D, it is assumed that the ratio of the change in the detection level at the rising portion of the light shielding region becomes the level Ls at the Ns-th pixel and exceeds the threshold value Vthr. In the falling portion, it is assumed that the ratio of change in the detection level becomes the level Lt at the Nt-th pixel and becomes equal to or lower than the threshold value Vthr. The center pixel Np can be calculated (determined) using the following equation (3).

Np = Ns + (Nt-Ns) / 2 (3)

However, in the method using Expression (3), the pixel interval of the line CCD 41 becomes the minimum detection resolution. Therefore, in order to detect more finely, a virtual pixel number that crosses the threshold value may be calculated using the level of each pixel and the level of the previous pixel. That is, for example, the detection level of the pixel Ns is Ls, the detection level of the pixel Ns-1 is Ls-1, the level of the pixel Nt is Lt, and the detection level of the pixel Nt-1 is Lt-1. Then, each virtual pixel number Nsv, Ntv is

Nsv = Ns-1 + (Vthr-Ls-1) / (Ls-Ls-1) (4)
Ntv = Nt-1 + (Vthr-Lt-1) / (Lt-Lt-1) (5)

Can be calculated. The virtual center pixel Npv is determined by the following equation (6).

Npv = Nsv + (Ntv-Nsv) / 2 (6)

Thus, by calculating (determining) a virtual pixel number from the pixel number and its detection level, detection with higher resolution can be performed.

上記のようにして、遮光領域の中央画素の画素番号が得られる。得られた中央画素の画素番号から実際の座標値を計算するためには、中央画素の画素番号を角度情報(座標情報)に変換する必要がある。実際の座標計算では、便宜上、光軸方向と中央画素の方向との角度そのものではなく、その角度の正接(tangent)の値を求めることが好ましい。なお、画素番号をtanθに変換する方法としては、テーブルを参照する方法や変換式を用いる方法が適用できる。変換式として、例えば高次の多項式を用いると、精度を確保できる。多項式の次数などは、メイン演算部71の計算能力および要求される精度等を鑑みて決定すればよい。   As described above, the pixel number of the central pixel of the light shielding area is obtained. In order to calculate an actual coordinate value from the obtained pixel number of the central pixel, it is necessary to convert the pixel number of the central pixel into angle information (coordinate information). In actual coordinate calculation, for convenience, it is preferable to obtain not the angle itself between the optical axis direction and the direction of the central pixel but the value of the tangent of the angle. As a method of converting the pixel number into tan θ, a method of referring to a table or a method of using a conversion formula can be applied. For example, when a high-order polynomial is used as the conversion formula, accuracy can be ensured. The order of the polynomial may be determined in view of the calculation capability of the main calculation unit 71 and the required accuracy.

ここで、5次の多項式を用いる場合の例を示す。5次の多項式を用いる場合には、6個の係数が必要になる。そこで、出荷時などに、この係数をメモリ74などに記憶しておく。5次の多項式の係数をL5,L4,L3,L2,L1,L0とすると、tanθは次の式(7)で算出される。

tanθ= (L5 * Npr + L4) * Npr + L3) * Npr + L2) * Npr + L1) * Npr + L0
(7)

同様な計算を各々のセンサユニット21L,22L,21R,22Rについて実行することにより、それぞれのセンサユニット21L,22L,21R,22Rについて、遮光領域の方向を示す角度を決定できる。なお、上記の式(7)ではtanθを算出しているが、角度そのものを算出し、その後tanθを求めてもよい。
Here, an example in the case of using a fifth-order polynomial is shown. When a fifth order polynomial is used, six coefficients are required. Therefore, this coefficient is stored in the memory 74 or the like at the time of shipment. If the coefficients of the fifth-order polynomial are L5, L4, L3, L2, L1, and L0, tan θ is calculated by the following equation (7).

tanθ = (L5 * Npr + L4) * Npr + L3) * Npr + L2) * Npr + L1) * Npr + L0
(7)

By executing the same calculation for each of the sensor units 21L, 22L, 21R, and 22R, the angle indicating the direction of the light shielding region can be determined for each of the sensor units 21L, 22L, 21R, and 22R. In the above formula (7), tan θ is calculated, but the angle itself may be calculated, and then tan θ may be obtained.

以上説明したとおり、本実施形態では、マスターとして動作する演算制御回路3Lのメイン演算部71が、タッチ位置を算出するタッチ位置算出手段の例として機能する。ただし、本発明は、このような構成に限定されない。2基の演算制御回路3L,3Rのメイン演算部71が、協働してタッチ位置算出手段として機能する構成であってもよい。   As described above, in the present embodiment, the main calculation unit 71 of the calculation control circuit 3L that operates as a master functions as an example of a touch position calculation unit that calculates a touch position. However, the present invention is not limited to such a configuration. The main calculation unit 71 of the two calculation control circuits 3L and 3R may cooperate to function as a touch position calculation unit.

<センサユニットの相対位置算出>
次に、センサユニット21L,22L,21R,22Rの相対的な位置を算出する方法について説明する。図8(A)は、センサユニット21L,22L,21R,22Rが検出する視野範囲を模式的に示す図である。センサバー1Lのセンサユニット21Lは、対向するセンサバー1Rに設けられた再帰反射手段4Rからの光を受光する。このため、このセンサユニット21Lの視野範囲には、方向jから方向fの範囲が含まれる。センサバー1Lのセンサユニット22Lの視野範囲には、方向fから方向jの範囲が含まれる。
<Calculating the relative position of the sensor unit>
Next, a method for calculating the relative positions of the sensor units 21L, 22L, 21R, and 22R will be described. FIG. 8A is a diagram schematically showing the visual field range detected by the sensor units 21L, 22L, 21R, and 22R. The sensor unit 21L of the sensor bar 1L receives light from the retroreflective means 4R provided on the opposing sensor bar 1R. For this reason, the visual field range of the sensor unit 21L includes a range from the direction j to the direction f. The visual field range of the sensor unit 22L of the sensor bar 1L includes a range from the direction f to the direction j.

図8(B)は、一方のセンサバー1Lの2基のセンサユニット21L,22Lの視野範囲が重複する領域を模式的に示す図である。説明の便宜上、この領域を第1の重複領域91と称する。図8(B)においては、第1の重複領域91を太線で示す。演算制御回路3Lのメイン演算部71は、タッチ位置算出手段の例として機能し、第1の重複領域91内へのタッチ操作の位置の座標を、2基のセンサユニット21L,22Lによる検出結果に基づいて算出する。   FIG. 8B is a diagram schematically showing a region where the visual field ranges of the two sensor units 21L and 22L of one sensor bar 1L overlap. For convenience of explanation, this area is referred to as a first overlapping area 91. In FIG. 8B, the first overlapping region 91 is indicated by a bold line. The main calculation unit 71 of the calculation control circuit 3L functions as an example of a touch position calculation unit, and converts the coordinates of the position of the touch operation into the first overlapping area 91 into the detection results by the two sensor units 21L and 22L. Calculate based on

同様に、センサバー1Rのセンサユニット21Rの視野範囲には、方向gから方向hの範囲が含まれる。センサユニット22Rの視野範囲には、方向hから方向gの範囲が含まれる。図8(C)は、もう一方のセンサバー1Rの2基のセンサユニット21R,22Rの視野範囲が重複する領域を模式的に示す図である。説明の便宜上、この領域を第2の重複領域92と称する。図8(C)において、第2の重複領域92を太線です。演算制御回路3Lのメイン演算部71は、タッチ位置算出手段の例として機能し、この第2の重複領域92へのタッチ操作の位置の座標を、これらの2基のセンサユニット21R,22Rによる検出結果に基づいて算出する。   Similarly, the visual field range of the sensor unit 21R of the sensor bar 1R includes a range from the direction g to the direction h. The visual field range of the sensor unit 22R includes a range from the direction h to the direction g. FIG. 8C is a diagram schematically showing a region where the field-of-view ranges of the two sensor units 21R and 22R of the other sensor bar 1R overlap. For convenience of explanation, this area is referred to as a second overlapping area 92. In FIG. 8C, the second overlapping area 92 is a bold line. The main calculation unit 71 of the calculation control circuit 3L functions as an example of a touch position calculation unit, and detects the coordinates of the position of the touch operation on the second overlapping area 92 by the two sensor units 21R and 22R. Calculate based on the results.

さらに、第1の重複領域91と第2の重複領域92とが重複する領域を、第3の重複領域93と定義する。図8(D)は、第3の重複領域93を模式的に示す図である。図8(D)において、第3の重複領域93を太線で示す。第3の重複領域93は座標入力領域5の中央付近に位置する。演算制御回路3Lのメイン演算部71は、この第3の重複領域93内へのタッチ操作の位置を、座標入力領域5の四隅部近傍の4基のセンサユニット21L,22L,21R,22Rの全ての検出結果から算出することが可能となる。   Furthermore, a region where the first overlapping region 91 and the second overlapping region 92 overlap is defined as a third overlapping region 93. FIG. 8D is a diagram schematically showing the third overlapping region 93. In FIG. 8D, the third overlapping region 93 is indicated by a bold line. The third overlapping area 93 is located near the center of the coordinate input area 5. The main calculation unit 71 of the calculation control circuit 3L sets the position of the touch operation in the third overlapping area 93 to all of the four sensor units 21L, 22L, 21R, and 22R near the four corners of the coordinate input area 5. It is possible to calculate from the detection result.

図9(A)(B)は、4基のセンサユニット21L,22L,21R,22Rの相対位置関係を模式的に示す図である。図9(A)の角度θ1は、直線cと直線aとのなす角度である。直線cは、一方のセンサバー1Lのセンサユニット22Lから対角方向に位置するもう一方のセンサバー1Rのセンサユニット21Rに至る直線である。直線aは、センサユニット22Lから対向するもう一方のセンサユニット22Rに至る直線である。この角度θ1の算出方法は、次のとおりである。マスターとして動作する演算制御回路3Lのメイン演算部71は、センサユニット21Rの投光手段30を作動させ、その赤外線をセンサユニット22LのラインCCD41により検出する。同様に、センサユニット22Rの投光手段30を作動させ、その赤外線をセンサユニット22LのラインCCD41により検出する。メイン演算部71は、これらの赤外線を検出したラインCCD41の画素番号から、センサユニット22Lからみたセンサユニット21R,22Lの方向(角度)を算出し、算出したこれらの方向の差分から角度θ1を算出する。   9A and 9B are diagrams schematically illustrating the relative positional relationship between the four sensor units 21L, 22L, 21R, and 22R. The angle θ1 in FIG. 9A is an angle formed by the straight line c and the straight line a. The straight line c is a straight line extending from the sensor unit 22L of one sensor bar 1L to the sensor unit 21R of the other sensor bar 1R located in the diagonal direction. The straight line a is a straight line extending from the sensor unit 22L to the other sensor unit 22R facing the sensor unit 22L. The calculation method of this angle θ1 is as follows. The main calculation unit 71 of the calculation control circuit 3L that operates as a master operates the light projecting means 30 of the sensor unit 21R, and detects the infrared rays by the line CCD 41 of the sensor unit 22L. Similarly, the light projecting means 30 of the sensor unit 22R is operated, and the infrared rays are detected by the line CCD 41 of the sensor unit 22L. The main calculation unit 71 calculates the direction (angle) of the sensor units 21R and 22L viewed from the sensor unit 22L from the pixel number of the line CCD 41 from which these infrared rays are detected, and calculates the angle θ1 from the calculated difference between these directions. To do.

図9(A)の角度θ2は、直線dと直線aのなす角である。直線dは、センサユニット22Rから対角方向に位置するセンサユニット21Lに至る直線である。角度θ3は、直線dと直線bとのなす角度である。直線bは、センサユニット21Lからセンサユニット21Rに至る直線である。角度θ4は、直線bと直線cとのなす角度である。これらの角度θ2〜θ4も、メイン演算部71が、前記の角度θ1と同様の方法により算出する。   The angle θ2 in FIG. 9A is an angle formed by the straight line d and the straight line a. The straight line d is a straight line from the sensor unit 22R to the sensor unit 21L located in the diagonal direction. The angle θ3 is an angle formed by the straight line d and the straight line b. The straight line b is a straight line extending from the sensor unit 21L to the sensor unit 21R. The angle θ4 is an angle formed by the straight line b and the straight line c. These angles θ2 to θ4 are also calculated by the main calculation unit 71 by the same method as the angle θ1.

図9(A)(B)において、角度θ5は、直線eと直線cのなす角である。直線eは、一方のセンサバー1Lに設けられる2基のセンサユニット21L,22Lを結ぶ直線である。角度θ5が確定すると、上述のように算出した角度θ1〜θ4を用いることにより、必然的に4基のセンサユニット21L,22L,21R,22Rの相対位置が確定する。しかしながら、センサユニット22Lとセンサユニット21Lとは互いに検出できないため、角度θ1〜θ4が算出されても、4基のセンサユニット21L,22L,21R,22Rの相対位置は確定しない。   9A and 9B, the angle θ5 is an angle formed by the straight line e and the straight line c. The straight line e is a straight line connecting the two sensor units 21L and 22L provided on one sensor bar 1L. When the angle θ5 is determined, the relative positions of the four sensor units 21L, 22L, 21R, and 22R are inevitably determined by using the angles θ1 to θ4 calculated as described above. However, since the sensor unit 22L and the sensor unit 21L cannot detect each other, even if the angles θ1 to θ4 are calculated, the relative positions of the four sensor units 21L, 22L, 21R, and 22R are not fixed.

したがって、4基のセンサユニット21L,22L,21R,22Rの相対位置を確定するためには、4基のセンサユニット21L,22L,21R,22Rの相対的な角度θ1〜θ4のみならず、ある基準方向からの角度を検出しなければならない。例えば、センサユニット21Lとセンサユニット22Lとを結ぶ直線eの方向(垂直方向)を基準方向として定義し、4基のセンサユニット21L,22L,21R,22Rの少なくとも1基について、この基準方向からの角度を検出しなければならない。このためには、従来の構成では、センサユニット22Lの基準方向の情報を与えるために、正確に線分eの垂直方向を指示する作業が必要となる。さらには、センサバー1Lにセンサユニット21L,22Lが組み込まれた状態で計測する必要が有るため、冶工具等を用いて正確な位置を特定し、その位置で指示する事によって得られる入力情報を反映しなければならない。これに対して本実施形態では、組み立て上のこの作業工程を省略することができ、製造コストの削減を図ることができる。具体的には、以下のとおりである。   Accordingly, in order to determine the relative positions of the four sensor units 21L, 22L, 21R, and 22R, not only the relative angles θ1 to θ4 of the four sensor units 21L, 22L, 21R, and 22R but also a certain reference The angle from the direction must be detected. For example, the direction (vertical direction) of a straight line e connecting the sensor unit 21L and the sensor unit 22L is defined as a reference direction, and at least one of the four sensor units 21L, 22L, 21R, and 22R is separated from the reference direction. The angle must be detected. For this purpose, in the conventional configuration, in order to give information on the reference direction of the sensor unit 22L, it is necessary to accurately indicate the vertical direction of the line segment e. Furthermore, since it is necessary to perform measurement with the sensor units 21L and 22L incorporated in the sensor bar 1L, the input information obtained by specifying an accurate position using a tool or the like and instructing at that position is reflected. Must. On the other hand, in this embodiment, this work process in assembling can be omitted, and the manufacturing cost can be reduced. Specifically, it is as follows.

2本の直線c,dは、対角方向に位置するセンサユニットを結ぶ2本の直線である。これら2本の直線c,dの交点を交点αとする。そうすると、図9(A)(B)に示すように、2本の直線c,dの交点αは、第3の重複領域93内(センサユニットの全てがタッチ位置を検出できる重複領域内)に位置する。図9(B)に示すように、第3の重複領域93内であって、且つ、交点αとは異なる位置である指示点Pに対してタッチ操作が行われた場合について考える。ここで、各角度および直線を、次のように定義する。センサユニット22Lから指示点Pに至る直線を直線sとし、直線aと直線sのなす角度を角度θ6とする。センサユニット22Rから指示点Pに至る直線を直線tとし、直線aと直線tとがなす角度を角度θ7とする。直線dと直線tとのなす角度を角度θ8とする。センサユニット21Lから指示点Pに至る直線を直線uとする。直線dと直線uとのなす角度を角度θ9とする。直線eと直線uとのなす角度を角度θ10とし、直線eと直線sとのなす角度を角度θ11とする。さらに、直線aの長さを基準長さ(=1)と仮定する。   The two straight lines c and d are two straight lines that connect the sensor units located in the diagonal direction. Let the intersection point of these two straight lines c and d be the intersection point α. Then, as shown in FIGS. 9A and 9B, the intersection α of the two straight lines c and d is in the third overlapping region 93 (in the overlapping region where all the sensor units can detect the touch position). To position. As shown in FIG. 9B, a case is considered in which a touch operation is performed on an instruction point P that is in the third overlapping region 93 and is at a position different from the intersection α. Here, each angle and straight line are defined as follows. A straight line from the sensor unit 22L to the designated point P is a straight line s, and an angle formed by the straight line a and the straight line s is an angle θ6. A straight line from the sensor unit 22R to the designated point P is a straight line t, and an angle formed by the straight line a and the straight line t is an angle θ7. An angle formed by the straight line d and the straight line t is defined as an angle θ8. A straight line from the sensor unit 21L to the designated point P is defined as a straight line u. An angle formed by the straight line d and the straight line u is defined as an angle θ9. An angle formed between the straight line e and the straight line u is an angle θ10, and an angle formed between the straight line e and the straight line s is an angle θ11. Further, it is assumed that the length of the straight line a is the reference length (= 1).

前述のとおり、角度θ5が確定すれば、4基のセンサユニット21L,22L,21R,22Rの相対位置関係が確定する。そこで、図9(B)中の各角度を、正弦定理、加法定理等を用いて整理することにより、角度θ5を、下記の通り計算できる。

1/sin(π-(θ6+θ7)) = t/sinθ6 = s/sinθ7 (8)
u/sinθ8 = t/sinθ9 (9)
u/sinθ11 = s/sinθ10(10)
θ6 + θ7 + θ8 + θ9 + θ10 + θ11 = π (11)

式(9)によって、
s = sinθ7/sin(θ6+θ7) (12)

式(8)、(9)、(12)から、
u = t * sinθ8 / sinθ9 = s * sinθ6 / sinθ7 * sinθ8 / sinθ9
= (sinθ6 * sinθ8) / (sin(θ6+θ7) * sinθ9 ) (13)

式(10)、(13)から、
tanθ11 = u/s * sinθ10
= u/s * sin(θ6+θ7+θ8+θ9+θ11)
= u/s * (sin(θ6+θ7+θ8+θ9)cosθ11 + cos(θ6+θ7+θ8+θ9)sinθ11))

となり、したがって、
θ11 = tan-1(sin(θ6+θ7+θ8+θ9)/(s/u-cos(θ6+θ7+θ8+θ9))
= tan-1(sin(θ6+θ7+θ8+θ9)/
(sinθ7*sinθ9/sinθ6/sinθ8-cos(θ6+θ7+θ8+θ9))) (14)

となる。これにより、角度θ11を算出できる。そして、θ5は、

θ5 =θ11 - (θ1 - θ6) (15)

となる。
As described above, when the angle θ5 is determined, the relative positional relationship between the four sensor units 21L, 22L, 21R, and 22R is determined. Therefore, by arranging the angles in FIG. 9B using the sine theorem, the addition theorem, etc., the angle θ5 can be calculated as follows.

1 / sin (π- (θ6 + θ7)) = t / sinθ6 = s / sinθ7 (8)
u / sinθ8 = t / sinθ9 (9)
u / sinθ11 = s / sinθ10 (10)
θ6 + θ7 + θ8 + θ9 + θ10 + θ11 = π (11)

By equation (9)
s = sinθ7 / sin (θ6 + θ7) (12)

From equations (8), (9), (12)
u = t * sinθ8 / sinθ9 = s * sinθ6 / sinθ7 * sinθ8 / sinθ9
= (sinθ6 * sinθ8) / (sin (θ6 + θ7) * sinθ9) (13)

From equations (10) and (13),
tanθ11 = u / s * sinθ10
= u / s * sin (θ6 + θ7 + θ8 + θ9 + θ11)
= u / s * (sin (θ6 + θ7 + θ8 + θ9) cosθ11 + cos (θ6 + θ7 + θ8 + θ9) sinθ11))

And therefore
θ11 = tan-1 (sin (θ6 + θ7 + θ8 + θ9) / (s / u-cos (θ6 + θ7 + θ8 + θ9))
= tan-1 (sin (θ6 + θ7 + θ8 + θ9) /
(sinθ7 * sinθ9 / sinθ6 / sinθ8-cos (θ6 + θ7 + θ8 + θ9))) (14)

It becomes. Thereby, the angle θ11 can be calculated. And θ5 is

θ5 = θ11-(θ1-θ6) (15)

It becomes.

マスターとして動作する演算制御回路3Lのメイン演算部71は、相対位置算出手段の例として機能し、上述のように4基のセンサユニット21L,22L,21R,22Rの相対位置を確定する。すなわち、メイン演算部71は、使用者等に対して前述の指示点Pに対してタッチ操作を行うように促す処理の例であるタッチ操作要求処理を実行する。すなわち、メイン演算部71は、タッチ操作要求手段(要求手段)の例として機能する。さらに、前述の指示点Pに対するタッチ操作要求処理は、座標入力装置を接続したPC300上の専用アプリケーションの中で処理する構成であっても構わない。すなわち、PC300には、タッチ操作要求処理を実行するためのアプリケーションが予めインストールされている(コンピュータプログラムが外部メモリ304に予め格納されている)。そして、このアプリケーションにより(PC300がこのコンピュータプログラムを実行することにより)タッチ操作要求処理が実行され、PC300がタッチ操作要求手段として機能する。そして、メイン演算部71は、タッチ操作の位置を検出することにより、4基のセンサユニット21L,22L,21R,22Rの相対位置を確定することができる。なお、タッチ操作要求処理の内容については後述する。   The main calculation unit 71 of the calculation control circuit 3L that operates as a master functions as an example of the relative position calculation means, and determines the relative positions of the four sensor units 21L, 22L, 21R, and 22R as described above. That is, the main calculation unit 71 performs a touch operation request process that is an example of a process that prompts the user or the like to perform a touch operation on the indicated point P described above. That is, the main calculation unit 71 functions as an example of touch operation requesting means (requesting means). Furthermore, the touch operation request process for the pointing point P described above may be performed in a dedicated application on the PC 300 to which the coordinate input device is connected. That is, an application for executing a touch operation request process is installed in advance in the PC 300 (a computer program is stored in the external memory 304 in advance). Then, a touch operation request process is executed by this application (by the PC 300 executing this computer program), and the PC 300 functions as a touch operation request means. The main calculation unit 71 can determine the relative positions of the four sensor units 21L, 22L, 21R, and 22R by detecting the position of the touch operation. The details of the touch operation request process will be described later.

<初期設定とタッチ指示>
次に、4基のセンサユニット21L,22L,21R,22Rの相対位置を確定する処理について、図10を参照して説明する。図10は、電源が投入されてからの初期設定処理を示すフローチャートである。前述のとおり演算制御回路3Lのメイン演算部71は、ワンチップマイコンなどで構成される。ワンチップマイコンは、ひとつのICチップ上に、CPU、RAM、ROM、各種入出力装置などが搭載された処理装置である。そして、この初期設定処理を実行するためのコンピュータプログラムは、ワンチップマイコンのROMにあらかじめ格納されている。ワンチップマイコンのCPUは、このコンピュータプログラムをROMから読出し、RAMをワークエリアとして使用して実行する。これにより、図10に示す処理が実現する。なお、PC300に後述の各処理の一部を実行するためのアプリケーションがインストールされており、PC300がこれらのアプリケーションを実行することにより、座標入力装置100とPC300とが協働して図10に示す処理が実現する構成であってもよい。
<Initial settings and touch instructions>
Next, processing for determining the relative positions of the four sensor units 21L, 22L, 21R, and 22R will be described with reference to FIG. FIG. 10 is a flowchart showing an initial setting process after the power is turned on. As described above, the main calculation unit 71 of the calculation control circuit 3L is configured by a one-chip microcomputer or the like. A one-chip microcomputer is a processing device in which a CPU, RAM, ROM, various input / output devices and the like are mounted on one IC chip. A computer program for executing this initial setting process is stored in advance in the ROM of the one-chip microcomputer. The CPU of the one-chip microcomputer reads this computer program from the ROM and executes it using the RAM as a work area. Thereby, the processing shown in FIG. 10 is realized. Note that an application for executing a part of each process described later is installed in the PC 300, and the coordinate input apparatus 100 and the PC 300 cooperate with each other as shown in FIG. 10 when the PC 300 executes these applications. The structure which a process implement | achieves may be sufficient.

この初期設定処理には、4基のセンサユニット21L,22L,21R,22Rの相対位置を確定する相対位置算出処理が含まれる。メイン演算部71は、使用者等による所定位置へのタッチ操作を検出することによって、4基のセンサユニット21L,22L,21R,22Rの相対的な位置関係を確定する。なお、図10に示す処理の開始に先立ち、2基のセンサバー1L,1Rが、使用者等により、ホワイトボード6や壁面などに対向して配置される。配置された2基のセンサバー1L,1Rに挟まれる領域が、座標入力領域5となる。この際、使用者等は、座標入力領域5に、表示装置200が画像を投影する矩形状の領域である表示領域111の全域が含まれるように、2基のセンサバー1L,1Rの間隔を調整する。そして、使用者等により電源が投入されると、マスターとして動作する演算制御回路3Lのメイン演算部71は、前述のようにコンピュータプログラムをROMから読出し、RAMに展開して実行する。これにより、初期設定処理が開始される。   The initial setting process includes a relative position calculation process for determining the relative positions of the four sensor units 21L, 22L, 21R, and 22R. The main calculation unit 71 determines the relative positional relationship between the four sensor units 21L, 22L, 21R, and 22R by detecting a touch operation to a predetermined position by a user or the like. Prior to the start of the process shown in FIG. 10, the two sensor bars 1L and 1R are arranged by the user or the like so as to face the whiteboard 6 or the wall surface. A region between the two sensor bars 1L and 1R arranged is a coordinate input region 5. At this time, the user or the like adjusts the interval between the two sensor bars 1L and 1R so that the coordinate input area 5 includes the entire display area 111, which is a rectangular area on which the display device 200 projects an image. To do. When the power is turned on by a user or the like, the main arithmetic unit 71 of the arithmetic control circuit 3L operating as a master reads the computer program from the ROM as described above, expands the program in the RAM, and executes it. Thereby, the initial setting process is started.

ステップS1001において、メイン演算部71は、初期化処理を行う。例えば、メイン演算部71は、入出力ポートの設定、タイマ設定、ラインCCD41のシャッタ開放時間や赤外LED31の点灯時間や駆動電流などの、座標入力装置100に関する各種初期化を行う。   In step S1001, the main calculation unit 71 performs an initialization process. For example, the main calculation unit 71 performs various initializations regarding the coordinate input device 100 such as input / output port setting, timer setting, shutter opening time of the line CCD 41, lighting time of the infrared LED 31, and driving current.

ステップS1002において、メイン演算部71は、各々のセンサユニット21L,22L,21R,22Rの位置が適正であるか否かを判断する。具体的には、メイン演算部71は、センサユニット21Rの投光手段30を作動させ、その赤外線をセンサユニット22LのラインCCD41により検出する。同様に、センサユニット22Rの投光手段30を作動させ、その赤外線をセンサユニット22LのラインCCD41により検出する。メイン演算部71は、これらの赤外線を検出した画素番号から、センサユニット22Lからみたセンサユニット21R,22Lの方向(角度)を算出し、算出したこれらの方向から角度θ1を算出する。メイン演算部71は、他の角度θ2〜θ4についても同様に算出する。この際、メイン演算部71は、各々のセンサユニット21L,22L,21R,22Rにより、対向するセンサバーの2基のセンサユニット21L,22L,21R,22Rが発する赤外線を検出できたか否かを判断する。赤外線が検出できなかった場合は、センサユニット21L,22L,21R,22Rの受光手段40の視野範囲に、対向するセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rが位置していない可能性がある。そこで、メイン演算部71は、全てのセンサユニット21L,22L,21R,22Rについて、対向するセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rの投光手段30が発する赤外線を検出できたか判断する。そして、全てのセンサユニット21L,22L,21R,22Rについて検出できた場合には、センサバー1L,1Rの位置が適正であると判断する。この場合には、ステップS1004に進む。そうでない場合には、メイン演算部71は、センサバー1L,1Rの位置が適正でないと判断する。この場合には、ステップS1003に進む。   In step S1002, the main calculation unit 71 determines whether the positions of the sensor units 21L, 22L, 21R, and 22R are appropriate. Specifically, the main calculation unit 71 operates the light projecting means 30 of the sensor unit 21R, and detects the infrared rays by the line CCD 41 of the sensor unit 22L. Similarly, the light projecting means 30 of the sensor unit 22R is operated, and the infrared rays are detected by the line CCD 41 of the sensor unit 22L. The main calculation unit 71 calculates the direction (angle) of the sensor units 21R and 22L as viewed from the sensor unit 22L from the pixel numbers where these infrared rays are detected, and calculates the angle θ1 from these calculated directions. The main calculation unit 71 similarly calculates the other angles θ2 to θ4. At this time, the main calculation unit 71 determines whether or not the infrared rays emitted from the two sensor units 21L, 22L, 21R, and 22R of the opposing sensor bar can be detected by the sensor units 21L, 22L, 21R, and 22R. . When infrared rays cannot be detected, there is a possibility that the sensor units 21L, 22L, 21R, and 22R of the opposing sensor bars 1L and 1R are not located in the field of view of the light receiving means 40 of the sensor units 21L, 22L, 21R, and 22R. There is. Therefore, the main calculation unit 71 determines whether infrared rays emitted from the light projecting means 30 of the sensor units 21L, 22L, 21R, and 22R of the opposing sensor bars 1L and 1R can be detected for all the sensor units 21L, 22L, 21R, and 22R. To do. If all the sensor units 21L, 22L, 21R, and 22R can be detected, it is determined that the positions of the sensor bars 1L and 1R are appropriate. In this case, the process proceeds to step S1004. Otherwise, the main calculation unit 71 determines that the positions of the sensor bars 1L and 1R are not appropriate. In this case, the process proceeds to step S1003.

ステップS1003では、演算制御回路3Lのメイン演算部71は、センサバー1L,1Rの位置が適正でない旨を使用者等に報知する処理を実行する。例えば、メイン演算部71は、センサバー1L,1Rの位置が適正でない旨をインジケータ79に表示したり、スピーカ80を介して所定の音声を発したりする。これにより、使用者等に対して、センサバー1L,1Rの再設置を促す。そして、ステップS1001に戻る。   In step S1003, the main calculation unit 71 of the calculation control circuit 3L executes a process of notifying the user or the like that the positions of the sensor bars 1L and 1R are not appropriate. For example, the main calculation unit 71 displays on the indicator 79 that the positions of the sensor bars 1L and 1R are not appropriate, or emits a predetermined sound via the speaker 80. This prompts the user or the like to reinstall the sensor bars 1L and 1R. Then, the process returns to step S1001.

ステップS1004においては、メイン演算部71は、キャリブレーション処理を実行する。キャリブレーション処理は、表示装置200による表示領域111の座標系(表示画像座標系)と、座標入力装置100の座標系とを補正して変換する為の情報取得を行う処理である。キャリブレーション処理については、従来公知の構成が適用できる。このため、キャリブレーション処理の説明を省略する。例えば、このキャリブレーション処理として、特開2013−210951号公報に開示されている処理が適用できる。   In step S1004, the main calculation unit 71 executes a calibration process. The calibration process is a process for acquiring information for correcting and converting the coordinate system (display image coordinate system) of the display area 111 by the display device 200 and the coordinate system of the coordinate input device 100. A conventionally known configuration can be applied to the calibration process. For this reason, the description of the calibration process is omitted. For example, as the calibration process, a process disclosed in JP 2013-210951 A can be applied.

ステップS1005において、演算制御回路3Lのメイン演算部71は、表示装置200が表示する表示領域111内に第3の重複領域93が含まれるか否かを判断する。図11は、表示装置200が表示する表示領域111内に第3の重複領域93が含まれる状態を模式的に示す図である。この際、メイン演算部71は、座標入力領域5と表示領域111との位置関係を変換するために、ステップS1004のキャリブレーション処理で取得した情報を利用する。表示領域111内に第3の重複領域93が含まれない場合には、ステップS1006に進む。図11に示すように、第3の重複領域93が含まれると判断した場合には、ステップS1007に進む。   In step S1005, the main calculation unit 71 of the calculation control circuit 3L determines whether or not the third overlapping area 93 is included in the display area 111 displayed by the display device 200. FIG. 11 is a diagram schematically illustrating a state in which the third overlapping area 93 is included in the display area 111 displayed by the display device 200. At this time, the main calculation unit 71 uses the information acquired in the calibration process in step S1004 in order to convert the positional relationship between the coordinate input area 5 and the display area 111. When the third overlapping area 93 is not included in the display area 111, the process proceeds to step S1006. As shown in FIG. 11, when it is determined that the third overlapping area 93 is included, the process proceeds to step S1007.

ステップS1006において、メイン演算部71は、表示領域111内に第3の重複領域93が含まれない旨を報知する処理を実行する。例えば、メイン演算部71は、表示領域111内に第3の重複領域93が含まれない旨をインジケータ79に表示したり、スピーカ80を介して所定の音声を発したりする。また、PC300に、この処理を実行するためのアプリケーションが予めインストールされており、PC300がこのアプリケーションを実行することにより、表示装置200が投影(表示)する画像にアラートを重畳して表示してもよい。この場合には、メイン演算部71は、PC300に、この処理の実行を指示する信号を送信する。そして、PC300は、この信号を受信すると、前述の処理を実行する。これにより、使用者等に対して、表示装置200による表示領域111の位置や範囲の再調整を促す。そして、ステップS1004に戻る。   In step S <b> 1006, the main calculation unit 71 executes a process of notifying that the third overlapping area 93 is not included in the display area 111. For example, the main calculation unit 71 displays on the indicator 79 that the third overlapping area 93 is not included in the display area 111 or emits a predetermined sound via the speaker 80. In addition, an application for executing this processing is installed in the PC 300 in advance, and even if an alert is superimposed on an image projected (displayed) by the PC 300 and executed, the PC 300 displays the alert. Good. In this case, the main calculation unit 71 transmits a signal instructing execution of this process to the PC 300. And PC300 will perform the above-mentioned process, if this signal is received. This prompts the user or the like to readjust the position or range of the display area 111 by the display device 200. Then, the process returns to step S1004.

ステップS1007では、メイン演算部71は、第3の重複領域93内へのタッチ操作の実行を使用者等に対して促す処理(タッチ操作要求処理)を実行する。例えば、メイン演算部71が表示装置200に指示画面を表示させる処理が適用できる。また、メイン演算部71は、インジケータ79に第3の重複領域93へのタッチ操作を促すような表示を行わせてもよく、スピーカ80を介して第3の重複領域93内へのタッチ操作を促すような音声を発してもよい。そして、ステップS1006に進む。このほか、前述のように、PC300にタッチ操作要求処理を実行するためのアプリケーションが予めインストールされており、PC300のCPU301がこのアプリケーションを実行することによりタッチ操作要求処理を実行してもよい。   In step S <b> 1007, the main calculation unit 71 executes a process (touch operation request process) that prompts the user or the like to perform a touch operation in the third overlapping area 93. For example, a process in which the main calculation unit 71 displays an instruction screen on the display device 200 can be applied. In addition, the main calculation unit 71 may cause the indicator 79 to perform a display that prompts a touch operation on the third overlapping area 93, and performs a touch operation on the third overlapping area 93 via the speaker 80. A sound that prompts the user may be emitted. Then, the process proceeds to step S1006. In addition, as described above, an application for executing the touch operation request process may be installed in the PC 300 in advance, and the CPU 301 of the PC 300 may execute the touch operation request process by executing this application.

ステップS1008において、メイン演算部71は、使用者等によるタッチ操作があったかどうかを判断する。具体的には、メイン演算部71は、各々のセンサユニット21L,22L,21R,22Rによる検出レベルから、座標入力領域5内に遮光領域が存在するか否かを判断する。遮光領域が存在する場合には、タッチ操作があったと判断する。そしてこの場合には、ステップS1009に進む。そうでない場合には、メイン演算部71は、タッチ操作がないと判断する。この場合には、ステップS1007に戻る。   In step S1008, the main calculation unit 71 determines whether or not there has been a touch operation by a user or the like. Specifically, the main calculation unit 71 determines whether or not a light shielding area exists in the coordinate input area 5 from the detection levels of the sensor units 21L, 22L, 21R, and 22R. If there is a light shielding area, it is determined that a touch operation has been performed. In this case, the process proceeds to step S1009. Otherwise, the main calculation unit 71 determines that there is no touch operation. In this case, the process returns to step S1007.

ステップS1009において、メイン演算部71は、ステップS1008において検出したタッチ操作の位置が、第3の重複領域93内であるか否かを判断する。第3の重複領域93内へのタッチ操作であると判断した場合には、ステップS1011へ進む。第3の重複領域93外へのタッチ操作であると判断した場合には、ステップS1010に進む。   In step S1009, the main calculation unit 71 determines whether or not the position of the touch operation detected in step S1008 is within the third overlapping area 93. If it is determined that the touch operation is in the third overlapping area 93, the process proceeds to step S1011. If it is determined that the touch operation is outside the third overlapping area 93, the process proceeds to step S1010.

ステップS1011において、メイン演算部71は、ステップS1008において検出したタッチ操作の位置が、交点αと同じ位置である否かを判断する。タッチ操作の位置が交点αと異なる位置であると判断した場合には、ステップS1012へ進む。タッチ操作の位置が交点αと同じ位置であると判断した場合には、ステップS1010に進む。   In step S1011, the main calculation unit 71 determines whether or not the position of the touch operation detected in step S1008 is the same position as the intersection α. If it is determined that the position of the touch operation is different from the intersection α, the process proceeds to step S1012. If it is determined that the position of the touch operation is the same position as the intersection α, the process proceeds to step S1010.

ステップS1010においては、メイン演算部71は、誘導手段の例として機能する。そして、メイン演算部71は、4基のセンサユニット21L,22L,21R,22Rにより取得する遮光位置の情報を利用して、使用者等に対し、タッチ操作の位置を第3の重複領域93内へ誘導する処理を実行する。   In step S1010, the main calculation unit 71 functions as an example of guidance means. Then, the main calculation unit 71 uses the information on the light shielding position acquired by the four sensor units 21L, 22L, 21R, and 22R to set the position of the touch operation to the user or the like in the third overlapping region 93. Execute the process of guiding to.

ここで、タッチ操作の位置を第3の重複領域93内(全てのセンサユニットがタッチ位置を検出できる重複領域内)に誘導する処理の例について、図12を参照して説明する。図12は、タッチ操作の位置を第3の重複領域93内に誘導する処理の内容の例を模式的に示す図である。図12(A)は、座標入力領域5の位置A〜Dにタッチ操作がなされた場合の例を示している。また、図12(B)〜(E)は、タッチ操作が位置A〜Dになされた場合において、各々のセンサユニット21L,22L,21R,22Rにより検出された光量分布を模式的に示すグラフである。すなわち、図12(B)は、図12(A)において位置Aにタッチ操作がなされた場合に、センサユニット21L,21Rにより検出される光量分布を示している。また、図12(C)は位置Bに、図12(D)は位置Cに、図12(E)は位置Dにタッチ操作された場合の光量分布を示す。   Here, an example of processing for guiding the position of the touch operation into the third overlapping area 93 (in the overlapping area where all the sensor units can detect the touch position) will be described with reference to FIG. FIG. 12 is a diagram schematically illustrating an example of the content of processing for guiding the position of the touch operation into the third overlapping area 93. FIG. 12A shows an example in which a touch operation is performed at positions A to D of the coordinate input area 5. 12B to 12E are graphs schematically showing the light amount distribution detected by each of the sensor units 21L, 22L, 21R, and 22R when the touch operation is performed at the positions A to D. is there. That is, FIG. 12B shows a light amount distribution detected by the sensor units 21L and 21R when a touch operation is performed at the position A in FIG. FIG. 12C shows the light amount distribution when the touch operation is performed at the position B, FIG. 12D shows the position C, and FIG.

図12(B)〜(E)の各図中の「第3の重複領域」は、各々のセンサユニット21L,22L,21R,22Rから見て、第3の重複領域93が存在する方向である。例えば、センサユニット21Lについてみると、対角方向に位置するセンサユニット22Rからの光が入射する方向と、再帰反射手段4Rからの再帰反射光が入射する範囲の端部との間の範囲(方向)が、第3の重複領域93が存在する方向となる。そして、4基の全てのセンサユニット21L,22L,21R,22Rにより、遮光領域(すなわちタッチ操作された位置)が同時に第3の重複領域93内で検出された場合には、タッチ位置が第3の重複領域93内に位置していることを示している。したがって、この場合には、メイン演算部71は、タッチ操作の位置が第3の重複領域93内にあると判断する。そうでない場合には、タッチ操作の位置が第3の重複領域93内にはないと判断する。なお、ここでいう「同時」とは、厳密な意味で同時ではなくてもよく、人間の動作であれば同時とみなせる程度にタイミングがずれていてもよい。前述のとおり、2基のセンサバー1L,1Rのセンサユニット21R,22L,21R,22Lが交互に動作する構成であると、4基のセンサユニット21L,22L,21R,22Rの組み合わせによっては、厳密に同時に検出できないためである。   The “third overlapping region” in each of FIGS. 12B to 12E is the direction in which the third overlapping region 93 exists when viewed from each sensor unit 21L, 22L, 21R, 22R. . For example, regarding the sensor unit 21L, a range (direction) between the direction in which light from the sensor unit 22R located in the diagonal direction enters and the end of the range in which retroreflected light from the retroreflective means 4R enters. ) Is the direction in which the third overlapping region 93 exists. When the light-shielding area (ie, the touch-operated position) is simultaneously detected in the third overlapping area 93 by all four sensor units 21L, 22L, 21R, and 22R, the touch position is the third position. It is shown that it is located in the overlapping area 93. Therefore, in this case, the main calculation unit 71 determines that the position of the touch operation is within the third overlapping area 93. Otherwise, it is determined that the position of the touch operation is not within the third overlapping area 93. Note that “simultaneous” here does not have to be simultaneous in a strict sense, and the timing may be shifted to such an extent that it can be regarded as simultaneous if it is a human action. As described above, if the sensor units 21R, 22L, 21R, and 22L of the two sensor bars 1L and 1R operate alternately, depending on the combination of the four sensor units 21L, 22L, 21R, and 22R, strictly This is because they cannot be detected at the same time.

そして、メイン演算部71は、タッチ操作の位置が第3の重複領域93内にないと判断した場合には、タッチ操作の位置を第3の重複領域93内に誘導する誘導処理を実行する。タッチ操作の位置が、座標入力領域5内であるが第3の重複領域93外である場合には、遮光領域は4基のうちの2基または3基のセンサユニット21L,22L,21R,22Rによって検出されることになる。そこで、メイン演算部71は、この場合には、4基のセンサユニット21L,22L,21R,22Rのうち、遮光領域を検出している2基のセンサユニットによる検出結果に基づいて、現在のタッチ位置を算出する。そして、メイン演算部71は、現在のタッチ位置から見た第3の重複領域93の方向を算出し、算出した方向を報知する処理を実行する。例えば、メイン演算部71は、図12(A)に示すように、現在のタッチ位置からみた第3の重複領域93の方向を示す矢印を、表示装置200を介して座標入力領域5(表示領域111)に表示する。この際、メイン演算部71は、このような誘導処理を実行するための専用のアプリケーションを用いてもよい。また、メイン演算部71は、インジケータ79に、現在のタッチ位置からみた第3の重複領域93の方向を表示してもよい。さらに、メイン演算部71は、スピーカ80を介して、現在のタッチ位置からみた第3の重複領域93の方向を音声で報知してもよい。   When the main calculation unit 71 determines that the position of the touch operation is not within the third overlapping area 93, the main calculation unit 71 performs a guidance process for guiding the position of the touch operation into the third overlapping area 93. When the position of the touch operation is within the coordinate input area 5 but outside the third overlapping area 93, the light-shielding area includes two or three of the four sensor units 21L, 22L, 21R, and 22R. Will be detected. Therefore, in this case, the main calculation unit 71 determines the current touch based on the detection results of the two sensor units that detect the light-shielding region among the four sensor units 21L, 22L, 21R, and 22R. Calculate the position. And the main calculating part 71 calculates the direction of the 3rd duplication area | region 93 seen from the present touch position, and performs the process which alert | reports the calculated direction. For example, as shown in FIG. 12A, the main calculation unit 71 displays an arrow indicating the direction of the third overlapping area 93 viewed from the current touch position via the display device 200 in the coordinate input area 5 (display area). 111). At this time, the main calculation unit 71 may use a dedicated application for executing such a guidance process. In addition, the main calculation unit 71 may display the direction of the third overlapping area 93 viewed from the current touch position on the indicator 79. Further, the main calculation unit 71 may notify the direction of the third overlapping region 93 viewed from the current touch position by voice via the speaker 80.

例えば、図12(B)に示す光量分布が得られた場合には、現在のタッチ位置は図12(A)の位置Aであることを示している。このため、メイン演算部71は、位置Aから見た第3の重複領域93の方向を示す矢印を、例えば表示装置200を介して座標入力領域5に表示する。これにより、タッチ操作の位置の移動方向を使用者等に報知し、タッチ位置を第3の重複領域93内に誘導できる。図12(C)〜(E)に示す光量分布が得られた場合であっても、矢印の表示位置および向きが異なるほかは同様である。   For example, when the light amount distribution shown in FIG. 12B is obtained, it is indicated that the current touch position is the position A in FIG. For this reason, the main calculation unit 71 displays an arrow indicating the direction of the third overlapping area 93 viewed from the position A in the coordinate input area 5 via the display device 200, for example. Accordingly, the moving direction of the position of the touch operation can be notified to the user or the like, and the touch position can be guided into the third overlapping region 93. Even when the light quantity distributions shown in FIGS. 12C to 12E are obtained, the same applies except that the display position and direction of the arrows are different.

ステップS1012において、メイン演算部71は、第3の重複領域93内へのタッチ操作を促す処理と、タッチ操作の位置を第3の重複領域93内に誘導する処理を完了する。このように、本実施形態では、第3の重複領域93内であって、かつ、2本の直線の交点αとは異なる位置へのタッチ操作を検出するまでは、第3の重複領域93内へのタッチ操作を促す処理を継続する。そして、ステップS1013に進む。   In step S <b> 1012, the main calculation unit 71 completes the process of prompting the touch operation into the third overlapping area 93 and the process of guiding the position of the touch operation into the third overlapping area 93. As described above, in the present embodiment, in the third overlapping area 93, until the touch operation to the position different from the intersection α of the two straight lines is detected. Continues the process of prompting the user to touch. Then, the process proceeds to step S1013.

ステップS1013では、メイン演算部71は、相対位置算出手段として機能し、4基のセンサユニット21L,22L,21R,22Rの相対位置を算出して確定する。相対位置の算出方法は、前述のとおりである。以上のステップを経ると、初期設定処理を終了する。   In step S1013, the main calculation unit 71 functions as a relative position calculation unit and calculates and determines the relative positions of the four sensor units 21L, 22L, 21R, and 22R. The method for calculating the relative position is as described above. After the above steps, the initial setting process is terminated.

本実施形態によれば、座標入力装置100の配置時などにおいて、自動的に、基準方向からのセンサユニットの方向(角度θ5)を取得できる。このため、座標入力装置100の製造において基準方向の取得と付与の工程を省略することができ、製造コストの削減を図ることができる。また、座標入力装置100の使用のための配置時において、センサバー1L,1Rの配置方向を例えば正確に垂直方向に向けなければならないなどといった制限はない。このため、使用者等にとって使用の準備の手間を省略することができる。   According to this embodiment, the direction (angle θ5) of the sensor unit from the reference direction can be automatically acquired when the coordinate input device 100 is arranged. For this reason, in the manufacture of the coordinate input device 100, the process of obtaining and assigning the reference direction can be omitted, and the manufacturing cost can be reduced. Further, when the coordinate input device 100 is arranged for use, there is no restriction that the arrangement direction of the sensor bars 1L and 1R must be directed to the vertical direction accurately, for example. For this reason, the trouble of preparation for use can be omitted for the user or the like.

(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、タッチ位置を第3の重複領域93内へ誘導する処理において、報知手段として、専用アプリ、スピーカ80、またはインジケータ79を用いる構成を示した。ただし、報知手段はこれらに限定されるものではない。例えば、外部機器としてPC300(コンピュータ)が適用される場合には、メイン演算部71は、検出したタッチ位置を外部機器であるPC300に出力するとともに、マウスカーソルの表示態様を変更するという構成が適用できる。具体的には、メイン演算部71は、マウスカーソルを点滅させて表示する、一定範囲で回転させる等の処理を実行する。このような処理によっても、使用者等に対してタッチ位置の変更を促すことができる。このような構成であると、専用のアプリケーションやドライバ等を予めPCへインストールする作業が不要となる。このため、使用者等にとって使用の準備の手間を省略することができる。したがって、利便性が向上する。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment, the configuration in which the dedicated application, the speaker 80, or the indicator 79 is used as the notification unit in the process of guiding the touch position into the third overlapping area 93 has been described. However, the notification means is not limited to these. For example, when the PC 300 (computer) is applied as an external device, a configuration in which the main calculation unit 71 outputs the detected touch position to the PC 300 that is the external device and changes the display mode of the mouse cursor is applied. it can. Specifically, the main calculation unit 71 executes processing such as blinking and displaying the mouse cursor, rotating the mouse cursor within a certain range, and the like. Such processing can also prompt the user or the like to change the touch position. With such a configuration, it is not necessary to previously install a dedicated application, driver, or the like on the PC. For this reason, the trouble of preparation for use can be omitted for the user or the like. Therefore, convenience is improved.

(その他の実施形態)
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
(Other embodiments)
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

例えば、前記実施形態では、座標入力装置100のメイン演算部71が上述の各処理を実行する構成を示したが、この構成に限定されない。例えば、前記各処理の一部をPC300によって実現してもよい。この場合には、前述の各処理の一部を実行するためのアプリケーションのコンピュータプログラムが予めPC300の外部メモリ304に格納されている。そして、CPU301がこのコンピュータプログラムを実行することにより、上述の各処理が実行される。この場合には、座標入力装置100とPC300とが協働して前記処理を実現することになる。   For example, in the above-described embodiment, the configuration in which the main calculation unit 71 of the coordinate input device 100 executes the above-described processes has been described, but the configuration is not limited to this configuration. For example, a part of each process may be realized by the PC 300. In this case, a computer program of an application for executing a part of each process described above is stored in the external memory 304 of the PC 300 in advance. Then, the CPU 301 executes this computer program, whereby the above-described processes are executed. In this case, the coordinate input device 100 and the PC 300 cooperate to realize the processing.

また、本発明の目的は、以下の構成でも達成できる。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   The object of the present invention can also be achieved by the following configuration. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

100:座標入力装置
1L,1R:センサバー
21L,22L,21R,22R:センサユニット
3L,3R:演算制御回路
4L,4R:再帰反射手段
5:座標入力有効領域
6:ホワイトボード
93:第3の重複領域
100: Coordinate input device 1L, 1R: Sensor bar 21L, 22L, 21R, 22R: Sensor unit 3L, 3R: Arithmetic control circuit 4L, 4R: Retroreflective means 5: Coordinate input effective area 6: Whiteboard 93: Third overlap region

Claims (17)

入射光を再帰反射する再帰反射手段に向けて投光する投光手段と、前記投光手段から投光されて前記再帰反射手段で再帰反射した反射光を受光する受光手段と、を有する少なくとも4基のセンサユニットと、
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出手段と、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求手段と、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出手段と、
を有することを特徴とする座標入力装置。
At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
Touch position calculating means for calculating a position of a touch operation on a rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. Request means for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating means for calculating a relative position;
A coordinate input device comprising:
前記相対位置算出手段は、互いに視野範囲にない2基の前記センサユニットを結ぶ直線と、前記2基のセンサユニットの一方のセンサユニットと前記一方のセンサユニットの対角方向に配置されるセンサユニットとを結ぶ直線との角度を、前記重複領域内の前記交点とは異なる位置への前記タッチ操作の位置を用いて算出し、前記タッチ操作の位置の算出結果に基づいて、前記4基のセンサユニットの相対位置を算出することを特徴とする請求項1に記載の座標入力装置。   The relative position calculating means includes a straight line connecting the two sensor units that are not in the visual field range, and one sensor unit of the two sensor units and a sensor unit arranged in a diagonal direction of the one sensor unit. Is calculated using the position of the touch operation to a position different from the intersection in the overlapping region, and based on the calculation result of the position of the touch operation, the four sensors The coordinate input device according to claim 1, wherein the relative position of the unit is calculated. 前記要求手段は、前記座標入力領域に前記重複領域でかつ前記交点ではない位置へのタッチ操作を促す表示を行うことを特徴とする請求項1または2に記載の座標入力装置。   The coordinate input device according to claim 1, wherein the request unit performs display for prompting a touch operation on the coordinate input region to a position that is not the intersection but the overlapping region. 前記要求手段は、前記座標入力領域に前記重複領域でかつ前記交点ではない位置へのタッチ操作を促す音声を発することを特徴とする請求項1または2に記載の座標入力装置。   3. The coordinate input device according to claim 1, wherein the request unit emits a voice prompting a touch operation to a position that is not the intersection but the overlap area in the coordinate input area. 前記要求手段は、前記座標入力領域に前記重複領域でかつ前記交点ではない位置へのタッチ操作を促す表示を行うことを特徴とする請求項1または2に記載の座標入力装置。   The coordinate input device according to claim 1, wherein the request unit performs display for prompting a touch operation on the coordinate input region to a position that is not the intersection but the overlapping region. 前記要求手段は、前記重複領域内の前記交点ではない位置へのタッチ操作を検出するまでは、前記処理を継続することを特徴とする請求項1から5のいずれか1項に記載の座標入力装置。   6. The coordinate input according to claim 1, wherein the request unit continues the process until a touch operation to a position that is not the intersection in the overlapping region is detected. apparatus. 前記タッチ操作の位置が前記重複領域にない場合に、前記タッチ操作の位置を前記重複領域に誘導する処理を行う誘導手段をさらに有することを特徴とする請求項1から5のいずれか1項に記載の座標入力装置。   6. The apparatus according to claim 1, further comprising a guiding unit that performs a process of guiding the position of the touch operation to the overlapping area when the position of the touch operation is not in the overlapping area. The coordinate input device described. 入射光を再帰反射する再帰反射手段に向けて投光する投光手段と、前記投光手段から投光されて前記再帰反射手段で再帰反射した反射光を受光する受光手段と、を有する少なくとも4基のセンサユニットと、
を有する座標入力装置の制御方法であって、
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出ステップと、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求ステップと、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出ステップと、
を有することを特徴とする座標入力装置の制御方法。
At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
A control method of a coordinate input device having
A touch position calculating step of calculating a position of a touch operation to the rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. A request step for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating step for calculating a relative position;
A control method for a coordinate input device, comprising:
入射光を再帰反射する再帰反射手段に向けて投光する投光手段と、前記投光手段から投光されて前記再帰反射手段で再帰反射した反射光を受光する受光手段と、を有する少なくとも4基のセンサユニットと、
を有する座標入力装置を制御するコンピュータに、
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出ステップと、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求ステップと、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出ステップと、
を実行させることを特徴とするプログラム。
At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
A computer for controlling a coordinate input device having:
A touch position calculating step of calculating a position of a touch operation to the rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. A request step for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating step for calculating a relative position;
A program characterized by having executed.
入射光を再帰反射する再帰反射手段に向けて投光する投光手段と、前記投光手段から投光されて前記再帰反射手段で再帰反射した反射光を受光する受光手段と、を有する少なくとも4基のセンサユニットと、
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出手段と、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求手段と、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出手段と、
を有することを特徴とする座標入力システム。
At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
Touch position calculating means for calculating a position of a touch operation on a rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. Request means for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating means for calculating a relative position;
A coordinate input system comprising:
前記相対位置算出手段は、互いに視野範囲にない2基の前記センサユニットを結ぶ直線と、前記2基のセンサユニットの一方のセンサユニットと前記一方のセンサユニットの対角方向に配置されるセンサユニットとを結ぶ直線との角度を、前記重複領域内の前記交点とは異なる位置への前記タッチ操作の位置を用いて算出し、前記タッチ操作の位置の算出結果に基づいて、前記4基のセンサユニットの相対位置を算出することを特徴とする請求項10に記載の座標入力システム。   The relative position calculating means includes a straight line connecting the two sensor units that are not in the visual field range, and one sensor unit of the two sensor units and a sensor unit arranged in a diagonal direction of the one sensor unit. Is calculated using the position of the touch operation to a position different from the intersection in the overlapping region, and based on the calculation result of the position of the touch operation, the four sensors The coordinate input system according to claim 10, wherein the relative position of the unit is calculated. 前記要求手段は、前記座標入力領域に前記重複領域でかつ前記交点ではない位置へのタッチ操作を促す表示を行うことを特徴とする請求項10または11に記載の座標入力システム。   The coordinate input system according to claim 10 or 11, wherein the request unit performs a display for prompting a touch operation on the coordinate input region to a position that is not the intersection but the overlapping region. 前記要求手段は、前記座標入力領域に前記重複領域でかつ前記交点ではない位置へのタッチ操作を促す音声を発することを特徴とする請求項10または11に記載の座標入力システム。   12. The coordinate input system according to claim 10 or 11, wherein the requesting unit emits a voice prompting a touch operation to a position that is not the intersection but the overlap area in the coordinate input area. 前記要求手段は、前記座標入力領域に前記重複領域でかつ前記交点ではない位置へのタッチ操作を促す表示を行うことを特徴とする請求項10または11に記載の座標入力システム。   The coordinate input system according to claim 10 or 11, wherein the request unit performs a display for prompting a touch operation on the coordinate input region to a position that is not the intersection but the overlapping region. 前記要求手段は、前記重複領域内の前記交点ではない位置へのタッチ操作を検出するまでは、前記処理を継続することを特徴とする請求項10から14のいずれか1項に記載の座標入力システム。   The coordinate input according to any one of claims 10 to 14, wherein the request unit continues the processing until a touch operation to a position that is not the intersection point in the overlapping region is detected. system. 前記タッチ操作の位置が前記重複領域にない場合に、前記タッチ操作の位置を前記重複領域に誘導する処理を行う誘導手段をさらに有することを特徴とする請求項10から14のいずれか1項に記載の座標入力システム。   15. The apparatus according to claim 10, further comprising a guiding unit that performs a process of guiding the position of the touch operation to the overlapping area when the position of the touch operation is not in the overlapping area. Coordinate input system described. 入射光を再帰反射する再帰反射手段に向けて投光する投光手段と、前記投光手段から投光されて前記再帰反射手段で再帰反射した反射光を受光する受光手段と、を有する少なくとも4基のセンサユニットと、
を有する座標入力システムの制御方法であって、
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出ステップと、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求ステップと、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出ステップと、
を有することを特徴とする座標入力システムの制御方法。
At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
A control method of a coordinate input system having
A touch position calculating step of calculating a position of a touch operation to the rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. A request step for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating step for calculating a relative position;
A control method for a coordinate input system, comprising:
JP2014186564A 2014-09-12 2014-09-12 Coordinate input device, control method thereof, program, coordinate input system, and control method thereof Pending JP2016058046A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014186564A JP2016058046A (en) 2014-09-12 2014-09-12 Coordinate input device, control method thereof, program, coordinate input system, and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014186564A JP2016058046A (en) 2014-09-12 2014-09-12 Coordinate input device, control method thereof, program, coordinate input system, and control method thereof

Publications (1)

Publication Number Publication Date
JP2016058046A true JP2016058046A (en) 2016-04-21

Family

ID=55758514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014186564A Pending JP2016058046A (en) 2014-09-12 2014-09-12 Coordinate input device, control method thereof, program, coordinate input system, and control method thereof

Country Status (1)

Country Link
JP (1) JP2016058046A (en)

Similar Documents

Publication Publication Date Title
JP4405766B2 (en) Coordinate input device, coordinate input method
US9335865B2 (en) Coordinate input apparatus, control method therefor, and computer-readable medium
US8982102B2 (en) Coordinate input apparatus
WO2010137277A1 (en) Optical position detection apparatus
US8941622B2 (en) Coordinate input apparatus
JP5591069B2 (en) Coordinate input device, control method therefor, and program
JP6031293B2 (en) Coordinate input device, control method therefor, and program
KR20130110309A (en) System for recognizing touch-point using mirror
JP6218590B2 (en) Coordinate input device and control method thereof
JP2016058046A (en) Coordinate input device, control method thereof, program, coordinate input system, and control method thereof
JP6334980B2 (en) Coordinate input device, control method therefor, and program
JP2006350908A (en) Optical information input device
JP2015225466A (en) Coordinate input device, control method for the same, and program
JP5950767B2 (en) Coordinate input device, control method therefor, and program
JP2005128693A (en) Coordinate input device, its control method, and program
JP2005173684A (en) Optical coordinate input device
JP5969794B2 (en) Coordinate input device
JP2006059153A (en) Optical coordinate input device
JP2006260474A (en) Light shielding type coordinate input device
JP2015156115A (en) coordinate input device
JP2015230562A (en) Coordinate input device, control method of the same, and program
JP2007072589A (en) Coordinate-input device
JP2016018282A (en) Coordinate input device, control method thereof, and program
JP2017045336A (en) Input device and detection method
JP2006065654A (en) Coordinate input apparatus, method for controlling the same, control program, and storage medium