JP2014048957A - Coordinate input device, method for controlling the same and program - Google Patents

Coordinate input device, method for controlling the same and program Download PDF

Info

Publication number
JP2014048957A
JP2014048957A JP2012192295A JP2012192295A JP2014048957A JP 2014048957 A JP2014048957 A JP 2014048957A JP 2012192295 A JP2012192295 A JP 2012192295A JP 2012192295 A JP2012192295 A JP 2012192295A JP 2014048957 A JP2014048957 A JP 2014048957A
Authority
JP
Japan
Prior art keywords
light
unit
coordinate input
housing
light projecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012192295A
Other languages
Japanese (ja)
Other versions
JP5950767B2 (en
JP2014048957A5 (en
Inventor
Yuichiro Yoshimura
雄一郎 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012192295A priority Critical patent/JP5950767B2/en
Publication of JP2014048957A publication Critical patent/JP2014048957A/en
Publication of JP2014048957A5 publication Critical patent/JP2014048957A5/ja
Application granted granted Critical
Publication of JP5950767B2 publication Critical patent/JP5950767B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a coordinate input device capable of controlling a display screen with a touch to a projection surface that is an existing whiteboard or wall surface of a meeting room or the like.SOLUTION: Each of a first casing and a second casing has at least two sensor units built therein and each including: at least two light projection parts, a first light projection part and a second light projection part, having mutually different distances from an input surface; and a light reception part for receiving light. Each of the first casing and the second casing has a retroreflection part mounted on a longitudinal side surface different from a mounting surface, with the casing mounted thereon, of a coordinate input effective area, the retroreflection part retro-reflecting incident light. An indicated position in the coordinate input effective area is calculated on the basis of variation in light quantity distribution obtained from the light reception part of each of the first casing and the second casing with the first casing and the second casing mounted in the vicinity of two facing sides of the coordinate input effective area.

Description

本発明は、情報の入力や選択をするために指等の指示具によって座標入力面に入力された座標位置を光学的に検出する座標入力装置に関するものである。特に、着脱可能で、可搬性を有する座標入力装置に関するものである。   The present invention relates to a coordinate input device that optically detects a coordinate position input to a coordinate input surface by an indicator such as a finger in order to input or select information. In particular, the present invention relates to a coordinate input device that is detachable and has portability.

従来、この種の座標入力装置として、各種方式の座標入力装置(タッチパネルやデジタイザ)が提案、または製品化されている。例えば、特殊な器具等を用いずに、指で画面上をタッチすることで、PC(パーソナルコンピュータ)等の端末の操作を簡単に行うことがきるタッチパネル等が広く用いられている。   Conventionally, various types of coordinate input devices (touch panels and digitizers) have been proposed or commercialized as this type of coordinate input device. For example, a touch panel that can easily operate a terminal such as a PC (personal computer) by touching the screen with a finger without using a special instrument is widely used.

座標入力方式としては、抵抗膜を用いたもの、または、超音波を用いたもの等、種々のものがある。光を用いたものとして、座標入力面外側に再帰性反射材を設け、投光部からの光を再帰反射材で反射し、その光量分布を受光部により検出する方式(光学遮光方式)が知られている(例えば、特許文献1、2参照)。この方式は、座標入力領域内の指等で遮光された遮光部分(領域)の方向を検出し、遮光位置、つまり、座標入力位置の座標を決定する。   As a coordinate input method, there are various methods such as a method using a resistance film or a method using ultrasonic waves. As a method using light, a retroreflective material is provided outside the coordinate input surface, the light from the light projecting part is reflected by the retroreflective material, and the light quantity distribution is detected by the light receiving part (optical shading method). (For example, see Patent Documents 1 and 2). In this method, the direction of a light-shielding portion (area) shielded by a finger or the like in the coordinate input area is detected, and the light-shielding position, that is, the coordinates of the coordinate input position are determined.

特許文献1の構成を一般化した例として、図20の構成を示す。図20は、座標入力面の両端に配置されたセンサユニット2L及び2Rと、座標を入力する際に使用する座標入力面である所の座標入力有効領域5が示される。そして、座標入力有効領域5の周囲3辺には、進入してきた光を進入してきた方向に再帰的に反射する再帰反射部4が設けられている。   As an example in which the configuration of Patent Document 1 is generalized, the configuration of FIG. 20 is shown. FIG. 20 shows the sensor units 2L and 2R arranged at both ends of the coordinate input surface and the coordinate input effective area 5 which is a coordinate input surface used when inputting coordinates. Then, on the three sides around the coordinate input effective area 5, there are provided retroreflecting portions 4 that recursively reflect the incoming light in the incoming direction.

センサユニット2L及び2Rは、投光部及び受光部(不図示)を有している。投光部は、座標入力有効領域5の入力面にほぼ平行に扇形に広がる光を投光し、受光部は、その光が再帰反射部4で再帰反射され、戻ってきた光を受光する。座標入力装置は、2つのセンサユニット2L及び2Rでそれぞれ検知された光の遮光方向(遮光角度θL及びθR)と当該センサユニット間の距離に基づいて、座標入力有効領域5に入力されたタッチ位置Pを算出することができる。   The sensor units 2L and 2R have a light projecting unit and a light receiving unit (not shown). The light projecting unit projects light that spreads in a fan shape substantially parallel to the input surface of the coordinate input effective area 5, and the light receiving unit receives the light that is retroreflected by the retroreflecting unit 4 and returned. The coordinate input device is a touch position input to the coordinate input effective area 5 based on the light shielding direction (light shielding angles θL and θR) detected by the two sensor units 2L and 2R and the distance between the sensor units. P can be calculated.

図中、センサユニット2L及び2Rの光軸方向を対称線として、センサユニット2L及び2Rの視野範囲が図示のように対称に設定される。レンズ光学系を使用する、この種の座標入力装置にあっては、光軸との成す角が増大すると、収差の影響により光学性能が劣化するのが常であり、軸対称な光学系を採用することでより高性能な装置を実現できる。   In the drawing, the visual field ranges of the sensor units 2L and 2R are set symmetrically as shown, with the optical axis direction of the sensor units 2L and 2R as the symmetry line. In this type of coordinate input device using a lens optical system, when the angle with the optical axis increases, the optical performance usually deteriorates due to the influence of aberration, and an axially symmetric optical system is adopted. By doing so, a higher performance device can be realized.

尚、図中3はセンサユニット2L及び2Rを制御し、また、取得したセンサユニット2L及び2Rの出力信号を処理、あるいはその処理結果を外部装置に出力する演算制御回路である。   In the figure, reference numeral 3 denotes an arithmetic control circuit that controls the sensor units 2L and 2R, processes the acquired output signals of the sensor units 2L and 2R, or outputs the processing results to an external device.

特許文献2には、特許文献1で示される光学遮光方式の座標入力装置におけるセンサユニットの投光部及び受光部の具体的な構成の一例が示されている。   Patent Document 2 shows an example of a specific configuration of a light projecting unit and a light receiving unit of a sensor unit in the optical light-shielding coordinate input device disclosed in Patent Document 1.

さらには、特許文献3には、各々のセンサユニットにおける投光部の点灯を制御する構成が開示されている。具体的には、特許文献3では、一方のセンサユニットの投光部から出射された光が他方のセンサユニットの受光部で外乱光として受光されることを防止するために、センサユニットの各投稿部からの光の出射が交互に行われるように制御する。   Furthermore, Patent Document 3 discloses a configuration for controlling lighting of a light projecting unit in each sensor unit. Specifically, in Patent Document 3, in order to prevent the light emitted from the light projecting unit of one sensor unit from being received as disturbance light by the light receiving unit of the other sensor unit, each posting of the sensor unit is performed. Control is performed so that light is emitted from the unit alternately.

さらには、特許文献4には、座標入力有効領域の対向する2辺に複数のセンサユニットを配置され、当該センサユニットが、再帰反射部材と座標入力面との隙間に設ける構成が開示されている。   Furthermore, Patent Document 4 discloses a configuration in which a plurality of sensor units are arranged on two opposite sides of the coordinate input effective area, and the sensor units are provided in a gap between the retroreflective member and the coordinate input surface. .

この種の座標入力装置を表示装置と一体にすることによって、表示装置の表示画面をタッチすることで、表示状態を制御したり、あたかも紙と鉛筆の様な関係で、タッチ位置の軌跡を筆跡として表示したりすることが可能となる。表示装置としては、液晶表示装置等の各種方式のフラットパネルディスプレイやフロントプロジェクターが知られている。フラットパネルディスプレイの場合には、座標入力装置を重ねて配置すれば、このような操作環境を実現でき、スマートフォン等の携帯機器はその代表例と言える。フラットパネルディスプレイの大型化に伴い、大型のタッチパネルと組み合わせて、例えば、デジタルサイネージと言った分野でもその導入が進んでいる。   By integrating this type of coordinate input device with the display device, the display state can be controlled by touching the display screen of the display device, and the locus of the touch position can be traced as if it were a pencil and paper. Can be displayed. As display devices, flat panel displays and front projectors of various types such as liquid crystal display devices are known. In the case of a flat panel display, such an operation environment can be realized by arranging coordinate input devices in a stacked manner, and a portable device such as a smartphone can be said to be a representative example. With the increase in size of flat panel displays, in combination with large touch panels, for example, digital signage has been introduced.

大型の表示を可能とするフロントプロジェクターの場合には、その投影面であるスクリーンボード等に位置検出部を組み込み、そのスクリーンボードに画像を投影することになる。従って、座標入力装置の大きさは、タッチ操作面となるスクリーンボードの大きさに依存することになり、比較的大きな装置となる。そのため、スクリーンボードを移動するためのスタンドがスクリーンボードに装着される、あるいは、スクリーンボードを壁に固定的に据え付けて使用すると言うのが通例である。また、大きくなると共に販売価格が指数関数的に上昇し、大型の座標入力装置、あるいはそれを使ったアプリケーションの普及に、大きな妨げになっている。   In the case of a front projector that can display a large image, a position detection unit is incorporated in a screen board or the like that is the projection surface, and an image is projected onto the screen board. Therefore, the size of the coordinate input device depends on the size of the screen board serving as the touch operation surface, and is a relatively large device. For this reason, a stand for moving the screen board is usually mounted on the screen board, or the screen board is fixedly installed on the wall for use. In addition, as the price increases, the selling price increases exponentially, which greatly hinders the spread of large coordinate input devices or applications using the coordinate input devices.

図20に示す光学遮光方式の座標入力装置の場合、センサユニット2、演算制御回路3、及び再帰反射部4が主要部品であり、それらがスクリーンボードに装着される。従って、装置が大型化しても主要部品の構成はそのままであり、大型化によるコストアップ要因はスクリーンボードの材料費が大半を占めることになる。   In the case of the optical shading type coordinate input device shown in FIG. 20, the sensor unit 2, the calculation control circuit 3, and the retroreflective unit 4 are main components, and these are mounted on the screen board. Therefore, even if the apparatus is increased in size, the configuration of the main parts remains the same, and the cost increase due to the increase in size is due to the material cost of the screen board occupying the majority.

特許文献5及び特許文献6には、座標入力面に対し、垂直方向に複数の投光部を配置した構成が開示されている。これらは、垂直方向の投光部の発光形態が常に変化することなく一定な構成である。   Patent Documents 5 and 6 disclose a configuration in which a plurality of light projecting units are arranged in the vertical direction with respect to the coordinate input surface. These have a constant configuration without always changing the light emission form of the light projecting unit in the vertical direction.

米国特許第4507557号明細書U.S. Pat. No. 4,507,557 特開2004−272353号公報JP 2004-272353 A 特開2001−43021号公報JP 2001-43021 A 特許登録第4118664号公報Patent Registration No. 4118664 特許登録第3830121号公報Patent Registration No. 3830121 特開2012−03434号公報JP 2012-03434 A

表示装置の表示画面をタッチすることで操作するユーザインタフェースは、直観的であり誰でもが使えると言うことで、今や携帯機器では一般化している。当然のことながら、より大きな表示画面を有する装置であっても、そのような操作ができることが望まれている。   The user interface operated by touching the display screen of the display device is intuitive and can be used by anyone, and is now common in portable devices. As a matter of course, it is desired that such an operation can be performed even for a device having a larger display screen.

大画面を使った具体的用途は、会議用途でのプレゼンテーションやホワイトボード機能として、教育現場におけるICT化教育、デジタルサイネージと言った市場からの要望が大きい。それに応えるためには、その操作環境を実現するための導入コストを大幅に低下させる必要が有る。   Specific applications using a large screen are highly demanded by the market for ICT education and digital signage in educational settings as presentation and whiteboard functions for conference applications. In order to respond to this, it is necessary to significantly reduce the introduction cost for realizing the operating environment.

現状の会議室や教育現場には、備品としてホワイトボードやフロントプロジェクターが既に導入されていること例が多い。本願発明は、ユーザが既に購入しているこれらの装置を有効に活用して、大画面でも低価格でタッチ操作可能な操作環境を提供できるようにすることを目的としている。   There are many cases where whiteboards and front projectors are already installed as equipment in current conference rooms and educational sites. An object of the present invention is to provide an operation environment that allows a user to perform a touch operation at a low price even on a large screen by effectively utilizing these devices already purchased by a user.

先にも述べた通り、光学遮光方式の座標入力装置の主要構成部品は、タッチ操作により光路が遮られた方向を検出する少なくとも2つのセンサユニット2、演算制御回路3、及び再帰反射部4である。これらの主要構成部品を所定の位置寸法関係で、例えば、ホワイトボードに装着できれば、ホワイトボードのタッチ位置を検知することが可能となる。スクリーンボードとして既存のホワイトボードを流用すれば、コストの大半を占めるスクリーンボード自体が必須構成要素から無くなる。従って、製品価格を大幅に抑えることができ、大型であっても安価にタッチ操作環境を提供することができる。   As described above, the main components of the coordinate input device of the optical shading method are at least two sensor units 2, an arithmetic control circuit 3, and a retroreflecting unit 4 that detect the direction in which the optical path is blocked by the touch operation. is there. If these main components can be mounted on a whiteboard, for example, in a predetermined positional dimension relationship, the touch position of the whiteboard can be detected. If an existing whiteboard is used as the screen board, the screen board, which accounts for the majority of the cost, is eliminated from the essential components. Therefore, the price of the product can be greatly reduced, and a touch operation environment can be provided at a low cost even if it is large.

この光学遮光方式の座標入力装置の位置検出原理は、少なくとも2つのセンサユニットが出力するタッチ位置の遮光方向(=角度)とそのセンサユニット間の距離情報に基づき幾何学的にタッチ位置を算出する。従って、高精度でタッチ位置を検出するためには、高精度でセンサユニットを位置決めして取り付けなければならない。更に望ましくは、その取り付けをユーザが簡単にできることが好ましい。   The principle of position detection of this optical light shielding type coordinate input device is to calculate the touch position geometrically based on the light shielding direction (= angle) of the touch position output by at least two sensor units and the distance information between the sensor units. . Therefore, in order to detect the touch position with high accuracy, the sensor unit must be positioned and attached with high accuracy. More preferably, it is preferable that the user can easily perform the installation.

一方で、ユーザによるセンサユニットのラフな位置決めでの装着でも、高精度なタッチ位置検出が可能であれば、次のような使い勝手を実現することが可能となる。光学遮光方式の座標入力装置の主要構成部品のみを持ち運び、例えば、会議が行われる会議室に設置されているホワイトボードに簡単に短時間で装着して使用する。そして、会議終了と共に主要構成部品を取り外し持ち帰る、あるいは別の会議室に持って行ってそこで使用する。要は、着脱、可搬できることにより、『誰でも』が『何時でも』、『何処でも』、『簡単に』操作できるようになる。また、それらを実現するための製品そのものの構成部品点数も、より少ないのが好ましい。さらには、可搬を想定して小型、軽量であることが望まれる。   On the other hand, even if the sensor unit is mounted with rough positioning by the user, the following ease of use can be realized if the touch position can be detected with high accuracy. Carry only the main components of the optical shading type coordinate input device, for example, easily mounted in a short time in a whiteboard installed in a conference room where the conference is held. At the end of the conference, the main components are removed and taken home, or taken to another conference room and used there. In short, by being detachable and portable, “anyone” can operate “anytime”, “anywhere”, and “easy”. Moreover, it is preferable that the number of components of the product itself for realizing them is also smaller. Furthermore, it is desired to be small and lightweight assuming portability.

この主要構成部品を装着、取り外し可能な構成とするために、例えば、マグネットを用いることで、例えば、既に購入されているホワイトボードに装着可能となる。そして、ホワイトボードを投影面とすることで、入出力一体型のタッチ操作環境が提供される。一般にホワイトボードは種々のサイズのものが市販されており、当然のことながらより大きなホワイトボードを使用すれば、より大きな表示画面に投影することができる。従って、会議室に設置されている大小様々なホワイトボードの大きさに応じて、この主要構成部品の設置が可能であり、かつ高精度にタッチ位置を検出できることが好ましい。   For example, a magnet can be used to mount and remove the main components so that the main components can be mounted on, for example, an already purchased whiteboard. By using the whiteboard as a projection surface, an input / output integrated touch operation environment is provided. In general, white boards of various sizes are commercially available, and of course, if a larger white board is used, it can be projected onto a larger display screen. Therefore, it is preferable that the main components can be installed according to the size of various whiteboards installed in the conference room and that the touch position can be detected with high accuracy.

しかしながら、市販されているホワイトボードを使用する場合や壁等を投射面として使用する場合、ホワイトボードの壁に平面性が確保されているという保証はない。図21は、光学遮光方式の座標入力装置をホワイトボードあるいは壁に装着した状態の側面方向からの断面図である。図21(A)の状態が、ホワイトボード及び壁の平面性が確保されている場合である。しかしながら、市販されているホワイトボードや壁等は図21(B)の状態のように、入力側が凸の湾曲している場合が起こりえる。従って、平面性が保たれない市販されたホワイトボードに光学遮光方式の座標入力装置を設置した場合、不具合を生じる。図21(B)はこの不具合を説明した図であり、図21(B)に示すように、座標入力装置のセンサバー1Lの投光部30から発せられた矢印で示す光は、ホワイトボード等の入力面6の凸部114によって遮られる。この現象のため、光学遮光方式の座標入力装置の性能を阻害する結果となる。   However, when a commercially available whiteboard is used or when a wall or the like is used as the projection surface, there is no guarantee that the flatness of the whiteboard wall is ensured. FIG. 21 is a cross-sectional view from the side of the optical shading type coordinate input device mounted on a whiteboard or wall. The state of FIG. 21A is a case where the flatness of the whiteboard and the wall is ensured. However, a commercially available whiteboard, wall, or the like may be convexly curved on the input side as shown in FIG. Therefore, when the optical shading type coordinate input device is installed on a commercially available whiteboard whose flatness cannot be maintained, a problem occurs. FIG. 21 (B) is a diagram illustrating this problem. As shown in FIG. 21 (B), the light indicated by the arrow emitted from the light projecting unit 30 of the sensor bar 1L of the coordinate input device is a whiteboard or the like. It is blocked by the convex portion 114 of the input surface 6. Because of this phenomenon, it results in hindering the performance of the optical shading type coordinate input device.

本発明は上記の課題を解決するためになされたものであり、投影面とする既存のホワイトボードや会議室等の壁面の平面性の程度に影響を受けることなく、その投影面を利用した座標入力を行うことができる座標入力装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and coordinates using the projection plane are not affected by the degree of flatness of the wall surface of an existing whiteboard or conference room as the projection plane. An object of the present invention is to provide a coordinate input device capable of performing input.

上記の目的を達成するための本発明による座標入力装置は以下の構成を備える。即ち、
入力面を指示することにより座標を入力する座標入力有効領域に対する指示位置を検出する座標入力装置であって、
第1の筺体と第2の筺体であって、それぞれの筺体が、
前記座標入力有効領域に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部の少なくとも2つの投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記筺体が装着される前記座標入力有効領域の装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筺体と第2の筺体と、
前記第1の筺体と前記第2の筺体が前記座標入力有効領域の対向する2辺近傍に装着された状態で、前記第1の筺体と前記第2の筺体それぞれの前記受光部から得られる光量分布の変動に基づいて前記座標入力有効領域の前記指示位置を計算する計算手段と、
前記第1の筺体と前記第2の筺体それぞれについての前記受光部の受光状態を判定する判定手段と、
前記判定手段の判定結果に基づいて、前記第1の筺体と前記第2の筺体それぞれについての前記第1の投光部と前記第2の投光部を少なくとも一方を使用して投光を行うように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御手段と
を有する。
In order to achieve the above object, a coordinate input device according to the present invention comprises the following arrangement. That is,
A coordinate input device that detects an indicated position with respect to a coordinate input effective area for inputting coordinates by indicating an input surface,
A first housing and a second housing, each housing being
As a light projecting unit that projects light parallel to the coordinate input effective area, at least two light projecting units of a first light projecting unit and a second light projecting unit having different distances from the input surface, Including at least two sensor units each including a light receiving unit that receives light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface of the coordinate input effective region on which the housing is mounted.
A first housing and a second housing;
The amount of light obtained from the light receiving portions of the first and second casings in a state where the first casing and the second casing are mounted in the vicinity of two opposing sides of the coordinate input effective area. Calculation means for calculating the indicated position of the coordinate input effective area based on a variation in distribution;
Determining means for determining a light receiving state of the light receiving unit for each of the first housing and the second housing;
Based on the determination result of the determination means, light is emitted using at least one of the first light projecting unit and the second light projecting unit for each of the first housing and the second housing. Thus, it has a control means which controls the light projection form by the 1st light projection part and the 2nd light projection part.

以上のように、本発明によれば、投影面とする既存のホワイトボードや会議室等の壁面の平面性の程度に影響を受けることなく、その投影面を利用した座標入力を行うことができる座標入力装置を提供できる。   As described above, according to the present invention, it is possible to input coordinates using the projection plane without being affected by the degree of flatness of the wall surface of an existing whiteboard or conference room as the projection plane. A coordinate input device can be provided.

実施形態1の座標入力装置の概略構成図である。It is a schematic block diagram of the coordinate input device of Embodiment 1. 実施形態1のセンサユニットの詳細構成を示す図である。It is a figure which shows the detailed structure of the sensor unit of Embodiment 1. FIG. 実施形態1の投光部と受光部の視野範囲を説明するための図である。FIG. 5 is a diagram for explaining a visual field range of a light projecting unit and a light receiving unit according to the first embodiment. 実施形態1のセンサバーの概略構成を示す図である。It is a figure which shows schematic structure of the sensor bar of Embodiment 1. FIG. 実施形態1の演算制御回路の第1の検出モードの動作を説明するための図である。FIG. 5 is a diagram for explaining an operation in a first detection mode of the arithmetic control circuit according to the first embodiment. 実施形態1の検出信号波形の処理を説明する図である。It is a figure explaining the process of the detection signal waveform of Embodiment 1. FIG. 実施形態1の座標算出を説明する図である。It is a figure explaining the coordinate calculation of Embodiment 1. FIG. 実施形態1のデジタイザ座標系とスクリーン座標系を説明するための図である。FIG. 3 is a diagram for explaining a digitizer coordinate system and a screen coordinate system according to the first embodiment. 実施形態1の演算制御回路の第2の検出モードの動作を説明するための図である。FIG. 6 is a diagram for explaining an operation in a second detection mode of the arithmetic control circuit according to the first embodiment. 実施形態1のセンサユニットの相対的な位置関係の算出を説明するための図である。It is a figure for demonstrating calculation of the relative positional relationship of the sensor unit of Embodiment 1. FIG. 実施形態1の初期設定処理を示すフローチャートである。3 is a flowchart illustrating an initial setting process according to the first embodiment. 実施形態1の座標入力装置の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the coordinate input device of Embodiment 1. FIG. 実施形態1の通常動作及びキャリブレーションの処理を示すフローチャートである。4 is a flowchart illustrating normal operation and calibration processing according to the first exemplary embodiment. 実施形態2の座標入力装置の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the coordinate input device of Embodiment 2. FIG. 実施形態2の受光強度を説明するための図である。It is a figure for demonstrating the light reception intensity | strength of Embodiment 2. FIG. 実施形態2の初期設定処理を示すフローチャートである。10 is a flowchart illustrating an initial setting process according to the second embodiment. 実施形態3の座標入力装置の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the coordinate input device of Embodiment 3. FIG. 実施形態3の座標入力装置の平面構成図である。It is a plane block diagram of the coordinate input device of Embodiment 3. 実施形態4の座標入力装置の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the coordinate input device of Embodiment 4. 従来の光学式座標入力装置の基本構成を説明するための図である。It is a figure for demonstrating the basic composition of the conventional optical coordinate input device. 従来の光学式座標入力装置を説明するための図である。It is a figure for demonstrating the conventional optical coordinate input device.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。尚、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<実施形態1>
本願発明の座標入力装置の概略構成を、図1を用いて説明する。
<Embodiment 1>
A schematic configuration of the coordinate input device of the present invention will be described with reference to FIG.

図中、1L及び1Rはそれぞれ、少なくとも2個のセンサユニット2−L1及び2−L2、及び2−R1及び2−R2(総称する場合は、センサユニット2と表記)を装備する筺体であるところのセンサバーである。   In the figure, 1L and 1R are housings equipped with at least two sensor units 2-L1 and 2-L2, and 2-R1 and 2-R2 (collectively referred to as sensor unit 2). This is a sensor bar.

各々のセンサバー1L及び1R(総称する場合は、センサバー1と表記)は、図示のように矩形状の座標入力有効領域5の対向する2辺に設けられる。表示装置が仮にフロントプロジェクターとすれば、表示領域は座標入力有効領域5の範囲内であってかつ同一平面上に設定され、例えば、平面状のホワイトボード等の入力面6に投影される。無論、入力面6に限定されるものではなく、壁面等であっても良い。   Each sensor bar 1L and 1R (generally referred to as sensor bar 1) is provided on two opposing sides of the rectangular coordinate input effective area 5 as shown in the figure. If the display device is a front projector, the display area is set within the coordinate input effective area 5 and on the same plane, and is projected onto the input surface 6 such as a flat whiteboard. Of course, it is not limited to the input surface 6 and may be a wall surface or the like.

センサバー1L及び1Rの側面にはそれぞれ、図示のように再帰反射部4L及び4R(総称する場合は、再帰反射部4と表記)が装着されている。そして、再帰反射部4L及び4Rはそれぞれ、対向する辺に設けられたセンサバー1Lあるいは1Rのセンサユニット2が投光した赤外光を再帰的に反射できるように構成してある。換言すれば、センサバー1L及び1Rの座標入力有効領域5への装着面とは異なる長手方向の側面に、再帰反射部4が装着されている。尚、再帰反射部4は、入力面6が凸状に湾曲している場合にも、投光制御後のセンサユニット2からの投光が十分に再帰反射する様な位置に装着される。これの詳細については後述する。   Retroreflective portions 4L and 4R (collectively referred to as retroreflecting portions 4 when collectively referred to) are attached to the side surfaces of the sensor bars 1L and 1R, respectively, as shown in the figure. Each of the retroreflective portions 4L and 4R is configured to recursively reflect the infrared light projected by the sensor unit 1L or the sensor unit 2 of the 1R provided on the opposite side. In other words, the retroreflective portion 4 is mounted on the side surface in the longitudinal direction different from the mounting surface of the sensor bars 1L and 1R to the coordinate input effective area 5. The retroreflecting unit 4 is mounted at a position where the light projection from the sensor unit 2 after the light projection control is sufficiently retroreflected even when the input surface 6 is curved in a convex shape. Details of this will be described later.

センサバー1Lにはセンサユニット2−L1及び2−L2が内蔵され、センサバー1Rにはセンサユニット2−R1及び2−R2が内蔵されている。センサバー1Lに内蔵される演算制御回路3Lはセンサユニット2−L1及び2−L2を制御して、その出力結果を演算処理すると共に、センサバー1Rの演算制御回路3Rを制御する。センサバー1Rの演算制御回路3Rは、センサユニット2−R1及び2−R2を制御して、その出力結果を演算処理して、センサバー1Lの演算制御回路3Lにその結果を送信する。そして、センサバー1Lの演算制御回路3Lは、4つのセンサユニット2−L1、2−L2、2−R1及び2−R2からの出力結果を処理して、タッチ位置を算出し、パーソナルコンピュータ等の外部機器へ結果を出力する。   The sensor bar 1L includes sensor units 2-L1 and 2-L2, and the sensor bar 1R includes sensor units 2-R1 and 2-R2. The arithmetic control circuit 3L built in the sensor bar 1L controls the sensor units 2-L1 and 2-L2, performs arithmetic processing on the output results, and controls the arithmetic control circuit 3R of the sensor bar 1R. The arithmetic control circuit 3R of the sensor bar 1R controls the sensor units 2-R1 and 2-R2, performs arithmetic processing on the output result, and transmits the result to the arithmetic control circuit 3L of the sensor bar 1L. Then, the arithmetic control circuit 3L of the sensor bar 1L processes the output results from the four sensor units 2-L1, 2-L2, 2-R1 and 2-R2, calculates the touch position, and externally outputs the personal computer or the like. Output the result to the device.

図1では、センサバー1Lの演算制御回路3Lとセンサバー1Rの演算制御回路3Rとはコードで接続される構成(つまり、有線接続)となっているが、これに限定されない。例えば、無線等の通信機能を互いに搭載して、それらの通信機能を使用してデータの送受信(無線接続)を行っても良い。   In FIG. 1, the calculation control circuit 3L of the sensor bar 1L and the calculation control circuit 3R of the sensor bar 1R are connected by a cord (that is, wired connection), but the present invention is not limited to this. For example, wireless communication functions may be mounted on each other, and data transmission / reception (wireless connection) may be performed using these communication functions.

尚、以後の説明にあっては、水平方向をX軸(図面右側が+)、天地方向をY軸(下側が+)として説明する。   In the following description, the horizontal direction will be described as the X axis (+ on the right side of the drawing), and the vertical direction will be described as the Y axis (lower side is +).

図2はセンサユニット2−L1、2−L2、2−R1及び2−R2の詳細構成を示す図である。図2(A)は図1における断面A−Aであり、図2(B)及び(C)は図中の矢印方向から見た正面図である。   FIG. 2 is a diagram showing a detailed configuration of the sensor units 2-L1, 2-L2, 2-R1, and 2-R2. 2A is a cross section AA in FIG. 1, and FIGS. 2B and 2C are front views as seen from the direction of the arrows in the figure.

図2(A)において、センサユニット2は、センサバー1に収納されており、2つの投光部301及び302、及び受光部40で構成される。投光部301及び302と、受光部40の距離はそれぞれL_pdであり、その間及び近傍に再帰反射部4−1〜4−3(総称する場合は、再帰反射部4と表記)が図示のように設けられている。投光部301は入力面6に近い側に配置され、投光部302は入力面6に遠い側に配置される。つまり、投光部302は、投光部301と比べて、距離L_pd×2だけ、入力面6から離れた位置に配置されることになる。換言すれば、入力面6を基準とすると、投光部301は下段投光部(第1の投光部)、投光部302は上段投光部(第2の投光部)とも言える。投光部301と投光部302の投光形態は、演算制御回路3内の投光形態制御部61bにより変更される。この投光形態制御に関しては、後述する。   2A, the sensor unit 2 is housed in the sensor bar 1 and includes two light projecting units 301 and 302 and a light receiving unit 40. The distances between the light projecting units 301 and 302 and the light receiving unit 40 are L_pd, respectively, and the retroreflective units 4-1 to 4-3 (represented as the retroreflecting unit 4 when collectively referred to) in the vicinity and in the vicinity thereof are illustrated. Is provided. The light projecting unit 301 is disposed on the side closer to the input surface 6, and the light projecting unit 302 is disposed on the side farther from the input surface 6. That is, the light projecting unit 302 is disposed at a position away from the input surface 6 by a distance L_pd × 2 as compared with the light projecting unit 301. In other words, when the input surface 6 is used as a reference, it can be said that the light projecting unit 301 is a lower light projecting unit (first light projecting unit) and the light projecting unit 302 is an upper light projecting unit (second light projecting unit). The light projecting forms of the light projecting section 301 and the light projecting section 302 are changed by the light projecting form control section 61 b in the arithmetic control circuit 3. This light projecting form control will be described later.

尚、図2の再帰反射部4を複数に分割して離間させた装着位置は、少なくとも、センサユニット2の投受光窓近傍のみの装着形態である。従って、センサユニット2以外の装着位置に関しては、入力面6から所定距離の範囲内に連続的に装着しても良い。   The mounting position where the retroreflective portion 4 of FIG. 2 is divided into a plurality of parts and separated is at least a mounting form only in the vicinity of the light projecting / receiving window of the sensor unit 2. Therefore, the mounting positions other than the sensor unit 2 may be continuously mounted within a predetermined distance from the input surface 6.

45は光透過性の部材であって、センサバー1内へのゴミ等の異物の侵入を防止するための保護部材である。   Reference numeral 45 denotes a light transmissive member, which is a protective member for preventing foreign matter such as dust from entering the sensor bar 1.

図2(B)において、投光部301は、発光部である赤外LED311、投光レンズ321、両者を固定するための接着層331で構成される。同様に、投光部302も、赤外LED312(図2(A))、投光レンズ322(図2(A))、及び接着層(不図示)で構成され、それらの機能については、投光部301と同一であるため、ここでは、投光部301に着目して説明する。   2B, the light projecting unit 301 includes an infrared LED 311 which is a light emitting unit, a light projecting lens 321, and an adhesive layer 331 for fixing both. Similarly, the light projecting unit 302 includes an infrared LED 312 (FIG. 2A), a light projecting lens 322 (FIG. 2A), and an adhesive layer (not shown). Since it is the same as the light part 301, it demonstrates here paying attention to the light projection part 301. FIG.

投光レンズ321は、赤外LED311の光を、座標入力面となる入力面6と略平行な光束となるように構成する。そして、対向する辺に設けられたセンサバー1の再帰反射部4の全領域を照明するように、投光範囲がg〜h範囲であって、頂点が点Oの位置(センサユニット2の重心位置)の扇状の光束を出射する。この時、投光部301の光軸はf方向に設定されることになるが、その理由は後述する。   The light projecting lens 321 is configured so that the light from the infrared LED 311 becomes a light beam substantially parallel to the input surface 6 serving as a coordinate input surface. The light projection range is a range from g to h and the vertex is the position of the point O (the position of the center of gravity of the sensor unit 2) so as to illuminate the entire region of the retroreflective portion 4 of the sensor bar 1 provided on the opposite side. ) Is emitted. At this time, the optical axis of the light projecting unit 301 is set in the f direction, and the reason will be described later.

図2(C)において、受光部40は、投光部301及び302が投光した光が、対向する辺に設けられたセンサバー1に装着されている再帰反射部4によって再帰反射された光を検出する。41は光電変換素子であるところのラインCCD、42は受光レンズ、43は視野絞り、44は赤外線通過フィルターである。また、保護部材45(図2(A))に赤外通過フィルター機能を設けることで、赤外線通過フィルター44を廃止してもかまわない。   In FIG. 2 (C), the light receiving unit 40 receives the light retroreflected by the retroreflecting unit 4 attached to the sensor bar 1 provided on the opposite sides of the light projected by the light projecting units 301 and 302. To detect. 41 is a line CCD which is a photoelectric conversion element, 42 is a light receiving lens, 43 is a field stop, and 44 is an infrared ray passing filter. Further, the infrared pass filter 44 may be eliminated by providing the protective member 45 (FIG. 2A) with an infrared pass filter function.

受光部40の光軸はX軸方向に設定される。視野範囲はg〜h範囲であり、点Oの位置が光学的な中心位置となっている。また、受光部40は、図示のように光軸に対して非対称な光学系となっている。点Oの位置、及び方向g、方向hが略一致するように、投光部30と受光部40は、図2(A)のように重ねて配置される。また、受光部40は、入射する光の方向に応じて、ラインCCD41の画素に集光されるので、ラインCCD41の画素番号は入射する光の角度情報を表す。また、受光部40は、座標入力有効領域5の座標入力面と略平行な視野範囲を有し、その光軸方向は、ラインCCD41の受光面の法線方向と一致するように配置されている。   The optical axis of the light receiving unit 40 is set in the X-axis direction. The visual field range is the g to h range, and the position of the point O is the optical center position. Further, the light receiving section 40 is an optical system that is asymmetric with respect to the optical axis as shown in the figure. The light projecting unit 30 and the light receiving unit 40 are arranged so as to overlap each other so that the position of the point O and the directions g and h substantially coincide with each other, as shown in FIG. Further, since the light receiving unit 40 is focused on the pixels of the line CCD 41 in accordance with the direction of the incident light, the pixel number of the line CCD 41 represents angle information of the incident light. The light receiving unit 40 has a visual field range substantially parallel to the coordinate input surface of the coordinate input effective area 5, and its optical axis direction is arranged to coincide with the normal direction of the light receiving surface of the line CCD 41. .

図3(A)は座標入力装置の概略と投光部301(投光部302でも同様、以下では、投光部301について着目して説明)及び受光部40の光学系の配置を示す図である。センサバー1Lの投光部301より対向する辺に設けられたセンサバー1Rに設けられた再帰反射部4Rに向けて照明される範囲はg〜h範囲である。そして、実際に再帰反射部4Rが装着されている範囲j〜fの方向の光が再帰反射され、受光部40で検出される。   FIG. 3A is a diagram showing an outline of the coordinate input device, a light projecting unit 301 (similar to the light projecting unit 302, and will be described below focusing on the light projecting unit 301), and an arrangement of the optical system of the light receiving unit 40. is there. The range illuminated toward the retroreflective portion 4R provided on the sensor bar 1R provided on the side facing the light projecting portion 301 of the sensor bar 1L is a range from g to h. Then, light in the direction of the range j to f in which the retroreflecting unit 4R is actually mounted is retroreflected and detected by the light receiving unit 40.

図2(A)で模式的に示す投光部301で投光した光の光束は完全には平行とはならず、投光距離が延びるに従って、その光束幅は広くなる。従って、再帰反射部4Rで再帰反射される光の量は、再帰反射部4Rに到達する距離が長くなれば減少する。従って、投光地点Oから再帰反射部4Rまでの距離が近い方向jに比べて距離の遠い方向fは再帰反射効率が悪い。   The luminous flux of the light projected by the light projecting unit 301 schematically shown in FIG. 2A is not completely parallel, and the luminous flux width increases as the projection distance increases. Accordingly, the amount of light retroreflected by the retroreflective portion 4R decreases as the distance to reach the retroreflective portion 4R increases. Therefore, the retroreflective efficiency is poor in the direction f far from the direction j where the distance from the projection point O to the retroreflective portion 4R is short.

更には、再帰反射部4Rは再帰反射面に垂直方向から入射した場合より、その角度が斜めになるに従って、再帰反射効率が低下する。言い換えれば、再帰反射部4Rに入射する光が再帰反射光として再帰反射する割合は、入射角に依存しており、方向fは最もその再帰反射効率が低下する方向と言える。   Furthermore, the retroreflective portion 4R has a lower retroreflective efficiency as the angle becomes oblique than when it enters the retroreflective surface from the vertical direction. In other words, the rate at which the light incident on the retroreflective portion 4R is retroreflected as retroreflected light depends on the incident angle, and the direction f can be said to be the direction in which the retroreflective efficiency decreases most.

更には、受光部40の光軸は方向Xに設定されており、方向fが最も光軸となす角度が大きな方向となっている。一般的な光学レンズのレンズ特性は、光軸となす角度が大きくなるに従って性能が劣化することが知られており、例えば、方向fでの集光効率の低下により、その方向が最も暗くなる方向と言える。   Furthermore, the optical axis of the light receiving unit 40 is set in the direction X, and the direction formed by the direction f and the optical axis is the largest direction. It is known that the lens characteristics of a general optical lens deteriorate in performance as the angle with the optical axis increases. For example, the direction in which the direction becomes the darkest due to a decrease in light collection efficiency in the direction f It can be said.

以上より、仮に投光部301が方向によらず一定の強度で照明することができたとしても、方向jから帰ってくる再帰反射光に比べて、方向jから方向fに向かうに従って、受光部40で検出できる再帰反射光は弱くなる(図3(B)参照)。   As described above, even if the light projecting unit 301 can illuminate with a constant intensity regardless of the direction, the light receiving unit moves from the direction j toward the direction f as compared with the retroreflected light returning from the direction j. The retroreflected light that can be detected at 40 becomes weak (see FIG. 3B).

一方で、赤外LED311は光軸方向に光の放射強度が最大となるように構成されるのが一般的である。そして、光軸からのなす角度が大きくなるに従って放射強度は低下することになるが、その度合いを、光軸方向の照明強度の半分となる角度『半値角』で定義することが通常である(図3(C)参照)。   On the other hand, the infrared LED 311 is generally configured so that the light emission intensity is maximized in the optical axis direction. The radiation intensity decreases as the angle formed from the optical axis increases, but the degree is usually defined by an angle “half-value angle” that is half the illumination intensity in the optical axis direction ( (See FIG. 3C).

そこで、再帰反射光レベルが最も弱い方向fに投光部301の光軸を向けることで、方向fの照明強度を増大させ、相対的に方向fから方向jに向かうに従って、照明強度を低下させている。その結果、方向jから方向fまでの間、検出できる再帰反射光の強度を均一化できるようになる(図3(D)参照)ので、方向によらずより安定した信号が得られるようになる。ここで、実施形態1では、例えば、図3(D)の受光部40での受光強度に対して破線で示すような閾値を設ける。もし、初期設定時において、受光判定部でこの受光強度がこの閾値未満であると判定された場合には、投光形態を変更する。これの詳細については後述する。   Therefore, by directing the optical axis of the light projecting unit 301 in the direction f where the retroreflected light level is the weakest, the illumination intensity in the direction f is increased, and the illumination intensity is relatively lowered from the direction f toward the direction j. ing. As a result, the intensity of the retroreflected light that can be detected can be made uniform from the direction j to the direction f (see FIG. 3D), so that a more stable signal can be obtained regardless of the direction. . Here, in the first embodiment, for example, a threshold value indicated by a broken line is provided for the light reception intensity at the light receiving unit 40 in FIG. If the received light intensity is determined to be less than the threshold value at the time of initial setting, the light projection form is changed. Details of this will be described later.

尚、本実施形態では、赤外LED311の放射強度分布を基に投光部301の光軸を再帰反射光レベルが最も弱い方向fに向ける構成を示しているが、投光部301の受光部40に対する傾斜角はこれに限られるものではない。例えば、投光レンズ321自体の光軸が非対称となる光学系を搭載する場合には、その光量分布も、図3(C)の放射強度分布も非対称性を有する。この場合、その非対称性を有する分布が最大となる方向と方向fとが一致するように、投光部301の受光部40に対する傾斜角を設定しても良い。   In this embodiment, the configuration in which the optical axis of the light projecting unit 301 is directed in the direction f where the retroreflected light level is the weakest based on the radiation intensity distribution of the infrared LED 311 is shown. The inclination angle with respect to 40 is not limited to this. For example, when an optical system in which the optical axis of the light projecting lens 321 itself is asymmetric is mounted, the light amount distribution and the radiation intensity distribution in FIG. In this case, the inclination angle of the light projecting unit 301 with respect to the light receiving unit 40 may be set so that the direction in which the distribution having the asymmetry becomes maximum coincides with the direction f.

図4を用いて、センサバー1Lの構成の詳細を説明する。尚、図4では、センサバー1Lに着目して説明するが、センサバー1Rも同様の構成を有する。   Details of the configuration of the sensor bar 1L will be described with reference to FIG. In FIG. 4, the sensor bar 1L will be described while focusing on the sensor bar 1L. However, the sensor bar 1R has the same configuration.

上述のように、2本のセンサバー1L及び1Rを、例えば、平面状のホワイトボードや壁面に装着し、そのホワイトボードや壁面に投影されている表示画面を直接タッチして操作できるようにすることが本装置の狙いでもある。表示画面の大きさは、ホワイトボードの大きさや壁面の大きさに応じてユーザが適宜設定するものであり、固定値では無い。更には、市販されているホワイトボードには種々のサイズのものが有り、投影画面のスクリーンとして大画面を投影できる標準サイズとしては、縦横寸法900×1200mm、900×1800mm、1200×1800mmがある。   As described above, the two sensor bars 1L and 1R are mounted on, for example, a flat whiteboard or a wall surface, and can be operated by directly touching the display screen projected on the whiteboard or wall surface. Is also the aim of this device. The size of the display screen is appropriately set by the user according to the size of the whiteboard and the size of the wall surface, and is not a fixed value. Furthermore, commercially available whiteboards are available in various sizes, and standard sizes that can project a large screen as the screen of the projection screen include vertical and horizontal dimensions of 900 × 1200 mm, 900 × 1800 mm, and 1200 × 1800 mm.

しかしながら、この寸法はホワイトボードとして有効に使える範囲を定義しているのではなく、入力面6となるホワイトボードの4辺周囲部の筺体枠を含んだ寸法であることが多い。従って、実際に使える平面領域はそれより小さく、その大きさも製造メーカによってまちまちとなっている現状が有る。   However, this dimension does not define a range that can be effectively used as a whiteboard, and is often a dimension including a frame around the four sides of the whiteboard serving as the input surface 6. Therefore, there is a present situation that the plane area that can be actually used is smaller than that, and the size varies depending on the manufacturer.

そこで、本願発明の座標入力装置は、センサバー1に伸縮機構(2つのセンサユニットの重心を結ぶ線分方向に伸縮する伸縮部)を設けている。これにより、センサバー1の長さを、言い換えればセンサバー1に内蔵される2つのセンサユニット2のセンサ間の距離を可変にできるように構成している。実際には、例えば、縦寸法900〜1200mmのホワイトボードの平面部分の大きさ820mmから1200mmに装着できるように、センサバー1の外形長さが820mmから1200mmまで可変できる構成とする。   Therefore, the coordinate input device of the present invention is provided with an expansion / contraction mechanism (expansion / contraction part extending / contracting in the direction of the line segment connecting the centers of gravity of the two sensor units) on the sensor bar 1. Thus, the length of the sensor bar 1, in other words, the distance between the sensors of the two sensor units 2 built in the sensor bar 1 can be made variable. Actually, for example, the external length of the sensor bar 1 can be varied from 820 mm to 1200 mm so that the size of the flat portion of the whiteboard having a vertical dimension of 900 to 1200 mm can be mounted from 820 mm to 1200 mm.

尚、図1では、ホワイトボードの左右2箇所にセンサバーを装着するものとして、ホワイトボードの縦寸法を基準にして伸縮量を設定しているが、これに限定されるものではない。例えば、ホワイトボードの左右でなく、上下2箇所に装着することを想定する場合には、センサバー1を伸ばした時の最大寸法はより長く設定することになる。さらには、壁面等により大きな画面を投影した場合でも使えるようにすることを想定する場合には、想定する最大表示画面の大きさに応じて、センサバーの伸縮量を設定することになる。   In FIG. 1, the sensor bar is mounted at two positions on the left and right sides of the whiteboard, and the amount of expansion / contraction is set based on the vertical dimension of the whiteboard. However, the present invention is not limited to this. For example, in the case where it is assumed that the whiteboard is mounted not on the left and right sides but on the top and bottom, the maximum dimension when the sensor bar 1 is extended is set longer. Furthermore, when it is assumed that the screen can be used even when a large screen is projected on a wall surface or the like, the expansion / contraction amount of the sensor bar is set according to the assumed size of the maximum display screen.

また、ホワイトボードへセンサバーを装着することを前提とすると、センサバーを左右に装着することが、上下に装着することよりもより優位と考えられる。   Also, assuming that the sensor bar is mounted on the whiteboard, mounting the sensor bar on the left and right is considered to be more advantageous than mounting on the top and bottom.

第1の理由は、表示装置のアスペクト比とホワイトボードのアスペクト比を考慮すると、ホワイトボード上に可能な限り表示領域を最大に設定した場合に、ホワイトボードの左右領域に空白部分(表示されない領域)ができる。従って、その空白部分にセンサバー1を設置すれば、そのことによって、表示画像を小さくしなければならないと言った障害が発生することがない。言い換えれば、より大きな画面を使うことができる操作環境を提供することが可能になる。   The first reason is that, considering the aspect ratio of the display device and the aspect ratio of the whiteboard, when the display area is set to the maximum possible on the whiteboard, blank areas (areas that are not displayed) ) Is possible. Therefore, if the sensor bar 1 is installed in the blank portion, the trouble that the display image must be reduced does not occur. In other words, it is possible to provide an operating environment that can use a larger screen.

第2の理由は、表示画面のアスペクト比は、例えば、16:9等の横長であることが通例である。表示画面と等しい領域をタッチ操作可能とするためには、センサユニット2を、表示画面の角部に設ける必要がある。従って、表示画面の左右にセンサバー1を設けることで、上下にセンサバー1を設ける場合より、そのセンサバー1の長さを抑えることが可能となる。   The second reason is that the aspect ratio of the display screen is usually horizontally long, such as 16: 9. In order to be able to perform a touch operation on an area equal to the display screen, the sensor unit 2 needs to be provided at the corner of the display screen. Therefore, by providing the sensor bar 1 on the left and right sides of the display screen, the length of the sensor bar 1 can be reduced as compared with the case where the sensor bar 1 is provided above and below.

座標入力装置は、ユーザが所望する会議室等に持ち運んで、既に会議室に設置されているホワイトボードや、会議室の壁面を使って、直ぐに使えることを狙いの一つとしている。従って、センサバー1の大きさや重量は、より小さく、より軽いことが好適であり、センサバー1の長さを抑制することができる左右に装着する仕様がより好ましい形態である。   One of the aims of the coordinate input device is to carry it to a conference room or the like desired by the user and use it immediately by using a whiteboard already installed in the conference room or a wall surface of the conference room. Therefore, the size and weight of the sensor bar 1 are preferably smaller and lighter, and a specification that is attached to the left and right that can suppress the length of the sensor bar 1 is a more preferable form.

第3の理由は、左右装着仕様とすることで、設置が容易となる点である。言い換えれば、上下装着仕様の場合、表示画面が大きくなれば上側にセンサバー1を装着する際に脚立等を用意した上での高所作業が発生してしまう。従って、上下に装着する仕様は、表示サイズによっては設置容易性に欠ける場合がある。   The third reason is that installation is facilitated by adopting the left and right mounting specifications. In other words, in the case of the upper and lower mounting specifications, if the display screen is enlarged, a work at a high place occurs after preparing a stepladder or the like when mounting the sensor bar 1 on the upper side. Therefore, the specifications for mounting up and down may not be easy to install depending on the display size.

図4(A)は、センサバー1の概略構成を示しており、センサバー1は、上側筺体51、及び下側筺体52で構成される。53は外側パイプ、54は内側パイプで有り、外側パイプ53の内径と内側パイプ54の外形が略勘合の関係にある。外側パイプ53は上側筺体51に固定され、内側パイプ54は下側筺体52に固定される。上側筺体51と下側筺体52とでセンサバー1の長さを伸縮させようとすると、外側パイプ53と内側パイプ54が勘合関係を維持した状態でスライドする(図4(B)参照)。これらのパイプを金属製とすることで、伸縮動作時のセンサバー1の伸縮方向や機械的強度を得ている。金属製パイプの一端は絞り加工が施され、押しつぶされた状態となり、その部分で筺体に機械的に結合されると共に、センサユニット2が装着される。   FIG. 4A shows a schematic configuration of the sensor bar 1, and the sensor bar 1 includes an upper casing 51 and a lower casing 52. Reference numeral 53 denotes an outer pipe, and reference numeral 54 denotes an inner pipe. The inner diameter of the outer pipe 53 and the outer shape of the inner pipe 54 are in a substantially fitting relationship. The outer pipe 53 is fixed to the upper casing 51, and the inner pipe 54 is fixed to the lower casing 52. If the length of the sensor bar 1 is to be expanded and contracted by the upper casing 51 and the lower casing 52, the outer pipe 53 and the inner pipe 54 slide while maintaining the fitting relationship (see FIG. 4B). By making these pipes made of metal, the direction of expansion and contraction and the mechanical strength of the sensor bar 1 during expansion and contraction are obtained. One end of the metal pipe is drawn and crushed, and is mechanically coupled to the housing at that portion, and the sensor unit 2 is mounted.

センサバー1の伸縮方向に対して直角な方向にセンサユニット2の受光部40の光軸が配置されている。先に説明したとおり、受光部40の視野範囲は光軸に対して非対称に設けられている。このように構成することで、センサバー1の筺体を細く構成することが可能となる。この理由として、ラインCCD41、及び、ラインCCD41が実装される実装面となる回路基板(不図示)の長手方向が、センサバー1の長手方向と一致し、首尾よく配置されることによる。   The optical axis of the light receiving unit 40 of the sensor unit 2 is arranged in a direction perpendicular to the extending and contracting direction of the sensor bar 1. As described above, the visual field range of the light receiving unit 40 is asymmetric with respect to the optical axis. By comprising in this way, it becomes possible to comprise the housing of the sensor bar 1 thinly. This is because the longitudinal direction of the line CCD 41 and the circuit board (not shown) on which the line CCD 41 is mounted coincides with the longitudinal direction of the sensor bar 1 and is successfully arranged.

図4(C)は、従来技術であるところの軸対称な光学系を採用している投光部の例である。受光部40に必要な視野範囲を確保するために、センサバーのスライド方向に対して、受光部40の光学系の光軸は傾いた状態にならざるを得ない。その結果、その光学系を収納するセンサバー1の幅Lwが、実施形態1のセンサバー1の幅より大きくなってしまう。このことは、筺体がより大きくなることで重量増につながり、可搬性を低下させるだけではなく、センサバー1を装着するために必要な面積がより大きくなることを意味する。よって、ホワイトボード等に装着する場合には、表示装置の投影面積が小さくなってしまう。   FIG. 4C is an example of a light projecting unit that employs an axially symmetric optical system, which is a conventional technique. In order to secure the field of view necessary for the light receiving unit 40, the optical axis of the optical system of the light receiving unit 40 must be inclined with respect to the sliding direction of the sensor bar. As a result, the width Lw of the sensor bar 1 that houses the optical system becomes larger than the width of the sensor bar 1 of the first embodiment. This not only leads to an increase in weight and a decrease in portability, but also means that an area necessary for mounting the sensor bar 1 becomes larger. Therefore, when it is mounted on a whiteboard or the like, the projection area of the display device is reduced.

図4(C)において、軸対称な光学系を用いて、かつセンサバー1のスライド方向に垂直な方向に受光部40の光学系を設定し、光学系で光線を折り曲げて必要な視野範囲を確保する場合を考える。当然のことながら、光路上にミラー等の新たな光学素子を設けることになり、センサユニット2がより大きくなることは避けられない。つまり、そのような構成としても、本願発明の非軸対称な光学系を用いる場合より、センサバー1の幅Lwは大きくなる。   In FIG. 4 (C), the optical system of the light receiving unit 40 is set in a direction perpendicular to the sliding direction of the sensor bar 1 using an axially symmetric optical system, and the necessary viewing range is secured by bending the light beam with the optical system. Consider the case. As a matter of course, a new optical element such as a mirror is provided on the optical path, and it is inevitable that the sensor unit 2 becomes larger. That is, even with such a configuration, the width Lw of the sensor bar 1 is larger than when the non-axisymmetric optical system of the present invention is used.

更には、十分に大きな視野範囲を有する受光部40の光学系(例えば、光軸を中心として±50°の視野範囲を採用した場合を考える。図3(A)に於いて、受光光学系の視野範囲は方向hから方向mの範囲であり、光軸方向Xに対して、角度Xoh=角度Xom=50°の関係となる。座標入力装置が必要とする視野範囲は、対向する辺に設けられた再帰反射部4の全域をカバーする範囲(方向fから方向jの範囲)のみである。従って、片側略半分の視野範囲(方向jから方向mの範囲)は無効な領域となる。従って、このような場合であっても、受光部40の有効な視野範囲は、実質的に非対称な光学系を採用している構成した場合の視野範囲と同等と言える。   Furthermore, an optical system of the light receiving unit 40 having a sufficiently large visual field range (for example, a case where a visual field range of ± 50 ° with the optical axis as the center is adopted is considered. In FIG. The field-of-view range is a range from the direction h to the direction m, and has a relationship of angle Xoh = angle Xom = 50 ° with respect to the optical axis direction X. The field-of-view range required by the coordinate input device is provided on opposite sides. Only the range (the range from the direction f to the direction j) that covers the entire region of the retroreflective portion 4 is obtained, and therefore, the visual field range (the range from the direction j to the direction m) on one side is an invalid area. Even in such a case, it can be said that the effective visual field range of the light receiving unit 40 is equivalent to the visual field range in the case where a substantially asymmetric optical system is employed.

図5(A)は演算制御回路3のブロック図である。本実施形態におけるセンサバー1Lの演算制御回路3Lとセンサバー1Rの演算制御回路3Rは、外部へのインタフェース仕様を除き、いずれも同様の回路構成であり、接続される対応するセンサユニット2の制御、演算を行う。図5(A)は、特に、センサバー1Lの演算制御回路3Lの構成を示している。   FIG. 5A is a block diagram of the arithmetic control circuit 3. The calculation control circuit 3L of the sensor bar 1L and the calculation control circuit 3R of the sensor bar 1R in this embodiment have the same circuit configuration except for interface specifications to the outside, and control and calculation of the corresponding sensor unit 2 connected thereto. I do. FIG. 5A particularly shows the configuration of the arithmetic control circuit 3L of the sensor bar 1L.

センサユニット2−L1及び2−L2のラインCCD41用のCCD制御信号は、ワンチップマイコン等で構成されるCPU61から出力され、ラインCCD41のシャッタータイミングやデータの出力制御等を行う。CCD用のクロックはクロック発生回路CLK62から各センサユニット2−L1及び2−L2に送信されるとともに、ラインCCD41との同期をとって各種制御を行うためにCPU61にも入力されている。尚、センサユニット2−L1及び2−L2の赤外LED311を駆動するLED駆動信号は、CPU61から供給される。   The CCD control signals for the line CCD 41 of the sensor units 2-L1 and 2-L2 are output from the CPU 61 constituted by a one-chip microcomputer or the like, and perform shutter timing of the line CCD 41, data output control, and the like. The CCD clock is transmitted from the clock generation circuit CLK62 to each of the sensor units 2-L1 and 2-L2, and is also input to the CPU 61 for performing various controls in synchronization with the line CCD 41. The LED drive signal for driving the infrared LEDs 311 of the sensor units 2-L1 and 2-L2 is supplied from the CPU 61.

センサユニット2−L1及び2−L2それぞれのラインCCD41からの検出信号は、A/Dコンバータ63に入力され、CPU61からの制御によって、デジタル値に変換される。変換されたデジタル値はメモリ64に記憶され、角度計算に用いられる。そして、計算された角度情報から幾何学的なタッチ位置を算出し、外部PC等の情報処理装置にインタフェース68(例えば、USBインタフェース)を介して出力される。   Detection signals from the line CCDs 41 of the sensor units 2-L1 and 2-L2 are input to the A / D converter 63 and converted into digital values under the control of the CPU 61. The converted digital value is stored in the memory 64 and used for angle calculation. Then, a geometric touch position is calculated from the calculated angle information, and is output to an information processing apparatus such as an external PC via an interface 68 (for example, a USB interface).

先に示した通り、各センサバー1の演算制御回路3は、各々2つのセンサユニット2を制御している。仮に、センサバー1Lの演算制御回路3Lがメイン機能を果たすものとすれば、CPU61はシリアル通信部67を介して、センサバー1Rの演算制御回路3Rに制御信号を送信して、回路間の同期を行う。そして、演算制御回路3Rから、必要なデータの取得を行うことになる。   As described above, the arithmetic control circuit 3 of each sensor bar 1 controls two sensor units 2 each. If the arithmetic control circuit 3L of the sensor bar 1L fulfills the main function, the CPU 61 transmits a control signal to the arithmetic control circuit 3R of the sensor bar 1R via the serial communication unit 67 to synchronize the circuits. . Then, necessary data is acquired from the arithmetic control circuit 3R.

演算制御回路3L及び3R間の動作は、マスター・スレーブ制御にて動作する。本実施形態の場合、演算制御回路3Lがマスターで、演算制御回路3Rがスレーブである。尚、各演算制御回路は、マスター・スレーブのどちらにもなりうるが、ディップスイッチ(不図示)等の切替部で、CPUのポートに切替信号を入力することで、マスター・スレーブの切替が可能となっている。   The operation between the arithmetic control circuits 3L and 3R is performed by master / slave control. In the present embodiment, the arithmetic control circuit 3L is a master, and the arithmetic control circuit 3R is a slave. Each arithmetic control circuit can be either a master or a slave, but the master / slave can be switched by inputting a switching signal to the CPU port with a switching unit such as a DIP switch (not shown). It has become.

マスターであるセンサバー1Lの演算制御回路3Lからは、対向する辺に設けられたセンサバー1Rのセンサユニット2−R1及び2−R2のデータを取得するために、制御信号がスレーブの演算制御回路3Rにシリアル通信部67を介して送信される。そして、センサユニット2−R1及び2−R2で得られた角度情報が算出され、シリアル通信部67を介してマスター側の演算制御回路3Lに送信される。   In order to acquire data of the sensor units 2-R1 and 2-R2 of the sensor bar 1R provided on the opposite side from the arithmetic control circuit 3L of the sensor bar 1L as the master, the control signal is sent to the slave arithmetic control circuit 3R. It is transmitted via the serial communication unit 67. Then, the angle information obtained by the sensor units 2-R1 and 2-R2 is calculated and transmitted to the arithmetic control circuit 3L on the master side via the serial communication unit 67.

尚、インタフェース68は、本実施形態の場合、マスター側の演算制御回路3Lに実装されることになる。   In the case of this embodiment, the interface 68 is mounted on the arithmetic control circuit 3L on the master side.

また、演算制御回路3Lは、上述のように、CPU61を中心に、クロック発生回路CLK62、A/Dコンバータ63、メモリ64を備える。そして、演算制御回路3L内に、受光部の受光状態を判定する受光判定部61a、及び、その判定結果に応じてセンサユニット2中の2つの投光部301及び302の投光形態を制御する投光形態制御部61bがCPU61によって実現される。投光形態の制御の詳細に関しては後述する。   The arithmetic control circuit 3L includes the clock generation circuit CLK62, the A / D converter 63, and the memory 64 with the CPU 61 as the center as described above. In the arithmetic control circuit 3L, the light receiving determination unit 61a for determining the light receiving state of the light receiving unit and the light projecting form of the two light projecting units 301 and 302 in the sensor unit 2 are controlled according to the determination result. The light projection form control unit 61b is realized by the CPU 61. Details of the control of the projection mode will be described later.

また、66は、指示具として、赤外線を発光する専用ペン(不図示)を使用した時の赤外線受光部である。65は専用ペンからの信号をデコードするためのサブCPUである。専用ペンは、ペン先が入力面を押圧したことを検知するスイッチや、ペン筺体サイド部に種々のスイッチを有する。それらのスイッチの状態やペンの識別情報を専用ペンに設けられた赤外線発光部で送信することにより、専用ペンの操作状態を検知することが可能となる。   Reference numeral 66 denotes an infrared light receiving unit when a dedicated pen (not shown) that emits infrared light is used as an indicator. Reference numeral 65 denotes a sub CPU for decoding a signal from the dedicated pen. The dedicated pen has a switch for detecting that the pen tip has pressed the input surface, and various switches on the side of the pen housing. It is possible to detect the operation state of the dedicated pen by transmitting the state of those switches and the identification information of the pen by the infrared light emitting unit provided in the dedicated pen.

図5(B)はセンサユニット2を動作させるためにマスター側の演算制御回路3LのCPU61が出力する制御信号、及びセンサユニット2の動作を示すタイミングチャートである。   FIG. 5B is a timing chart showing a control signal output from the CPU 61 of the arithmetic control circuit 3L on the master side in order to operate the sensor unit 2 and the operation of the sensor unit 2.

71、72、73がラインCCD41制御用の制御信号であり、SH信号71の間隔でラインCCD41のシャッター開放時間が決定される。ICGL信号72はセンサバー1Lのセンサユニット2−L1及び2−L2へのゲート信号であり、ラインCCD41内部の光電変換部の電荷を読出部へ転送する信号である。   71, 72 and 73 are control signals for controlling the line CCD 41, and the shutter opening time of the line CCD 41 is determined by the interval of the SH signal 71. The ICGL signal 72 is a gate signal to the sensor units 2-L1 and 2-L2 of the sensor bar 1L, and is a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit.

CCDL信号74は、センサユニット2−L1及び2−L2のラインCCD41のシャッター開放時間を示す信号である。ICGR信号73は、対向するセンサバー1Rのセンサユニット2−R1及び2−R2へのゲート信号であり、シリアル通信部67を介してセンサバー1Rの演算制御回路3Rに送信される。そして、演算制御回路3RがラインCCD41内部の光電変換部の電荷を読出部へ転送する信号を生成する。CCDR信号75は、センサユニット2−R1及び2−R2のラインCCD41のシャッター開放時間を示す信号である。   The CCDL signal 74 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-L1 and 2-L2. The ICGR signal 73 is a gate signal to the sensor units 2-R1 and 2-R2 of the opposing sensor bar 1R, and is transmitted to the arithmetic control circuit 3R of the sensor bar 1R via the serial communication unit 67. Then, the arithmetic control circuit 3R generates a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit. The CCDR signal 75 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-R1 and 2-R2.

尚、以下の駆動タイミングに関しては、投光部301の赤外LED311と投光部302の赤外LED312は点灯タイミングが異なる場合がある。しかしながら、ラインCCD関連の動作タイミングとの関係は共通であるので、ここでは併せて、赤外LED311で代表して示す。   In addition, regarding the following drive timing, the lighting timing of the infrared LED 311 of the light projecting unit 301 and the infrared LED 312 of the light projecting unit 302 may be different. However, since the relationship with the operation timing related to the line CCD is common, the infrared LED 311 is representatively shown here.

LEDL信号76及びLEDR信号77は、各センサユニット2の赤外LED311の駆動信号である。SH信号71の最初の周期でセンサバー1Lのセンサユニット2−L1及び2−L2の赤外LED311を点灯するために、LEDL信号76が各々のLED駆動回路(不図示)を経て赤外LED311に供給される。   The LEDL signal 76 and the LEDR signal 77 are drive signals for the infrared LED 311 of each sensor unit 2. In order to turn on the infrared LEDs 311 of the sensor units 2-L1 and 2-L2 of the sensor bar 1L in the first cycle of the SH signal 71, an LEDL signal 76 is supplied to the infrared LEDs 311 via respective LED drive circuits (not shown). Is done.

そして、SH信号71の次の周期で、対向する辺に設けられたセンサバー1Rのセンサユニット2−R1及び2−R2の赤外LED311を点灯するために、LEDR信号77がシリアル通信部67を介して演算制御回路3Rに送信される。そして、演算制御回路3Rが各々のLED駆動回路に供給するための信号を生成する。   Then, in order to turn on the infrared LEDs 311 of the sensor units 2-R1 and 2-R2 of the sensor bar 1R provided on opposite sides in the next cycle of the SH signal 71, the LEDR signal 77 is transmitted via the serial communication unit 67. To the arithmetic control circuit 3R. Then, the arithmetic control circuit 3R generates a signal to be supplied to each LED drive circuit.

赤外LED311の駆動、及びラインCCD41のシャッター開放が終了した後に、ラインCCD41の信号がセンサユニット2から読み出され、後述する方法で角度情報を算出する。そして、スレーブ側の演算制御回路3Rの演算結果はマスター側の演算制御回路3Lに送信される。   After the driving of the infrared LED 311 and the shutter release of the line CCD 41 are completed, the signal of the line CCD 41 is read from the sensor unit 2 and angle information is calculated by a method described later. Then, the calculation result of the slave-side calculation control circuit 3R is transmitted to the master-side calculation control circuit 3L.

以上のように動作させることで、センサバー1Lのセンサユニット2−L1及び2−L2と対向するセンサバー1Rのセンサユニット2−R1及び2−R2とは、異なるタイミングで動作するようになる。このように構成することで、対向する辺に設けられたセンサユニットの赤外光を検出することなく、センサユニット自身が発光した再帰反射光のみを検出できる。   By operating as described above, the sensor units 2-R1 and 2-R2 of the sensor bar 1R facing the sensor units 2-L1 and 2-L2 of the sensor bar 1L operate at different timings. By comprising in this way, only the retroreflected light which sensor unit itself emitted can be detected, without detecting the infrared light of the sensor unit provided in the edge | side which opposes.

図6を用いて、センサバー1のセンサユニット2から出力される信号について説明する。先ず、センサユニット2の投光部30の発光が無い状態である場合の受光部40の出力は図6(A)となり、発光が有る場合の受光部40の出力は図6(B)となる。図6(B)において、レベルAが検出した光量の最大レベルであり、レベルBが光を全く検出(受光)できてないレベルと言える。   A signal output from the sensor unit 2 of the sensor bar 1 will be described with reference to FIG. First, the output of the light receiving unit 40 when there is no light emission of the light projecting unit 30 of the sensor unit 2 is FIG. 6A, and the output of the light receiving unit 40 when there is light emission is FIG. 6B. . In FIG. 6B, level A is the maximum level of light quantity detected, and level B can be said to be a level at which no light can be detected (received).

センサユニット2が発光した赤外線は、対向する辺に設けられた再帰反射部4で再帰反射され、自身のセンサユニット2で検出される。従って、光出力が得られ始める画素番号Njの方向は図3における方向jであり、同様に、画素番号Nfの方向は図3における方向fということになる。画素番号Njから画素番号Nfまでの光量は、表示画面の大きさやそのアスペクト比、それに対応したセンサバー1の配置状態(特に、2つのセンサバー1間の距離)や伸縮状態等によって変化する。   The infrared light emitted from the sensor unit 2 is retroreflected by the retroreflecting unit 4 provided on the opposite side and is detected by the sensor unit 2 itself. Therefore, the direction of the pixel number Nj from which the light output starts to be obtained is the direction j in FIG. 3, and similarly, the direction of the pixel number Nf is the direction f in FIG. The amount of light from the pixel number Nj to the pixel number Nf varies depending on the size of the display screen, the aspect ratio, the arrangement state of the sensor bar 1 (particularly the distance between the two sensor bars 1), the expansion / contraction state, and the like.

本願発明の座標入力装置は、最適な光量レベルが得られるように、SH信号を制御することによって、ラインCCD41のシャッター開放時間、及び赤外LED311の露光時間を調整する。センサユニット2から得られる光量が多ければ時間を短くし、逆に少なければ時間を長く設定することができる。さらには、検出光量レベルに応じて、赤外LED311に流す電流を調整しても良い。このように出力信号を監視することで、最適な光量が得られるように構成されている。このような調整を、レベル変動が有った場合に適宜行う仕様としても良い。もしくは、センサバー1が設置され、その状態が保持されている間は、安定した一定の信号が得られるはずであるので、このような光量の調整は、設置が完了した電源投入時に行えばよい。   The coordinate input device of the present invention adjusts the shutter open time of the line CCD 41 and the exposure time of the infrared LED 311 by controlling the SH signal so that an optimum light amount level is obtained. If the amount of light obtained from the sensor unit 2 is large, the time can be shortened. Conversely, if the amount of light is small, the time can be set long. Further, the current flowing through the infrared LED 311 may be adjusted according to the detected light amount level. By monitoring the output signal in this way, an optimum light amount can be obtained. Such adjustment may be made as appropriate when there is a level fluctuation. Alternatively, a stable and constant signal should be obtained while the sensor bar 1 is installed and its state is maintained, and thus such light quantity adjustment may be performed when the power is turned on after installation is completed.

再び、図6に戻り、座標入力有効領域5の入力面をタッチすることで光路を遮ると、図6(C)のように、例えば、画素番号Ncで光量が検出できなくなる。この図6(A)〜(C)の信号を用いて、タッチした方向、言い換えると、角度を算出する。   Returning again to FIG. 6, if the optical path is blocked by touching the input surface of the coordinate input effective area 5, for example, the light quantity cannot be detected with the pixel number Nc as shown in FIG. 6C. The touched direction, in other words, the angle is calculated using the signals shown in FIGS.

まず、システムの起動時、システムのリセット時、あるいは自動的に、基準データを取得する。以降、一つのセンサユニット2のデータ処理について説明するが、他のセンサユニットでも同様の処理を行っている。   First, reference data is acquired when the system is started, when the system is reset, or automatically. Hereinafter, the data processing of one sensor unit 2 will be described, but the same processing is performed in other sensor units.

電源投入時、操作者によるタッチ操作が行われてない状態で、投光部30の照明無しの状態でラインCCD41の出力をA/Dコンバータ63によりA/D変換して、この値をBase_Data[N]としてメモリ64に記憶する。これは、ラインCCD41のバイアスのばらつき等を含んだデータとなり、図6(A)のレベルB付近のデータとなる。ここで、[N]はラインCCD41のCCD画素番号であり、有効な入力範囲に対応する画素番号が用いられる。   When the power is turned on, the output of the line CCD 41 is A / D converted by the A / D converter 63 in a state where no touch operation is performed by the operator and the illumination unit 30 is not illuminated, and this value is converted to Base_Data [ N] is stored in the memory 64. This is data including variations in the bias of the line CCD 41 and the like, and is data in the vicinity of level B in FIG. Here, [N] is the CCD pixel number of the line CCD 41, and a pixel number corresponding to an effective input range is used.

同様に、操作者によるタッチ操作が行われてない状態で、投光部30から投光した状態での光量分布を取得して記憶する。これは、図6(B)の実線で表されたデータであり、Ref_Data[N]としてメモリ64に記憶する。これにより、初期データとして2種類のデータの記憶を管理する。   Similarly, a light amount distribution in a state where light is projected from the light projecting unit 30 in a state where no touch operation is performed by the operator is acquired and stored. This is data represented by a solid line in FIG. 6B and is stored in the memory 64 as Ref_Data [N]. This manages the storage of two types of data as initial data.

その後、サンプリングを開始することになるが、タッチ操作が行われてなければ、図6(B)に示すデータは、タッチ操作が行われると、そのタッチ位置に応じて影Cが検出された図6(C)に示すデータが検出される。この投光部30の照明有りの状態で得られるサンプルデータをNorm_Data[N]と定義する。   Thereafter, sampling is started. If no touch operation is performed, the data shown in FIG. 6B is a diagram in which a shadow C is detected according to the touch position when the touch operation is performed. Data shown in 6 (C) is detected. Sample data obtained when the light projecting unit 30 is illuminated is defined as Norm_Data [N].

これらのデータ(メモリ64に記憶されているBase_Data[N]とRef_Data[N])を用いて、まずは、指示具の入力の有無、遮光部分の有無の判定を行う。まず、遮光部分を特定するために、データの変化の絶対量を各々の画素において算出し、予め設定してある閾値Vthaと比較する。   Using these data (Base_Data [N] and Ref_Data [N] stored in the memory 64), first, the presence / absence of the input of the pointing tool and the presence / absence of the light shielding portion are determined. First, in order to identify the light-shielding portion, the absolute amount of data change is calculated for each pixel and compared with a preset threshold value Vtha.

Norm_Data0[N] = Norm_Data[N] - Ref_Data[N] (1)
ここで、Norm_Data0[N]は、各画素における絶対変化量であり、閾値比較により、ノイズ等による誤判定を防止し、所定量の確実な変化を検出する。そして、閾値を超えるデータが、例えば、所定数以上の連続した画素で発生した場合に、タッチ操作が有ると判定する。この処理は、差を取り比較するだけなので、短時間での演算が可能であり、入力の有無判定を高速に行うことができる。
Norm_Data0 [N] = Norm_Data [N]-Ref_Data [N] (1)
Here, Norm_Data0 [N] is an absolute change amount in each pixel, and prevents erroneous determination due to noise or the like by threshold comparison, and detects a certain amount of reliable change. Then, when data exceeding the threshold value is generated in, for example, a predetermined number or more of continuous pixels, it is determined that there is a touch operation. Since this process only takes a difference and compares it, it is possible to perform a calculation in a short time and to determine whether or not there is an input at high speed.

次に、より高精度に検出するために、画素データの変化の比を計算して入力点の決定を(2)式を用いて行う。   Next, in order to detect with higher accuracy, the ratio of changes in pixel data is calculated, and the input point is determined using equation (2).

Norm_DataR[N] = Norm_Data0[N] / (Base_Data[N] - Ref_Data[N]) (2)
この画素データ(光量分布)に対して、別途設定される閾値Vthrを適用する。そして、その閾値Vthrを横切る点に対応する、光量分布中の遮光部分に対応する光量変動領域の立ち上がり部と立ち下がり部の画素番号から、両者の中央を指示具による入力に対応する画素とすることで、角度を算出する。
Norm_DataR [N] = Norm_Data0 [N] / (Base_Data [N]-Ref_Data [N]) (2)
A separately set threshold value Vthr is applied to the pixel data (light quantity distribution). Then, based on the pixel numbers of the rising and falling portions of the light amount fluctuation region corresponding to the light shielding portion in the light amount distribution corresponding to the point crossing the threshold value Vthr, the center of both is set as the pixel corresponding to the input by the pointing tool. Thus, the angle is calculated.

図6(D)は変化の比の計算を終了後の検出結果の例である。今、閾値Vthrで検出すると、遮光部分の立ち上がり部分は、Ns番目の画素でレベルLsとなり閾値Vthrを超えたとする。さらに、Nt番目の画素でレベルLtとなり閾値Vthrを下まわったとする。   FIG. 6D shows an example of the detection result after the calculation of the change ratio. Now, when detecting with the threshold value Vthr, it is assumed that the rising portion of the light-shielding portion becomes the level Ls at the Ns-th pixel and exceeds the threshold value Vthr. Furthermore, it is assumed that the level becomes Lt at the Ntth pixel and falls below the threshold value Vthr.

この時、出力すべきラインCCD41の画素番号Npを、立ち上がり部と立ち下がり部の画素番号の中央値として式(3)のように計算しても良いが、そうすると、ラインCCD41の画素間隔が出力画素番号の分解能になる。   At this time, the pixel number Np of the line CCD 41 to be output may be calculated as the median value of the pixel numbers of the rising and falling portions as in Expression (3), but in this case, the pixel interval of the line CCD 41 is output. It becomes the resolution of the pixel number.

Np = Ns + (Nt - Ns) / 2 (3)
そこで、より高分解能に検出するために、それぞれの画素のデータレベルとその一つ前の隣接画素のデータレベルを用い、閾値Vthrを横切る仮想の画素番号を計算する。
Np = Ns + (Nt-Ns) / 2 (3)
Therefore, in order to detect with higher resolution, a virtual pixel number crossing the threshold value Vthr is calculated using the data level of each pixel and the data level of the immediately preceding adjacent pixel.

画素NsのレベルをLs、画素Ns−1番のレベルをLs−1、そして、画素NtのレベルをLt、画素Nt−1のレベルをLt−1とすると、それぞれの仮想画素番号Nsv、Ntvは、
Nsv = Ns-1 + ( Vthr - Ls-1 ) / ( Ls -LS-1 ) (4)
Ntv = Nt-1 + ( Vthr - Lt-1 ) / ( Lt -Lt-1 ) (5)
と計算できる。この計算式によれば、出力レベルに応じた仮想画素番号、つまり、ラインCCD41の画素番号よりも細かい画素番号を取得できる。そして、これらの仮想画素番号Nsv、Ntvの仮想中心画素Npvは、式(6)で決定される。
If the level of the pixel Ns is Ls, the level of the pixel Ns-1 is Ls-1, the level of the pixel Nt is Lt, and the level of the pixel Nt-1 is Lt-1, the respective virtual pixel numbers Nsv and Ntv are ,
Nsv = Ns-1 + (Vthr-Ls-1) / (Ls -LS-1) (4)
Ntv = Nt-1 + (Vthr-Lt-1) / (Lt -Lt-1) (5)
Can be calculated. According to this calculation formula, a virtual pixel number corresponding to the output level, that is, a pixel number smaller than the pixel number of the line CCD 41 can be acquired. And the virtual center pixel Npv of these virtual pixel numbers Nsv and Ntv is determined by Expression (6).

Npv = Nsv + ( Ntv - Nsv ) / 2 (6)
このように、閾値Vthrを越えるデータレベルの画素の画素番号とその隣接する画素番号と、それらのデータレベルから、所定レベルの閾値Vthrを横切る仮想的な仮想画素番号を計算することで、より分解能の高い検出を実現できる。
Npv = Nsv + (Ntv-Nsv) / 2 (6)
Thus, by calculating the virtual virtual pixel number that crosses the threshold value Vthr of the predetermined level from the pixel number of the pixel of the data level exceeding the threshold value Vthr, the adjacent pixel number, and the data level thereof, the resolution can be further increased. High detection can be realized.

このように得られた中心画素番号から、実際の指示具の座標値を計算するためには、この中心画素番号を角度情報に変換する必要がある。   In order to calculate the actual coordinate value of the pointing tool from the center pixel number obtained in this way, it is necessary to convert the center pixel number into angle information.

後述する実際の座標計算では、角度そのものよりもその角度における正接(tangent)の値を計算するほうが都合がよい。尚、画素番号から、tanθへの変換には、テーブル参照や変換式を用いる。変換式は、例えば、高次の多項式を用いると精度を確保できるが、次数等は計算能力及び精度スペック等を鑑みて決定すればよい。   In actual coordinate calculation described later, it is more convenient to calculate the value of the tangent at the angle rather than the angle itself. A table reference or a conversion formula is used for conversion from the pixel number to tan θ. For example, a high-order polynomial can be used as the conversion formula to ensure accuracy, but the order and the like may be determined in consideration of calculation capability, accuracy specifications, and the like.

ここで、5次多項式を用いる場合の例を示すと、5次多項式を用いる場合には係数が6個必要になるので、出荷時等にこの係数データを不揮発性メモリ等のメモリに記憶しておけばよい。今、5次多項式の係数をL5、L4、L3、L2、L1、L0としたとき、tanθは
tanθ=((((L5*Npr+L4)*Npr+L3)*Npr+L2)*Npr+L1)*Npr+L0 (7)
であらわすことができる。同様なことを、各々のセンサユニットに対して行えば、それぞれの角度データを決定できる。もちろん、上記例では、tanθを計算しているが、角度データそのものを計算し、その後、tanθを計算しても構わない。
Here, an example in the case of using a 5th order polynomial requires 6 coefficients when using a 5th order polynomial, so this coefficient data is stored in a memory such as a non-volatile memory at the time of shipment or the like. Just keep it. Now, when the coefficients of the fifth-order polynomial are L5, L4, L3, L2, L1, and L0, tan θ is
tanθ = (((((L5 * Npr + L4) * Npr + L3) * Npr + L2) * Npr + L1) * Npr + L0 (7)
Can be represented. If the same thing is done for each sensor unit, the respective angle data can be determined. Of course, in the above example, tan θ is calculated, but the angle data itself may be calculated, and then tan θ may be calculated.

図7は、画面座標との位置関係を示す図である。センサバー1Lのセンサユニット2−L1の視野範囲は方向jから方向fの範囲であり、角度の正負を図示のように設定する。そして、センサユニット2−L1の光軸はX軸方向であり、その方向を角度0°と定義する。同様に、センサユニット2−L2の視野範囲は方向fから方向jの範囲であり、角度の正負を図示のように設定し、及び、センサユニット2−L2の光軸の方向を角度0°と定義する。そして、センサユニット2−L1の光軸中心とセンサユニット2−L2の光軸中心を結ぶ線分をY軸と定義すれば、各センサユニットの光軸はその線分の法線方向となる。また、センサユニット2−L1の光軸中心とセンサユニット2−L2の光軸中心との距離をdhと定義する。   FIG. 7 is a diagram illustrating a positional relationship with the screen coordinates. The visual field range of the sensor unit 2-L1 of the sensor bar 1L is a range from the direction j to the direction f, and the positive and negative angles are set as illustrated. The optical axis of the sensor unit 2-L1 is the X-axis direction, and the direction is defined as an angle of 0 °. Similarly, the field-of-view range of the sensor unit 2-L2 is a range from the direction f to the direction j, the positive / negative of the angle is set as illustrated, and the direction of the optical axis of the sensor unit 2-L2 is an angle of 0 °. Define. Then, if a line segment connecting the optical axis center of the sensor unit 2-L1 and the optical axis center of the sensor unit 2-L2 is defined as the Y axis, the optical axis of each sensor unit is the normal direction of the line segment. Further, the distance between the optical axis center of the sensor unit 2-L1 and the optical axis center of the sensor unit 2-L2 is defined as dh.

今、点Pの位置でタッチ操作が行われた場合を想定する。   Assume that a touch operation is performed at the point P.

センサユニット2−L1で算出される角度はθL1であり、センサユニット2−L2で算出される角度はθL2である。この2つの角度情報と距離dhを用いて、幾何学的にタッチ位置Pの座標を算出することが可能となる。   The angle calculated by the sensor unit 2-L1 is θL1, and the angle calculated by the sensor unit 2-L2 is θL2. The coordinates of the touch position P can be calculated geometrically using the two angle information and the distance dh.

x=dh・tan(π/2-θL2)・tan(π/2-θL1)/(tan(π/2-θL2)+tan(π/2-θL1)) (8)
y=dh・tan(π/2-θL2)/(tan(π/2-θL2)+tan(π/2-θL1)) (9)
また、一方のセンサユニットの出力がθL1=0、もしくはθL2=0の場合であっても、他方のセンサユニットが出力する角度情報に基づき、幾何学的に容易にタッチ位置を算出することが可能である。
x = dh ・ tan (π / 2-θL2) ・ tan (π / 2-θL1) / (tan (π / 2-θL2) + tan (π / 2-θL1)) (8)
y = dh · tan (π / 2-θL2) / (tan (π / 2-θL2) + tan (π / 2-θL1)) (9)
Even if the output of one sensor unit is θL1 = 0 or θL2 = 0, the touch position can be easily calculated geometrically based on the angle information output by the other sensor unit. It is.

ここで、センサユニット2−L1及びセンサユニット2−L2の視野範囲から、タッチ位置Pが図7(B)のハッチング部の範囲に有る場合のみ、そのタッチ位置を算出することが可能である。タッチ位置がその範囲に無い場合には、図7(C)、(D)及び(E)に示すように、演算に用いるセンサユニットの組み合わせを変更することで、座標入力有効領域5全域のタッチ位置を検出できるようになる。従って、各センサユニット2が検出した遮光方向の有無、及び遮光方向に基づき、座標算出に必要なセンサユニットを選択して、タッチ位置を算出する。そして、選択したセンサユニット2の組み合わせに応じて、式(8)、式(9)のパラメータを変更して、座標変換を行えばよい。   Here, it is possible to calculate the touch position from the field of view range of the sensor unit 2-L1 and the sensor unit 2-L2 only when the touch position P is within the hatched range of FIG. 7B. When the touch position is not within the range, as shown in FIGS. 7C, 7 </ b> D, and 7 </ b> E, the touch of the entire coordinate input effective area 5 can be performed by changing the combination of sensor units used for calculation. The position can be detected. Therefore, based on the presence / absence of the light shielding direction detected by each sensor unit 2 and the light shielding direction, a sensor unit necessary for coordinate calculation is selected to calculate the touch position. And according to the combination of the selected sensor units 2, the parameters of Equation (8) and Equation (9) may be changed to perform coordinate conversion.

尚、図7(F)に示すように、センサユニット選択の境界領域近傍にタッチ位置Pが存在すると、この場合は、図7(B)もしくは図7(C)の状態のセンサユニットの組み合わせで、そのタッチ位置を算出できる。具体的な構成として、例えば、センサユニット2−L2の視野範囲と、センサユニット2−R1の視野範囲は、座標入力有効領域5の対角線方向で重複するように構成される。そして、重複した領域でタッチした場合には、複数通りのセンサユニットの組み合わせで座標算出が可能となる。その場合にあっては、両者の組み合わせで算出した座標値の平均値を確定座標として出力しても良い。   As shown in FIG. 7F, if the touch position P exists in the vicinity of the boundary area for sensor unit selection, in this case, the combination of sensor units in the state of FIG. 7B or FIG. The touch position can be calculated. As a specific configuration, for example, the visual field range of the sensor unit 2-L2 and the visual field range of the sensor unit 2-R1 are configured to overlap in the diagonal direction of the coordinate input effective region 5. And when it touches in the overlapping area | region, a coordinate calculation is attained by the combination of a plurality of types of sensor units. In that case, an average value of coordinate values calculated by a combination of the two may be output as definite coordinates.

さて、このように算出された座標値は、座標入力装の第1の座標系(以後、デジタイザ座標系と称す)の値であって、位置算出が可能な有効領域は図3における座標入力有効領域5である。そして、この座標入力有効領域5の範囲内にディスプレイの表示面を設けることになる。ディスプレイが仮にフロントプロジェクターとすると、図8に示すように、投影画像である表示領域8が座標入力有効領域5内に設定されることになる。図8では、d1を原点としてdx軸、dy軸からなる表示座標系である第2の座標系(以後、スクリーン座標系と称す)からなる。表示されている画像を直接タッチすることで、アイコン等のタップ操作を行うためには、デジタイザ座標系とスクリーン座標系の相関をとる必要が有る。   The coordinate value calculated in this way is the value of the first coordinate system of the coordinate input device (hereinafter referred to as the digitizer coordinate system), and the effective area where the position can be calculated is the coordinate input effective in FIG. Region 5. The display surface of the display is provided in the range of the coordinate input effective area 5. If the display is a front projector, the display area 8 that is a projected image is set in the coordinate input effective area 5 as shown in FIG. In FIG. 8, it consists of the 2nd coordinate system (henceforth a screen coordinate system) which is a display coordinate system which consists of dx-axis and dy-axis by making d1 into an origin. In order to perform a tap operation of an icon or the like by directly touching the displayed image, it is necessary to obtain a correlation between the digitizer coordinate system and the screen coordinate system.

通常、この種の相関を得るために、表示制御を行っているパーソナルコンピュータ(PC)には、専用のアプリケーションソフトがインストールされる。アプリケーションを起動すると、表示画面には十字クロス等の指標が表示され、ユーザにその指標が示す位置(クロス位置)をタッチするように促す。その動作を異なる位置で所定回数繰り返すことで得られるデジタイザ座標系の座標値と、指標が表示されている位置のスクリーン座標系の座標値とが一致するように、座標系の変換が行われる。   Usually, in order to obtain this kind of correlation, dedicated application software is installed in a personal computer (PC) performing display control. When the application is activated, an indicator such as a cross is displayed on the display screen, and the user is prompted to touch the position (cross position) indicated by the indicator. The coordinate system is converted so that the coordinate value of the digitizer coordinate system obtained by repeating the operation a predetermined number of times at different positions matches the coordinate value of the screen coordinate system at the position where the index is displayed.

座標入力装置にあっては、アプリケーションソフトを使って指標の位置を表示させてタッチさせるのではなく、表示画面の4隅頂点をタッチすることで、この座標変換を行っている。このように構成することで、その場にあるPCに接続することで、特別なソフトをインストールすることなく直ぐに使えると言う優れた効果が得られる。特に、座標入力装置は、センサバー1を持ち運んで会議室に設置する可搬型であり、一緒にPCを持ち運ぶ必要が無いと言うことは大きな利点である。持ち運んだ先の、その場のPC、その場の表示装置を利用して、簡単に設置を完了させて直ぐに使えると言う優れた効果を発揮する。   In the coordinate input device, this coordinate conversion is performed by touching the four corner vertices of the display screen instead of displaying and touching the position of the index using application software. By configuring in this way, it is possible to obtain an excellent effect that it can be used immediately without installing special software by connecting to a PC on the spot. In particular, the coordinate input device is a portable type in which the sensor bar 1 is carried and installed in the conference room, and it is a great advantage that there is no need to carry the PC together. Using the local PC and the local display device, you can easily complete the installation and use it immediately.

この座標系を一致させるモードへの遷移は、例えば、センサバー1に設けられたモード遷移スイッチ(不図示)で行われる。モード遷移スイッチによりモードが遷移すると、センサバー1に内蔵されるスピーカ等の出力部により、4隅部を順次タッチするようにガイダンスする。また、隅部のタッチが完了する毎に、入力が完了したことを示すブザー音を報知しても良い。または、センサバー1に内蔵されるインジケータで、その操作を促しても良い。   The transition to the mode for matching the coordinate systems is performed by, for example, a mode transition switch (not shown) provided in the sensor bar 1. When the mode is switched by the mode transition switch, guidance is given so that the four corners are sequentially touched by an output unit such as a speaker built in the sensor bar 1. Also, a buzzer sound indicating that the input has been completed may be notified every time the corner touch is completed. Alternatively, the operation may be prompted by an indicator built in the sensor bar 1.

さて、デジタイザ座標系での座標算出では、式(8)及び式(9)で演算に用いるセンサユニット2間の距離dhが既知である必要が有る。しかしながら、表示装置と組み合わせて使用する図1のような使用態様の場合、この距離dhは必ずしも既知である必要は無い。つまり、ディスプレイの大きさを示す4隅部の情報が、タッチ操作することにより順次デジタイザ座標系における各センサユニットでの角度情報として取得される。その結果、比による計算だけで、スクリーン座標系のタッチ位置座標を算出することが可能となるからである。   Now, in the coordinate calculation in the digitizer coordinate system, it is necessary that the distance dh between the sensor units 2 used for calculation in the equations (8) and (9) is known. However, in the case of use as shown in FIG. 1 used in combination with a display device, this distance dh does not necessarily have to be known. That is, information on the four corners indicating the size of the display is sequentially acquired as angle information at each sensor unit in the digitizer coordinate system by performing a touch operation. As a result, it is possible to calculate the touch position coordinates in the screen coordinate system only by calculation based on the ratio.

さて、座標入力装置は、種々の表示サイズの表示面に対して、ユーザが2本のセンサバー1を装着して使用することを想定している。そして、2本のセンサバー間の相対的な位置関係が図7(A)となる(2つのセンサバーが平行、同一長さ、かつX軸方向に他方のセンサバーのセンサユニットが配置される)ことで、デジタイザ座標系での高精度な位置検出が可能となる。2本のセンサバー1がこのような配置となる仕組みを設けることも可能であるが、その場合、ユーザにそれなりの慎重な設置作業を強いることになる。仮に、2つのセンサバーを目分量で簡単に装着できれば、利便性の向上、設置時間の大幅短縮へとつながる。そこで、利便性向上のために、座標検出モードとして第2の検出モードを有する。   Now, it is assumed that the coordinate input device is used by a user wearing two sensor bars 1 on display surfaces of various display sizes. The relative positional relationship between the two sensor bars is as shown in FIG. 7A (the two sensor bars are parallel, have the same length, and the sensor unit of the other sensor bar is disposed in the X-axis direction). This makes it possible to detect the position with high accuracy in the digitizer coordinate system. Although it is possible to provide a mechanism in which the two sensor bars 1 have such an arrangement, in that case, the user is forced to perform appropriate installation work. If the two sensor bars can be easily mounted with an appropriate amount, the convenience will be improved and the installation time will be greatly shortened. Therefore, in order to improve convenience, the second detection mode is provided as the coordinate detection mode.

図9(A)は第2の検出モードを説明するためのマスター側のセンサバー1LのCPU61が出力する制御信号、及びセンサユニット2の動作を示すタイミングチャートである。   FIG. 9A is a timing chart showing a control signal output from the CPU 61 of the master-side sensor bar 1L and an operation of the sensor unit 2 for explaining the second detection mode.

91、92、93がラインCCD41制御用の制御信号であり、SH信号91の間隔でラインCCD41のシャッター開放時間が決定される。ICGL信号92はセンサバー1Lのセンサユニット2−L1及び2−L2へのゲート信号であり、ラインCCD41内部の光電変換部の電荷を読出部へ転送する信号である。   91, 92 and 93 are control signals for controlling the line CCD 41, and the shutter opening time of the line CCD 41 is determined by the interval of the SH signal 91. The ICGL signal 92 is a gate signal to the sensor units 2-L1 and 2-L2 of the sensor bar 1L, and is a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit.

CCDL信号94は、センサユニット2−L1及び2−L2のラインCCD41のシャッター開放時間を示す信号である。ICGR信号93は、対向するセンサバー1Rのセンサユニット2−R1及び2−R2へのゲート信号であり、シリアル通信部67を介してセンサバー1Rの演算制御回路3Rに送信される。そして、演算制御回路3RがラインCCD41内部の光電変換部の電荷を読出部へ転送する信号を生成することになる。CCDR信号95は、センサユニット2−R1及び2−R2のラインCCD41のシャッター開放時間を示す信号である。   The CCDL signal 94 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-L1 and 2-L2. The ICGR signal 93 is a gate signal to the sensor units 2-R1 and 2-R2 of the opposing sensor bar 1R, and is transmitted to the arithmetic control circuit 3R of the sensor bar 1R via the serial communication unit 67. Then, the arithmetic control circuit 3R generates a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit. The CCDR signal 95 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-R1 and 2-R2.

LEDL信号96及びLEDR信号97は、各センサユニット2の赤外LED311の駆動信号である。SH信号91の最初の周期でセンサバー1Rのセンサユニット2−R1及び2−R2の赤外LED311を点灯するために、LEDR信号97がシリアル通信部67を介してセンサバー1Rの演算制御回路3Rに送信される。そして、演算制御回路3Rが各々のLED駆動回路に供給するための信号を生成する。   The LEDL signal 96 and the LEDR signal 97 are drive signals for the infrared LED 311 of each sensor unit 2. In order to turn on the infrared LEDs 311 of the sensor units 2-R1 and 2-R2 of the sensor bar 1R in the first cycle of the SH signal 91, the LEDR signal 97 is transmitted to the arithmetic control circuit 3R of the sensor bar 1R via the serial communication unit 67. Is done. Then, the arithmetic control circuit 3R generates a signal to be supplied to each LED drive circuit.

そして、SH信号91の次の周期で、センサバー1Lのセンサユニット2−L1及び2−L2の赤外LED311を点灯するために、LEDL信号96が各々のLED駆動回路を経て赤外LED311に供給する。   Then, in order to turn on the infrared LEDs 311 of the sensor units 2-L1 and 2-L2 of the sensor bar 1L in the next cycle of the SH signal 91, the LEDL signal 96 is supplied to the infrared LEDs 311 via the respective LED drive circuits. .

赤外LED311の駆動、及びラインCCD41のシャッター開放が終了した後に、ラインCCD41の信号がセンサユニット2から読み出され、後述する方法で角度情報を算出する。そして、スレーブ側の演算制御回路3Rの演算結果はマスター側の演算制御回路3Lに送信される。   After the driving of the infrared LED 311 and the shutter release of the line CCD 41 are completed, the signal of the line CCD 41 is read from the sensor unit 2 and angle information is calculated by a method described later. Then, the calculation result of the slave-side calculation control circuit 3R is transmitted to the master-side calculation control circuit 3L.

以上のように動作させることで、センサバー1Lのセンサユニット2−L1及び2−L2は、対向するセンサバー1Rのセンサユニット2−R1及び2−R2が発光した赤外LED311の赤外光を直接検出する。同様に、センサバー1Rのセンサユニット2−R1及び2−R2は、対向するセンサバー1Lのセンサユニット2−L1及び2−L2が発光した赤外LED311の赤外光を直接検出する。   By operating as described above, the sensor units 2-L1 and 2-L2 of the sensor bar 1L directly detect the infrared light of the infrared LED 311 emitted by the sensor units 2-R1 and 2-R2 of the opposing sensor bar 1R. To do. Similarly, the sensor units 2-R1 and 2-R2 of the sensor bar 1R directly detect the infrared light of the infrared LED 311 emitted by the sensor units 2-L1 and 2-L2 of the opposing sensor bar 1L.

尚、図5(B)では、センサバー1Lのセンサユニット2−L1及び2−L2と対向するセンサバー1Rのセンサユニット2−R1及び2−R2とを異なるタイミングで動作する座標検出モードであり、これが第1の検出モードとなる。   FIG. 5B shows a coordinate detection mode in which the sensor units 2-L1 and 2-R2 of the sensor bar 1R facing the sensor units 2-L1 and 2-L2 of the sensor bar 1L are operated at different timings. The first detection mode is entered.

図9(B)は、第2の検出モードで動作する場合に、センサユニット2で得られる検出信号波形を示している。対向する辺に設けられた2つのセンサユニット2の投光部30からの発光をそれぞれ受光するので、ピーク信号が2つ生成される。そして、先に述べた角度算出の方法と同様な方法で、その方向を各々算出する。尚、図中の破線は、図6(B)で示す受光部40の出力(光量分布)を示すものであり、方向Nj、方向Nfの間にピーク信号が生成されることを示している。   FIG. 9B shows a detection signal waveform obtained by the sensor unit 2 when operating in the second detection mode. Since light emitted from the light projecting units 30 of the two sensor units 2 provided on the opposite sides is received, two peak signals are generated. Then, the respective directions are calculated by the same method as the angle calculation method described above. In addition, the broken line in a figure shows the output (light quantity distribution) of the light-receiving part 40 shown to FIG. 6 (B), and has shown that the peak signal is produced | generated between the direction Nj and the direction Nf.

上述のように、ユーザが2つのセンサバー1を目分量で装着した場合であっても、高精度な位置検出を実現することが本願発明の目的の一つである。そのために、各センサユニット2が、対向するセンサバー1に収納されているセンサユニット2の投光部30の光を検出することで、対向するセンサユニット2がどの方向に位置するかを検出する。   As described above, it is one of the objects of the present invention to realize highly accurate position detection even when the user wears the two sensor bars 1 with the reference amount. Therefore, each sensor unit 2 detects in which direction the opposing sensor unit 2 is located by detecting the light of the light projecting unit 30 of the sensor unit 2 housed in the opposing sensor bar 1.

図10を用いて、その様子を説明する。   This will be described with reference to FIG.

図10において、センサユニット2−L1の光軸中心とセンサユニット2−L2の光軸中心を結ぶ線分をY軸、その法線方向をX軸とすれば、センサユニット2−L1及び2−L2の光軸はX軸と平行である。そして、対向するセンサユニット2−R1は、センサユニット2−L1から見ると角度θ1の方向であり、センサユニット2−L2から見ると角度θ3の方向である。同様に、θ1からθ8までの角度を算出することが可能であり、その結果、センサバー1Lのセンサユニット2−L1の光軸と、センサバー1Rのセンサユニット2−R1の光軸の成す角度θ9が算出される。   In FIG. 10, if the line segment connecting the optical axis center of the sensor unit 2-L1 and the optical axis center of the sensor unit 2-L2 is the Y axis and the normal direction is the X axis, the sensor units 2-L1 and 2- The optical axis of L2 is parallel to the X axis. The opposing sensor unit 2-R1 is in the direction of the angle θ1 when viewed from the sensor unit 2-L1, and is the direction of the angle θ3 when viewed from the sensor unit 2-L2. Similarly, an angle from θ1 to θ8 can be calculated. As a result, an angle θ9 formed by the optical axis of the sensor unit 2-L1 of the sensor bar 1L and the optical axis of the sensor unit 2-R1 of the sensor bar 1R is obtained. Calculated.

言い換えると、センサバー1Lとセンサバー1Rの相対的な傾きを検出することができる。更には、センサバー1の長手方向の長さが伸縮することによって変化した場合であっても、各センサユニット2間の絶対的距離を知ることはできないが、4つのセンサユニットの相対的な位置関係を取得することが可能である。そして、先に述べたディスプレイの大きさを示す4隅部の情報を、タッチ操作することで取得すれば、比による演算だけでも、スクリーン座標系での座標を高精度で算出することが可能となる。   In other words, the relative inclination of the sensor bar 1L and the sensor bar 1R can be detected. Furthermore, even when the length of the sensor bar 1 in the longitudinal direction changes due to expansion and contraction, the absolute distance between the sensor units 2 cannot be known, but the relative positional relationship between the four sensor units Is possible to get. If the information on the four corners indicating the size of the display described above is acquired by touch operation, it is possible to calculate the coordinates in the screen coordinate system with high accuracy only by the calculation by the ratio. Become.

図11は電源投入時からの初期設定処理を示すフローチャートである。   FIG. 11 is a flowchart showing an initial setting process after power-on.

まず、投影画像である表示領域8の全領域を含む矩形状の座標入力有効領域5を形成するために、操作者によってセンサバー1が入力面6に装着されると、例えば、電源投入が行われて初期設定を行う(ステップS101)。   First, when the sensor bar 1 is mounted on the input surface 6 by the operator in order to form a rectangular coordinate input effective area 5 including the entire display area 8 as a projection image, for example, power is turned on. The initial setting is performed (step S101).

次に、CPU61のポート設定、タイマ設定等の座標入力装置に係る各種初期化を行うとともに、光電変換素子に残っている余分な電荷を除去する等のラインCCD41の初期化も行う(ステップS102)。次に、ラインCCD41が検出する光量の最適化を行う。上述のように、表示領域8の大きさは、入力面6の大きさにより一意では無い。そのような場合であっても、センサバー1の長さを伸縮させたり、センサバー1間の距離が適宜ユーザによって設定される。従って、装着の状態によって、検出される光の強度は異なるので、ラインCCD41のシャッター開放時間や赤外LED311の点灯時間、もしくは赤外LED311の駆動電流の設定を含む第2の検出モードで動作設定を行う(ステップS103)。次に、ラインCCD41の出力信号を取り込む(ステップS104)。   Next, various initializations related to the coordinate input device such as port setting and timer setting of the CPU 61 are performed, and the line CCD 41 is also initialized such as removing excess charges remaining in the photoelectric conversion elements (step S102). . Next, the amount of light detected by the line CCD 41 is optimized. As described above, the size of the display area 8 is not unique depending on the size of the input surface 6. Even in such a case, the length of the sensor bar 1 is expanded or contracted, and the distance between the sensor bars 1 is appropriately set by the user. Accordingly, since the detected light intensity varies depending on the state of mounting, the operation setting is performed in the second detection mode including the setting of the shutter opening time of the line CCD 41, the lighting time of the infrared LED 311 or the driving current of the infrared LED 311. Is performed (step S103). Next, the output signal of the line CCD 41 is captured (step S104).

ここで、ステップS103における動作設定とは、対向するセンサユニット2から直接光を受ける動作の状態(図9における第2の検出モード)であって、4つのセンサユニット2の相対的な位置関係を導出することを目的とする。ステップS103で、仮に最初の動作設定を光量が最大に得られるように設定すると、ステップS105において、光が検出できない状態とは、センサユニット2の受光部40の視野範囲に、対向する位置にあるセンサユニット2が位置していないということになる。つまり、ユーザによるセンサバー1の配置/設置が不適な状態にあり、ステップS106でその旨を報知して、センサバーの再設置を促す。そして、ユーザによる再設置が完了すると、再び、ステップS101を開始することになる。尚、ステップS105及びステップS106で検出される信号は、図9(B)に示すような信号となり、本実施形態の場合は、2つの信号が出力されている状態が正常状態と言える。   Here, the operation setting in step S103 is a state of the operation of receiving light directly from the opposing sensor unit 2 (second detection mode in FIG. 9), and the relative positional relationship between the four sensor units 2 is determined. The purpose is to derive. In step S103, if the initial operation setting is set so that the maximum amount of light can be obtained, the state in which light cannot be detected in step S105 is at a position facing the visual field range of the light receiving unit 40 of the sensor unit 2. This means that the sensor unit 2 is not located. That is, the arrangement / installation of the sensor bar 1 by the user is in an unsuitable state, and this is notified in step S106 to prompt the user to re-install the sensor bar. Then, when the reinstallation by the user is completed, Step S101 is started again. Note that the signals detected in step S105 and step S106 are signals as shown in FIG. 9B, and in this embodiment, the state in which two signals are output can be said to be a normal state.

次に、検出信号の波形のチェックを行う(ステップS107)。対向する位置にあるセンサユニット2の光が強すぎる場合、例えば、検出信号の波形(波形レベル)の少なくとも一部が所定の閾値を超える場合(ステップS107でNO)、ステップS103に戻り、例えば、露光時間をより短くする等の再設定を行う。そして、今度、ステップS107でチェックされる検出信号波形は、より光強度が弱い状態となっているはずである。そして、その信号レベルが適正である場合(ステップS107でYES)、例えば、検出信号波形の少なくとも一部が所定の閾値以下である場合、ステップS108に進む。この動作を、各センサユニット(本実施形態の場合、4つ)で実行し、すべての信号が最適化されると、センサユニット2の相対的な位置関係を算出する(ステップS108)。   Next, the waveform of the detection signal is checked (step S107). If the light of the sensor unit 2 at the opposite position is too strong, for example, if at least a part of the waveform (waveform level) of the detection signal exceeds a predetermined threshold (NO in step S107), the process returns to step S103, for example, Reset such as shortening the exposure time. This time, the detection signal waveform checked in step S107 should have a lower light intensity. If the signal level is appropriate (YES in step S107), for example, if at least a part of the detection signal waveform is equal to or less than a predetermined threshold, the process proceeds to step S108. This operation is executed by each sensor unit (four in this embodiment), and when all the signals are optimized, the relative positional relationship of the sensor unit 2 is calculated (step S108).

ステップS1081降では、センサユニット2が投光した赤外光が、対向するセンサバー1に設けられた再帰反射部4で再帰反射され、その光を自身の受光部40で検出した時の信号レベルを最適化する。上述したとおり、センサバー1の配置は一意では無く、その配置に応じた検出レベルを最適化することで、安定した信号を得ることを目的とする。設定する項目は、ラインCCD41のシャッター開放時間や赤外LED311の点灯時間もしくは赤外LED311の駆動電流の設定、そして、投光形態である。まず、既定状態として、投光形態制御部61bに対して、入力面6に距離が近い投光部301で投光するように制御信号を発行する。そして、第1の検出モードで動作設定を行う(ステップS109)。ステップS109で、仮に最初の動作設定を光量が最大に得られるように設定すると、その時のラインCCD41の出力信号を取り込む(ステップS110)。   In step S1081 descending, the infrared light projected by the sensor unit 2 is retroreflected by the retroreflecting unit 4 provided in the opposing sensor bar 1, and the signal level when the light is detected by its own light receiving unit 40 is obtained. Optimize. As described above, the arrangement of the sensor bar 1 is not unique, and an object is to obtain a stable signal by optimizing the detection level according to the arrangement. The items to be set are the shutter opening time of the line CCD 41, the lighting time of the infrared LED 311 or the setting of the drive current of the infrared LED 311 and the light projecting mode. First, as a default state, a control signal is issued so that light is projected by the light projecting unit 301 having a distance close to the input surface 6 to the light projecting form control unit 61b. Then, operation setting is performed in the first detection mode (step S109). In step S109, if the initial operation setting is set so as to obtain the maximum amount of light, the output signal of the line CCD 41 at that time is captured (step S110).

取り込まれた出力信号は、照明時のデータであり、図6(B)のような波形となる。光が強すぎると、ラインCCD41のダイナミックレンジの範囲を超え、出力が飽和することになるので、正確な角度を算出することが困難となる。その場合は、ステップS111で、検出信号の波形が不適と判定され(ステップS111でNO)、ステップS109に戻り、検出信号の波形(波形レベル)がより小さくなるように、再設定が行われる。再帰反射光を検出するので、ステップS103〜ステップS108での処理(つまり、第2の検出モード)でセンサユニット2の投光を直接受光部40で検出する場合と比べて、格段に投光する光量が大きくなるように設定することになる。   The captured output signal is data at the time of illumination, and has a waveform as shown in FIG. If the light is too strong, the output exceeds the range of the dynamic range of the line CCD 41 and the output is saturated, making it difficult to calculate an accurate angle. In that case, in step S111, it is determined that the waveform of the detection signal is inappropriate (NO in step S111), the process returns to step S109, and resetting is performed so that the waveform (waveform level) of the detection signal becomes smaller. Since the retroreflected light is detected, the light is projected significantly compared to the case where the light receiving unit 40 directly detects the light projection of the sensor unit 2 in the processing in step S103 to step S108 (that is, the second detection mode). The light amount is set to be large.

そして、ステップS111で、波形レベルが最適と判断される場合(ステップS111でYES)、受光判定部61aにより、受光状態を判定する(ステップS1111)。受光判定部61aにおいて、検出信号波形のレベル(受光量)が図3(D)の閾値未満と判定された場合(ステップS1111でNO)、投光形態制御部61bに対して、その旨を示す判定信号を出力する。そして、ステップS1112において、投光形態制御部61bは、投光形態を変更し、つまり、入力面6に距離が離れた投光部302が投光するように変更し、再度。ステップS110に戻る。   If it is determined in step S111 that the waveform level is optimal (YES in step S111), the light reception determination unit 61a determines the light reception state (step S1111). When the light reception determination unit 61a determines that the level (light reception amount) of the detection signal waveform is less than the threshold value in FIG. 3D (NO in step S1111), this is indicated to the light projection form control unit 61b. Outputs a judgment signal. In step S <b> 1112, the light projecting form control unit 61 b changes the light projecting form, that is, changes so that the light projecting unit 302 that is far from the input surface 6 projects light, and again. The process returns to step S110.

この投光形態の変更に関し、更に、本発明の主な構成の概略図である図12を用いて、説明する。図12は、センサバー1L及び1Rを入力面6に装着した場合の側面から見た入力面6に垂直な方向の断面図である。図1(A)は、入力面6がフラットな場合を示し、図1(B)は、入力面6が凸状に湾曲している場合を示す。通常は、ステップS1081で説明した通り、既定状態として、投光形態制御部61bに対して、入力面6に距離が近い投光部301で投光するように制御信号を発行している。   The change of the light projection mode will be further described with reference to FIG. 12, which is a schematic diagram of the main configuration of the present invention. FIG. 12 is a cross-sectional view in a direction perpendicular to the input surface 6 as viewed from the side when the sensor bars 1L and 1R are attached to the input surface 6. FIG. FIG. 1A shows a case where the input surface 6 is flat, and FIG. 1B shows a case where the input surface 6 is curved in a convex shape. Normally, as described in step S1081, as a default state, a control signal is issued to the light projecting form control unit 61b so that light is projected by the light projecting unit 301 that is close to the input surface 6.

図12(A)のように入力面6がフラットな場合には、図21(A)で示したように、入力面6に距離が近い投光部301で投光した場合にも投受光路が確保され、十分な受光強度が得られる。一方、図12(B)のように入力面6が凸状に湾曲している場合には、図21(B)で示したように、入力面6に距離が近い投光部301で投光した状態では、入力面の凸部分で投光の光路が遮られ、受光部40で十分な光強度が得られない。   When the input surface 6 is flat as shown in FIG. 12 (A), as shown in FIG. 21 (A), the light projecting / receiving path is also used when light is projected by the light projecting unit 301 that is close to the input surface 6. Is ensured and sufficient light receiving intensity is obtained. On the other hand, when the input surface 6 is convexly curved as shown in FIG. 12B, light is projected by the light projecting unit 301 that is close to the input surface 6 as shown in FIG. In this state, the projection light path is blocked by the convex portion of the input surface, and the light receiving unit 40 cannot obtain sufficient light intensity.

つまり、図3(D)の受光部40での光の強度が、所定の閾値以下になってしまう。この場合の閾値は、演算制御回路3において、誤差なく検出できるS/N限界値により導出される値である。この場合、ステップS1111の判定によりステップS1112において投光形態制御部61bで入力面6に対し投光部301より距離が離れた投光部302で投光に変更するように制御する。この際、入力面6に距離が近い投光部301を消灯(非投光)しても、あるいは、そのまま投光を維持しても、どちらでも良い。   That is, the light intensity at the light receiving unit 40 in FIG. 3D is equal to or less than a predetermined threshold value. The threshold value in this case is a value derived from an S / N limit value that can be detected without error in the arithmetic control circuit 3. In this case, based on the determination in step S1111, in step S1112, the light projecting form control unit 61 b performs control so that the light projecting unit 302 that is farther from the light projecting unit 301 than the light projecting unit 301 is changed to light projection. At this time, the light projection unit 301 that is close to the input surface 6 may be turned off (non-light projection) or may be maintained as it is.

入力面6に距離が離れた投光部302は、図2(A)で説明した通り、投光部302は、投光部301と比べて、距離L_pd×2だけ、入力面6から離れて配置されている。この際、投光部302からの投光から受光までの光路において、想定される入力面の凸部分において光路が遮られないように設定される。つまり、投光部302と比べて、受光部40が、入力面6に距離が近い。投光部302の投光がセンサバー1の再帰反射部4で反射し受光部40への光路が、入力面の凸部分で遮られないように受光部40、再帰反射部4の入力面からの位置が予め設定される。   As described with reference to FIG. 2A, the light projecting unit 302 that is far from the input surface 6 is separated from the input surface 6 by a distance L_pd × 2 compared to the light projecting unit 301. Has been placed. At this time, in the optical path from the light projection to the light reception from the light projecting unit 302, the light path is set so as not to be blocked at the projected portion of the input surface. That is, the light receiving unit 40 is closer to the input surface 6 than the light projecting unit 302. The light projection of the light projecting unit 302 is reflected from the retroreflecting unit 4 of the sensor bar 1 so that the optical path to the light receiving unit 40 is not blocked by the convex portion of the input surface. The position is preset.

更に詳しく説明すると、入力面6が上に凸となる湾曲形状の場合、センサバー1Lの装着面が入力面6に平行な方向から上方向に傾斜しており、そこに装着するセンサユニット2の投光路も入力面に対して上方に向く。従って、対応する対向センサバー1Rに装着する再帰反射部4も入力面に対しより上方に装着する必要がある。従って、入力面6がフラットの場合と上に凸の湾曲面の場合、両方の場合の投受光路をカバーするためには、再帰反射部4を入力面に対して幅を広く配置する必要がある。   More specifically, when the input surface 6 has a curved shape that is convex upward, the mounting surface of the sensor bar 1L is inclined upward from the direction parallel to the input surface 6, and the projection of the sensor unit 2 to be mounted thereon The optical path is also directed upward with respect to the input surface. Therefore, it is necessary to attach the retroreflecting part 4 attached to the corresponding opposing sensor bar 1R to the upper side with respect to the input surface. Therefore, in the case where the input surface 6 is flat and the curved surface is convex upward, in order to cover the light projecting / receiving path in both cases, it is necessary to arrange the retroreflective portion 4 wider than the input surface. is there.

このように、入力面6の凸部分が存在する場合に、入力面6に投光部301より距離が離れた投光部302から投光することにより、入力面の凸部分で投光の光路が遮られることが無くなる。従って、受光部40で十分な光強度が得られる。再度、ステップS110を経て、ステップS111において、波形レベルが飽和していないか否かを判定する。これは、ステップS1112における投光形態制御部61bで投光部302を投光するように変更した制御により、受光強度が上がり過ぎる場合を想定した処理である。飽和していると判定断された場合には、再度、ステップS109に戻り、光の検出レベルがより小さくなるように、再設定が行われる。この際の再設定の程度は、投光形態変更後は段階を緩やかとするようにしても良い。引き続く、ステップS1111においては、投光部302からの投光であるから十分な光強度が得られ、受光強度が図3(D)の閾値以上となり(ステップS1111でYES)、出力レベルが最適と判定される。   In this way, when there is a convex portion of the input surface 6, light is projected from the light projecting unit 302 that is spaced from the light projecting unit 301 to the input surface 6, thereby projecting light at the convex portion of the input surface. Will not be blocked. Therefore, sufficient light intensity can be obtained at the light receiving unit 40. After step S110 again, in step S111, it is determined whether or not the waveform level is saturated. This is a process assuming that the received light intensity is excessively increased by the control in which the light projecting form control unit 61b in step S1112 is changed to project the light projecting unit 302. If it is determined that it is saturated, the process returns to step S109 again, and resetting is performed so that the light detection level becomes smaller. The degree of resetting at this time may be gradual after changing the projection mode. In subsequent step S1111, since the light is emitted from light projecting unit 302, sufficient light intensity is obtained, and the received light intensity is equal to or higher than the threshold value in FIG. 3D (YES in step S1111), and the output level is optimum. Determined.

そして、照明無しの状態の信号Base_Data[N](図6(A)参照)を取得してメモリ64に記憶する(ステップS112)。次に、照明有りの状態の信号Ref_Data[N](図6(B)参照)を取得してメモリ64に記憶する(ステップS113)。   Then, the signal Base_Data [N] (see FIG. 6A) in a state without illumination is acquired and stored in the memory 64 (step S112). Next, a signal Ref_Data [N] (see FIG. 6B) in a lighting state is acquired and stored in the memory 64 (step S113).

このようにして、全てのセンサユニットでのデータが取得されると、一連の初期設定処理が完了する。   In this way, when data for all sensor units is acquired, a series of initial setting processes is completed.

尚、図12では、センサバー1Lにおける処理に関して説明しているが、センサバー1Rにおける処理においても同様である。   In FIG. 12, the processing in the sensor bar 1L is described, but the same applies to the processing in the sensor bar 1R.

以上の構成により、上記の初期設定において、凸部の湾曲している入力面6にセンサバー1を装着した場合にも、ユーザの特段の作業を伴うことなく、入力面の凸部に投受光路が遮られることなく光路が確保される。従って、以下に述べる高精度な指示位置座標検出を行うための十分な受光強度を確保できる。   With the above configuration, even when the sensor bar 1 is mounted on the curved input surface 6 in the initial setting described above, the light projecting / receiving path is formed on the convex portion of the input surface without any special work by the user. The light path is secured without being blocked. Accordingly, it is possible to secure a sufficient received light intensity for performing highly accurate designated position coordinate detection described below.

図13(A)は初期設定処理後の通常のサンプリング動作を示すフローチャートである。   FIG. 13A is a flowchart showing a normal sampling operation after the initial setting process.

図11の初期設定処理を実行する(ステップS101)。その後、通常の取込動作(第1の検出モード)として、センサユニット2が投光した赤外光が、対向するセンサバー1に設けられた再帰反射部4で再帰反射され、その光を自身の受光部40で検出した時の信号を検出する(ステップS201)。その時のデータは、Norm_data[N]であり、仮にタッチ操作があって光路を遮ると、図6(C)のように、画素番号Ncの辺りで光信号が検出できなくなる。   The initial setting process of FIG. 11 is executed (step S101). Thereafter, as a normal capturing operation (first detection mode), the infrared light projected by the sensor unit 2 is retroreflected by the retroreflecting unit 4 provided in the opposing sensor bar 1, and the light is reflected by itself. A signal when detected by the light receiving unit 40 is detected (step S201). The data at that time is Norm_data [N]. If there is a touch operation and the optical path is interrupted, an optical signal cannot be detected around the pixel number Nc as shown in FIG. 6C.

いずれかのセンサユニット2で、このような光の遮光部分が生成されたか否か、つまり、入力の有無を判定する(ステップS202)。入力が無いと判定される場合(ステップS202でNO)、再度、ステップS201に戻り、サンプリングを繰り返すことになる。一方、入力が有ると判定される場合(ステップS202でYES)、出力信号に遮光部分が生成されているセンサユニットを選択する(ステップS203)。その選択したセンサユニットを用いて、遮光部分が生成されている方向(角度)を各々算出する(ステップS204)。算出した角度に基づいて、デジタイザ座標系でのタッチ位置座標を算出する(ステップS205)。算出したタッチ位置座標を変換パラメータを用いてスクリーン座標系に変換して、パーソナルコンピュータの外部機器に、その座標値を出力(送信)する(ステップS206)。   It is determined whether or not such a light-shielding portion is generated by any one of the sensor units 2, that is, whether or not there is an input (step S202). When it is determined that there is no input (NO in step S202), the process returns to step S201 again, and sampling is repeated. On the other hand, when it is determined that there is an input (YES in step S202), a sensor unit in which a light shielding portion is generated in the output signal is selected (step S203). Using the selected sensor unit, the direction (angle) in which the light shielding part is generated is calculated (step S204). Based on the calculated angle, the touch position coordinates in the digitizer coordinate system are calculated (step S205). The calculated touch position coordinates are converted into a screen coordinate system using the conversion parameters, and the coordinate values are output (transmitted) to an external device of the personal computer (step S206).

尚、この際に、入力面6をタッチしている状態であるか否かを示すタッチダウン信号/タッチアップ信号をあわせて出力しても良い。この種の座標入力装置にあっては、タッチ面をタッチすることで、光路は100%遮断されることになるが、タッチ状態から少しずつ浮かせることによって、少しずつ光が透過するようになる。従って、光がどの程度遮られたかを演算することで、タッチ状態にあるのか、タッチはしてないが、光路を遮っている(角度演算は可能であり、その場合でもその位置を演算可能)状態であるのかを、閾値を設定することで判定できる。   At this time, a touchdown signal / touchup signal indicating whether or not the input surface 6 is touched may be output together. In this type of coordinate input device, the optical path is blocked by 100% by touching the touch surface, but light is gradually transmitted by floating little by little from the touch state. Therefore, by calculating how much light is blocked, it is touched or not touched, but the light path is blocked (angle calculation is possible, and even that position can be calculated) Whether it is in a state can be determined by setting a threshold value.

センサバー1に構成されているスイッチ等の切替部の操作により、デジタイザ座標系とスクリーン座標系を一致させるためのキャリブレーションモード(第2の検出モード)に遷移することになる。そこで、図13(B)を用いて、そのキャリブレーションモードのフローチャートを説明する。   The operation of a switching unit such as a switch configured in the sensor bar 1 makes a transition to a calibration mode (second detection mode) for matching the digitizer coordinate system with the screen coordinate system. Therefore, a flowchart of the calibration mode will be described with reference to FIG.

キャリブレーションモードは、センサバー1を装着した直後、あるいは設置完了後であっても、何らかの拍子でディスプレイの表示位置がずれてしまった場合に行われる。キャリブレーションモードに遷移すると、先ずは、初期設定処理を行う(ステップS101)。これは、センサバーが使用中に設置状態がずれた場合を想定して、光出力の最適化、センサユニットの位置ずれを補正することになる。   The calibration mode is performed when the display position of the display is deviated at some point even immediately after the sensor bar 1 is mounted or after the installation is completed. When transitioning to the calibration mode, first, initial setting processing is performed (step S101). This assumes that the installation state is shifted while the sensor bar is in use, and that the optical output is optimized and the positional deviation of the sensor unit is corrected.

そして、ユーザによる表示領域8の4隅頂点のタッチ操作を行わせるために、ステップS201及びステップS202を経て、そのひとつの位置のタッチが行われたかを判定する。ステップS203及びステップS204で、必要な角度情報を算出する。ステップS205で、算出した角度情報に基づいて、デジタイザ座標系でのタッチ位置座標を算出する。その後、データの取得が完了したことを報知する(ステップS301)。この報知は、例えば、完了を示すビープ音を出力する。   Then, in order to cause the user to perform a touch operation on the four corner vertices of the display area 8, it is determined whether or not the touch at one position has been performed through steps S <b> 201 and S <b> 202. In step S203 and step S204, necessary angle information is calculated. In step S205, the touch position coordinates in the digitizer coordinate system are calculated based on the calculated angle information. Thereafter, it is notified that the data acquisition is completed (step S301). This notification outputs, for example, a beep sound indicating completion.

次に、表示領域8の4隅頂点の全ての情報(タッチ位置座標)の取得が完了したか否かを判定する(ステップS302)。取得が完了していない場合(ステップS302でNO)、ステップS201に戻る。一方、取得が完了している場合(ステップS302でYES)、算出した4つのデジタイザ座標系でのタッチ位置座標の位置関係を認識する(ステップS303)。   Next, it is determined whether or not acquisition of all information (touch position coordinates) of the four corner vertices of the display area 8 has been completed (step S302). If acquisition has not been completed (NO in step S302), the process returns to step S201. On the other hand, if the acquisition has been completed (YES in step S302), the positional relationship of the touch position coordinates in the four calculated digitizer coordinate systems is recognized (step S303).

例えば、図8におけるセンサバー1Lは表示領域8に対して左側に、センサバー1Rは表示領域8に対して右側に配置するように左右専用仕様とする。その場合、ステップS205で算出した4つのデジタイザ座標系でのタッチ位置座標d1、d2、d3、d4の位置関係、つまり、上下左右の位置関係を、ステップS303において、一意的に認識することができる。   For example, the sensor bar 1L in FIG. 8 has a left and right specification so that the sensor bar 1L is arranged on the left side with respect to the display area 8, and the sensor bar 1R is arranged on the right side with respect to the display area 8. In that case, the positional relationship of the touch position coordinates d1, d2, d3, d4 in the four digitizer coordinate systems calculated in step S205, that is, the vertical / horizontal positional relationship can be uniquely recognized in step S303. .

尚、上記実施形態では、センサバー1L及び1Rの左右の特定は仕様に寄るとしたが、センサバーの位置の検出機能はこれに限定されるものではなく、更には、左右に限らず上下に配置する場合にも対応しても良い。例えば、センサバー1L及び1Rに角度センサ、角速度センサ、地磁気センサ、識別切替スイッチ等の位置検出部を設けても良い。   In the above-described embodiment, the left and right specification of the sensor bars 1L and 1R depends on the specifications. However, the function of detecting the position of the sensor bar is not limited to this, and is not limited to the left and right and is arranged vertically. It is also possible to deal with cases. For example, the sensor bars 1L and 1R may be provided with position detection units such as an angle sensor, an angular velocity sensor, a geomagnetic sensor, and an identification changeover switch.

以上説明したように、実施形態1によれば、入力面の状態に応じて、座標検出のための投受光路を調整することができるので、入力面の平面性が確保されていない状態でも、その状態に影響を受けることなく、高精度に座標入力を行うことができる。   As described above, according to the first embodiment, since the light projecting and receiving path for coordinate detection can be adjusted according to the state of the input surface, even when the flatness of the input surface is not ensured, Coordinates can be input with high accuracy without being affected by the state.

<実施形態2>
実施形態1においては、演算制御回路3の受光判定部61aにおいて、検出信号波形のレベルを判定し、投光形態制御部61bにより投光形態を変更する構成となっている。更に、受光判定部61aにおいて、検出信号波形のレベルではなく、センサユニット2からの異なる方向(受光方向)、つまり、異なるラインCCDの画素領域におけるレベル比を判定して、投光形態制御部61bにより投光形態を変更してもよい。
<Embodiment 2>
In the first embodiment, the light receiving determination unit 61a of the arithmetic control circuit 3 determines the level of the detection signal waveform, and the light projecting form control unit 61b changes the light projecting form. Further, the light reception determining unit 61a determines not the level of the detection signal waveform but the level ratio in different directions (light receiving direction) from the sensor unit 2, that is, the pixel areas of different line CCDs, and the light projection form control unit 61b. The projection form may be changed by

この実施形態2を説明するために、入力面6の湾曲状態応じてセンサバー1を装着した場合の側面断面図と受発光光路図を図14を用いて説明する。また、その各湾曲状態応に対応した受光強度を図15を用いて説明する。また、実施形態2における処理を図16のフローチャートを用いて説明する。   In order to describe the second embodiment, a side sectional view and a light receiving / emitting light path diagram when the sensor bar 1 is mounted in accordance with the curved state of the input surface 6 will be described with reference to FIG. The received light intensity corresponding to each curved state will be described with reference to FIG. The processing in the second embodiment will be described with reference to the flowchart of FIG.

尚、図14においては、再帰反射部4の装着位置を簡易的に一か所に装着して示しているが、実施形態1のように、センサユニットの投受光窓近傍では、垂直方向に複数個所に分散させて装着しても良い。また、実施形態2の図16のフローチャートにおいて、実施形態1の図11のフローチャートと異なる点は、ステップS1111aの受光強度の判定の処理のみであり、他の処理は図11のフローチャートの処理と同様である。   In FIG. 14, the retroreflective portion 4 is simply mounted at a single position. However, as in the first embodiment, a plurality of vertical positions are provided in the vicinity of the light projecting / receiving window of the sensor unit. You may disperse and install in the place. In the flowchart of FIG. 16 of the second embodiment, the difference from the flowchart of FIG. 11 of the first embodiment is only the process of determining the received light intensity in step S1111a, and the other processes are the same as the processes of the flowchart of FIG. It is.

図14(A)のように、入力面6がフラットな場合には、図3(A)において、センサバー1Lのセンサユニット2−L1に関わる方向jと方向fのセンサバー1Rの再帰反射部4に関わる投受光光路を遮るものはなく、受光強度は、図15(A)のようになる。つまり、横軸がセンサユニット2に関わる受光角度方向jと方向fに対応する受光強度はほぼ等しくなる。従って、センサユニット2に関わる角度の方向jと方向fに対応する受光強度をそれぞれF、Jとすると、F≒Jとなる。ここでいうF≒Jとは、本来の投光特性、距離減衰特性、受光特性を併せた光量分布と同様という意味である。   As shown in FIG. 14A, when the input surface 6 is flat, in FIG. 3A, in the retroreflecting portion 4 of the sensor bar 1R in the direction j and the direction f related to the sensor unit 2-L1 of the sensor bar 1L. There is nothing to block the light emitting / receiving optical path involved, and the light receiving intensity is as shown in FIG. That is, the light reception intensity corresponding to the light reception angle direction j and the direction f related to the sensor unit 2 on the horizontal axis is substantially equal. Therefore, if the received light intensity corresponding to the direction j and the direction f of the angle related to the sensor unit 2 is F and J, respectively, F≈J. Here, F≈J means the same as the light quantity distribution combining the original light projecting characteristics, distance attenuation characteristics, and light receiving characteristics.

図14(B)のように、入力面6が凸状に湾曲している場合には、図21(B)で示したように、入力面6に距離が近い投光部301で投光した状態では、入力面6の凸部114で投光の光路が遮られ、受光部40で十分な光強度が得られないのは前述の通りである。この入力面6が凸状に湾曲している状態を図3で2次元的にみてみると、通常の入力面6の凸状態は中央部の凸度が周辺より大きい球面状に凸となっている場合が多い。   As shown in FIG. 14B, when the input surface 6 is convexly curved as shown in FIG. 14B, the light is projected by the light projecting unit 301 that is close to the input surface 6 as shown in FIG. In the state, the light path of the light projection is blocked by the convex portion 114 of the input surface 6 and the light receiving portion 40 cannot obtain a sufficient light intensity as described above. When the state where the input surface 6 is curved in a convex shape is viewed two-dimensionally in FIG. 3, the convex state of the normal input surface 6 is convex in a spherical shape where the convexity of the central portion is larger than the periphery. There are many cases.

この場合、センサユニット2に関わる角度の方向jに比べて方向fの方が入力面の凸度合いが大きく、より大きく投受光路が遮られることになる。従って、受光強度の分布において、方向jの受光強度Jより方向fの受光強度Fの方がより小さくなる傾向がある。この受光強度の比J/Fが、誤検出のない受光強度範囲、つまり、飽和レベルとノイズ限界レベルの間に収まるダイナミックレンジを満たす所定値以上で有る必要がある。   In this case, the convexity of the input surface is larger in the direction f than in the direction j of the angle related to the sensor unit 2, and the light projecting / receiving path is blocked more greatly. Accordingly, in the distribution of received light intensity, the received light intensity F in the direction f tends to be smaller than the received light intensity J in the direction j. It is necessary that the ratio J / F of the received light intensity is not less than a predetermined value that satisfies a dynamic range that falls within a light reception intensity range that is not erroneously detected, that is, between the saturation level and the noise limit level.

従って、図16のフローチャートのステップS1111aでは、受光判定部61aにおいて、受光強度の比J/Fがこの飽和レベルとノイズ限界レベルの間に収まるダイナミックレンジを満たす所定値以上であるか否かを判定する。ステップS1081で説明した通り、既定状態では、投光形態制御部61bに対して、入力面6に距離が近い投光部301で投光するように制御信号を発行している。   Accordingly, in step S1111a in the flowchart of FIG. 16, the light reception determination unit 61a determines whether or not the light reception intensity ratio J / F is equal to or greater than a predetermined value that satisfies the dynamic range falling between the saturation level and the noise limit level. To do. As described in step S <b> 1081, in the default state, a control signal is issued to the light projecting form control unit 61 b so that light is projected by the light projecting unit 301 that is close to the input surface 6.

従って、図14(B)のように、入力面6の凸度が大きくなると、投光部301の投受光路が入力面6の凸部114で遮られ、受光強度の比J/Fが所定値より小さくなる場合がある。その場合は、ステップS1111aにおいて、受光判定部61aは、J/F<所定値との判定により(ステップS1111aでNO)、ステップS1112に進む。そして、ステップS1112において投光形態制御部61bで入力面6に対し投光部301より距離が離れた投光部302に変更して投光するように制御する。この際、入力面6に距離が近い投光部301を消灯しても、あるいは、そのまま投光を維持しても、どちらでも良いのは実施形態1と同様である。   Therefore, as shown in FIG. 14B, when the convexity of the input surface 6 increases, the light projecting / receiving path of the light projecting unit 301 is blocked by the convex portion 114 of the input surface 6, and the ratio J / F of the received light intensity is predetermined. May be smaller than the value. In that case, in step S1111a, the light reception determination unit 61a proceeds to step S1112 by determining that J / F <predetermined value (NO in step S1111a). In step S <b> 1112, the light projecting form control unit 61 b performs control so that the input surface 6 is changed to the light projecting unit 302 that is further away from the light projecting unit 301 and is projected. At this time, it is the same as in the first embodiment that either the light projecting unit 301 close to the input surface 6 may be turned off or the light projection may be maintained as it is.

入力面6に距離が離れた投光部302は、図2(A)で説明した通り、投光部302は、投光部301と比べて、距離L_pd×2だけ、入力面6から離れて配置されている。この際、投光部302からの投光から受光までの光路において、想定される入力面6の凸部114において受光強度の比J/Fが飽和レベルとノイズ限界レベルの間に収まるダイナミックレンジを満たす所定値以上となるように設定される。つまり、投光部302と比べて、受光部40が、入力面6に距離が近い。従って、投光部302からの投光が対応するセンサバー1に装着された再帰反射部4で反射した反射光が受光部40に受光される光路が、次のように設定される。   As described with reference to FIG. 2A, the light projecting unit 302 that is far from the input surface 6 is separated from the input surface 6 by a distance L_pd × 2 compared to the light projecting unit 301. Has been placed. At this time, in the optical path from the light projection to the light reception from the light projection unit 302, a dynamic range in which the ratio J / F of the received light intensity falls between the saturation level and the noise limit level at the projected portion 114 of the input surface 6 is assumed. It is set to be equal to or more than a predetermined value to be satisfied. That is, the light receiving unit 40 is closer to the input surface 6 than the light projecting unit 302. Accordingly, an optical path in which the reflected light reflected by the retroreflecting unit 4 attached to the sensor bar 1 corresponding to the light projected from the light projecting unit 302 is received by the light receiving unit 40 is set as follows.

つまり、入力面6の凸部114において光路が遮られず、受光強度の比J/Fが飽和レベルとノイズ限界レベルの間に収まるダイナミックレンジを満たす所定値以上となるように、受光部40及び再帰反射部4の入力面6からの装着位置が予め設定されている。従って、投光部302からの投光の場合、図14(C)で示されるような受発光路となり、その際の受光強度分布は、図15(C)のようになる。そして、この際の受光強度の比J/Fは飽和レベルとノイズ限界レベルの間に収まるダイナミックレンジを満たす所定値以上となる。ステップS1112後のステップS110、ステップS111は実施形態1と同様であり、再度、ステップS1111aにおいて、受光判定部61aによるJ/F≧所定値との判定により(ステップS1111aでYES)、ステップS112に進む。以降は、実施形態1と同様である。   That is, the light path is not blocked by the convex portion 114 of the input surface 6, and the light receiving section 40 and the light receiving section 40 and the light receiving intensity ratio J / F are equal to or larger than a predetermined value satisfying a dynamic range that falls between the saturation level and the noise limit level. A mounting position of the retroreflecting unit 4 from the input surface 6 is set in advance. Accordingly, in the case of light projection from the light projecting unit 302, a light receiving / emitting path as shown in FIG. 14C is obtained, and the received light intensity distribution at that time is as shown in FIG. 15C. In this case, the ratio J / F of the received light intensity is not less than a predetermined value that satisfies the dynamic range that falls between the saturation level and the noise limit level. Steps S110 and S111 after step S1112 are the same as those in the first embodiment, and again in step S1111a, when the light reception determination unit 61a determines that J / F ≧ predetermined value (YES in step S1111a), the process proceeds to step S112. . The subsequent steps are the same as in the first embodiment.

一方、入力面6が凹状となっている場合には、図14(D)のような投受光光路となる。この場合、投光路は、入力面6に反射するように投光されるので、入力面6表面で反射して再帰反射部4に到達し、更に再帰反射し、再度、入力面6表面で反射して、受光される光路となる。この場合、入力面6が凸の場合と逆で、入力面6の中央の凹みが最も凹度合いが大きくなる。そのため、図3の方向jの受光路に比べて、方向fの受光路の方が相対的に遮えられる入力面6の高さが低くなり、受光する入力面6からの反射光が大きくなる。従って、受光強度の分布は、図15(D)のように、受光強度の比J/Fは所定値以上となる。従って、入力面が凹状となっている場合には、ステップS1111aでは、受光判定部61aによるJ/F≧所定値との判定により(ステップS1111aでYES)、ステップS112に進む。以降は、実施形態1と同様である。以上、図14では、センサバー1Lにおける処理に関して説明しているが、センサバー1Rにおける処理においても同様である。   On the other hand, when the input surface 6 is concave, a light projecting / receiving optical path as shown in FIG. In this case, since the light projecting path is projected so as to be reflected on the input surface 6, it is reflected on the surface of the input surface 6, reaches the retroreflective portion 4, is further retroreflected, and is reflected again on the surface of the input surface 6. Thus, the light path is received. In this case, contrary to the case where the input surface 6 is convex, the concave portion at the center of the input surface 6 has the largest degree of recession. Therefore, compared with the light receiving path in the direction j in FIG. 3, the height of the input surface 6 that is relatively blocked by the light receiving path in the direction f is reduced, and the reflected light from the input surface 6 that receives light increases. . Accordingly, in the distribution of received light intensity, as shown in FIG. 15D, the ratio J / F of received light intensity is not less than a predetermined value. Therefore, if the input surface is concave, in step S1111a, the light reception determination unit 61a determines that J / F ≧ predetermined value (YES in step S1111a), and proceeds to step S112. The subsequent steps are the same as in the first embodiment. As described above, in FIG. 14, the process in the sensor bar 1 </ b> L has been described, but the same applies to the process in the sensor bar 1 </ b> R.

以上説明したように、実施形態2によれば、実施形態1で説明した効果に加えて、入力面の状態による受光強度の変化を判定して、飽和レベルとノイズ限界レベルの間に収まるダイナミックレンジを満たす受光強度を得るように投光部の投光形態を制御する。これにより、より理想的な受光強度による座標検出環境を実現して、高精度な座標検出が可能となる。   As described above, according to the second embodiment, in addition to the effects described in the first embodiment, the dynamic range that falls between the saturation level and the noise limit level is determined by determining the change in the received light intensity depending on the state of the input surface. The light projection form of the light projecting unit is controlled so as to obtain the received light intensity satisfying the above. As a result, a coordinate detection environment with a more ideal received light intensity is realized, and highly accurate coordinate detection is possible.

<実施形態3>
実施形態1及び2においては、センサユニット2の構成として、受光部40を挟んで、入力面6に距離が近い位置と遠い位置の2箇所に投光部301及び302を配置する構成としている。そして、その2箇所の投光部301及び302の投光形態を変化させることにより、入力面6の湾曲凸状態による受光強度の変化に対応している。しかし、図17に示すように、センサユニット2の構成として、受光部40の近傍に1箇所、投光部301(基準投光部)を配置し、センサバー1の入力面6への装着面を裏表裏返して装着する構成でも良い。つまり、装着面として、表面(第1の装着面)と、表面に対向する裏面(第2の装着面)を備える。
<Embodiment 3>
In the first and second embodiments, the sensor unit 2 has a configuration in which the light projecting units 301 and 302 are arranged at two positions, a position close to the input surface 6 and a position far from the input surface 6 with the light receiving unit 40 interposed therebetween. And the change of the light reception intensity | strength by the curved convex state of the input surface 6 is responded by changing the light projection form of the light projection parts 301 and 302 of the two places. However, as shown in FIG. 17, as a configuration of the sensor unit 2, one light projecting unit 301 (reference light projecting unit) is disposed in the vicinity of the light receiving unit 40, and the mounting surface of the sensor bar 1 on the input surface 6 is provided. It may be configured to be turned upside down. That is, the mounting surface includes a front surface (first mounting surface) and a back surface (second mounting surface) opposite to the front surface.

図17は実施形態3の構成で入力面6にセンサバー1を装着した状態の断面図である。図17(A)は入力面6がフラットな場合、図17(B)は入力面6が凸で湾曲した場合を示している。センサユニット2の構成としては、従来と同様に受光部40近傍に投光部301を一箇所配置した構成である。更に、センサバー1Lには接触ボタン801が装着される。   FIG. 17 is a cross-sectional view of a state in which the sensor bar 1 is mounted on the input surface 6 in the configuration of the third embodiment. FIG. 17A shows a case where the input surface 6 is flat, and FIG. 17B shows a case where the input surface 6 is convex and curved. The configuration of the sensor unit 2 is a configuration in which one light projecting unit 301 is disposed in the vicinity of the light receiving unit 40 as in the conventional case. Further, a contact button 801 is attached to the sensor bar 1L.

入力面6がフラットな場合には、センサユニット2において、投光部301が受光部40より入力面6に距離が近い配置となるように入力面6に表面(第1の装着面)を装着する。この際、接触ボタン801が、入力面6とは反対側の裏面(第2の装着面)に配置されており、負荷がかかっていない状態である。つまり、投光部301は第1の装着面側に配置され、一方、接触ボタンは第2の装着面側に配置される。そして、この接触ボタン801の押下状態に応じて、投光部が入力面6に対して近い位置にあるのか遠い位置にあるのかを判定することができる。換言すれば、装着面が表面であるのか裏面であるのかを判定することができる。   When the input surface 6 is flat, in the sensor unit 2, the surface (first mounting surface) is mounted on the input surface 6 so that the light projecting unit 301 is positioned closer to the input surface 6 than the light receiving unit 40. To do. At this time, the contact button 801 is disposed on the back surface (second mounting surface) opposite to the input surface 6 and is not in a load state. That is, the light projecting unit 301 is disposed on the first mounting surface side, while the contact button is disposed on the second mounting surface side. Then, according to the pressed state of the contact button 801, it can be determined whether the light projecting unit is at a position close to or far from the input surface 6. In other words, it can be determined whether the mounting surface is the front surface or the back surface.

ここで、この入力面6がフラットな場合には、実施形態1で説明した通り、入力面6による影響はないので、投受光路は確保され、十分な光量、または、適切な受光強度の分布が得られる。   Here, when the input surface 6 is flat, there is no influence by the input surface 6 as described in the first embodiment. Therefore, a light projecting / receiving path is secured, and a sufficient light quantity or an appropriate distribution of received light intensity is obtained. Is obtained.

一方、図17(B)のように、湾曲して凸状態となる入力面6にセンサバー1を装着し、投光部301が受光部40より入力面6に距離が近い配置の場合、実施形態1で説明した通り、入力面6の凸部で投受光路が遮られ、十分な受光強度が得られない。これを演算制御回路3の受光判定部61aで受光状態変化を検知し、センサバー1L側面に装着した表示ランプ900を点灯させてユーザに報知する。   On the other hand, as shown in FIG. 17B, when the sensor bar 1 is attached to the input surface 6 that is curved and convex, and the light projecting unit 301 is disposed closer to the input surface 6 than the light receiving unit 40, the embodiment As described in 1, the light projecting / receiving path is blocked by the convex portion of the input surface 6, and a sufficient light receiving intensity cannot be obtained. This is detected by the light reception determination unit 61a of the arithmetic control circuit 3, and the display lamp 900 mounted on the side surface of the sensor bar 1L is turned on to notify the user.

尚、この検知に関しては、センサバー1Lのみならず、センサバー1Rに関しても受光判定の判定結果を表示ランプ900で報知する。この表示ランプ900における報知(座標入力有効領域への装着面の変更を促す報知)により、ユーザは、センサバー1L及びセンサバー1Rの裏表を裏返して入力面6に装着する。その場合を示しているのが、図17(B)である。この状態は、入力面に対するセンサユニットの配置が逆になり、投光部301が受光部40より入力面6に対し距離が遠い配置となり、投光形態が変化する。この場合は、実施形態1の図12(B)と同様の光学的配置となり、入力面6の凸部114で投受光路を遮られることなく、十分な受光強度を得ることができる。この場合、図17(A)と反対面が入力面に設置されるので、接触ボタン801が押下される。   Regarding this detection, not only the sensor bar 1L but also the sensor bar 1R is notified of the determination result of the light reception determination by the display lamp 900. The user turns the sensor bar 1L and the sensor bar 1R upside down and attaches them to the input surface 6 by the notification on the display lamp 900 (notification for prompting the change of the mounting surface to the coordinate input effective area). FIG. 17B shows such a case. In this state, the arrangement of the sensor unit with respect to the input surface is reversed, the light projecting unit 301 is disposed farther from the light receiving unit 40 with respect to the input surface 6, and the light projecting form changes. In this case, the optical arrangement is the same as that in FIG. 12B of the first embodiment, and sufficient light receiving intensity can be obtained without blocking the light projecting / receiving path by the convex portion 114 of the input surface 6. In this case, since the opposite surface to FIG. 17A is installed on the input surface, the contact button 801 is pressed.

図18は、実施形態3の平面構成図であり、図18(A)は入力面がフラットな場合、図18(B)は入力面が凸で湾曲した場合を示している。図18(A)と図18(B)では、入力面6に対して、センサユニット2の位置関係は、左右は同じだが、上下は逆になる。従って、座標の算出において、Y軸方向の符号を逆にする必要がある。従って、入力面が凸で湾曲した場合、図18(B)においては接触ボタン801の押下を検知し、座標算出において、Y軸方向の符号を逆にする処理を行う。   FIG. 18 is a plan configuration diagram of the third embodiment. FIG. 18A shows a case where the input surface is flat, and FIG. 18B shows a case where the input surface is convex and curved. 18A and 18B, the positional relationship of the sensor unit 2 with respect to the input surface 6 is the same on the left and right, but upside down. Therefore, in calculating the coordinates, it is necessary to reverse the sign in the Y-axis direction. Accordingly, when the input surface is convex and curved, the pressing of the contact button 801 is detected in FIG. 18B, and the process of reversing the sign in the Y-axis direction is performed in the coordinate calculation.

図18(A)及び図(B)においては、左右のセンサバー1L、1Rそれぞれに接触ボタン801及び802が配置されており、左右のセンサバー1L、1Rの裏表の装着状態が揃っていることを確認することもできる。従って、もし、揃っていないことが検知された場合には、報知部(不図示)でその状態を放置し、操作者に修正を促してもよい。   18A and 18B, contact buttons 801 and 802 are arranged on the left and right sensor bars 1L and 1R, respectively, and it is confirmed that the left and right sensor bars 1L and 1R are mounted on the back and front. You can also Therefore, if it is detected that they are not aligned, the notification unit (not shown) may leave the state and prompt the operator to correct it.

以上説明したように、実施形態3によれば、センサバーの表裏のいずれにおいても装着可能な構成とすることで、内蔵する投光部の物理的位置をセンサバーの表裏の装着状態で変更することが可能となる。これにより、実質的に、実施形態1や2のような、2つの投光部の投光形態を切り替えて投光する構成を実現することができ、1つの投光部でも、実施形態1や2と同様の効果を得ることができる。   As described above, according to the third embodiment, the physical position of the built-in light projecting unit can be changed depending on the mounting state of the front and back of the sensor bar by adopting a configuration that can be mounted on both the front and back of the sensor bar. It becomes possible. Accordingly, it is possible to substantially realize a configuration in which the light projecting modes of the two light projecting units are switched as in the first and second embodiments. The same effect as 2 can be obtained.

<実施形態4>
実施形態1〜3では、再帰反射部4は、センサバー1の側面の一部の複数個所、あるいは、一か所に固定的に装着を行う構成としている。その装着位置は、上述のように、投光部302からの投光が対応するセンサバー1に装着された再帰反射部4で反射した反射光が受光部40に受光されるまでの光路が、想定される入力面の凸部分においても光路が遮られないように予め設定される。
<Embodiment 4>
In the first to third embodiments, the retroreflecting unit 4 is configured to be fixedly attached to a plurality of parts or one part of the side surface of the sensor bar 1. As described above, the mounting position is assumed to be an optical path until the light receiving unit 40 receives the reflected light reflected by the retroreflecting unit 4 mounted on the sensor bar 1 to which the light projection from the light projecting unit 302 corresponds. The light path is also set in advance so that the light path is not blocked even at the convex portion of the input surface.

具体的には、入力面6がフラットで、投受光路を遮るものがない場合に、入力面6に距離が近い投光部301で投光する場合には、入力面6からの距離が短い位置に再帰反射部4を装着する。一方、入力面6が湾曲して凸で、投受光路を確保するため、入力面6に距離が遠い投光部302で投光する場合には、再帰反射部4も入力面6からの距離が遠い位置に装着する。更に、上述のように、入力面6が上に凸となる湾曲形状の場合、センサバー1の装着面が入力面6に平行な方向から上向に傾斜しており、そこに装着するセンサユニット2の投受光路も入力面に対して上方に向く。   Specifically, when the input surface 6 is flat and there is nothing to block the light projecting / receiving path, when light is projected by the light projecting unit 301 close to the input surface 6, the distance from the input surface 6 is short. The retroreflective part 4 is mounted at the position. On the other hand, when the light is projected by the light projecting unit 302 that is far from the input surface 6 in order to secure the light projecting / receiving path, the retroreflecting unit 4 is also a distance from the input surface 6 in order to secure the light projecting / receiving path. Install at a distant position. Further, as described above, when the input surface 6 has a curved shape that is convex upward, the mounting surface of the sensor bar 1 is inclined upward from the direction parallel to the input surface 6, and the sensor unit 2 that is mounted thereon The light emitting / receiving path is also directed upward with respect to the input surface.

従って、対応する対向するセンサバー1に装着する再帰反射部4も入力面に対し更に上方に装着する必要がある。上記実施形態においては、この再帰反射部4の位置が固定的であるので、上記いずれの場合もカバーするために、入力面6からの距離が短い位置から遠い位置の幅の広い範囲に再帰反射部4を装着する必要がある。   Therefore, the retroreflecting part 4 to be mounted on the corresponding opposing sensor bar 1 must also be mounted on the input surface. In the above embodiment, since the position of the retroreflective portion 4 is fixed, in order to cover any of the above cases, the retroreflection is performed in a wide range of a position far from a position where the distance from the input surface 6 is short. It is necessary to attach the part 4.

但し、この固定的な装着形態の場合、入力面6がフラットな場合にも、幅の広い再帰反射部4からの反射光を受光することとなり、その場合、入力面6からの投受光路の幅が深くなる。この場合、入力面6からの距離が大きいところから指示による遮光が始まり、入力感が阻害される。   However, in the case of this fixed mounting form, even when the input surface 6 is flat, the reflected light from the wide retroreflecting portion 4 is received. In this case, the light projecting / receiving path from the input surface 6 is received. The width becomes deeper. In this case, the light shielding by the instruction starts from a place where the distance from the input surface 6 is large, and the input feeling is hindered.

これに対応するため、実施形態4においては、入力面6がフラットな場合と湾曲して凸の場合とで、再帰反射部4の入力面6からの装着位置を変化させる構成(位置変更機構)とする。具体的には、図19に示すように、実施形態4の再帰反射部4は、再帰反射部材400と示す。再帰反射部材400は、保持部材402、再帰反射シート401、回転軸を形成するヒンジ403により構成される。保持部材402を挟んで裏表に再帰反射シート401が装着され、保持部材402はセンサバー1の側面の略中間位置に固定される。   In order to cope with this, in the fourth embodiment, the configuration in which the mounting position of the retroreflecting unit 4 from the input surface 6 is changed depending on whether the input surface 6 is flat or curved and convex (position changing mechanism). And Specifically, as shown in FIG. 19, the retroreflective portion 4 of the fourth embodiment is indicated as a retroreflective member 400. The retroreflective member 400 includes a holding member 402, a retroreflective sheet 401, and a hinge 403 that forms a rotation axis. A retroreflective sheet 401 is mounted on both sides of the holding member 402, and the holding member 402 is fixed at a substantially intermediate position on the side surface of the sensor bar 1.

入力面6がフラットの場合、再帰反射部材400は、保持部材402から入力面側下方に回転させておくことにより、入力面6に近い位置に配置される。入力面6がフラットの場合、投受光路を遮るものがないので、この再帰反射部材400の位置で十分な受光強度を確保でき、しかも、入力感を損なうことはない。   When the input surface 6 is flat, the retroreflective member 400 is disposed at a position close to the input surface 6 by being rotated downward from the holding member 402 on the input surface side. When the input surface 6 is flat, there is nothing to block the light projecting / receiving path, so that a sufficient light receiving intensity can be ensured at the position of the retroreflective member 400, and the input feeling is not impaired.

一方、入力面6が上に凸で湾曲した場合には、受光判定部61aにより受光強度不足と判定される。この場合には、図中、表示ランプ900が点灯し、操作者に再帰反射部材400を入力面から持ち上げて移動させるように警告(配置変更を促す報知)する。操作者の操作により、再帰反射部材400はヒンジ403を軸に約180°回転し、入力面6がフラットの場合と反対側の再帰反射シート401が、センサバー1の側面に入力面6からより上方に配置され、固定部材(不図示)により固定される。受光判定部61aの判定に伴う、実施形態4の投光形態変更に関わる構成に関しては、実施形態1、あるいは実施形態2と同様である。   On the other hand, when the input surface 6 is convex upward and curved, the light reception determination unit 61a determines that the light reception intensity is insufficient. In this case, in the drawing, the display lamp 900 is turned on, and the operator is warned (notification for prompting the arrangement change) to move the retroreflective member 400 by lifting it from the input surface. By the operation of the operator, the retroreflective member 400 is rotated about 180 ° about the hinge 403, and the retroreflective sheet 401 on the opposite side to the case where the input surface 6 is flat is located above the input surface 6 on the side surface of the sensor bar 1. And fixed by a fixing member (not shown). The configuration related to the light projection mode change of the fourth embodiment accompanying the determination of the light reception determination unit 61a is the same as that of the first or second embodiment.

つまり、受光強度の判定により、入力面6が上に凸で湾曲した場合には、投光形態制御部61bで入力面6に対し投光部301より距離が離れた投光部302が投光するように制御する。従って、実施形態4により、入力面6の状態によらず投受光路が確保できると同時に、入力面フラット時の入力感に影響を与えない構成を実現できる。   That is, when the input surface 6 is convex upward and curved according to the determination of the received light intensity, the light projecting form control unit 61b projects the light projecting unit 302 away from the light projecting unit 301 with respect to the input surface 6. Control to do. Therefore, according to the fourth embodiment, a light projecting / receiving path can be ensured regardless of the state of the input surface 6, and at the same time, a configuration that does not affect the input feeling when the input surface is flat can be realized.

尚、実施形態4においては、受光強度不足と判定に基づき表示ランプ900を点灯させ操作者に再帰反射部材400の移動を促したが、ヒンジ403に動力機構を付加させ、受光強度に応じて、再帰反射部材400の位置を自動的に変更する構成としても良い。また、再帰反射部材400の位置を変更させる構成は、ヒンジ403を含んだ回転機構に限られるものではなく、入力面6に垂直方向に移動する機構を有しても良い。更には、別途高さの異なる再帰反射部材400を用意し、受光強度に応じて、つまり、報知に応じて、センサバーに装着する構成としても良い。   In the fourth embodiment, the display lamp 900 is turned on based on the determination that the received light intensity is insufficient, and the operator is urged to move the retroreflective member 400. However, a power mechanism is added to the hinge 403, and according to the received light intensity, It is good also as a structure which changes the position of the retroreflection member 400 automatically. Further, the configuration for changing the position of the retroreflective member 400 is not limited to the rotation mechanism including the hinge 403, and a mechanism that moves in the direction perpendicular to the input surface 6 may be provided. Further, a retroreflective member 400 having a different height may be prepared separately and attached to the sensor bar according to the received light intensity, that is, according to the notification.

以上説明したように、実施形態4によれば、再帰反射部の配置位置を可変とすることで、複数個所に再帰反射部を配置しなくても、投光部の投光形態に最適な位置で再帰反射部を配置して、実施形態1や2と同様の効果を得ることができる。   As described above, according to the fourth embodiment, by making the arrangement position of the retroreflective part variable, the optimal position for the light projection form of the light projecting part without arranging the retroreflective parts at a plurality of locations. By arranging the retroreflective portion, the same effect as in the first and second embodiments can be obtained.

<実施形態5>
実施形態1及び2においては、受光部40を挟んで、入力面6に距離が近い位置と遠い位置の2箇所に投光部301及び302を配置する構成としている。しかし、投光部301及び302は、必ずしも受光部40を挟んだ配置とする必要はなく、各々の投光部301及び302の入力面6からの距離が異なれば、それ以外の配置でも良い。また、投光部は、2箇所に限らず、入力面6からの距離が異なれば、3箇所以上配置する構成としても良い。
<Embodiment 5>
In the first and second embodiments, the light projecting units 301 and 302 are arranged at two positions, a position near and far from the input surface 6 with the light receiving unit 40 interposed therebetween. However, the light projecting units 301 and 302 are not necessarily arranged with the light receiving unit 40 interposed therebetween, and may be arranged in other ways as long as the distances from the input surface 6 of the light projecting units 301 and 302 are different. Further, the number of light projecting units is not limited to two, and may be configured to be arranged at three or more locations if the distance from the input surface 6 is different.

<<本願発明の特徴的な構成及び効果>>
上述のように、本願発明は、略矩形状の座標入力有効領域に対する指示位置の座標を算出する座標入力装置であって、センサユニットを少なくとも2つ内蔵する第1の筺体及び第2の筺体(センサバー)を有する。各々の筺体には入射した光をもとの方向に戻すための再帰反射部が設けられ、略矩形状の座標入力有効領域の対向する2辺に、第1の筺体及び第2の筺体が各々設けられる。
<< Characteristic configuration and effect of the present invention >>
As described above, the present invention is a coordinate input device that calculates the coordinates of a designated position with respect to a substantially rectangular coordinate input effective area, and includes a first casing and a second casing (including at least two sensor units). Sensor bar). Each casing is provided with a retroreflecting portion for returning incident light to the original direction, and the first casing and the second casing are respectively provided on two opposite sides of the substantially rectangular coordinate input effective region. Provided.

各々の筺体に設けられたセンサユニットは、対向する辺に設けられた筺体の再帰反射部に向かって赤外線を投光する投光部と、該再帰反射部で再帰反射された光を受光する受光部よりなる。座標入力有効領域をタッチすることによって光路が遮られ、少なくとも2つのセンサユニットは、タッチ位置に応じた光が遮られた方向を検知することができる。少なくとも2つのセンサユニットが検出した角度情報と、当該2つのセンサユニット間の距離情報に基づき、幾何学的な演算によりタッチ位置を算出できる。   The sensor unit provided in each housing includes a light projecting portion that projects infrared rays toward a retroreflecting portion of the housing provided on the opposite side, and a light receiving unit that receives light retroreflected by the retroreflecting portion. It consists of parts. The optical path is blocked by touching the coordinate input effective area, and at least two sensor units can detect the direction in which the light according to the touch position is blocked. Based on the angle information detected by at least two sensor units and the distance information between the two sensor units, the touch position can be calculated by geometric calculation.

第1の筺体及び第2の筺体は座標入力面であるところのスクリーン面に装着、取り外し可能にするための着脱部が設けられ、第1の筺体及び第2の筺体を持ち運ぶことができるように構成される。   The first housing and the second housing are provided with an attaching / detaching portion for enabling attachment and detachment to the screen surface which is a coordinate input surface, so that the first housing and the second housing can be carried. Composed.

持ち運ぶことを考慮すると、第1の筺体及び第2の筺体はより小さく小型に、より軽量に構成されることが望ましい。本願発明のセンサユニットの受光光学系は予め指定された範囲(約50°程度)の視野範囲を有し、受光光学系の光軸は光電変換素子の画素の法線方向に設定されるものの、視野範囲は光軸対称には設定されておらず、光軸非対称な光学系を有する。そして、その光軸(もしくは光電変換素子の画素の法線方向)は、筺体に収納されている少なくとも2つのセンサユニット(受光光学系の光軸中心)を結ぶ直線と垂直になるように設定されている。このように構成することで、センサユニットを格納する筺体を、より小型に構成できる。   In consideration of carrying, it is desirable that the first casing and the second casing are configured to be smaller and smaller and lighter. Although the light receiving optical system of the sensor unit of the present invention has a field of view designated in advance (about 50 °), the optical axis of the light receiving optical system is set in the normal direction of the pixel of the photoelectric conversion element, The visual field range is not set to be symmetric with respect to the optical axis, and has an optical system that is optically asymmetric. The optical axis (or the normal direction of the pixel of the photoelectric conversion element) is set to be perpendicular to a straight line connecting at least two sensor units (optical axis centers of the light receiving optical system) housed in the housing. ing. By comprising in this way, the housing which stores a sensor unit can be comprised more compactly.

スクリーン面の大きさは種々のサイズ、あるいはアスペクト比が想定され、スクリーン面の大きさ、形状に合わせて、座標入力有効領域が設定されるのが好ましい。従って、第1の筺体及び第2の筺体には伸縮部が設けられ、伸縮量を調整することによって筺体内に設けられるセンサユニットの距離が可変し、スクリーン面の大きさに応じてセンサユニットを適宜配置できるように構成される。   Various sizes or aspect ratios are assumed for the size of the screen surface, and the coordinate input effective area is preferably set in accordance with the size and shape of the screen surface. Accordingly, the first casing and the second casing are provided with expansion / contraction portions, and by adjusting the amount of expansion / contraction, the distance of the sensor unit provided in the casing can be varied, and the sensor unit can be adjusted according to the size of the screen surface. It is comprised so that it can arrange | position suitably.

さらには、センサユニットを具備する第1の筺体及び第2の筺体を装着する際、両者の相対的な位置関係が精密に位置決めされなくても、高精度にタッチ位置の検出が行えることが好ましい。従って、筺体を装着した際に、各々の筺体に格納されているセンサユニット間の相対的な位置情報を検出する検出部を設け、ユーザが意識することなく簡単に筺体を装着できる。   Furthermore, when the first housing and the second housing having the sensor unit are mounted, it is preferable that the touch position can be detected with high accuracy even if the relative positional relationship between the two is not precisely positioned. . Therefore, when the chassis is mounted, a detection unit that detects relative positional information between the sensor units stored in each chassis is provided, and the chassis can be easily mounted without being conscious of the user.

さらには、座標入力装置が出力した情報を受信する、例えば、パーソナルコンピュータ等に、専用のドライバソフトをインストールする必要が無ければ、どのパーソナルコンピュータ等に接続しても直ぐに使えることになる。従って、座標入力装置の座標系(デジタイザ座標系)と表示装置の座標系(スクリーン座標系)の一致(キャリブレーション)作業を、パーソナルコンピュータを介在させること無く行えるように構成している。   Further, if it is not necessary to install dedicated driver software in a personal computer or the like that receives information output from the coordinate input device, for example, it can be used immediately regardless of which personal computer or the like is connected. Therefore, the coordinate system (digitizer coordinate system) of the coordinate input device and the coordinate system (screen coordinate system) of the display device can be matched (calibrated) without using a personal computer.

以上の座標入力装置における本願発明の主要部分は以下のようになる。   The main part of the present invention in the above coordinate input device is as follows.

入力面を指示することにより座標を入力する座標入力有効領域に対する指示位置を検出する座標入力装置であって、
第1の筺体と前記第2の筺体であって、それぞれの筺体が、
前記座標入力有効領域に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部の少なくとも2つの投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記筺体が装着される前記座標入力有効領域の装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筺体と第2の筺体と、
前記第1の筺体と前記第2の筺体が前記座標入力有効領域の対向する2辺近傍に装着された状態で、前記第1の筺体と前記第2の筺体それぞれの前記受光部から得られる光量分布の変動に基づいて前記座標入力有効領域の前記指示位置を計算する計算手段と、
前記第1の筺体と前記第2の筺体それぞれについての前記受光部の受光状態を判定する判定手段と、
前記判定手段の判定結果に基づいて、前記第1の筺体と前記第2の筺体それぞれについての前記第1の投光部と前記第2の投光部を少なくとも一方を使用して投光を行うように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御手段と
を有する。
A coordinate input device that detects an indicated position with respect to a coordinate input effective area for inputting coordinates by indicating an input surface,
A first housing and a second housing, each housing being
As a light projecting unit that projects light parallel to the coordinate input effective area, at least two light projecting units of a first light projecting unit and a second light projecting unit having different distances from the input surface, Including at least two sensor units each including a light receiving unit that receives light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface of the coordinate input effective region on which the housing is mounted.
A first housing and a second housing;
The amount of light obtained from the light receiving portions of the first and second casings in a state where the first casing and the second casing are mounted in the vicinity of two opposing sides of the coordinate input effective area. Calculation means for calculating the indicated position of the coordinate input effective area based on a variation in distribution;
Determining means for determining a light receiving state of the light receiving unit for each of the first housing and the second housing;
Based on the determination result of the determination means, light is emitted using at least one of the first light projecting unit and the second light projecting unit for each of the first housing and the second housing. Thus, it has a control means which controls the light projection form by the 1st light projection part and the 2nd light projection part.

以上説明したよう、本願発明によれば、タッチ位置の検出に必要な構成要素が、2つの筺体内に全て収納され、当該筺体を、例えば、平面状のホワイトボード、壁面等に装着することで、タッチ位置の検出が可能となる。つまり、本願発明の座標入力装置は、座標入力有効領域であるタッチ入力面を必須の構成要素として持っていない。従って、たとえ座標入力有効領域が大型(例えば、90インチクラス)になるとしも、当該2つの筺体のみを持ち運ぶことで、何処でもその操作環境を実現することができる。更には、タッチ入力面を構成要素として具備していないので、製品コストは当然のことながら大幅に低下させることができる。言い換えれば、ユーザが所有している既存のホワイトボード等を活用することで、導入コストを低下させることができる大きな効果が得られる。   As described above, according to the present invention, the components necessary for detecting the touch position are all housed in the two housings, and the housings are mounted on, for example, a flat white board or a wall surface. The touch position can be detected. That is, the coordinate input device of the present invention does not have a touch input surface that is a coordinate input effective area as an essential component. Therefore, even if the coordinate input effective area becomes large (for example, 90 inch class), the operating environment can be realized anywhere by carrying only the two casings. Furthermore, since the touch input surface is not provided as a component, the product cost can be significantly reduced as a matter of course. In other words, by using an existing whiteboard or the like owned by the user, a great effect of reducing the introduction cost can be obtained.

更には、構成要素が2つの筺体に全て具備されているので、ユーザによるホワイトボードへの装着、配線等も容易にできる効果が得られる。無論、持ち運ぶことを想定すれば、より軽量/小型の筺体で有ることが好ましく、センサユニットの受光光学系を光軸非対称とすることで、筺体の軽量化/小型化を実現し、可搬性を向上させることができる。   Furthermore, since all the structural elements are provided in the two casings, an effect that the user can easily attach the whiteboard, perform wiring, and the like can be obtained. Of course, if it is assumed to be carried, it is preferable to have a lighter / smaller housing. By making the light receiving optical system of the sensor unit asymmetrical to the optical axis, the housing can be made lighter / smaller and more portable. Can be improved.

更には、例えば、既存のホワイトボードに装着することを考慮すると、製造メーカ、製品の型番等により、そのサイズは種々存在する。従って、ユーザが既に購入して使用しているホワイトボードを活用して使用できると言うことは、導入コストの削減、あるいは資源の有効利用と言う点で優れた効果が得られる。   Furthermore, for example, when considering mounting on an existing whiteboard, there are various sizes depending on the manufacturer, the product model number, and the like. Therefore, the fact that the user can utilize the whiteboard that has already been purchased and used has an excellent effect in terms of reduction in introduction cost or effective use of resources.

更には、高精度な位置検出を可能とする座標入力装置にあって、装着する筺体をそこそこの精度で装着可能とすることで、設置の煩わしさ、設置時間を大幅に削減する効果も得られる。   Furthermore, in the coordinate input device that enables highly accurate position detection, it is possible to obtain the effect of greatly reducing the troublesome installation and the installation time by making it possible to mount the housing to be mounted with reasonable accuracy. .

例えば、ホワイトボード、パーソナルコンピュータ、フロントプロジェクターが既に導入されている会議室に、2つの筺体からなる当該座標入力装置を運び入れて、画面を直接タッチして操作する環境を構築することを想定する。   For example, it is assumed that the coordinate input device composed of two housings is brought into a conference room in which a whiteboard, a personal computer, and a front projector have already been introduced, and an environment in which the screen is directly touched and operated is constructed. .

この時、会議室に既に導入されているパーソナルコンピュータを直ぐに使えることが好ましく、座標入力装置を動作させるためにドライバー等のインストールを不要にすることで、設置容易性、可搬性が向上する。つまり、当該座標入力装置と共に、ドライバー等が既にインストールされている専用のパーソナルコンピュータを持ち運ぶ必要が無くなる。もしくは、会議室のパーソナルコンピュータへのインストール作業が不要であることから、余分なセットアップ時間がかからず、直ぐに会議を始めることができる優れた利点が得られるようになる。   At this time, it is preferable that the personal computer already installed in the conference room can be used immediately. Installation of a driver or the like is not required to operate the coordinate input device, thereby improving installation ease and portability. That is, it is not necessary to carry a dedicated personal computer in which a driver or the like is already installed together with the coordinate input device. Or since the installation work to the personal computer in the conference room is not required, it is possible to obtain an excellent advantage that the conference can be started immediately without extra setup time.

また、座標入力装置を、凸/凹状の湾曲しているホワイトボード及び壁等の入力面に装着した場合にも、特段の部材を別途追加することなく、高精度な座標検出が可能となる。   In addition, even when the coordinate input device is mounted on an input surface such as a convex / concave curved whiteboard or wall, high-precision coordinate detection is possible without adding a special member.

尚、本発明の座標入力装置における処理(フローチャート)は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The process (flow chart) in the coordinate input device of the present invention can also be realized by executing the following process. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (9)

入力面を指示することにより座標を入力する座標入力有効領域に対する指示位置を検出する座標入力装置であって、
第1の筺体と第2の筺体であって、それぞれの筺体が、
前記座標入力有効領域に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部の少なくとも2つの投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記筺体が装着される前記座標入力有効領域の装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筺体と第2の筺体と、
前記第1の筺体と前記第2の筺体が前記座標入力有効領域の対向する2辺近傍に装着された状態で、前記第1の筺体と前記第2の筺体それぞれの前記受光部から得られる光量分布の変動に基づいて前記座標入力有効領域の前記指示位置を計算する計算手段と、
前記第1の筺体と前記第2の筺体それぞれについての前記受光部の受光状態を判定する判定手段と、
前記判定手段の判定結果に基づいて、前記第1の筺体と前記第2の筺体それぞれについての前記第1の投光部と前記第2の投光部を少なくとも一方を使用して投光を行うように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御手段と
を有することを特徴とする座標入力装置。
A coordinate input device that detects an indicated position with respect to a coordinate input effective area for inputting coordinates by indicating an input surface,
A first housing and a second housing, each housing being
As a light projecting unit that projects light parallel to the coordinate input effective area, at least two light projecting units of a first light projecting unit and a second light projecting unit having different distances from the input surface, Including at least two sensor units each including a light receiving unit that receives light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface of the coordinate input effective region on which the housing is mounted.
A first housing and a second housing;
The amount of light obtained from the light receiving portions of the first and second casings in a state where the first casing and the second casing are mounted in the vicinity of two opposing sides of the coordinate input effective area. Calculation means for calculating the indicated position of the coordinate input effective area based on a variation in distribution;
Determining means for determining a light receiving state of the light receiving unit for each of the first housing and the second housing;
Based on the determination result of the determination means, light is emitted using at least one of the first light projecting unit and the second light projecting unit for each of the first housing and the second housing. As described above, a coordinate input device comprising: a control unit that controls a light projection mode by the first light projecting unit and the second light projecting unit.
前記判定手段は、前記受光部の受光状態として、該受光部の受光量が閾値以上であるか否かを判定し、
前記判定手段の判定の結果、前記受光部の受光量が閾値以上である場合、前記制御手段は、前記第1の投光部による投光を行い、
前記判定手段の判定の結果、前記受光部の受光量が閾値未満である場合、前記制御手段は、少なくとも前記第2の投光部による投光を行う
ことを特徴とする請求項1に記載の座標入力装置。
The determination means determines whether the amount of light received by the light receiving unit is equal to or greater than a threshold as the light receiving state of the light receiving unit,
As a result of the determination by the determination unit, when the amount of light received by the light receiving unit is greater than or equal to a threshold, the control unit performs light projection by the first light projecting unit,
2. The control unit according to claim 1, wherein if the amount of light received by the light receiving unit is less than a threshold as a result of the determination by the determination unit, the control unit performs light projection by at least the second light projecting unit. Coordinate input device.
前記判定手段の判定の結果、前記受光部の受光状態として、2つの異なる受光方向からの受光強度の比が閾値以上であるか否かを判定し、
前記判定手段の判定の結果、前記受光部の受光強度の比が閾値以上である場合、前記制御手段は、前記第1の投光部による投光を行い、
前記判定手段の判定の結果、前記受光部の受光強度の比が閾値未満である場合、前記制御手段は、少なくとも前記第2の投光部による投光を行う
ことを特徴とする請求項1に記載の座標入力装置。
As a result of the determination by the determination means, it is determined whether the ratio of the received light intensity from two different light receiving directions is equal to or greater than a threshold as the light receiving state of the light receiving unit,
As a result of the determination by the determination unit, when the ratio of the received light intensity of the light receiving unit is a threshold value or more, the control unit performs light projection by the first light projecting unit,
2. The control unit according to claim 1, wherein, as a result of the determination by the determination unit, when the ratio of the received light intensity of the light receiving unit is less than a threshold value, the control unit performs at least light projection by the second light projecting unit. The coordinate input device described.
前記第1の筺体と前記第2の筺体はそれぞれ、
前記第1の投光部と前記第2の投光部の一方の基準投光部を含み、
前記座標入力有効領域への装着面として、前記筺体の表面である第1の装着面と、該筺体の裏面であって前記第1の装着面と対向する第2の装着面を有し、
前記基準投光部は、前記第1の装着面側に配置され、
前記座標入力有効領域への装着面が、前記第1の装着面であるのか前記第2の装着面であるかを検出するための接触ボタンが前記第2の装着面側に配置され、
前記判定手段の判定結果に基づいて、前記座標入力有効領域への装着面の変更を促す報知を行う報知手段を更に備える
ことを特徴とする請求項1に記載の座標入力装置。
The first housing and the second housing are respectively
Including one reference light projecting unit of the first light projecting unit and the second light projecting unit,
As a mounting surface to the coordinate input effective area, it has a first mounting surface that is the surface of the housing, and a second mounting surface that is the back surface of the housing and faces the first mounting surface,
The reference light projecting unit is disposed on the first mounting surface side,
A contact button for detecting whether the mounting surface to the coordinate input effective area is the first mounting surface or the second mounting surface is disposed on the second mounting surface side,
The coordinate input device according to claim 1, further comprising notification means for notifying a change of a mounting surface to the coordinate input effective area based on a determination result of the determination means.
前記入力面からの距離が異なる位置に前記再帰反射部を配置変更するための位置変更手段を更に備える
ことを特徴とする請求項1に記載の座標入力装置。
The coordinate input device according to claim 1, further comprising position changing means for changing the arrangement of the retroreflecting unit at a position where the distance from the input surface is different.
前記判定手段の判定結果に基づいて、前記再帰反射部の配置変更を促す報知を行う報知手段を更に備える
ことを特徴とする請求項5に記載の座標入力装置。
The coordinate input device according to claim 5, further comprising a notification unit that performs notification that prompts the user to change the arrangement of the retroreflecting unit based on a determination result of the determination unit.
前記判定手段の判定結果に基づいて、前記位置変更手段は、前記再帰反射部を配置変更する
ことを特徴とする請求項5に記載の座標入力装置。
The coordinate input device according to claim 5, wherein the position changing unit changes the arrangement of the retroreflecting unit based on a determination result of the determining unit.
入力面を指示することにより座標を入力する座標入力有効領域に対する指示位置を検出する座標入力装置として、
第1の筺体と第2の筺体であって、それぞれの筺体が、
前記座標入力有効領域に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部の少なくとも2つの投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記筺体が装着される前記座標入力有効領域の装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筺体と第2の筺体と
を備える座標入力装置の制御方法であって、
前記第1の筺体と前記第2の筺体が前記座標入力有効領域の対向する2辺近傍に装着された状態で、前記第1の筺体と前記第2の筺体それぞれの前記受光部から得られる光量分布の変動に基づいて前記座標入力有効領域の前記指示位置を計算する計算工程と、
前記第1の筺体と前記第2の筺体それぞれについての前記受光部の受光状態を判定する判定工程と、
前記判定工程の判定結果に基づいて、前記第1の筺体と前記第2の筺体それぞれについての前記第1の投光部と前記第2の投光部を少なくとも一方を使用して投光を行うように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御工程と
を有することを特徴とする座標入力装置の制御方法。
As a coordinate input device that detects a designated position with respect to a coordinate input effective area for inputting coordinates by designating an input surface,
A first housing and a second housing, each housing being
As a light projecting unit that projects light parallel to the coordinate input effective area, at least two light projecting units of a first light projecting unit and a second light projecting unit having different distances from the input surface, Including at least two sensor units each including a light receiving unit that receives light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface of the coordinate input effective region on which the housing is mounted.
A control method of a coordinate input device comprising a first housing and a second housing,
The amount of light obtained from the light receiving portions of the first and second casings in a state where the first casing and the second casing are mounted in the vicinity of two opposing sides of the coordinate input effective area. A calculation step of calculating the indicated position of the coordinate input effective area based on a distribution variation;
A determination step of determining a light receiving state of the light receiving unit for each of the first housing and the second housing;
Based on the determination result of the determination step, light is projected using at least one of the first light projecting unit and the second light projecting unit for each of the first housing and the second housing. Thus, the control method of controlling the light projection form by the said 1st light projection part and the said 2nd light projection part, The control method of the coordinate input device characterized by the above-mentioned.
入力面を指示することにより座標を入力する座標入力有効領域に対する指示位置を検出する座標入力装置として、
第1の筺体と第2の筺体であって、それぞれの筺体が、
前記座標入力有効領域に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部の少なくとも2つの投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記筺体が装着される前記座標入力有効領域の装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筺体と第2の筺体と
を備える座標入力装置の制御をコンピュータに機能させるためのプログラムであって、
前記コンピュータを、
前記第1の筺体と前記第2の筺体が前記座標入力有効領域の対向する2辺近傍に装着された状態で、前記第1の筺体と前記第2の筺体それぞれの前記受光部から得られる光量分布の変動に基づいて前記座標入力有効領域の前記指示位置を計算する計算手段と、
前記第1の筺体と前記第2の筺体それぞれについての前記受光部の受光状態を判定する判定手段と、
前記判定手段の判定結果に基づいて、前記第1の筺体と前記第2の筺体それぞれについての前記第1の投光部と前記第2の投光部を少なくとも一方を使用して投光を行うように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御手段と
して機能させることを特徴とするプログラム。
As a coordinate input device that detects a designated position with respect to a coordinate input effective area for inputting coordinates by designating an input surface,
A first housing and a second housing, each housing being
As a light projecting unit that projects light parallel to the coordinate input effective area, at least two light projecting units of a first light projecting unit and a second light projecting unit having different distances from the input surface, Including at least two sensor units each including a light receiving unit that receives light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface of the coordinate input effective region on which the housing is mounted.
A program for causing a computer to control a coordinate input device comprising a first housing and a second housing,
The computer,
The amount of light obtained from the light receiving portions of the first and second casings in a state where the first casing and the second casing are mounted in the vicinity of two opposing sides of the coordinate input effective area. Calculation means for calculating the indicated position of the coordinate input effective area based on a variation in distribution;
Determining means for determining a light receiving state of the light receiving unit for each of the first housing and the second housing;
Based on the determination result of the determination means, light is emitted using at least one of the first light projecting unit and the second light projecting unit for each of the first housing and the second housing. As described above, the program is made to function as a control unit that controls a light projection mode by the first light projecting unit and the second light projecting unit.
JP2012192295A 2012-08-31 2012-08-31 Coordinate input device, control method therefor, and program Expired - Fee Related JP5950767B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012192295A JP5950767B2 (en) 2012-08-31 2012-08-31 Coordinate input device, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012192295A JP5950767B2 (en) 2012-08-31 2012-08-31 Coordinate input device, control method therefor, and program

Publications (3)

Publication Number Publication Date
JP2014048957A true JP2014048957A (en) 2014-03-17
JP2014048957A5 JP2014048957A5 (en) 2015-08-20
JP5950767B2 JP5950767B2 (en) 2016-07-13

Family

ID=50608546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012192295A Expired - Fee Related JP5950767B2 (en) 2012-08-31 2012-08-31 Coordinate input device, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP5950767B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021034928A (en) * 2019-08-27 2021-03-01 セイコーエプソン株式会社 Operation method and display device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215099A (en) * 2010-04-02 2011-10-27 Seiko Epson Corp Optical position detecting device
JP2011258096A (en) * 2010-06-11 2011-12-22 Seiko Epson Corp Processing device, optical detection device, display device and electronic apparatus
JP2012059228A (en) * 2010-09-13 2012-03-22 Canon Inc Coordinate input device
JP2012099024A (en) * 2010-11-04 2012-05-24 Canon Inc Coordinate input device, control method for the same and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215099A (en) * 2010-04-02 2011-10-27 Seiko Epson Corp Optical position detecting device
JP2011258096A (en) * 2010-06-11 2011-12-22 Seiko Epson Corp Processing device, optical detection device, display device and electronic apparatus
JP2012059228A (en) * 2010-09-13 2012-03-22 Canon Inc Coordinate input device
JP2012099024A (en) * 2010-11-04 2012-05-24 Canon Inc Coordinate input device, control method for the same and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021034928A (en) * 2019-08-27 2021-03-01 セイコーエプソン株式会社 Operation method and display device

Also Published As

Publication number Publication date
JP5950767B2 (en) 2016-07-13

Similar Documents

Publication Publication Date Title
JP5973849B2 (en) Coordinate input device and sensor bar used for coordinate input device
JP5875445B2 (en) Coordinate input device
JP6021531B2 (en) Coordinate input device, control method therefor, and program
JP5591069B2 (en) Coordinate input device, control method therefor, and program
JP5725774B2 (en) Coordinate input device and coordinate input method
JP6031293B2 (en) Coordinate input device, control method therefor, and program
JP5950767B2 (en) Coordinate input device, control method therefor, and program
JP6218590B2 (en) Coordinate input device and control method thereof
JP5969794B2 (en) Coordinate input device
JP2015156115A (en) coordinate input device
JP2015225466A (en) Coordinate input device, control method for the same, and program
JP6334980B2 (en) Coordinate input device, control method therefor, and program
JP5882744B2 (en) Coordinate input device
JP2012048403A (en) Coordinate input device and control method thereof, and program
JP5814608B2 (en) Coordinate input device, control method therefor, and program
JP2015022577A (en) Coordinate input device, control method of coordinate input device, and program
JP2012032984A (en) Position detector
JP2006059153A (en) Optical coordinate input device
JP2007072587A (en) Coordinate-input device, control method of coordinate-input device, control program, and storage medium
JP2017045336A (en) Input device and detection method
JP2017016531A (en) Coordinate input device, control method thereof, and program
US9958989B2 (en) Coordinate input apparatus, control method thereof, and non-transitory computer-readable storage medium
JP2015230562A (en) Coordinate input device, control method of the same, and program
JP2011203928A (en) Position detecting device
JP2016058046A (en) Coordinate input device, control method thereof, program, coordinate input system, and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160607

R151 Written notification of patent or utility model registration

Ref document number: 5950767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees