JP2016018455A - Coordinate input device and control method of the same, computer program - Google Patents

Coordinate input device and control method of the same, computer program Download PDF

Info

Publication number
JP2016018455A
JP2016018455A JP2014141777A JP2014141777A JP2016018455A JP 2016018455 A JP2016018455 A JP 2016018455A JP 2014141777 A JP2014141777 A JP 2014141777A JP 2014141777 A JP2014141777 A JP 2014141777A JP 2016018455 A JP2016018455 A JP 2016018455A
Authority
JP
Japan
Prior art keywords
light
coordinate
pointing
coordinate input
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014141777A
Other languages
Japanese (ja)
Inventor
貴幸 橋本
Takayuki Hashimoto
貴幸 橋本
佐藤 肇
Hajime Sato
肇 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014141777A priority Critical patent/JP2016018455A/en
Publication of JP2016018455A publication Critical patent/JP2016018455A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a coordinate input technology that is excellent in responsiveness and curbs power consumption in a configuration of a light shield system enabling detection of an instruction input by a plurality of instruction tools.SOLUTION: A coordinate input device comprises: a plurality of detection means that detects light projected from projection means projecting the light toward a coordinate input area; determination means that determines a direction of an instruction tool input into the coordinate input area when viewing from the plurality of detection means on the basis of the detection result of the light; calculation means that calculates a coordinate corresponding to an input position of the instruction tool on the basis of the determined direction of the instruction tool when viewing from the plurality of determination means; and instruction means that instructs the instruction tool to emit light when the plurality of instruction tools is used and the coordinate of each instruction tool cannot be uniquely determined on the basis of the direction of the instruction tool when viewing from the plurality of detection means. The calculation means is configured to, when the instruction tool is instructed to emit the light by the instruction means, calculate a coordinate on the basis of a direction of the light emission from the instruction tool detected by the detection means.SELECTED DRAWING: Figure 8

Description

本発明は、座標入力領域上の指示位置を検出する座標入力装置及びその制御方法、コンピュータプログラムに関するものである。   The present invention relates to a coordinate input device that detects a designated position on a coordinate input area, a control method therefor, and a computer program.

座標入力面に、指示具(例えば、専用入力ペン、指等)によって指示して座標を入力することにより、接続されたコンピュータを制御したり、文字や図形などを書き込むために用いられる座標入力装置が存在する。   A coordinate input device used to control a connected computer or to write characters, figures, etc. by inputting coordinates on a coordinate input surface by pointing with a pointing tool (for example, a dedicated input pen, finger, etc.) Exists.

この種の座標入力装置としては、タッチパネルとして、各種方式のものが提案ないし製品化されている。タッチパネルは、特殊な器具などを用いずに、画面上でパーソナルコンピュータやタブレット端末等の端末の操作が簡単にできるため、広く用いられている。   As this type of coordinate input device, various types of touch panels have been proposed or commercialized as touch panels. A touch panel is widely used because it can easily operate a terminal such as a personal computer or a tablet terminal on a screen without using a special instrument.

座標入力方式としては、抵抗膜を用いたもの、超音波を用いたものなどの他、光を用いたものが知られている(特許文献1)。特許文献1の構成は、座標入力領域の外側に再帰性反射シートを設けるとともに、座標入力領域の角端部に配置された光を照明する照明部と光を受光する受光部とを備えている。このような構成において、座標入力領域内において指等の光を遮蔽する遮蔽物と受光部間の角度を検出し、その検出結果に基づいて、その遮蔽物の指示位置を判定する。このように、遮光位置を検出して座標を算出する方式を、以下、遮光方式と称する。   As a coordinate input method, there are known methods using light in addition to a method using a resistive film and a method using ultrasonic waves (Patent Document 1). The configuration of Patent Literature 1 includes a retroreflective sheet outside the coordinate input region, and includes an illumination unit that illuminates light and a light receiving unit that receives light, which are arranged at the corner ends of the coordinate input region. . In such a configuration, an angle between a light shielding unit and a light shielding unit that shields light such as a finger in the coordinate input area is detected, and an indication position of the light shielding unit is determined based on the detection result. The method for detecting the light shielding position and calculating the coordinates in this way is hereinafter referred to as a light shielding method.

遮光方式の座標入力装置においては、特に、その座標入力領域のサイズが大きい場合には、複数の操作者が同時に入力できるようにして、利便性を向上し、会議等の用途で活用する要求がある。そこで、複数の同時入力に対応する座標入力装置が考案されている。複数の指示入力を同時に検出可能にする構成として、複数の指示具がそれぞれ異なる波長で発光し、波長ごとに1対のセンサを入力領域の上下に設置して、複数の座標を同時に検出することが知られている(特許文献2)。   In light-shielding coordinate input devices, particularly when the size of the coordinate input area is large, there is a demand to improve the convenience by allowing multiple operators to input at the same time and to utilize it for applications such as conferences. is there. Therefore, a coordinate input device corresponding to a plurality of simultaneous inputs has been devised. As a configuration that can detect a plurality of instruction inputs at the same time, a plurality of indicators emit light at different wavelengths, and a pair of sensors is installed at the top and bottom of the input area for each wavelength to detect a plurality of coordinates simultaneously. Is known (Patent Document 2).

また、発光素子を備えた電子ペンを撮影し、発光の位置を追跡することで電子ペンの位置を検出することが知られている(特許文献3)。特許文献3の構成では、撮像素子を備えたプロジェクタから電子ペンへ所定時間の発光を指示する信号を送信し、発光している状態の電子ペンの画像と発光していない状態の画像との差分画像を用いて位置を検出することで、検出精度を高めている。   It is also known to detect the position of the electronic pen by photographing an electronic pen including a light emitting element and tracking the position of light emission (Patent Document 3). In the configuration of Patent Document 3, a signal instructing light emission for a predetermined time is transmitted from a projector equipped with an image sensor to the electronic pen, and the difference between the image of the electronic pen that is emitting light and the image that is not emitting light Detection accuracy is enhanced by detecting the position using an image.

米国特許第4507557号公報U.S. Pat. No. 4,507,557 特開2003−256123号公報Japanese Patent Laid-Open No. 2003-256123 特開2005−165981号公報JP 2005-165981 A

しかし、複数の指示入力をペン等の指示具で行う場合には、以下のような理由により、座標を算出できなくなる場合があるため、出力データの抜けが生じることがあった。   However, when a plurality of instruction inputs are performed with an indicator such as a pen, coordinates may not be calculated for the following reasons, and output data may be lost.

この種の装置には、入力領域へのペン入力の検出情報や、ポインティングデバイスの右ボタン機能など各種機能に割付けられたスイッチ情報、属性(ID)情報等を、変調した赤外線等の光通信により本体装置へ送信するものがある。この場合、ペンが発光するタイミングは、操作者が入力指示を行い、ペン先が入力領域に接触する際にスイッチが押下されたことによって決定される。   In this type of device, detection information of pen input to the input area, switch information assigned to various functions such as the right button function of the pointing device, attribute (ID) information, etc. are transmitted by optical communication such as modulated infrared rays. Some are sent to the main unit. In this case, the timing at which the pen emits light is determined when the operator gives an input instruction and the switch is pressed when the pen tip contacts the input area.

ここで、遮光方式には入力指示があった場合に遮光信号を生成するための照明部と受光部が必要であるが、上記の構成から、この照明部の光とペンの光とが重畳し合う場合がある。したがって、ペンの発光が遮光信号に重畳した場合には、受光部において正しい遮光信号が検出できず、座標を正しく算出することができなくなる場合がある。   Here, the light-shielding method requires an illumination unit and a light-receiving unit for generating a light-shielding signal when an input instruction is given. From the above configuration, the light from the illumination unit and the light from the pen are superimposed. May fit. Therefore, when the light emission of the pen is superimposed on the light shielding signal, there is a case where a correct light shielding signal cannot be detected in the light receiving unit and coordinates cannot be calculated correctly.

また、複数のペンが同時に発光した場合にも、ペンのスイッチ情報や属性(ID)情報を示す光信号がペン同士で重畳してしまい、正しいビット列を復元できない場合がある。そのため、スイッチ状態等を検出できないことがあり、座標の状態(例えば、ペンが入力面に触れたか否か等)を確定できない場合が生じうる。   Further, even when a plurality of pens emit light at the same time, optical signals indicating pen switch information and attribute (ID) information may overlap each other, and a correct bit string may not be restored. Therefore, the switch state or the like may not be detected, and the coordinate state (for example, whether or not the pen touches the input surface) may not be determined.

一方、特許文献2の構成では、ペン毎に波長が異なり、各ペンが座標を検出するセンサを有するため、上記のような課題は生じない。しかし、指示入力に用いる複数のペンの波長をペン毎に検出するために、1つのペンについて一対(2つ)のセンサが必要であり、センサに要するコストが2倍近くになる。さらに、使用するペンの個数に応じた2組以上のセンサの実装スペースが必要であること、波長フィルタがペンごとに必要となること、ペンを波長ごとに管理しなければならないこと等の課題もある。   On the other hand, in the configuration of Patent Document 2, the wavelength is different for each pen, and each pen has a sensor for detecting coordinates. However, in order to detect the wavelengths of a plurality of pens used for instruction input for each pen, a pair (two) of sensors is required for one pen, and the cost required for the sensors is nearly doubled. In addition, two or more sets of sensor mounting space according to the number of pens to be used are required, wavelength filters are required for each pen, and pens must be managed for each wavelength. is there.

また、特許文献3の構成では、電子ペンの位置を検出する間、電子ペンは周期的、連続的、断続的に発光を継続する必要があるので、その間、常に電力を消費し続けることになる。このため、電子ペンが電池やバッテリにより動作している場合、電池等の消耗が大きく、寿命が短いという課題がある。   In the configuration of Patent Document 3, since the electronic pen needs to continuously emit light periodically, continuously, and intermittently while detecting the position of the electronic pen, power is always consumed during that time. . For this reason, when the electronic pen is operated by a battery or a battery, there is a problem that the battery or the like is consumed greatly and the life is short.

本発明は上記の課題に鑑みなされたものであり、複数の指示具による指示入力が検出可能な遮光方式の構成において、応答性に優れ、消費電力を抑えた座標入力技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a coordinate input technique that is excellent in responsiveness and suppresses power consumption in a configuration of a light shielding method capable of detecting an instruction input by a plurality of indicators. And

上記目的を達成するため、本発明による座標入力装置は以下の構成を備える。即ち、
座標入力領域に対する入力を検出し、入力位置に対応する座標を算出する座標入力装置であって、
前記座標入力領域へ向けて投光する投光手段から投光された光を検出する複数の検出手段と、
前記光の検出結果に基づき、前記複数の検出手段から見た、前記座標入力領域に入力された指示具の方向を判定する判定手段と、
前記判定された、前記複数の検出手段から見た指示具の方向に基づき、前記指示具の入力位置に対応する座標を算出する算出手段と、
複数の指示具が用いられて、前記複数の検出手段から見た指示具の方向に基づき、各指示具の座標を一意に判定することができない場合に、前記指示具に対して発光を指示する指示手段と
を備え、
前記算出手段は、前記指示手段により発光が指示された場合に、前記検出手段が検出した前記指示具からの発光の方向に更に基づき、前記座標を算出する。
In order to achieve the above object, a coordinate input device according to the present invention comprises the following arrangement. That is,
A coordinate input device that detects an input to a coordinate input area and calculates coordinates corresponding to an input position,
A plurality of detecting means for detecting the light projected from the light projecting means for projecting toward the coordinate input area;
Based on the detection result of the light, a determination unit that determines the direction of the pointing tool input to the coordinate input area as viewed from the plurality of detection units;
Calculating means for calculating coordinates corresponding to the input position of the pointing tool based on the determined direction of the pointing tool as viewed from the plurality of detecting means;
When a plurality of pointing tools are used and the coordinates of the pointing tools cannot be uniquely determined based on the directions of the pointing tools viewed from the plurality of detecting means, the pointing tool is instructed to emit light. An instruction means,
The calculation means calculates the coordinates based on the direction of light emission from the pointing tool detected by the detection means when light emission is instructed by the instruction means.

本発明によれば、複数の指示具による指示入力が検出可能な遮光方式の構成において、応答性に優れ、消費電力を抑えた座標入力技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, in the structure of the light-shielding system which can detect the instruction | indication input by a some indicator, the coordinate input technique which was excellent in responsiveness and suppressed power consumption can be provided.

遮光方式の座標入力装置の概略構成を示す図The figure which shows schematic structure of the coordinate input device of a light-shielding system センサユニットの詳細構成を示す図Diagram showing the detailed configuration of the sensor unit 座標入力装置の詳細構成を示す図The figure which shows the detailed structure of a coordinate input device 制御信号のタイミングチャートControl signal timing chart センサユニットが検出する光量分布を説明するための図The figure for demonstrating the light quantity distribution which a sensor unit detects 複数のセンサユニットが検出する制御信号のタイミングチャートTiming chart of control signals detected by multiple sensor units 指示具の概略構成を示す図であるIt is a figure which shows schematic structure of an indicator. 制御信号を送信する条件を判定するフローチャートFlow chart for determining conditions for transmitting control signals 複数の指示具が使用された場合の座標計算の例を説明する図The figure explaining the example of the coordinate calculation when a several indicator is used 座標入力装置と指示具との通信を説明するための図The figure for demonstrating communication with a coordinate input device and an indicator 指示具の概略構成を示す図The figure which shows schematic structure of an indicator 複数のセンサユニットが検出する制御信号のタイミングチャートTiming chart of control signals detected by multiple sensor units 複数のセンサユニットが検出する制御信号のタイミングチャートTiming chart of control signals detected by multiple sensor units 複数の指示具による描画の様子を説明する図The figure explaining the state of drawing with a plurality of indicating tools 他の実施形態について説明するためのフローチャートFlowchart for explaining another embodiment

以下、添付図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[実施形態1]
<装置構成の概略説明>
図1は本発明の一実施形態(実施形態1)に係る遮光方式の座標入力装置の概略構成を示す図である。座標入力装置は、座標入力領域に対する入力を検出し、入力位置に対応する座標を算出する。図1において、1L、1Rは、投光部および受光部をそれぞれ有するセンサユニットである。本実施形態において、センサユニット1L、1Rは、図1のように座標入力面(座標入力領域)であるところの座標入力有効領域3のX軸に平行に、かつY軸に対称な位置に、一定距離離れて配置されている。センサユニット1L、1Rは、制御・演算ユニット2に接続され、制御信号を制御・演算ユニット2から受信すると共に、検出した信号を制御・演算ユニット2へ送信する。
[Embodiment 1]
<Overview of device configuration>
FIG. 1 is a diagram showing a schematic configuration of a light shielding type coordinate input device according to an embodiment (Embodiment 1) of the present invention. The coordinate input device detects an input to the coordinate input area, and calculates coordinates corresponding to the input position. In FIG. 1, 1L and 1R are sensor units each having a light projecting unit and a light receiving unit. In this embodiment, the sensor units 1L and 1R are parallel to the X axis of the coordinate input effective area 3 which is a coordinate input surface (coordinate input area) as shown in FIG. It is arranged at a certain distance. The sensor units 1L and 1R are connected to the control / arithmetic unit 2 and receive control signals from the control / arithmetic unit 2 and transmit detected signals to the control / arithmetic unit 2.

4は入射光を到来方向に反射する再帰反射面を有する再帰反射部である。再帰反射部4は、図1に示すように、座標入力有効領域3の外側3辺に配置され、左右それぞれのセンサユニット1L、1Rから略90°範囲に投光された光を、センサユニット1L、1Rに向けて再帰反射する。再帰反射とは、入射した光が再び入射方向に帰る反射のことをいう。   Reference numeral 4 denotes a retroreflective portion having a retroreflective surface that reflects incident light in the direction of arrival. As shown in FIG. 1, the retroreflecting unit 4 is arranged on the outer three sides of the coordinate input effective region 3, and the light projected from the left and right sensor units 1 </ b> L and 1 </ b> R in a range of about 90 ° is used as the sensor unit 1 </ b> L. Retroreflects toward 1R. Retroreflection refers to reflection in which incident light returns to the incident direction again.

再帰反射部4で再帰反射された光は、センサユニット1L、1Rによって1次元的に検出され、その光量分布が制御・演算ユニット2へ送信される。後述するように、センサユニット1L、1Rには、それぞれ1次元のラインCCDが設けられており、ラインCCDを構成する各画素が検出した光量の分布によって、センサユニットから見た指示具の方向が判定される。センサユニット1L、1Rは、入射光を検出すると、ラインCCDの各画素が検出した光量分布を制御・演算ユニット2へ伝達する。   The light retroreflected by the retroreflecting unit 4 is detected one-dimensionally by the sensor units 1L and 1R, and the light quantity distribution is transmitted to the control / arithmetic unit 2. As will be described later, each of the sensor units 1L and 1R is provided with a one-dimensional line CCD, and the direction of the pointing tool viewed from the sensor unit is determined by the distribution of the amount of light detected by each pixel constituting the line CCD. Determined. When the sensor units 1L and 1R detect incident light, the light intensity distribution detected by each pixel of the line CCD is transmitted to the control / arithmetic unit 2.

座標入力有効領域3は操作者が指示具を用いて座標入力を行うことが可能な領域である。座標入力有効領域3を、PDP、リアプロジェクタ、LCDパネルなどの表示装置の表示画面や、フロントプロジェクタを投影するスクリーン、ホワイトボード、壁面等で構成することで、インタラクティブな入力装置として利用可能となる。   The coordinate input effective area 3 is an area in which the operator can input coordinates using the pointing tool. By configuring the coordinate input effective area 3 with a display screen of a display device such as a PDP, a rear projector, an LCD panel, a screen for projecting a front projector, a whiteboard, a wall surface, etc., it can be used as an interactive input device. .

9A、9Bは、指示具であるところのペンである。ペン9A、9Bは、その先端にスイッチを有し入力面への押下状態を検出するための構成を備えている。また、ペン9A、9Bは、当該ペンのID(識別情報)やスイッチ信号の状態を送信するための通信機能を有し、ペン信号通信部5から出力される制御信号を受信したり、制御信号に応じたタイミングでペン信号通信部5と通信したりする。なお、本実施形態では、指示具としてこのような構成を備えたペン(スタイラスペン、タッチペン)を適用した例を説明するが、ペン信号通信部5との通信機能等を備えているならば、ペン型のものに限られない。例えば、通信機能等を設けた指輪型やグローブ型等のデバイスを指示具として実現し、このようなデバイスを手や指に装着して用いるようにしてもよい。また、本実施形態の構成は、指示具を用いずに指を用いて座標入力を行うことも可能である。この場合、座標入力側(指)とセンサユニットとの間での通信は行われない。   Reference numerals 9A and 9B are pens which are indicating tools. The pens 9 </ b> A and 9 </ b> B have a configuration for detecting a pressing state on the input surface with a switch at the tip. The pens 9A and 9B have a communication function for transmitting the pen ID (identification information) and the state of the switch signal, and receive a control signal output from the pen signal communication unit 5 or control signals. Communicate with the pen signal communication unit 5 at a timing according to. In this embodiment, an example in which a pen (stylus pen, touch pen) having such a configuration is applied as the pointing tool will be described. However, if the pen signal communication unit 5 has a communication function or the like, It is not limited to the pen type. For example, a ring-type or glove-type device provided with a communication function or the like may be realized as the pointing tool, and such a device may be used by being attached to a hand or a finger. In the configuration of the present embodiment, it is also possible to perform coordinate input using a finger without using a pointing tool. In this case, communication between the coordinate input side (finger) and the sensor unit is not performed.

このような構成において、座標入力有効領域3にペン等の指示具による入力指示がなされた場合を考える。センサユニット1L、1Rの投光部から投光された光が指示具によって遮られる(遮光部分)と、センサユニット1L、1Rの受光部ではその遮光部分の光(再帰反射による反射光)を検出しない。その結果、どの方向からの光が検出できなかったかを判別することが可能となる。遮光部分とは、座標入力有効領域3において、指示具により光の伝播が遮られた部分をいう。   In such a configuration, a case is considered in which an input instruction is given to the coordinate input effective area 3 by a pointing tool such as a pen. When the light projected from the light projecting portions of the sensor units 1L and 1R is blocked by the indicator (light shielding portion), the light receiving portions of the sensor units 1L and 1R detect the light from the light shielding portions (reflected light due to retroreflection). do not do. As a result, it is possible to determine from which direction the light could not be detected. The light shielding portion refers to a portion of the coordinate input effective area 3 where light propagation is blocked by the pointing tool.

そこで、制御・演算ユニット2は、左右のセンサユニット1L、1Rが検出する光量変化から、指示具によって入力指示された部分の複数の遮光範囲を検出する。遮光範囲とは、ラインCCDにおいて、指示具により受光が遮られた画素の範囲をいう。遮光範囲に対応するセンサユニットからみた角度に指示具が存在することが検出される。その遮光範囲の端部の位置から、センサユニット1L、1Rそれぞれに対する遮光範囲の端部の方向(角度)をそれぞれ算出する。検出された遮光範囲の数に基づいて、座標算出に用いる遮光範囲から得られるデータが決定され、それぞれ算出された方向(角度)、及びセンサユニット1L、1R間の距離情報等から、座標入力有効領域3上の指示具の遮光位置を幾何学的に算出する。そして最終的には、表示装置に接続されているホストコンピュータ等の外部端末へ、不図示のインタフェース(例えば、USB等)を経由してその座標値を出力する。   Therefore, the control / arithmetic unit 2 detects a plurality of light-shielding ranges of the portion instructed to be input by the pointing tool from the light amount change detected by the left and right sensor units 1L, 1R. The light shielding range refers to a range of pixels in which light reception is blocked by the pointing tool in the line CCD. It is detected that the pointing tool exists at an angle viewed from the sensor unit corresponding to the light shielding range. From the position of the end of the light shielding range, the direction (angle) of the end of the light shielding range with respect to each of the sensor units 1L and 1R is calculated. Based on the number of detected light-shielding ranges, data obtained from the light-shielding ranges used for coordinate calculation is determined, and coordinate input is valid from the calculated direction (angle), distance information between the sensor units 1L and 1R, and the like. The light shielding position of the pointing tool on the area 3 is calculated geometrically. Finally, the coordinate value is output to an external terminal such as a host computer connected to the display device via an interface (not shown) (for example, USB).

このようにして、指示具によって、画面上に線を描画したり、表示装置に表示されるアイコンを操作する等の外部端末の操作が可能になる。そして、本実施形態では、通常はセンサユニット1L、1Rからの投光の遮光範囲により指示具の位置を追跡するが、複数の指示具が用いられ、遮光範囲の情報のみでは指示具を区別できないときは、指示具を区別するための発光を要求する。このように制御・演算ユニット2は、指示具9A、9Bに対し、必要なときのみ指示具を区別するための発光を行わせることで、応答性に優れ、指示具の消費電力を抑えることが可能となる。   In this way, the operation of the external terminal such as drawing a line on the screen or operating an icon displayed on the display device can be performed by the pointing tool. In this embodiment, the position of the pointing tool is normally tracked based on the light shielding range of the light emitted from the sensor units 1L and 1R. However, a plurality of pointing tools are used, and the pointing tool cannot be distinguished only by the information on the light shielding range. Sometimes, it requires light emission to distinguish the pointing tool. In this way, the control / arithmetic unit 2 makes the indicators 9A and 9B emit light for distinguishing the indicator only when necessary, so that the responsiveness is excellent and the power consumption of the indicator can be suppressed. It becomes possible.

<センサユニットの詳細説明>
センサユニット1L、1R内の構成について、図1、図2を用いて説明する。図2は本実施形態に係るセンサユニットの詳細構成を示す図である。センサユニット1L、1Rは、大きく分けて投光部と受光部から構成される。
<Detailed explanation of sensor unit>
Configurations in the sensor units 1L and 1R will be described with reference to FIGS. FIG. 2 is a diagram showing a detailed configuration of the sensor unit according to the present embodiment. The sensor units 1L and 1R are roughly composed of a light projecting unit and a light receiving unit.

図2において、101A、101Bは、赤外光を発する赤外LEDであり、各々投光レンズ102A、102Bによって、座標入力有効領域3の周辺部に設けられた再帰反射部4に向けて略90°範囲に光を投光する。ここで、センサユニット1L、1R中の投光部は、この赤外LED101A、101Bと、投光レンズ102A、102Bによって実現される。これにより、センサユニット1L、1Rには、それぞれ2つの投光部が構成されることになる。そして、投光部より投光された赤外光は、再帰反射部4により到来方向に再帰反射され、センサユニット1L、1R中の受光部によって、その光が検出される。   In FIG. 2, 101A and 101B are infrared LEDs that emit infrared light, and are approximately 90 toward the retroreflective portion 4 provided in the peripheral portion of the coordinate input effective region 3 by the light projecting lenses 102A and 102B, respectively. ° Project light in range. Here, the light projecting units in the sensor units 1L and 1R are realized by the infrared LEDs 101A and 101B and the light projecting lenses 102A and 102B. As a result, each of the sensor units 1L and 1R includes two light projecting units. The infrared light projected from the light projecting unit is retroreflected in the arrival direction by the retroreflecting unit 4, and the light is detected by the light receiving units in the sensor units 1L and 1R.

受光部は、光線の視野を制限すると共に電気的なシールドを担うシールド部材105を設けた1次元のラインCCD104、集光光学系としての受光用レンズ106A、106B、入射光の入射方向を限定する絞り108A、108Bを有する。加えて、可視光等の余分な光(外乱光)の入射を防止する赤外フィルタ107A、107Bを備える。   The light receiving unit limits the field of view of the light beam and limits the incident direction of the incident light, the one-dimensional line CCD 104 provided with the shield member 105 that performs electrical shielding, the light receiving lenses 106A and 106B as the condensing optical system. Apertures 108A and 108B are provided. In addition, infrared filters 107 </ b> A and 107 </ b> B are provided to prevent the incidence of extraneous light (disturbance light) such as visible light.

再帰反射部4によって反射された光は、赤外フィルタ107A、107B、絞り108A、108Bを抜けて受光用レンズ106A、106Bによって、ラインCCD104の検出素子110面上に集光される。このようにして、センサユニット1L、1Rには、投光部からの光を検出するそれぞれ2つの受光部が構成されることになる。   The light reflected by the retroreflecting unit 4 passes through the infrared filters 107A and 107B and the stops 108A and 108B, and is collected on the detection element 110 surface of the line CCD 104 by the light receiving lenses 106A and 106B. In this way, each of the sensor units 1L and 1R includes two light receiving units that detect light from the light projecting unit.

部材103及び部材109は、投光部及び受光部を構成する光学部品を配置するとともに、投光部で投光した光が直接受光部に入射することを防ぐとともに、外来光をカットするための上フード103、下フード109として機能する。   The member 103 and the member 109 are arranged for arranging optical components constituting the light projecting unit and the light receiving unit, preventing light projected by the light projecting unit from directly entering the light receiving unit, and cutting extraneous light. It functions as an upper hood 103 and a lower hood 109.

<制御・演算ユニットの説明>
制御・演算ユニット2とセンサユニット1L、1Rとの間では、主に、受光部内のラインCCD104用のCCD制御信号、CCD用クロック信号と出力信号、及び投光部内の赤外LED101A、101Bの駆動信号がやり取りされている。ここで、制御・演算ユニット2の詳細構成について、図3を用いて説明する。図3は、本実施形態に係る制御・演算ユニットの詳細な構成を示すブロック図である。
<Description of control / arithmetic unit>
Between the control / arithmetic unit 2 and the sensor units 1L and 1R, mainly the CCD control signal for the line CCD 104 in the light receiving unit, the CCD clock signal and output signal, and the driving of the infrared LEDs 101A and 101B in the light projecting unit Signals are being exchanged. Here, a detailed configuration of the control / arithmetic unit 2 will be described with reference to FIG. FIG. 3 is a block diagram showing a detailed configuration of the control / arithmetic unit according to the present embodiment.

CCD制御信号は、ワンチップマイコン等で構成される演算制御回路(CPU)21から出力され、ラインCCD104のシャッタタイミングやデータの出力制御等に用いられる。この演算制御回路21は、所定のコンピュータプログラムをもとに、クロック発生回路(CLK)22からのクロック信号に従って動作する。また、CCD用のクロック信号は、クロック発生回路22からセンサユニット1L、1Rへ送信されると共に、各センサユニット内部のラインCCD104との同期をとって各種制御を行うために、演算制御回路21にも入力されている。   The CCD control signal is output from an arithmetic control circuit (CPU) 21 constituted by a one-chip microcomputer or the like, and is used for shutter timing of the line CCD 104, data output control, and the like. The arithmetic control circuit 21 operates in accordance with a clock signal from a clock generation circuit (CLK) 22 based on a predetermined computer program. The clock signal for the CCD is transmitted from the clock generation circuit 22 to the sensor units 1L and 1R, and is sent to the arithmetic control circuit 21 in order to perform various controls in synchronization with the line CCD 104 in each sensor unit. Is also entered.

投光部の赤外LED101A、101Bを駆動するためのLED駆動信号は、演算制御回路21からLED駆動回路(不図示)を介して、対応するセンサユニット1L、1Rの投光部内の赤外LED101A、101Bに供給される。センサユニット1L、1Rそれぞれの受光部内のラインCCD104からの検出信号は、A/Dコンバータ23に入力され、演算制御回路21からの制御によって、デジタル値に変換される。この変換されたデジタル値は、メモリ132に記憶され、指示具の角度計算に用いられる。そして、この計算された角度から座標値が算出され、外部端末にシリアルインタフェース7(例えば、USB等)を介して出力される。   The LED drive signal for driving the infrared LEDs 101A and 101B of the light projecting unit is sent from the arithmetic control circuit 21 via the LED drive circuit (not shown) to the infrared LED 101A in the light projecting unit of the corresponding sensor unit 1L or 1R. , 101B. Detection signals from the line CCDs 104 in the light receiving portions of the sensor units 1L and 1R are input to the A / D converter 23 and converted into digital values under the control of the arithmetic control circuit 21. The converted digital value is stored in the memory 132 and used for calculating the angle of the pointing tool. Then, a coordinate value is calculated from the calculated angle, and is output to the external terminal via the serial interface 7 (for example, USB).

また、指示具としてペン9A、9Bを用いる場合、ペン9A、9Bからの信号は、ペン信号通信部5で受信し、復調した後、演算制御回路21に出力される。一方、ペン信号の送信タイミングやその他の制御を指示する制御信号が演算制御回路21から出力される場合には、ペン信号通信部5を経由し、ペン9A、9Bへ送信される。ペン信号通信部5の詳細については後述する。   When the pens 9A and 9B are used as the pointing tools, signals from the pens 9A and 9B are received by the pen signal communication unit 5, demodulated, and then output to the arithmetic control circuit 21. On the other hand, when a control signal for instructing the transmission timing of the pen signal or other control is output from the arithmetic control circuit 21, it is transmitted to the pens 9A and 9B via the pen signal communication unit 5. Details of the pen signal communication unit 5 will be described later.

<光量分布検出の説明>
図4は本実施形態における制御信号のタイミングチャートである。特に、図4では、センサユニット1L(1R)中の一つの受光部およびそれに対応する照明としての赤外LED101A、101Bへの制御信号のタイミングチャートを示している。
<Explanation of light intensity distribution detection>
FIG. 4 is a timing chart of control signals in the present embodiment. In particular, FIG. 4 shows a timing chart of control signals to one light-receiving unit in the sensor unit 1L (1R) and the infrared LEDs 101A and 101B as illumination corresponding thereto.

31、32はCCD制御用の制御信号である。SH信号31の間隔は、ラインCCD104のシャッタ開放時間を決定する。ICG信号32はセンサユニット1L(1R)へのゲート信号であり、内部のラインCCD104の光電変換部の電荷を読出部へ転送する信号である。33は赤外LED101A、101Bの駆動信号(LED信号)である。LED信号33は、SH信号31の周期で、当該赤外LEDを点灯するために供給される。   31 and 32 are control signals for CCD control. The interval of the SH signal 31 determines the shutter opening time of the line CCD 104. The ICG signal 32 is a gate signal to the sensor unit 1L (1R) and is a signal for transferring the charge of the photoelectric conversion unit of the internal line CCD 104 to the reading unit. Reference numeral 33 denotes a drive signal (LED signal) for the infrared LEDs 101A and 101B. The LED signal 33 is supplied to turn on the infrared LED in the cycle of the SH signal 31.

センサユニット1L、1Rの双方の投光部の駆動が終了した後に、センサユニット1L、1Rの双方の受光部(ラインCCD104)の検出信号が読み出される。センサユニット1L、1Rの双方から読み出される検出信号は、座標入力有効領域3への指示具による入力がない場合には、それぞれのセンサユニットからの出力として、図5(A)のような光量分布を与える。図5は、センサユニットを構成するラインCCDにおいて検出された受光分布の一例を示す図である。図5(A)、図5(B)において、横軸はCCD画素番号であり、センサユニットから見た検出方向の角度に対応する。縦軸は検出光量であり、本図面では、紙面下方が受光強度が大きい方向にあたる。もちろん、このような光量分布がどのようなシステムでも必ず得られるわけではなく、再帰反射部4の再帰反射特性や投光部の特性、また、経時変化(反射面の汚れなど)によって、光量分布は変化する。   After driving of the light projecting units of both sensor units 1L and 1R is completed, detection signals of both light receiving units (line CCD 104) of sensor units 1L and 1R are read. The detection signals read from both of the sensor units 1L and 1R are output from the respective sensor units when there is no input to the coordinate input effective area 3 by the pointing tool, as shown in FIG. 5A. give. FIG. 5 is a diagram showing an example of a light reception distribution detected in the line CCD constituting the sensor unit. 5A and 5B, the horizontal axis represents the CCD pixel number and corresponds to the angle in the detection direction as viewed from the sensor unit. The vertical axis represents the detected light amount, and in this drawing, the lower side of the drawing corresponds to the direction in which the received light intensity is large. Of course, such a light quantity distribution is not necessarily obtained in any system, and the light quantity distribution depends on the retroreflective characteristics of the retroreflective part 4, the characteristics of the light projecting part, and changes with time (such as dirt on the reflective surface). Will change.

図5(A)においては、レベルAが最大光量であり、レベルBが最低光量となっている。つまり、再帰反射部4からの反射光がない状態では、センサユニット1L、1Rで得られる光量レベルがレベルB付近になり、反射光量が増えるほど、レベルAに光量レベルが遷移する。このようにして、センサユニット1L、1Rから出力された検出信号は、逐次、対応するA/Dコンバータ23でA/D変換され、演算制御回路21にデジタルデータとして取り込まれる。   In FIG. 5A, level A is the maximum light amount and level B is the minimum light amount. That is, in a state where there is no reflected light from the retroreflecting unit 4, the light amount level obtained by the sensor units 1L and 1R is near level B, and the light amount level transitions to level A as the reflected light amount increases. In this way, the detection signals output from the sensor units 1L and 1R are sequentially A / D converted by the corresponding A / D converter 23 and taken into the arithmetic control circuit 21 as digital data.

これに対し、座標入力有効領域3への指示具による入力がある場合には、センサユニット1L、1Rからの出力として、図5(B)のような光量分布が得られる。この光量分布のC1、C2部分では、指示具によって再帰反射部4からの反射光が遮られているため、その部分(遮光範囲)のみ反射光量が低下していることがわかる。特に図5(B)では、複数の指示具によって再帰反射部4からの反射光が遮られているため、複数の遮光範囲が検出される。   On the other hand, when there is an input to the coordinate input effective area 3 by the pointing tool, a light quantity distribution as shown in FIG. 5B is obtained as an output from the sensor units 1L and 1R. In the C1 and C2 portions of the light amount distribution, the reflected light from the retroreflecting unit 4 is blocked by the pointing tool, so that it can be seen that the reflected light amount is reduced only in that portion (light shielding range). In particular, in FIG. 5B, since the reflected light from the retroreflecting unit 4 is blocked by a plurality of pointing tools, a plurality of light shielding ranges are detected.

本実施形態では、指示具による入力がない場合の図5(A)の光量分布と、指示具による入力がある場合の図5(B)の光量分布の変化に基づいて、センサユニット1L、1Rに対する指示具の角度情報を算出する。すなわち、座標入力有効領域3に対する指示具を用いた入力により光が遮られて受光部が光を検出しなかった範囲に基づき、当該受光部から見た指示具の方向を判定する。具体的には、図5(A)の光量分布として、投光部による投光(照明)がない状態の光量分布41と、投光(照明)中で指示具による入力がない(遮蔽物がない状態)状態の光量分布42を初期状態として予めメモリ132に記憶しておく。そして、センサユニット1L、1Rそれぞれの検出信号のサンプル期間に、図5(B)のような光量分布の変化があるか否かを、そのサンプル期間中の光量分布と、メモリ132に記憶されている初期状態の光量分布との差分によって検出する。光量分布に変化がある場合には、その変化部分を指示具の入力点として、その入力点に対応する角度をその入力角度と判定する。このようにして、複数の受光部の各々について、光の検出結果に基づき、当該受光部から見た、座標入力有効領域3に入力された指示具の方向を判定する。   In the present embodiment, the sensor units 1L and 1R are based on the light amount distribution of FIG. 5A when there is no input by the pointing tool and the change of the light amount distribution of FIG. 5B when there is an input by the pointing tool. The angle information of the pointing tool with respect to is calculated. That is, the direction of the pointing tool viewed from the light receiving unit is determined based on the range where the light is blocked by the input using the pointing tool for the coordinate input effective area 3 and the light receiving unit does not detect the light. Specifically, as the light quantity distribution of FIG. 5A, there is no light quantity distribution 41 in the state where there is no light projection (illumination) by the light projecting unit, and there is no input by the pointing tool in the light projection (illumination) (the shielding object is The light quantity distribution 42 in the state of (not present) is stored in advance in the memory 132 as an initial state. Then, whether or not there is a change in the light amount distribution as shown in FIG. 5B in the sample period of the detection signal of each of the sensor units 1L and 1R is stored in the memory 132 and the light amount distribution during the sample period. It is detected by the difference from the light quantity distribution in the initial state. When there is a change in the light amount distribution, the changed portion is set as an input point of the pointing tool, and an angle corresponding to the input point is determined as the input angle. In this way, the direction of the pointing tool input to the coordinate input effective area 3 as viewed from the light receiving unit is determined for each of the plurality of light receiving units based on the light detection result.

図6は、制御信号と検出信号のタイミングチャート例である。まず、センサユニット1L中のラインCCDの読出先頭側で、センサユニット1L中の一方の受光部による検出を行う。SH信号51に対して、LED信号53のようなタイミングで、センサユニット1L中の赤外LEDが駆動される。ICG信号52によって、ラインCCDの信号が読み出されるが、このときは、ラインCCDの先頭側の受光範囲の画素データが読み出される(信号55中のA部分)。   FIG. 6 is a timing chart example of the control signal and the detection signal. First, detection is performed by one light receiving unit in the sensor unit 1L on the reading head side of the line CCD in the sensor unit 1L. In response to the SH signal 51, the infrared LED in the sensor unit 1L is driven at a timing like the LED signal 53. The line CCD signal is read by the ICG signal 52. At this time, the pixel data of the light receiving range on the head side of the line CCD is read (A portion in the signal 55).

次に、同じ、ラインCCDに対して、SH信号51が与えられ、センサユニット1L中の他方の受光部により検出を行うために、赤外LEDに駆動信号54が供給される。この出力は、検出信号55のB部分のように、先に検出した先頭部分の信号(破線部)と重ならない領域に、受光された信号が出力される。   Next, the SH signal 51 is given to the same line CCD, and the drive signal 54 is supplied to the infrared LED for detection by the other light receiving unit in the sensor unit 1L. As for this output, the received signal is output to a region that does not overlap with the signal (broken line portion) of the head portion detected earlier, such as the B portion of the detection signal 55.

<ペンの構成の説明>
指示具として、例えば、先端にスイッチ部や信号発生部を設けた専用ペンを用いると、文字の入力等における「尾引き」の問題が発生しない、スムーズで切れのよい描画を実現することができる。ここで、「尾引き」とは、指示具で描画を実施した際、座標入力面をタッチする直前/直後にタッチが検出されて余分な軌跡が表示され、操作者が意図した軌跡とは異なる表示が出力される現象である。専用ペンを用いた場合、スイッチ部において操作者の意図するタッチを適切に検出して、ペン信号通信部5へ伝えるため、操作者の意図しない軌跡の表示を防止することができる。
<Description of pen configuration>
For example, when a dedicated pen provided with a switch unit or a signal generation unit at the tip is used as the pointing tool, it is possible to realize smooth and sharp drawing without causing a “tailing” problem in character input or the like. . Here, “tailing” is different from the trajectory intended by the operator when touch is detected immediately before / after touching the coordinate input surface and an extra trajectory is displayed when drawing with the pointing tool. This is a phenomenon in which the display is output. When the dedicated pen is used, the touch intended by the operator is appropriately detected in the switch unit and transmitted to the pen signal communication unit 5, so that the display of the trajectory not intended by the operator can be prevented.

また、指示具に上記の専用ペンを用いた場合、座標入力装置からホストコンピュータ等の外部端末に出力する情報は、座標値だけでない。専用ペンから得られる、スイッチ情報(例えば、ポインティングデバイスの左ボタンの情報に相当するようなペンアップ/ダウン情報や、ポインティングデバイスの右ボタンに相当するサイドスイッチ情報)、指示具固有のペンID情報等がある。それ以外にも、座標の連続性を表す識別子等を、外部端末に向けて出力している。以下、これらのペンから取得するスイッチ情報、指示具固有のペンID情報等をまとめて付帯情報と呼ぶ。図3のペン信号通信部5は、指示具からの付帯情報を受信し、その信号がどの座標値の信号であるかを判定して、座標値を送信する際のペンアップダウン信号やポインティングデバイスのボタン信号として、演算制御回路21へ出力する。   Further, when the dedicated pen is used as the pointing tool, the information output from the coordinate input device to the external terminal such as the host computer is not only the coordinate value. Switch information (for example, pen up / down information corresponding to the left button information of the pointing device, side switch information corresponding to the right button of the pointing device) obtained from the dedicated pen, and pen ID information unique to the pointing device Etc. In addition, an identifier or the like indicating the continuity of coordinates is output to the external terminal. Hereinafter, switch information acquired from these pens, pen ID information unique to the pointing tool, and the like are collectively referred to as supplementary information. The pen signal communication unit 5 in FIG. 3 receives incidental information from the pointing tool, determines which coordinate value the signal is, and a pen up / down signal or pointing device when transmitting the coordinate value. The button signal is output to the arithmetic control circuit 21.

図7は、本実施形態に係る座標入力装置における指示具(ペン9A)の構成を示す図である。ペンは、ペン先端部を押圧することで動作するペン先スイッチ61、ペンの筐体に設けられたサイドスイッチ62を備える。このいずれかのスイッチが動作している状態を付帯情報としてペンから送信することになる。この信号の送信および本体のペン信号通信部5からの信号の受信は、ペン通信回路63を通じて行われる。このペン通信回路63は赤外光の送受信回路から構成され、更に赤外LED66を備える。ペン通信回路63から送信されるデータの生成、及び受信データの処理は、ペン制御回路64で行なわれる。このペン制御回路64はCPU等の回路から構成される。指示具の電源は、電池で構成される電源部65から供給される。なお、ペン通信回路63から送信される付帯情報の出力方法としては、赤外LED66を利用した方法に限らず、音波や電波等を用いてもよい。なお、本実施形態の指示具は、付帯情報を送信するための発光を行うほか、複数の指示具が用いられた場合に指示具を区別するための発光を行う。本実施形態では、付帯情報を送信するための発光と指示具を区別するための発光とは異なる例を説明するが、両者を同一のものとして構成してもよい。   FIG. 7 is a diagram showing the configuration of the pointing tool (pen 9A) in the coordinate input device according to the present embodiment. The pen includes a pen tip switch 61 that operates by pressing the tip of the pen, and a side switch 62 provided on the pen housing. The state in which any one of these switches is operating is transmitted from the pen as incidental information. Transmission of this signal and reception of a signal from the pen signal communication unit 5 of the main body are performed through the pen communication circuit 63. The pen communication circuit 63 includes an infrared light transmission / reception circuit, and further includes an infrared LED 66. Generation of data transmitted from the pen communication circuit 63 and processing of received data are performed by the pen control circuit 64. The pen control circuit 64 includes a circuit such as a CPU. The power for the pointing tool is supplied from a power supply unit 65 formed of a battery. Note that the output method of the incidental information transmitted from the pen communication circuit 63 is not limited to the method using the infrared LED 66, and sound waves, radio waves, or the like may be used. Note that the pointing tool of the present embodiment emits light for transmitting supplementary information, and emits light for distinguishing the pointing tool when a plurality of pointing tools are used. In the present embodiment, an example is described in which light emission for transmitting supplementary information and light emission for distinguishing an indicator are different from each other, but both may be configured to be the same.

<複数の指示具による入力の座標算出に関する説明>
例えば、複数の指示具によって複数の入力がなされる際に入力座標値を算出し、インタフェース7を通じて出力する場合について、図8、図9を用いて説明する。指示具の数と同じ数だけ算出した複数の座標値を外部端末に出力する場合、各座標値にその指示具の付帯情報を付加した上で出力する必要がある。すなわち、各指示具で入力した座標値のそれぞれが各々の指示具ごとに連続するような入力軌跡として表示させるためには、どの指示具で入力された座標値であるかをコンピュータに認識させる必要がある。そこで、本実施形態では、指示具が発光する光信号をペン信号通信部5で検出するだけでなく、各センサユニットでもその座標(角度)を検出する。以下、一例として、同時に使用しうる指示具が2つである場合について説明する。
<Explanation regarding input coordinate calculation with multiple pointing tools>
For example, a case where input coordinate values are calculated when a plurality of inputs are made by a plurality of pointing tools and output through the interface 7 will be described with reference to FIGS. When a plurality of coordinate values calculated by the same number as the number of pointing tools are output to the external terminal, it is necessary to output after adding the accompanying information of the pointing tool to each coordinate value. That is, in order to display each input coordinate value input with each pointing tool as an input locus that is continuous for each pointing tool, it is necessary for the computer to recognize which pointing tool is the coordinate value input. There is. Therefore, in the present embodiment, not only the pen signal communication unit 5 detects the light signal emitted from the pointing tool but also the coordinates (angles) of each sensor unit. Hereinafter, as an example, a case where there are two pointing tools that can be used simultaneously will be described.

図8は、複数の指示具の使用を考慮した遮光とペン発光、及びペンIDを含む付帯情報との対応付け処理を示すフローチャートである。図8の各工程は、制御・演算ユニット2のCPU21の制御に基づいて実行される。まず、S801で座標検出を行い、S802で座標入力があるかどうかを判定する。具体的には、センサユニット1L、1RのいずれかのラインCCDに遮光範囲が存在するか否かを判定し、遮光範囲が存在するときは座標入力ありと判定する。   FIG. 8 is a flowchart showing a process of associating shading, pen light emission, and incidental information including pen ID in consideration of use of a plurality of pointing tools. Each step of FIG. 8 is executed based on the control of the CPU 21 of the control / arithmetic unit 2. First, coordinate detection is performed in S801, and it is determined whether or not there is a coordinate input in S802. Specifically, it is determined whether or not there is a light shielding range in any of the line CCDs of the sensor units 1L and 1R. When there is a light shielding range, it is determined that there is a coordinate input.

座標が検出されない場合(S802でNO)にはS801へ戻り、所定のタイミングで座標検出を繰り返す。S802で座標入力を検出した場合(S802でYES)は、S803において遮光の数を判定する。本実施形態では、センサユニット1L、1Rの少なくとも一方から2つ以上の遮光範囲が検出されたかどうかで、入力が複数か否かを判定する。   If no coordinate is detected (NO in S802), the process returns to S801, and coordinate detection is repeated at a predetermined timing. When coordinate input is detected in S802 (YES in S802), the number of light shielding is determined in S803. In the present embodiment, whether or not there are a plurality of inputs is determined based on whether or not two or more light shielding ranges are detected from at least one of the sensor units 1L and 1R.

単数の入力であると判定された場合(S803でNO)は、S804において、遮光信号から角度を計算して座標算出処理を行う。例えば、図9(A)の点Aの位置に指示具が存在する場合を考える。このとき、センサユニット1LはθL1に対応する画素と、センサユニット1RはθR2に対応する画素に、遮光範囲を検出することになる。そこで、制御・演算ユニット2は、センサユニット1L、1Rの間の距離と、各センサユニットにおいて検出された遮光範囲に対応する角度(θL1、θR2)に基づいて、指示具の位置の座標を算出する。そして、S805で算出した座標を出力し、S801へ戻る。   If it is determined that the input is a single input (NO in S803), an angle is calculated from the light shielding signal and a coordinate calculation process is performed in S804. For example, let us consider a case where the pointing tool is present at the position of point A in FIG. At this time, the sensor unit 1L detects a light-shielding range at a pixel corresponding to θL1, and the sensor unit 1R detects a light-shielding range at a pixel corresponding to θR2. Therefore, the control / arithmetic unit 2 calculates the coordinates of the position of the pointing tool based on the distance between the sensor units 1L, 1R and the angles (θL1, θR2) corresponding to the light-shielding ranges detected by the sensor units. To do. Then, the coordinates calculated in S805 are output, and the process returns to S801.

S803において遮光が複数存在すると判定された場合(S803でYES)は、S806において座標候補点を算出する。センサユニット1L、1Rの双方のラインCCDに複数の遮光範囲が検出されたときは、各センサユニットにおける遮光範囲に対応する検出方向(角度)の組み合わせによって、実際に指示具が存在する座標以外の座標が算出される。このような場合に、各センサユニットにおける検出方向の組み合わせの各々に対応する座標の点を座標候補点という。図9(A)は、座標入力有効領域3に複数の入力(黒丸で示すAとBの位置)の指示された状態の一例を示す図であり、S803で複数の入力と判断される状況を説明している。図9(A)の場合、センサユニット1LはθL1及びθL2(θL1<θL2)の方向に遮光範囲を検出し、センサユニット1RはθR1及びθR2(θR1<θR2)の方向に遮光範囲を検出する。このため、S806で算出する座標候補点として、[θL1,θR2]、[θL2,θR1]に対応する実の座標A、B、および、[θL2,θR2]、[θL1,θR1]に対応する虚の座標A’,B’が算出されることとなる。ここで、座標候補点の座標のうち、実際に指示具が存在する位置の座標を実の座標(実座標)、それ以外の座標を虚の座標(虚座標)という。   If it is determined in S803 that there are a plurality of shades (YES in S803), coordinate candidate points are calculated in S806. When a plurality of light shielding ranges are detected in both the line CCDs of the sensor units 1L and 1R, the coordinates other than the coordinates at which the pointing device actually exists are combined depending on the combination of detection directions (angles) corresponding to the light shielding ranges in each sensor unit. Coordinates are calculated. In such a case, a coordinate point corresponding to each combination of detection directions in each sensor unit is referred to as a coordinate candidate point. FIG. 9A is a diagram illustrating an example of a state in which a plurality of inputs (positions A and B indicated by black circles) are instructed in the coordinate input effective area 3, and the situation determined as a plurality of inputs in S803. Explains. In the case of FIG. 9A, the sensor unit 1L detects the light shielding range in the directions of θL1 and θL2 (θL1 <θL2), and the sensor unit 1R detects the light shielding range in the directions of θR1 and θR2 (θR1 <θR2). Therefore, as coordinate candidate points calculated in S806, real coordinates A and B corresponding to [θL1, θR2], [θL2, θR1], and imaginary corresponding to [θL2, θR2], [θL1, θR1]. Coordinates A ′ and B ′ are calculated. Here, among the coordinates of the coordinate candidate points, the coordinates of the position where the pointing tool actually exists are called real coordinates (real coordinates), and the other coordinates are called imaginary coordinates (imaginary coordinates).

実座標だけでなく虚座標を含む座標候補点が算出される場合、座標候補点から正しく実座標を選択し、更に、ID情報及びスイッチ情報を割り付けることが必要となる。そのために、必要に応じて指示具に対して制御信号を送信し、所望の情報を取得する処理が求められる。そこで、本実施形態では、複数の指示具が用いられて、複数の受光部から見た指示具の方向に基づき、各指示具の座標を一意に判定することができない場合に、指示具に対して発光を指示する。そして、当該指示に応じた指示具からの発光の方向をさらに用いて複数の指示具の座標を算出する。このような処理の詳細について以下のステップで説明する。S807では、プログラム上のフラグ処理等を活用して、複数の座標点の検出が初回であるか否かを判定する。初回である場合(S807でYES)には、S808へ進んで制御信号を送信する。初回でない場合(S807でNO)はS809へ進む。   When coordinate candidate points including not only real coordinates but also imaginary coordinates are calculated, it is necessary to correctly select real coordinates from the coordinate candidate points and to assign ID information and switch information. For this purpose, a process for transmitting a control signal to the pointing device as necessary and acquiring desired information is required. Therefore, in this embodiment, when a plurality of pointing tools are used and the coordinates of each pointing tool cannot be uniquely determined based on the directions of the pointing tools viewed from a plurality of light receiving units, Instruct to fire. And the coordinate of a some indicator is calculated further using the light emission direction from the indicator according to the said instruction | indication. Details of such processing will be described in the following steps. In S807, it is determined whether or not a plurality of coordinate points are detected for the first time by utilizing a flag process on the program. If it is the first time (YES in S807), the process proceeds to S808 and a control signal is transmitted. If it is not the first time (NO in S807), the process proceeds to S809.

ここで、複数の座標検出が初めてではない、つまり、以前に座標候補点を算出し、座標出力を行っている場合について考える。この場合、S809では、S806で算出した座標候補点の全てが入力領域内にあるかどうかを判定する。座標候補点の全てが入力領域内にあると判定された場合(S809でYES)はS812へ進み、そうでないと判定された場合(S809でNO)はS810へ進む。   Here, consider a case where a plurality of coordinate detection is not the first time, that is, a coordinate candidate point has been previously calculated and coordinate output is performed. In this case, in S809, it is determined whether all the coordinate candidate points calculated in S806 are within the input area. If it is determined that all of the coordinate candidate points are within the input area (YES in S809), the process proceeds to S812, and if it is not determined (NO in S809), the process proceeds to S810.

S810では、算出された座標候補点について、実座標か否かの判定(虚実判定)を行う。座標候補点の全てが入力領域内になく、虚の座標A’かB’のいずれかが座標入力領域3の領域外に計算されてしまう場合、同時に使用しうる指示具は2つであるため、実の座標は必然的にA、Bの組合せであると判定できる。例えば、センサユニット1LがθL1,θL2(θL1<θL2)の方向に遮光範囲を検出し、センサユニット1RがθR1,θR2(θR1<θR2)の方向に遮光範囲を検出して、[θL2,θR2]に対応する座標は座標入力領域3の領域外に当たるとする。この場合、座標入力領域3の領域外に当たる[θL2,θR2]に対応する座標に指示具は存在しえない。また、指示具が2つであり、センサユニット1L、1Rから、θL1、θL2、並びに、θR1、θR2の方向に遮光範囲が検出されていることから、[θL1,θR1]に対応する座標にも指示具は存在しえない。よって、[θL1,θR2]、[θL2,θR1]に対応する座標が実の座標であると判定することができる。なお、ここでは、説明の簡略化のため2つの指示具が存在する場合について説明したが、3つ以上存在する場合も同様に判定することができる。   In S810, it is determined whether the calculated coordinate candidate point is a real coordinate (judgment determination). If all of the coordinate candidate points are not in the input area and either of the imaginary coordinates A ′ or B ′ is calculated outside the area of the coordinate input area 3, there are two indicators that can be used simultaneously. The actual coordinates are inevitably determined to be a combination of A and B. For example, the sensor unit 1L detects the light shielding range in the direction of θL1, θL2 (θL1 <θL2), the sensor unit 1R detects the light shielding range in the direction of θR1, θR2 (θR1 <θR2), and [θL2, θR2]. It is assumed that the coordinates corresponding to are outside the coordinate input area 3. In this case, there cannot be an indicator at the coordinates corresponding to [θL2, θR2] that falls outside the coordinate input area 3. In addition, since there are two indicating tools and the light shielding range is detected in the directions of θL1, θL2 and θR1, θR2 from the sensor units 1L, 1R, the coordinates corresponding to [θL1, θR1] There can be no indicator. Therefore, it can be determined that the coordinates corresponding to [θL1, θR2] and [θL2, θR1] are real coordinates. Note that here, a case has been described in which there are two pointing tools for the sake of simplification, but the determination can be made in the same manner when there are three or more pointing tools.

本実施形態では、以前に座標出力を実施している場合、1サンプリング前の座標値やペン固有のID情報等は継承情報としてメモリ132等に保持している。そこで、S810では、さらに、実座標として判定された座標を継承情報と関連付ける処理(継承処理)を行う。具体的には、実座標の組合せが特定されれば、この継承情報と現在の実座標とを比較し、近接した座標値は連続した入力(描画など)と判定する。具体的には、新たに判定された指示具の方向に対応する指示具の座標と既に保持されている座標との間の距離が一定値以内の場合、当該新たに判定された指示具の方向に対応する指示具の座標は保持された座標に連続するものとして、座標を算出することができる。次に、S811では、継承処理が行われた実座標について、継承情報を用いてID情報の割り付けを行う。つまり、S810において、それぞれの入力に対して実座標を決定すると共に、S811においてID情報を割り付ける。そして、S805で座標出力を行い、S801へ戻る。   In this embodiment, when coordinate output has been performed previously, the coordinate value before one sampling, the pen-specific ID information, and the like are held in the memory 132 as inheritance information. Accordingly, in S810, a process of associating the coordinates determined as the actual coordinates with the inheritance information (inheritance process) is further performed. Specifically, if a combination of real coordinates is specified, the inheritance information is compared with the current real coordinates, and adjacent coordinate values are determined as continuous input (drawing or the like). Specifically, when the distance between the coordinates of the pointing tool corresponding to the direction of the newly determined pointing tool and the coordinates already held is within a certain value, the direction of the newly determined pointing tool The coordinates of the pointing tool corresponding to can be calculated on the assumption that the coordinates of the pointing tool are continuous with the held coordinates. In step S811, ID information is assigned to the actual coordinates on which the inheritance process has been performed using the inheritance information. That is, in S810, real coordinates are determined for each input, and ID information is assigned in S811. In step S805, coordinate output is performed, and the process returns to step S801.

一方、座標候補点の全てが入力領域内にあるとき(S809でYES)は、S812において、検出された複数の遮光が分離されて検出されたかどうかを判定する。遮光が分離されて検出された場合とは、S803において、2つのセンサ双方から複数の遮光影を検出できている状態である。図9(A)は全ての座標候補点が座標入力領域3内に収まっている場合のうち、遮光が分離して検出される場合を示し、図9(B)は遮光が分離して検出されない場合を示している。一般に、複数の受光部のうち、第1の受光部について判定された指示具の方向の個数と、第2の受光部について判定された指示具の方向の個数とが異なる場合は遮光が分離して検出されない場合といえる。複数の遮光が分離されて検出された場合(S812でYES)はS810へ進み、上記と同様に、継承情報と現在取得した遮光信号とを結び付けることで、実座標A、Bを決定する。すなわち、1サンプリング前の座標値に近接した座標を連続した入力として実座標と判定する。そして、S811で、1サンプリング前の座標値に割り当てられたID情報を割り付け、S805で座標出力を行う。   On the other hand, when all of the coordinate candidate points are within the input area (YES in S809), it is determined in S812 whether or not the plurality of detected light shieldings are separated and detected. The case where the light shielding is detected separately is a state where a plurality of light shielding shadows can be detected from both of the two sensors in S803. FIG. 9A shows a case where the light shielding is separated and detected among all coordinate candidate points within the coordinate input area 3, and FIG. 9B shows that the light shielding is not separately detected. Shows the case. Generally, light shielding is separated when the number of directions of the indicator determined for the first light-receiving unit and the number of directions of the indicator determined for the second light-receiving unit are different from each other. It can be said that this is not detected. If a plurality of shades are detected separately (YES in S812), the process proceeds to S810, and the actual coordinates A and B are determined by combining the inherited information and the currently obtained shaded signal in the same manner as described above. That is, the coordinates close to the coordinate values before one sampling are determined as the actual coordinates as continuous inputs. In S811, the ID information assigned to the coordinate value before one sampling is allocated, and the coordinate output is performed in S805.

一方、図9(B)のように、2つの遮光信号が重なるなどして各々の遮光影が分離できない場合(S812でNO)は、S810で実施する継承情報を利用した処理を実施する際に、割り付けを間違う可能性が高い。そのため、S808へ進み、座標入力装置は、指示具(ペン)に対して制御信号を送信し、指示具に付帯情報を送信するための発光と指示具を区別するための発光を要求する。   On the other hand, as shown in FIG. 9B, when the respective shaded shadows cannot be separated due to the overlap of two shaded signals (NO in S812), the process using the inheritance information performed in S810 is performed. There is a high possibility of incorrect assignment. For this reason, the process proceeds to S808, and the coordinate input device transmits a control signal to the pointing tool (pen), and requests light emission for distinguishing the pointing tool from the light emission for transmitting the auxiliary information to the pointing tool.

S808で送信された制御信号を受け取った指示具は、所定のタイミングにおいて、赤外光を発光して要求された付帯情報を送信するとともに、併せて指示具を区別するための発光を行う。そして、S813では、センサユニット1L、1Rにおいて、照明光(赤外LED101A、101B)の投光のない状態で、当該指示具からの発光を取得する。   The indicator that has received the control signal transmitted in S808 emits infrared light at a predetermined timing to transmit the requested incidental information, and also emits light to distinguish the indicator. In step S813, the sensor units 1L and 1R acquire light emitted from the pointing tool without illumination light (infrared LEDs 101A and 101B) being projected.

次に、S814において、取得した発光のラインCCD上の位置(画素番号)と遮光信号の画素番号とを比較することで、遮光信号と発光とを対応付ける。対応付けによって実座標を特定することが可能となり、併せて受信した付帯情報から、ID情報を座標値に割り付けることができる(S811)。このように、指示具から受け取った当該指示具を識別する識別情報と対応付けて、指示具の入力位置に対応する座標を算出する。   In step S <b> 814, the acquired light emission position on the line CCD (pixel number) is compared with the pixel number of the light shielding signal to associate the light shielding signal with the light emission. The real coordinates can be specified by the association, and the ID information can be assigned to the coordinate values from the accompanying information received together (S811). In this manner, the coordinates corresponding to the input position of the pointing tool are calculated in association with the identification information for identifying the pointing tool received from the pointing tool.

ただし、例えば複数の指示具のうち、もう一方の指示具の陰に隠れて、ペンからの発光が取得できないような場合には、ID情報等の割り付ける判定ができなくなる。このような場合には、例えば、S805の座標出力を行わずに、次の座標検出サイクルへ回すようにしてもよい。このように、本実施形態では、初めて座標を算出する場合(S807でYES)と複数の遮光が分離して検出されなかった場合(S812でNO)の場合のみ、S808で制御信号を送信して指示具に指示具を区別するための発光を行わせる。このため、指示具の発光回数を抑制して指示具の電力消費を抑えるとともに、座標の検出の応答速度を高めることが可能となる。なお、付帯情報の送信は指示具区別のための発光とは別個に所定のタイミングに行われるが、例えば、指示具区別のための発光をするときは付帯情報を送信するようにしてもよい。   However, for example, when the light emitted from the pen cannot be acquired because it is hidden behind the other pointing tool among the plurality of pointing tools, it is not possible to determine whether to assign ID information or the like. In such a case, for example, the coordinate output may not be performed in step S805 but may be performed on the next coordinate detection cycle. As described above, in the present embodiment, the control signal is transmitted in S808 only when the coordinates are calculated for the first time (YES in S807) and in the case where the plurality of shadings are not detected separately (NO in S812). The indicator is caused to emit light for distinguishing the indicator. For this reason, it is possible to suppress the power consumption of the pointing tool by suppressing the number of times the pointing tool emits light, and to increase the response speed of coordinate detection. The incidental information is transmitted at a predetermined timing separately from the light emission for distinguishing the pointing tool. For example, the incidental information may be transmitted when the light emitting for distinguishing the pointing tool is performed.

<ペン制御信号、付帯情報の送受信>
S813、S814の制御信号、付帯情報、赤外光の送受信、および、ID情報の割り付け処理について、図10、図11を用いて詳細に説明する。図10(A)、(B)は、本実施形態におけるペン信号通信部5とセンサユニット1L、1R、及び複数の指示具(ペン9A、ペン9B)の間の情報の通信、及び、発光のやり取りを、概念的に説明した図である。
<Transmission and reception of pen control signals and incidental information>
The control signals, supplementary information, infrared light transmission / reception, and ID information allocation processing in S813 and S814 will be described in detail with reference to FIGS. 10A and 10B show information communication between the pen signal communication unit 5 and the sensor units 1L and 1R and a plurality of pointing devices (pen 9A and pen 9B) and light emission in the present embodiment. FIG. 3 is a diagram conceptually illustrating the exchange.

図10(A)に示すとおり、ペン信号通信部5は更に、制御信号送信モジュール901と付帯情報受信モジュール902とを備える。上述した図8中のS808における制御信号は、制御信号送信モジュール901より送信され、タイミング信号およびコマンド信号等を含む制御信号904A、904Bを、ペン9A、9Bに向けて、赤外光信号として出力する。   As shown in FIG. 10A, the pen signal communication unit 5 further includes a control signal transmission module 901 and an incidental information reception module 902. The control signal in S808 in FIG. 8 described above is transmitted from the control signal transmission module 901, and the control signals 904A and 904B including timing signals and command signals are output as infrared light signals to the pens 9A and 9B. To do.

出力された制御信号904A(904B)は、指示具側(ペン9A、9B)ではペン通信回路63(63A、63B)が受信する。制御信号を受信すると、指示具のペン制御回路64は、ペン先スイッチ61またはサイドスイッチ62が押されているかどうかを判定する。ペン先スイッチ61またはサイドスイッチ62が押下されている場合、指示具は、スイッチの押下状態を示す所定の信号、およびID情報を示す信号を生成する。そして、図10(B)で説明するとおり、付帯情報905A(905B)としてペン通信回路63を通じて所定のタイミングで返答する。   The output control signal 904A (904B) is received by the pen communication circuit 63 (63A, 63B) on the pointing device side (pens 9A, 9B). When the control signal is received, the pen control circuit 64 of the pointing tool determines whether the pen tip switch 61 or the side switch 62 is pressed. When the pen tip switch 61 or the side switch 62 is pressed, the pointing tool generates a predetermined signal indicating a pressed state of the switch and a signal indicating ID information. Then, as will be described with reference to FIG. 10B, the incidental information 905A (905B) is returned through the pen communication circuit 63 at a predetermined timing.

ここで、付帯情報905A(905B)が光信号である場合、変調された情報は付帯情報受信モジュール902にて受信され解析される。一方、センサユニット1L、1Rでは、発光906A(906B)を検出することで、ペンによる座標入力に対する割り付けを行うことができる(図8のS814)。指示具からの付帯情報の座標値への割り付け(図8のS811)は、発光906A(906B)の検出により、遮光範囲と比較して概略同一の位置にある遮光範囲に対して実施すればよい。詳細は、図11を用いて後述する。   Here, when the incidental information 905A (905B) is an optical signal, the modulated information is received and analyzed by the incidental information receiving module 902. On the other hand, by detecting the light emission 906A (906B), the sensor units 1L and 1R can perform allocation for coordinate input by the pen (S814 in FIG. 8). The assignment of the incidental information from the pointing tool to the coordinate value (S811 in FIG. 8) may be performed on the light shielding range at substantially the same position as the light shielding range by detecting the light emission 906A (906B). . Details will be described later with reference to FIG.

なお、センサユニット1L、1Rの受光部(ラインCCD104)のシャッタの開放時間は、赤外LED101A、101Bで発光し再帰反射した光を受光する場合と、当該発光906A(906B)を検出する際とで、適宜変更する。そうすることで、ラインCCD104のダイナミックレンジの範囲の適切なレベルで検出することが可能となる。すなわち、赤外LED101A、101Bが投光するタイミングと異なるタイミングで指示具が発光するように、当該指示具に対して指示をすることで、発光の衝突を避けることが可能となる。   Note that the shutter opening time of the light receiving portions (line CCD 104) of the sensor units 1L and 1R is determined when the light emitted from the infrared LEDs 101A and 101B and retroreflected is received and when the light emission 906A (906B) is detected. Change as appropriate. By doing so, it is possible to detect at an appropriate level in the range of the dynamic range of the line CCD 104. That is, it is possible to avoid light emission collisions by instructing the pointing tool so that the pointing tool emits light at a timing different from the timing at which the infrared LEDs 101A and 101B project light.

<虚実判定(実座標の選択)>
図11では、座標入力有効領域3における座標と受光部(ラインCCD104)で検出される波形の例を用いて、複数の遮光とペンの付帯情報信号との関連付けに関して説明する。
<Illustration (selection of real coordinates)>
In FIG. 11, the association between a plurality of light shields and pen incidental information signals will be described using an example of the coordinates in the coordinate input effective area 3 and a waveform detected by the light receiving unit (line CCD 104).

この場合、センサユニットからの赤外光が指示具に遮られて形成される遮光のCCD検出波形は、センサユニット1Lでは、図11(1)(a)(L)のように観測され、一方のセンサユニット1Rでは、図11(1)(a)(R)のように観測される。また、上述した図10中の、例えば、ペン9Aからの発光906Aは、図11(1)(b)(R)もしくは図11(1)(b)(L)のように検出される。   In this case, the light-blocking CCD detection waveform formed by the infrared light from the sensor unit being blocked by the indicator is observed in the sensor unit 1L as shown in FIGS. 11 (1) (a) and (L). In the sensor unit 1R, observation is performed as shown in FIGS. 11 (1), (a), and (R). Further, for example, the light emission 906A from the pen 9A in FIG. 10 described above is detected as shown in FIGS. 11 (1) (b) (R) or FIGS. 11 (1) (b) (L).

図11(1)のそれぞれの遮光QL1,QL2,QR1,QR2を用いて座標を計算すると、座標候補点として図9(A)のように、実の座標A,Bと虚の座標A’,B’が計算されることとなり、正しい座標を判定する虚実判定が必要となる。ここで、遮光QL1に対して計算された画素番号NL1と、ペンの発光PL1に対応する画素番号NL2とが近接している場合、例えば、NL1、NL2の差分が所定の値の幅に入っている場合、QL1がPL1に対応するものと判定することができる。同様に、画素番号NR1、NR2が近接しているときは、QR1がPR1に対応する遮光と判断することができる。即ち、これらのペンに対応する遮光とペン9Aからの発光の組み合わせから座標計算することで、4つの候補点から実座標に対応する発光したペン9Aによる座標を決定することができる。実座標の組合せの内、もう一方は別の指示具(9B)によるものと判断することで、実際の指示位置である座標A、Bを一意に決定することができる。   When coordinates are calculated using the respective light shields QL1, QL2, QR1, and QR2 in FIG. 11A, real coordinate A and B and imaginary coordinate A ′, as coordinate candidate points, as shown in FIG. B ′ is calculated, and it is necessary to determine whether the coordinates are correct. Here, when the pixel number NL1 calculated for the light shielding QL1 and the pixel number NL2 corresponding to the light emission PL1 of the pen are close to each other, for example, the difference between NL1 and NL2 falls within a predetermined value width. If it is, it can be determined that QL1 corresponds to PL1. Similarly, when the pixel numbers NR1 and NR2 are close to each other, QR1 can be determined to be light shielding corresponding to PR1. That is, by calculating the coordinates from the combination of the light shielding corresponding to these pens and the light emission from the pen 9A, the coordinates of the emitted pen 9A corresponding to the actual coordinates can be determined from the four candidate points. By determining that the other of the combinations of actual coordinates is based on another pointing tool (9B), the coordinates A and B that are actual pointing positions can be uniquely determined.

次に、図9(B)のようにセンサユニット1Rから見たときに入力A、Bが略一直線上に並ぶ場合について考える。センサユニット側から見て入力が手前にある入力Aに隠れる形で、後ろ側にある入力Bがセンサユニットから一部しか見えていない状態である。この状態は、複数の遮光が分離して検出されない場合であり、図8のフローチャートに沿うと、S807、S809、S812、S808の各ステップを経由して判断された状態に対応する。   Next, consider a case where the inputs A and B are arranged in a substantially straight line when viewed from the sensor unit 1R as shown in FIG. 9B. This is a state in which the input B on the rear side is only partially visible from the sensor unit so that the input is hidden behind the input A on the front side when viewed from the sensor unit side. This state is a case where a plurality of shades are not detected separately, and corresponds to the state determined through steps S807, S809, S812, and S808 according to the flowchart of FIG.

この時、CCD検出波形は図11(2)(a)のように検出される。センサユニット1Rで検出される波形は、図11(2)(a)(R)のように遮光が分離されず、QR1とQR2の2つの遮光が合わさった、幅の太い遮光が検出された状態となる。一方、センサユニット1Lで検出される波形は、図11(2)(a)(L)のように遮光が2つあるので、複数の入力があるものと判断できる。   At this time, the CCD detection waveform is detected as shown in FIGS. The waveform detected by the sensor unit 1R is a state in which the light shielding is not separated as shown in FIGS. 11 (2) (a) and (R), and the two light shieldings of QR1 and QR2 are combined and a light shielding with a large width is detected. It becomes. On the other hand, since the waveform detected by the sensor unit 1L has two light shields as shown in FIGS. 11 (2) (a) and 11 (L), it can be determined that there are a plurality of inputs.

ここで、S808で送信された制御信号を受信し、要求に応じて入力Aであるペン9Aが、赤外光906Aを発光した状態について説明する。センサユニット1RのラインCCD104では座標Aに対応するペンの発光が、図11(2)(b)(R)のように検出される。この結果から、NR2の位置(画素番号)に近接した遮光QR1は、検出された発光PR1と対応するものと判断することができる。また、センサユニット1Lにおいてペン発光PL1が検出されたとすると、QL1とPL1が対応するものとして判断することができる。即ち、画素番号NR1とNL1とで算出される座標は、ペン9Aによる入力であると判断することができる。   Here, a state where the control signal transmitted in S808 is received and the pen 9A as the input A emits the infrared light 906A in response to the request will be described. In the line CCD 104 of the sensor unit 1R, the light emission of the pen corresponding to the coordinate A is detected as shown in FIGS. From this result, it can be determined that the light shielding QR1 close to the position (pixel number) of NR2 corresponds to the detected light emission PR1. Further, if the pen light emission PL1 is detected in the sensor unit 1L, it can be determined that QL1 and PL1 correspond to each other. That is, the coordinates calculated by the pixel numbers NR1 and NL1 can be determined to be input by the pen 9A.

上記のように、本実施形態では、複数の指示具による入力が一部重なるなどしての遮光を判別できない場合には、指示具に対して指示具を区別するための発光を指示する。このため、指示具の消費電力を最小限に抑えつつ、複数の指示具を的確に区別することが可能となる。また、適宜、指示具のID情報を含む付帯情報を送信させることで、各々の指示具の遮光信号に対して、ID情報等の付帯情報を割り付けることが可能となる。しかも、以上の処理は、ペンの付帯情報である光信号を、座標検出用(遮光検出用)のCCD104で検出するように構成するため、部品点数を増やすことなく安価に構成することができ、複数の指示具で入力が可能な座標入力装置を提供することができる。   As described above, in the present embodiment, when light shielding due to overlapping of inputs from a plurality of pointing tools cannot be determined, the pointing tool is instructed to emit light for distinguishing the pointing tool. For this reason, it is possible to accurately distinguish a plurality of pointing tools while minimizing the power consumption of the pointing tools. Further, by appropriately transmitting incidental information including the ID information of the pointing tool, it is possible to assign the accompanying information such as ID information to the light shielding signal of each pointing tool. In addition, the above processing is configured to detect the optical signal, which is incidental information of the pen, with the CCD 104 for coordinate detection (for shading detection), and thus can be configured at low cost without increasing the number of parts. It is possible to provide a coordinate input device capable of inputting with a plurality of pointing tools.

<ペン信号の送受信のタイミング>
図12(A)、(B)は、上述した一連の情報の送受信における、タイミングシーケンス図である。なお、当該のタイミングシーケンス図は、座標検出時に毎回実施される処理ではなく、図8のフローチャートにおいて、S807の制御信号を送信すると判断された場合の処理についての説明である。
<Pen signal transmission / reception timing>
FIGS. 12A and 12B are timing sequence diagrams in the transmission / reception of the series of information described above. Note that this timing sequence diagram is not a process performed every time when coordinates are detected, but a process when it is determined that the control signal of S807 is transmitted in the flowchart of FIG.

図6でも説明したように、図12(A)において、座標検出用の赤外LEDの投光タイミング1102に合わせて、センサユニット1L、1R中のラインCCD104のシャッタは1101のタイミングで開放し、遮光信号を検出する。投光タイミングを表す信号1102は、図6の信号53、54に対応する。   As described in FIG. 6, in FIG. 12A, the shutter of the line CCD 104 in the sensor units 1L and 1R is opened at the timing of 1101, in accordance with the projection timing 1102 of the infrared LED for coordinate detection. A shading signal is detected. A signal 1102 representing the light projection timing corresponds to the signals 53 and 54 in FIG.

図10の制御信号送信モジュール901は、制御信号904A、904Bを、これら1101と1102のタイミングと重複しないよう、ラインCCD104から画素データを読み出した後に1103のタイミングで出力する。制御信号904Aを受信した指示具(ペン9A)は、スイッチ情報やID情報から変調した光信号を生成し、付帯情報905Aとして1104及び1106のタイミングで送信し、返答する。更に、2本目の指示具(ペン9B)がある場合には、ペン9A、ペン9Bの送信するタイミングが別々に制御される構成となる。即ち、1103のタイミングで制御信号904Bを受信したペン9Bは、指示具同士で送信タイミングが重ならないよう、図中1105、及び1107のタイミングで付帯情報を出力、及び発光を行う。   The control signal transmission module 901 in FIG. 10 outputs the control signals 904A and 904B at the timing of 1103 after reading out the pixel data from the line CCD 104 so as not to overlap with the timings of these 1101 and 1102. Upon receiving the control signal 904A, the pointing tool (pen 9A) generates a modulated optical signal from the switch information and ID information, transmits it as incidental information 905A at the timings 1104 and 1106, and replies. Further, when there is a second pointing tool (pen 9B), the transmission timing of the pen 9A and the pen 9B is controlled separately. That is, the pen 9B that has received the control signal 904B at the timing of 1103 outputs incidental information and emits light at the timings of 1105 and 1107 in the figure so that the transmission timings do not overlap with each other.

図12(B)で説明するように、制御信号送信モジュール901の出力する制御信号904A、904Bは、1113のタイミングで出力されてもよい。この場合、指示具からの付帯情報の返答は図中1114、1116、あるいは1115、1117のタイミングで出力されるよう制御され、図12(A)に比べて、制御信号の送信分の時間を短縮できる。なお、指示具に対する制御信号904A(904B)の信号は、センサユニット1L(1R)の投光手段から出力する構成とすることで、ペン信号通信部5は送信機能を持たず、受信機能のみで構成することが可能となるので、このように構成してもよい。   As described with reference to FIG. 12B, the control signals 904A and 904B output from the control signal transmission module 901 may be output at the timing of 1113. In this case, the response of the incidental information from the pointing tool is controlled to be output at the timings 1114, 1116, or 1115, 1117 in the figure, and the time required for transmitting the control signal is shortened compared to FIG. it can. It should be noted that the control signal 904A (904B) signal for the pointing tool is output from the light projecting means of the sensor unit 1L (1R), so that the pen signal communication unit 5 does not have a transmission function but only a reception function. Since it becomes possible to comprise, you may comprise in this way.

上記のように、本実施形態の構成では、センサユニットが投光するタイミングと異なるタイミングで指示具が発光するように、当該指示具に対して指示をする。このため、赤外LED101A、101Bからの投光やペンからの赤外発光が重複することなく、座標検出、制御信号、付帯情報の送受信を実現できる。よって、複数の指示具による座標値が得られる場合に、得られた信号の情報(スイッチ信号や、指示具のペンID情報)をその座標値と関連付けることが可能となる。そして、これらのスイッチ情報や指示具固有のペンID情報や、座標値の連続性を表すID情報等を付帯情報として、座標値に付加して外部端末に出力することができる。   As described above, in the configuration of the present embodiment, an instruction is given to the indicator so that the indicator emits light at a timing different from the timing at which the sensor unit projects light. For this reason, coordinate detection, control signals, and transmission / reception of incidental information can be realized without overlapping of light projection from the infrared LEDs 101A and 101B and infrared light emission from the pen. Therefore, when coordinate values by a plurality of pointing tools are obtained, it is possible to associate the obtained signal information (switch signal and pen ID information of the pointing tool) with the coordinate values. Then, the switch information, the pen ID information unique to the pointing tool, the ID information indicating the continuity of the coordinate values, and the like can be added to the coordinate values as auxiliary information and output to the external terminal.

また、本実施形態の構成では、複数の指示具が用いられて、受光部から見た指示具の方向に基づき、各指示具の座標を一意に判定することができない場合などの必要な場合に限って指示具(ペン)に指示具を区別するための赤外光の発光を要求する。このため、常時、指示具の赤外LED66の発光が必要とされる構成と比べて、不要な発光を抑えることで電力消費を削減し、電池寿命を延長する効果にもつながる。   In the configuration of the present embodiment, when a plurality of pointing tools are used and the coordinates of each pointing tool cannot be uniquely determined based on the direction of the pointing tool viewed from the light receiving unit, it is necessary. Only the indicator (pen) is required to emit infrared light to distinguish the indicator. For this reason, compared with the structure which always requires light emission of the infrared LED 66 of the pointing device, power consumption is reduced by suppressing unnecessary light emission, leading to an effect of extending the battery life.

[実施形態2]
上述の実施形態においては、ペン信号通信部5と指示具(ペン9A、9B)間でやり取りされる制御信号や付帯情報の送受信について、赤外光を利用した方式を前提に説明してきた。しかしながら、情報の送受信の方式はこれに限らず、その他の手法を用いても構わない。例えば、図10の制御信号送信モジュール901と付帯情報受信モジュール902、及び、ペン通信回路63との間で送受信される制御信号904A(904B)や付帯情報905A(905B)の送受信は、電波を用いた通信により実現してもよい。この場合、複数の指示具の座標値の虚実判定をより正確に算出するために、指示具から並行して、指示具を区別するための赤外光906A(906B)を発光できる構成であることが望ましい。
[Embodiment 2]
In the above-described embodiment, transmission / reception of control signals and incidental information exchanged between the pen signal communication unit 5 and the pointing tool (pens 9A and 9B) has been described on the premise of a method using infrared light. However, the method of transmitting and receiving information is not limited to this, and other methods may be used. For example, transmission / reception of the control signal 904A (904B) and the auxiliary information 905A (905B) transmitted / received between the control signal transmission module 901 and the incidental information reception module 902 and the pen communication circuit 63 in FIG. It may be realized by communication. In this case, the infrared light 906A (906B) for distinguishing the pointing tool can be emitted in parallel with the pointing tool in order to more accurately calculate the true / false determination of the coordinate values of the plurality of pointing tools. Is desirable.

図13(A)、および(B)では、電波を用いた無線通信を利用する場合のタイミングシーケンスについて説明している。ペン9A(9B)からの発光906A(906B)は、ラインCCD104による座標検出に合わせた投光903のタイミングと重複しないよう制御されることが必要である。ここで、投光903のタイミングは、図13(A)中の1201、1202、あるいは(B)中の1211,1212により示される。そのため、ペン9A、9Bは、図13(A)中の1206、1207、あるいは図13(B)中の1216,1217のタイミングで発光するよう制御される。   13A and 13B illustrate a timing sequence in the case of using wireless communication using radio waves. Light emission 906A (906B) from the pen 9A (9B) needs to be controlled so as not to overlap with the timing of the light projection 903 in accordance with the coordinate detection by the line CCD 104. Here, the timing of the light projection 903 is indicated by 1201 and 1202 in FIG. 13A or 1211 and 1212 in FIG. Therefore, the pens 9A and 9B are controlled to emit light at the timings 1206 and 1207 in FIG. 13A or 1216 and 1217 in FIG.

しかしながら、制御信号904A(904B)や付帯情報905A(905B)の送受信は電波を用いた通信であって、赤外光との衝突は考えなくてよい。このことから、図13(A)では、座標検出タイミング(1201、1202)との重畳を気にすることなく、1203のタイミングでの制御信号の送受信、もしくは、1204、1205のタイミングで、付帯情報の送受信の実施が可能である。   However, transmission / reception of the control signal 904A (904B) and the incidental information 905A (905B) is communication using radio waves, and collision with infrared light need not be considered. For this reason, in FIG. 13A, without regard to superimposition with the coordinate detection timing (1201, 1202), the transmission / reception of the control signal at the timing of 1203, or the incidental information at the timing of 1204, 1205. Can be sent and received.

さらに、図13(B)において、ペン9A(9B)からの付帯情報905A(905B)の送信タイミングが、1214、あるいは1215となるよう制御され、発光906A(906B)と重畳するタイミングであっても、もちろん構わない。   Further, in FIG. 13B, the transmission timing of the supplementary information 905A (905B) from the pen 9A (9B) is controlled to be 1214 or 1215, and is the timing at which the light emission 906A (906B) is superimposed. Of course.

なお、ペン9Aの座標が特定されると、ペン9Bの指示する座標も同時に決定されることをこれまで説明してきた。即ち、ペン9Bからの発光908Bはなくとも、2本の指示具が入力された際の虚実判定を実施することが可能となる。仮に3本の指示具による入力が行われ、虚実判定を行う場合には、2本の指示具からの発光が異なるタイミングでラインCCD104に検出されればよい。換言すれば、N本の指示具による座標入力がある場合、N−1本のペンの発光が異なるタイミングで検出できれば、虚実判定を実施することができる。   It has been described so far that when the coordinates of the pen 9A are specified, the coordinates indicated by the pen 9B are also determined at the same time. That is, even if there is no light emission 908 </ b> B from the pen 9 </ b> B, it is possible to perform the true / false determination when two pointing tools are input. If input is performed using three pointing tools and the true / false determination is performed, the light emitted from the two pointing tools may be detected by the line CCD 104 at different timings. In other words, when there are coordinate inputs by N pointing tools, if the light emission of N-1 pens can be detected at different timings, it is possible to determine whether the truth is true.

つまり、図13(A)の1207、図13(B)の1217のタイミングにおいて、2本目の指示具(ペン9B)が発光しない構成としてもよい。   That is, the second indicator (pen 9B) may not emit light at the timing 1207 in FIG. 13A and 1217 in FIG. 13B.

以上のように、本実施形態では、制御信号、あるいは付帯情報の送受信に無線通信を活用する。このため、本実施形態の構成によれば、タイミングを制御し、ウェイト処理の必要のある処理が減ることで全体の処理時間が短縮される。また、発光する指示具を必要最低限に抑えることで、システム全体で見た場合の電力消費を抑えることができる。その結果、サンプリング回数が多く、応答性に優れた座標入力装置を提供することができる。   As described above, in the present embodiment, wireless communication is utilized for transmission / reception of control signals or incidental information. For this reason, according to the configuration of the present embodiment, the overall processing time is shortened by controlling the timing and reducing the number of processes requiring wait processing. Further, by suppressing the indicator that emits light to the minimum necessary, it is possible to reduce power consumption when viewed in the entire system. As a result, it is possible to provide a coordinate input device having a large number of samplings and excellent responsiveness.

[実施形態3]
先の実施形態においては、複数の指示具によって同時に入力がなされた場合に、必要に応じ、指示具を発光させるための制御信号を制御信号送信モジュール901から送信することを説明した。
[Embodiment 3]
In the previous embodiment, it has been described that a control signal for causing the pointing device to emit light is transmitted from the control signal transmission module 901 as necessary when a plurality of pointing devices are simultaneously input.

しかしながら、これに限定されるものではない。例えば、ID=1で黒色の軌跡を表示し、ID=2では赤色の軌跡を表示するといった、固有のIDを指示具が保持することが前提となったアプリケーションで利用する場合、どのIDの指示具で指示操作が行われているかを、予め検知する必要がある。そこで、このような場合には、例えば、遮光信号のない状態から1つ以上の遮光を検出したタイミングにおいて、制御信号送信モジュール901から制御信号を送信し、指示具IDを取得するようにしてもよい。   However, the present invention is not limited to this. For example, when an ID is used in an application based on the premise that the pointing tool holds a unique ID, such as displaying a black locus with ID = 1 and displaying a red locus with ID = 2, which ID instruction It is necessary to detect in advance whether the pointing operation is performed with the tool. Therefore, in such a case, for example, at the timing when one or more light shielding is detected from the state where there is no light shielding signal, a control signal is transmitted from the control signal transmission module 901 to acquire the indicator ID. Good.

また、二本同時に入力された場合には、図14のような座標が検出される場合がある。図中の数字は時間の経緯を示すもので、白丸は時間経過に沿ってサンプリングされた座標を表している。図14(A)では、例えば1のタイミングにおいて符号A1,B1の座標が、2のタイミングにおいてA2、B2の座標が検出されていることを示す。   Further, when two lines are input simultaneously, coordinates as shown in FIG. 14 may be detected. The numbers in the figure indicate the course of time, and the white circles represent the coordinates sampled over time. FIG. 14A shows that, for example, coordinates A1 and B1 are detected at timing 1 and coordinates A2 and B2 are detected at timing 2.

この時、実際の操作者による指示具の操作は、図14(B)のように入力(描画)する場合と、図14(C)の場合と、2つの場合が想定される。図14(B)とは、即ち、A1から開始した入力Aが、A2、X3、X4と移動し、B1から開始した入力Bが、B2、Y3、Y4と移動した状態を示す。同様に、図14(C)は、A1から開始した入力Aが、A2、Y3、Y4と移動し、B1から開始した入力Bが、B2、X3、X4と移動した状態を示している。   At this time, there are two cases where the operation of the pointing tool by the actual operator is input (drawn) as shown in FIG. 14B, FIG. 14C, and two cases. FIG. 14B shows a state where the input A started from A1 has moved to A2, X3, X4, and the input B started from B1 has moved to B2, Y3, Y4. Similarly, FIG. 14C shows a state where the input A started from A1 has moved to A2, Y3, Y4, and the input B started from B1 has moved to B2, X3, X4.

この2つの場合を区別するために、所定のタイミングで少なくともいずれか一方の指示具を発光させる構成とすればよい。即ち、まず入力が開始されたA1あるいはB1の検出時点で発光し、更には、入力Aと入力Bとが近接したと判断したX3あるいはY3の時点で発光すればよい。これらのタイミングで指示具を発光させ、指示具IDを対応付けることで、入力Aと入力Bとの軌跡について、図14(B)と図14(C)との場合の区別を間違い、誤動作することを防止することが可能となる。   In order to distinguish between the two cases, it is only necessary that at least one of the pointing tools emit light at a predetermined timing. That is, first, light emission may be performed at the time of detection of A1 or B1 when input is started, and further light emission may be performed at the time of X3 or Y3 when it is determined that the input A and the input B are close to each other. By causing the pointing tool to emit light at these timings and associating the pointing tool ID, the trajectory between the input A and the input B is erroneously distinguished from the case of FIG. 14 (B) and FIG. 14 (C) and malfunctions. Can be prevented.

[実施形態4]
先に説明したように本装置は、ペン等の複数の指示具(ペン)や指による入力が可能な構成となっており、特に指示具(ペン)を用いる場合には、ペン信号通信部5とペン9A、9Bの内部回路により、双方向に通信が可能な構成となっている。
[Embodiment 4]
As described above, this apparatus is configured to allow input with a plurality of pointing tools (pens) such as pens and fingers, and in particular when using a pointing tool (pen), the pen signal communication unit 5 And the internal circuits of the pens 9A and 9B are configured to allow bidirectional communication.

そこで、この双方向の通信機能を用いて、各種の入力モードを変更することにより、さらに操作性に優れた座標入力装置として構成することが可能になる。この入力モードの変更方法について、以下に説明する。   Thus, by changing various input modes using this bidirectional communication function, it is possible to configure as a coordinate input device with further excellent operability. A method for changing the input mode will be described below.

図15は、入力モードの変更の処理について説明するためのフローチャートである。なお、この処理は、制御・演算ユニット2のCPU21の制御に基づいて実行される。   FIG. 15 is a flowchart for explaining the process of changing the input mode. This process is executed based on the control of the CPU 21 of the control / arithmetic unit 2.

まず、S1301で入力モードの変更の処理を開始すると、S1302では、ペン信号通信部5は、各ペンに対して通信を要求するコマンドを送信する。この通信要求をペン通信回路が受信したならば、ペンは所定のコマンド信号を返信することになる。   First, when the process of changing the input mode is started in S1301, the pen signal communication unit 5 transmits a command requesting communication to each pen in S1302. If the pen communication circuit receives this communication request, the pen returns a predetermined command signal.

次に、座標入力装置は、S1303において、ペンからの返答があったか否かを判定する。返答(受光)がない場合、すなわち、ペンがペン信号通信部の発光に対して受光範囲外にある場合には(S1303でNO)、この通信要求コマンドを受信できないため何もしない。この場合は、ペンが使用されないと判断して、S1307で、タッチモード(指入力モード)に切替える処理が実行される。すなわち、発光の指示に対して応答がない場合、座標入力有効領域3に対して指示具以外の入力がなされたものとして座標を算出する。S1303でペンからの返答がありと判断された場合(S1303でYES)には、S1304で、ペンからの返答の数を判断する。   Next, in S1303, the coordinate input device determines whether or not there is a response from the pen. If there is no response (light reception), that is, if the pen is outside the light reception range with respect to the light emission of the pen signal communication unit (NO in S1303), nothing is done because this communication request command cannot be received. In this case, it is determined that the pen is not used, and processing for switching to the touch mode (finger input mode) is executed in S1307. That is, when there is no response to the light emission instruction, the coordinates are calculated on the assumption that an input other than the pointing tool has been made to the coordinate input effective area 3. If it is determined in S1303 that there is a response from the pen (YES in S1303), the number of responses from the pen is determined in S1304.

S1304で、ペンからの返答が2本以上であると判定された場合(S1304でYES)には、S1305に進んで2本以上のペンの入力を許可するマルチペンモードに変更する処理を実行する。ペンからの返答が1本である場合(S1304でNO)には、S1306に進んで、ペン1本の入力を許可するシングルペンモードに変更する処理を実行する。   If it is determined in S1304 that there are two or more replies from the pen (YES in S1304), the process proceeds to S1305 to execute a process of changing to a multi-pen mode that permits input of two or more pens. If the response from the pen is one (NO in S1304), the process proceeds to S1306, and a process of changing to the single pen mode permitting the input of one pen is executed.

上記のように、本実施形態では、発光の指示に対する指示具からの応答に基づいて動作モードを切り替える。このため、本実施形態の構成によれば、操作者の使用形態に応じて適切かつ効率的な動作を自動的に選択することが可能となる。   As described above, in the present embodiment, the operation mode is switched based on the response from the pointing tool to the light emission instruction. For this reason, according to the configuration of the present embodiment, it is possible to automatically select an appropriate and efficient operation according to the usage pattern of the operator.

なお、これまでペン信号通信部5とペン通信回路との信号のやりとりは赤外光または無線を用いた信号での場合について説明したが、これに限定されるものではなく、その他の方法を用いてもよい。また例えば、無線を使用する場合、通信要求に対して、返答する場合は、操作者がペンを握っていることを検出するなどして、常にイネーブルとしない構成にすることで、不要な電力消費を回避する構成で実現することが可能となる。操作者がペンを握っていることの検出には例えば静電容量の変化により検出すればよい。   In the above description, the signal exchange between the pen signal communication unit 5 and the pen communication circuit is a signal using infrared light or radio. However, the present invention is not limited to this, and other methods are used. May be. Also, for example, when using wireless, when responding to a communication request, unnecessary power consumption can be achieved by detecting that the operator is holding the pen, etc. so that it is not always enabled. This can be realized with a configuration that avoids the above. The detection of the operator holding the pen may be detected, for example, by a change in capacitance.

なお、上記実施形態では、センサユニット内の受光素子としてラインCCDを用いたが、エリアセンサ型のCCDやCMOSセンサで構成してもよい。特にCMOSセンサの場合には、露光エリアの特定の部分を読み出すことが可能であり、不要なエリアを読み出す必要がないため読み出し速度の高速化が可能である。上記実施形態においてもセンサユニット内の複数の受光部のうち、一方の受光部のデータで検出した遮光範囲から、もう一方の受光部のデータの読出し開始位置を決定し、限定した範囲のデータのみをメモリに転送することでシステム全体としての高速化ができる。   In the above embodiment, the line CCD is used as the light receiving element in the sensor unit. However, an area sensor type CCD or CMOS sensor may be used. In particular, in the case of a CMOS sensor, it is possible to read out a specific part of the exposure area, and it is not necessary to read out an unnecessary area, so that the reading speed can be increased. Also in the above embodiment, the reading start position of the data of the other light receiving unit is determined from the light shielding range detected by the data of one light receiving unit among the plurality of light receiving units in the sensor unit, and only data in a limited range is obtained. Can be speeded up as a whole system.

また、座標入力装置の座標入力有効領域3を、例えば、大画面の表示装置で構成して、指示具の座標値を表示画面上に表示する構成とすれば、複数人による同時入力が可能な、電子ホワイトボードの応用が構成可能になる。   Further, if the coordinate input effective area 3 of the coordinate input device is configured by, for example, a large screen display device and the coordinate value of the pointing tool is displayed on the display screen, simultaneous input by a plurality of persons is possible. Application of electronic whiteboard becomes configurable.

<<その他の実施形態>>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<< Other Embodiments >>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

1L、1R:センサユニット、2:演算・制御ユニット、3:座標入力有効領域、4:再帰反射部、5:ペン信号通信部、9A、9B:指示具(ペン)   1L, 1R: Sensor unit, 2: Calculation / control unit, 3: Coordinate input effective area, 4: Retroreflective unit, 5: Pen signal communication unit, 9A, 9B: Indicator (pen)

Claims (13)

座標入力領域に対する入力を検出し、入力位置に対応する座標を算出する座標入力装置であって、
前記座標入力領域へ向けて投光する投光手段から投光された光を検出する複数の検出手段と、
前記光の検出結果に基づき、前記複数の検出手段から見た、前記座標入力領域に入力された指示具の方向を判定する判定手段と、
前記判定された、前記複数の検出手段から見た指示具の方向に基づき、前記指示具の入力位置に対応する座標を算出する算出手段と、
複数の指示具が用いられて、前記複数の検出手段から見た指示具の方向に基づき、各指示具の座標を一意に判定することができない場合に、前記指示具に対して発光を指示する指示手段と
を備え、
前記算出手段は、前記指示手段により発光が指示された場合に、前記検出手段が検出した前記指示具からの発光の方向に更に基づき、前記座標を算出する
ことを特徴とする座標入力装置。
A coordinate input device that detects an input to a coordinate input area and calculates coordinates corresponding to an input position,
A plurality of detecting means for detecting the light projected from the light projecting means for projecting toward the coordinate input area;
Based on the detection result of the light, a determination unit that determines the direction of the pointing tool input to the coordinate input area as viewed from the plurality of detection units;
Calculating means for calculating coordinates corresponding to the input position of the pointing tool based on the determined direction of the pointing tool as viewed from the plurality of detecting means;
When a plurality of pointing tools are used and the coordinates of the pointing tools cannot be uniquely determined based on the directions of the pointing tools viewed from the plurality of detecting means, the pointing tool is instructed to emit light. An instruction means,
The coordinate input device according to claim 1, wherein when the light emission is instructed by the instruction means, the calculation means further calculates the coordinates based on a light emission direction from the indicator detected by the detection means.
前記指示手段は、前記投光手段が投光するタイミングと異なるタイミングで前記指示具が発光するように、当該指示具に対して指示をすることを特徴とする請求項1に記載の座標入力装置。   The coordinate input device according to claim 1, wherein the instruction unit instructs the indicator so that the indicator emits light at a timing different from a timing at which the light projecting unit projects light. . 前記判定手段は、前記座標入力領域に対する指示具を用いた入力により前記光が遮られて前記検出手段が光を検出しなかった範囲に基づき、当該検出手段から見た前記指示具の方向を判定することを特徴とする請求項1又は2に記載の座標入力装置。   The determining means determines the direction of the pointing tool viewed from the detecting means based on a range where the light is blocked by the input using the pointing tool to the coordinate input area and the detecting means does not detect the light. The coordinate input device according to claim 1, wherein: 前記指示手段は、前記指示具に対して、当該指示具を識別する識別情報を送信することを指示し、
前記算出手段は、前記識別情報と対応付けて、前記指示具の入力位置に対応する座標を算出する
ことを特徴とする請求項1から3のいずれか1項に記載の座標入力装置。
The instructing unit instructs the indicating tool to transmit identification information for identifying the pointing tool,
4. The coordinate input device according to claim 1, wherein the calculation unit calculates coordinates corresponding to an input position of the pointing tool in association with the identification information. 5.
前記指示手段は、前記算出手段が初めて座標を算出する場合に、前記指示具に対して前記識別情報の送信を指示することを特徴とする請求項4に記載の座標入力装置。   5. The coordinate input device according to claim 4, wherein the instruction unit instructs the instruction tool to transmit the identification information when the calculation unit calculates coordinates for the first time. 前記指示手段は、第1の前記検出手段について判定された指示具の方向の個数と、第2の前記検出手段について判定された指示具の方向の個数とが異なる場合に、前記指示具に対して発光を指示することを特徴とする請求項1から5のいずれか1項に記載の座標入力装置。   The indicating means determines the direction of the pointing tool determined for the first detecting means and the pointing tool determined when the number of pointing directions determined for the second detecting means is different. The coordinate input device according to claim 1, wherein the coordinate input device instructs to emit light. 前記投光手段は赤外光を投光することを特徴とする請求項1から6のいずれか1項に記載の座標入力装置。   The coordinate input device according to claim 1, wherein the light projecting unit projects infrared light. 前記指示手段は、前記指示具に対して赤外光の発光を赤外光の発光により指示することを特徴とする請求項1から7のいずれか1項に記載の座標入力装置。   The coordinate input device according to claim 1, wherein the instruction unit instructs the indicator to emit infrared light by emitting infrared light. 前記指示手段は、前記指示具に対して赤外光の発光を無線通信により指示することを特徴とする請求項1から7のいずれか1項に記載の座標入力装置。   The coordinate input device according to claim 1, wherein the instruction unit instructs the indicator to emit infrared light by wireless communication. 前記算出手段により算出された座標を保持する保持手段を更に備え、
前記算出手段は、前記判定手段により新たに判定された前記指示具の方向に対応する指示具の座標と前記保持手段に保持された座標との間の距離が一定値以内の場合、当該新たに判定された指示具の方向に対応する指示具の座標は前記保持手段に保持された座標に連続するものとして、前記座標を算出する
ことを特徴とする請求項1から9のいずれか1項に記載の座標入力装置。
Further comprising holding means for holding the coordinates calculated by the calculating means;
When the distance between the coordinates of the pointing tool corresponding to the direction of the pointing tool newly determined by the determining means and the coordinates held in the holding means is within a certain value, the calculating means The coordinate is calculated on the assumption that the coordinates of the pointing tool corresponding to the determined direction of the pointing tool are continuous with the coordinates held in the holding means. The coordinate input device described.
前記指示手段による発光の指示に対して応答がない場合、前記算出手段は、前記座標入力領域に対して前記指示具以外の入力がなされたものとして前記座標を算出することを特徴とする請求項1から10のいずれか1項に記載の座標入力装置。   The said calculation means calculates the said coordinate as what was input other than the said indicator with respect to the said coordinate input area when there is no response with respect to the light emission instruction | indication by the said instruction | indication means. The coordinate input device according to any one of 1 to 10. 座標入力領域に対する入力を検出し、入力位置に対応する座標を算出する座標入力装置の制御方法であって、
複数の検出手段が、前記座標入力領域へ向けて投光する投光手段から投光された光を検出する検出工程と、
判定手段が、前記光の検出結果に基づき、前記複数の検出手段から見た、前記座標入力領域に入力された指示具の方向を判定する判定工程と、
算出手段が、前記判定された、前記複数の検出手段から見た指示具の方向に基づき、前記指示具の入力位置に対応する座標を算出する算出工程と、
指示手段が、複数の指示具が用いられて、前記複数の検出手段から見た指示具の方向に基づき、各指示具の座標を一意に判定することができない場合に、前記指示具に対して発光を指示する指示工程と
を備え、
前記算出工程においては、前記指示工程により発光が指示された場合に、前記検出工程において検出された前記指示具からの発光の方向に更に基づき、前記座標を算出する
ことを特徴とする座標入力装置の制御方法。
A method for controlling a coordinate input device that detects an input to a coordinate input area and calculates coordinates corresponding to an input position,
A plurality of detecting means for detecting light projected from the light projecting means for projecting toward the coordinate input area;
A determination step of determining a direction of the pointing tool input to the coordinate input area as viewed from the plurality of detection units based on the detection result of the light;
A calculating step of calculating coordinates corresponding to the input position of the pointing tool based on the determined direction of the pointing tool as viewed from the plurality of detecting means;
When the pointing unit cannot determine the coordinates of each pointing unit based on the direction of the pointing unit viewed from the plurality of detecting units using a plurality of pointing units, An instruction process for instructing light emission,
In the calculation step, when light emission is instructed by the instruction step, the coordinate is calculated based on the direction of light emission from the indicator detected in the detection step. Control method.
コンピュータを請求項1から11のいずれか1項に記載の座標入力装置が備える各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means with which the coordinate input device of any one of Claim 1 to 11 is provided.
JP2014141777A 2014-07-09 2014-07-09 Coordinate input device and control method of the same, computer program Pending JP2016018455A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014141777A JP2016018455A (en) 2014-07-09 2014-07-09 Coordinate input device and control method of the same, computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014141777A JP2016018455A (en) 2014-07-09 2014-07-09 Coordinate input device and control method of the same, computer program

Publications (1)

Publication Number Publication Date
JP2016018455A true JP2016018455A (en) 2016-02-01

Family

ID=55233620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014141777A Pending JP2016018455A (en) 2014-07-09 2014-07-09 Coordinate input device and control method of the same, computer program

Country Status (1)

Country Link
JP (1) JP2016018455A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130696A1 (en) 2017-12-27 2019-07-04 ソニー株式会社 Information processing device, information processing method, and information processing system
JP2019159865A (en) * 2018-03-14 2019-09-19 富士通株式会社 Control program, control method, and information processing apparatus
WO2020183519A1 (en) * 2019-03-08 2020-09-17 Necディスプレイソリューションズ株式会社 Information processing device, information processing method, program, display system, display method, and electronic writing instrument

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130696A1 (en) 2017-12-27 2019-07-04 ソニー株式会社 Information processing device, information processing method, and information processing system
KR20200100056A (en) 2017-12-27 2020-08-25 소니 주식회사 Information processing device, information processing method and information processing system
US11402932B2 (en) 2017-12-27 2022-08-02 Sony Corporation Information processing device, information processing method, and information processing system
JP2019159865A (en) * 2018-03-14 2019-09-19 富士通株式会社 Control program, control method, and information processing apparatus
WO2020183519A1 (en) * 2019-03-08 2020-09-17 Necディスプレイソリューションズ株式会社 Information processing device, information processing method, program, display system, display method, and electronic writing instrument
US11567589B2 (en) 2019-03-08 2023-01-31 Sharp Nec Display Solutions, Ltd. Information processing device, information processing method, program, display system, display method, and electronic writing instrument

Similar Documents

Publication Publication Date Title
JP4442877B2 (en) Coordinate input device and control method thereof
US10324566B2 (en) Enhanced interaction touch system
JP4522113B2 (en) Coordinate input device
JP4429047B2 (en) Coordinate input device, control method therefor, and program
JP4757144B2 (en) Coordinate input device, control method therefor, and program
JP5366789B2 (en) Input indication tool, control method therefor, and coordinate input device
JP2006301745A (en) Coordinate input device, control method and program
JP5591069B2 (en) Coordinate input device, control method therefor, and program
JP4812124B2 (en) Coordinate input device, coordinate detection method, and computer program
JP2016018455A (en) Coordinate input device and control method of the same, computer program
CN202217252U (en) Touch screen adopting bluetooth communication and based on camera
CN203606780U (en) Multi-touch and gesture recognition fusion system
JP4401737B2 (en) Coordinate input device, control method therefor, and program
JP2006099273A (en) Coordinate input device and its method
JP2007072502A (en) Display arrangement with coordinate input device
JP2012048403A (en) Coordinate input device and control method thereof, and program
CN103064560B (en) A kind of multi-point touch panel
JP5814608B2 (en) Coordinate input device, control method therefor, and program
CN102298471A (en) Optical touch screen
JP5049747B2 (en) Coordinate input device, control method therefor, and program
JP5717514B2 (en) Coordinate input device, control method therefor, and program
JP6334980B2 (en) Coordinate input device, control method therefor, and program
JP5865053B2 (en) Coordinate input device, control method of coordinate input device, and program
CN102253768A (en) Touch screen with light source
JP2007072508A (en) Coordinate input device and control method and program therefor