JP2017016531A - Coordinate input device, control method thereof, and program - Google Patents

Coordinate input device, control method thereof, and program Download PDF

Info

Publication number
JP2017016531A
JP2017016531A JP2015134688A JP2015134688A JP2017016531A JP 2017016531 A JP2017016531 A JP 2017016531A JP 2015134688 A JP2015134688 A JP 2015134688A JP 2015134688 A JP2015134688 A JP 2015134688A JP 2017016531 A JP2017016531 A JP 2017016531A
Authority
JP
Japan
Prior art keywords
light
coordinate input
component
indicator
light receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015134688A
Other languages
Japanese (ja)
Inventor
松下 明弘
Akihiro Matsushita
明弘 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015134688A priority Critical patent/JP2017016531A/en
Publication of JP2017016531A publication Critical patent/JP2017016531A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect an input of a pointer accurately.SOLUTION: Deriving means derives a fist component, which is a difference between a first light-receiving signal generated on the basis of the light received by light-receiving means, while projection means does not project light, when no pointer exists on a coordinate input surface, and a second light-receiving signal generated on the basis of the light received by the light-receiving means, while the projection means projects light, when no pointer exists on the coordinate input surface. The deriving means derives a second component, which is a difference between a third light-receiving signal generated on the basis of the light received by the light-receiving means when the projection means does not project light and a fourth light-receiving signal generated on the basis of the light received by the light-receiving means when the projection means projects light after the first and second light-receiving signals are generated. Detection mean detects an input on the coordinate input surface, on the basis of a difference between the first component and the second component.SELECTED DRAWING: Figure 1

Description

本発明は、指などの指示物によって座標入力面に入力された座標位置を光学的に検出する座標入力装置、その制御方法及びプログラムに関する。   The present invention relates to a coordinate input device that optically detects a coordinate position input to a coordinate input surface by an indicator such as a finger, a control method thereof, and a program.

指などの指示物によって座標入力面に入力された座標位置を検出する座標入力装置として、各種方式の座標入力装置(タッチパネルやデジタイザ)が提案、または製品化されている。例えば、特殊な器具等を用いずに、指で画面上をタッチすることで、PC(パーソナルコンピュータ)等の端末の操作を簡単に行うことがきるタッチパネル等が広く用いられている。   Various types of coordinate input devices (touch panels and digitizers) have been proposed or commercialized as coordinate input devices that detect the coordinate position input to the coordinate input surface by an indicator such as a finger. For example, a touch panel that can easily operate a terminal such as a PC (personal computer) by touching the screen with a finger without using a special instrument is widely used.

座標入力方式としては、抵抗膜方式、電磁誘導方式、静電誘導方式、光学方式等、種々のものがある。このうち光学方式としては、座標入力面の外側に再帰反射材を配し、投光部からの光を再帰反射材で再帰反射(入射した光を入射方向に反射)し、その再帰反射光の光量分布を受光部により検出して入力位置を算出する光学遮光方式が知られている。例えば特許文献1には、光学遮光方式を用いた座標入力装置が開示されている。また、光学方式には、座標入力面の外側の再帰反射材を不要とし、投光部からの光が指等の指示物で反射した光の光量分布を検出して入力位置を算出する直接反射光方式も知られている。特許文献2には、直接反射方式を用いた座標検出装置が開示されている。   There are various coordinate input methods such as a resistive film method, an electromagnetic induction method, an electrostatic induction method, and an optical method. Of these, as an optical method, a retroreflective material is arranged outside the coordinate input surface, the light from the light projecting portion is retroreflected by the retroreflective material (incident light is reflected in the incident direction), and the retroreflected light An optical shading method is known in which an input position is calculated by detecting a light amount distribution by a light receiving unit. For example, Patent Document 1 discloses a coordinate input device using an optical shading method. In addition, the optical method eliminates the need for retroreflecting material outside the coordinate input surface, and detects the light quantity distribution of the light reflected from the indicator such as a finger to calculate the input position. An optical system is also known. Patent Document 2 discloses a coordinate detection apparatus using a direct reflection method.

この種の座標入力装置を表示装置と一体にすることによって、表示装置の表示画面をタッチすることで、表示状態を制御したり、あたかも紙と鉛筆の様な関係で、入力位置の軌跡を筆跡として表示したりすることが可能となる。   By integrating this type of coordinate input device with the display device, the display state can be controlled by touching the display screen of the display device, or the locus of the input position can be written by hand as if it were a pencil and paper. Can be displayed.

表示装置としては、液晶表示装置等の各種方式のフラットパネルディスプレイやフロントプロジェクタが知られている。フラットパネルディスプレイの場合、そのフラットパネルディスプレイに座標入力装置を重ねて配置すれば、このような操作環境を実現でき、スマートフォン等の携帯機器はその代表例と言える。また、フラットパネルディスプレイの大型化に伴い、大型のタッチパネルと組み合わせて、デジタルサイネージや電子黒板などの分野で導入が進んでいる。   As display devices, various types of flat panel displays such as liquid crystal display devices and front projectors are known. In the case of a flat panel display, such an operating environment can be realized if a coordinate input device is placed on the flat panel display, and a mobile device such as a smartphone can be said to be a representative example. In addition, along with the increase in the size of flat panel displays, it has been introduced in fields such as digital signage and electronic blackboards in combination with large touch panels.

特開2014−48960号公報JP 2014-48960 A 特開2013−80516号公報JP 2013-80516 A

ところで、直接反射光方式における反射光の検出の際には、一例として、以下のようないくつかの問題がある。例えば、照明器具などによる環境光が受光部に入射することで、入力位置及び受光レベルを正しく検出できなくなる場合がある。また、投光部から投光された光が、表示画面の外側にある様々な物体、例えば机や椅子、壁等により反射して受光部に入射している場合も、入力位置及び受光レベルを正しく検出できなくなる場合がある。さらにこれら環境光や表示画面の外側にある物体等の位置等が時間とともに変動することも考えられる。タッチ入力を正しく検出するためには、受光部への入射光が、表示画面をタッチする指等の指示物による反射光であるか、或いは、環境光や画面外の物体等からの反射光であるかを区別する必要がある。   By the way, when detecting reflected light in the direct reflected light system, there are several problems as follows, for example. For example, when the ambient light from a lighting fixture or the like enters the light receiving unit, the input position and the light receiving level may not be detected correctly. In addition, even when the light projected from the light projecting part is reflected by various objects outside the display screen, such as a desk, chair, wall, etc. It may not be detected correctly. Furthermore, it is conceivable that the position of the ambient light, the object, etc. outside the display screen fluctuates with time. In order to correctly detect the touch input, the incident light to the light receiving unit is reflected light from an indicator such as a finger touching the display screen, or reflected light from an ambient light or an object outside the screen. It is necessary to distinguish whether there is.

これらの問題による悪影響を低減するために、これまでにいくつかの方法が開示されている。例えば特許文献2においては、投光と受光のスペクトルを制御することで、環境光を判別するなどの技術が開示されている。   In order to reduce the adverse effects due to these problems, several methods have been disclosed so far. For example, Patent Document 2 discloses a technique for discriminating ambient light by controlling the spectrum of light projection and light reception.

なお、前述したような照明器具などによる環境光が受光部に入射することによる問題は、光学遮光方式においても同様に生ずると考えられる。   In addition, it is considered that the problem caused by the ambient light from the lighting fixture or the like as described above entering the light receiving section also occurs in the optical light shielding method.

本発明はこのような問題点に鑑みてなされたものであり、指示物による入力をより精度良く検出することを可能とする座標入力装置、その制御方法及びプログラムを提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a coordinate input device, a control method thereof, and a program capable of detecting input by an indicator with higher accuracy.

本発明の座標入力装置は、座標入力面に沿う方向に対して投光を行う投光手段と、前記座標入力面に沿う方向から光を受光可能な少なくとも二つの受光手段と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第1の受光信号と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第2の受光信号との差分である第1の成分を導出し、前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第3の受光信号と、前記第1及び第2の受光信号が生成された後の前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第4の受光信号との差分である第2の成分を導出する導出手段と、前記第1の成分と前記第2の成分との差分に基づいて、指示物による前記座標入力面への入力を検出する検出手段と、前記検出手段によって指示物による前記座標入力面への入力が検出されると、検出された入力の前記座標入力面における位置を算出する算出手段とを有する。   The coordinate input device of the present invention includes a light projecting unit that projects light in a direction along the coordinate input surface, at least two light receiving units that can receive light from the direction along the coordinate input surface, and the coordinate input surface. A first light-receiving signal generated based on light received by the light-receiving means when no light is projected by the light-projecting means when there is no indicator on the coordinate input surface; A first component that is a difference from a second received light signal generated based on the light received by the light receiving means when light is projected by the light projecting means when no indicator is present. A third light receiving signal generated based on the light received by the light receiving means when no light is projected by the light projecting means, and the first and second light receiving signals are generated. By the light projecting means later Deriving means for deriving a second component that is a difference from the fourth light receiving signal generated based on the light received by the light receiving means when light projection is performed, the first component, Based on the difference from the second component, detection means for detecting an input to the coordinate input surface by an indicator, and detection when the detection means detects an input to the coordinate input surface by the indicator. Calculating means for calculating the position of the input on the coordinate input surface.

本発明によれば、指示物による入力をより精度良く検出可能となる。   According to the present invention, it is possible to detect an input by an indicator more accurately.

各実施形態の座標入力装置の概略構成図である。It is a schematic block diagram of the coordinate input device of each embodiment. 各実施形態の演算制御部のブロック図である。It is a block diagram of the calculation control part of each embodiment. 第1の実施形態のCPUが実行する処理を示すフローチャートである。It is a flowchart which shows the process which CPU of 1st Embodiment performs. 第1の実施形態の装置の動作説明に用いる光量分布例を示す図である。It is a figure which shows the example of light quantity distribution used for operation | movement description of the apparatus of 1st Embodiment. 第2の実施形態のCPUが実行する処理を示すフローチャートである。It is a flowchart which shows the process which CPU of 2nd Embodiment performs. 第2の実施形態の装置の動作説明に用いる光量分布例を示す図である。It is a figure which shows the example of light quantity distribution used for operation | movement description of the apparatus of 2nd Embodiment.

以下、図面を参照して、本発明の一実施形態の座標入力装置について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, a coordinate input device according to an embodiment of the present invention will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<第1の実施形態の構成例>
図1には、第1の実施形態として、投光した光が指示物により反射した光を検出して、その指示物による入力位置の座標を算出する、直接反射光方式の座標入力装置の概略構成を示す。本実施形態の座標入力装置の場合、平面状のホワイトボード4などの表示面上に、図示しないフロントプロジェクタなどを用いて画像が投影表示される。以下、ホワイトボード4の表示面上において、フロントプロジェクタなどからの画像が投影表示される領域を表示領域5とする。フロントプロジェクタは、例えばパーソナルコンピュータ(以下、PC10とする。)等から送られてくる画像信号に基づく画像を、ホワイトボード4上の表示領域5に投影表示させる。なお、本実施形態ではホワイトボード4の表示面上に画像を表示させる例を挙げているが、表示面はホワイトボードに限定されるものではなく、壁面等であってもよい。
<Configuration Example of First Embodiment>
In FIG. 1, as a first embodiment, an outline of a direct reflection light type coordinate input apparatus that detects light reflected by an indicator and calculates coordinates of an input position by the indicator. The configuration is shown. In the case of the coordinate input device according to the present embodiment, an image is projected and displayed on a display surface such as a planar whiteboard 4 using a front projector (not shown). Hereinafter, an area in which an image from a front projector or the like is projected and displayed on the display surface of the whiteboard 4 is referred to as a display area 5. The front projector projects and displays an image based on an image signal sent from, for example, a personal computer (hereinafter referred to as a PC 10) on the display area 5 on the whiteboard 4. In the present embodiment, an example is shown in which an image is displayed on the display surface of the whiteboard 4, but the display surface is not limited to the whiteboard, and may be a wall surface or the like.

センサバー1は、センサユニット2a、センサユニット2b、演算制御部3等を有している。なお、以下の説明において、センサユニット2aとセンサユニット2bを区別せずに総称する場合はセンサユニット2と表記する。センサバー1は、例えばユーザにより、表示領域5の外側に設置される。センサバー1には、例えばマグネットが内蔵されていて、例えば強磁性体からなる板材等を有して構成されたホワイトボード4等に、そのマグネットの磁力で貼り付けることができるようになっている。   The sensor bar 1 includes a sensor unit 2a, a sensor unit 2b, an arithmetic control unit 3 and the like. In the following description, the sensor unit 2a and the sensor unit 2b are collectively referred to as the sensor unit 2 without being distinguished from each other. The sensor bar 1 is installed outside the display area 5 by a user, for example. The sensor bar 1 has, for example, a built-in magnet, and can be attached to a whiteboard 4 or the like configured with, for example, a ferromagnetic plate, by the magnetic force of the magnet.

センサバー1に内蔵されている演算制御部3は、センサユニット2を制御し、またセンサユニット2からの出力信号に対する演算処理を行う。詳細は後述するが、演算制御部3は、座標入力面である表示領域5に対して指などの指示物による指示入力がなされたときのセンサユニット2の出力信号を処理することにより、その指示物による入力座標を算出する。そして、演算制御部3は、その演算処理により求めた入力座標の情報を、PC10等の外部機器へ出力する。   The arithmetic control unit 3 built in the sensor bar 1 controls the sensor unit 2 and performs arithmetic processing on an output signal from the sensor unit 2. Although details will be described later, the arithmetic control unit 3 processes the output signal of the sensor unit 2 when an instruction is input by an indicator such as a finger to the display area 5 that is a coordinate input surface. Calculate the input coordinates of the object. Then, the calculation control unit 3 outputs information on the input coordinates obtained by the calculation process to an external device such as the PC 10.

センサユニット2a,2bは、それぞれ投光部及び受光部を有している。投光部は、座標入力面の一例である表示領域5に沿う方向(表示領域5に略々平行な方向)に向けて光を投光する赤外LEDと投光レンズなどにより構成されている。受光部は、入射光を受光可能なラインCCDと受光レンズなどで構成されている。そして、ラインCCDの受光面は、赤外LEDの投光方向に向けられている。投光部及び受光部の内部構造などについては、例えば特許文献1に詳細に開示されているのでここではそれらの説明は省略する。投光部及び受光部には、特許文献1に開示されている構造の他にも、種々の構造を用いることができる。   Each of the sensor units 2a and 2b has a light projecting unit and a light receiving unit. The light projecting unit includes an infrared LED that projects light in a direction along the display area 5 (a direction substantially parallel to the display area 5), which is an example of a coordinate input surface, and a light projecting lens. . The light receiving unit includes a line CCD capable of receiving incident light and a light receiving lens. The light receiving surface of the line CCD is directed in the light projecting direction of the infrared LED. Since the internal structures of the light projecting unit and the light receiving unit are disclosed in detail in, for example, Patent Document 1, their description is omitted here. In addition to the structure disclosed in Patent Document 1, various structures can be used for the light projecting section and the light receiving section.

なお、図1中に一点鎖線で示されている部分は、後述する第2の実施形態で説明する光学遮蔽方式の座標入力装置が備えている構成(再帰反射材101,102)であり、第1の実施形態の直接反射光方式では必ずしも必要ではないものである。   1 is a configuration (retroreflective material 101, 102) provided in an optical shielding type coordinate input device described in a second embodiment to be described later. The direct reflected light system of the first embodiment is not necessarily required.

図2は、演算制御部3の内部構成例を示す図である。センサユニット2のラインCCD用の制御信号は、CPU61から出力される。CPU61は、その制御信号により、センサユニット2のラインCCDのシャッタータイミングやデータの出力制御等を行う。ラインCCD用のクロックは、クロック発生回路(CLK)62から各センサユニット2に送信されるとともに、ラインCCDとの同期をとって各種制御を行うためにCPU61にも入力されている。また、CPU61は、センサユニット2の赤外LEDを駆動するLED駆動信号を生成しており、赤外LEDからの赤外光の投光を行う状態と投光を行わない状態を切り替え制御することも可能となされている。なお、CPUの代わりにマイクロプロセッサやDSPなど種々のプロセッサを用いてもよいし、それらを組み合わせてもよい。   FIG. 2 is a diagram illustrating an internal configuration example of the arithmetic control unit 3. A control signal for the line CCD of the sensor unit 2 is output from the CPU 61. The CPU 61 performs shutter timing of the line CCD of the sensor unit 2, data output control, and the like according to the control signal. A clock for the line CCD is transmitted from the clock generation circuit (CLK) 62 to each sensor unit 2 and is also input to the CPU 61 for performing various controls in synchronization with the line CCD. Further, the CPU 61 generates an LED drive signal for driving the infrared LED of the sensor unit 2, and performs switching control between a state in which infrared light is projected from the infrared LED and a state in which light is not projected. It is also possible. Various processors such as a microprocessor and a DSP may be used instead of the CPU, or they may be combined.

センサユニット2a及びセンサユニット2bが有するそれぞれのラインCCDの受光信号は、A/Dコンバータ63に入力される。A/Dコンバータ63は、CPU61による制御の下で、ラインCCDの受光信号をデジタル値に変換する。A/Dコンバータ63により変換されたデジタルデータはメモリ64に記憶され、後に、CPU61による後述する信号処理や角度計算などの処理に用いられる。そして、CPU61は、計算した角度情報から入力座標を算出し、その算出した座標データを、図1の外部のPC10等の情報処理装置にインタフェース65(例えばUSBインタフェース)を介して出力する。   The light reception signals of the respective line CCDs included in the sensor unit 2 a and the sensor unit 2 b are input to the A / D converter 63. The A / D converter 63 converts the light reception signal of the line CCD into a digital value under the control of the CPU 61. The digital data converted by the A / D converter 63 is stored in the memory 64 and used later for processing such as signal processing and angle calculation described later by the CPU 61. Then, the CPU 61 calculates input coordinates from the calculated angle information, and outputs the calculated coordinate data to an information processing apparatus such as the external PC 10 in FIG. 1 via an interface 65 (for example, a USB interface).

また、センサバー1は、ユーザインターフェイス66を備えていてもよい。ユーザインターフェイス66は、例えば後述するキャリブレーションモード等の切り替えなどに用いられる各種スイッチや、例えばビープ音などによるユーザ報知を行うスピーカなどを備えている。なお、センサバー1のモード切り替えやユーザ報知等を含む全ての動作制御がPC10により行われる場合には、ユーザインターフェイス66は必ずしも備えられていなくてもよい。   The sensor bar 1 may include a user interface 66. The user interface 66 includes, for example, various switches used for switching a calibration mode, which will be described later, and a speaker for performing user notification using, for example, a beep sound. Note that the user interface 66 does not necessarily have to be provided when all the operation control including the mode switching of the sensor bar 1 and the user notification is performed by the PC 10.

<基準反射成分導出処理>
図3(A)は、座標入力装置の電源が入れられ、CPU61が、メモリ64に読み込まれた本実施形態の制御プログラムの実行を開始し、指示物による入力を検出するための基準反射成分(第1の成分)の記憶が完了するまでの処理のフローチャートである。図3(A)に示す基準反射成分導出処理は、センサユニット2a,2bのラインCCDが入射光を受光した受光信号から環境光成分を除去し、その環境光成分を除去した後の受光成分を、基準反射成分として記憶する処理である。以下、図3(A)のフローチャートを参照して、基準反射成分導出処理の内容を説明する。
<Reference reflection component derivation processing>
In FIG. 3A, the coordinate input device is turned on, and the CPU 61 starts execution of the control program of the present embodiment read into the memory 64 and detects the reference reflection component (for detecting the input by the indicator) ( It is a flowchart of a process until the memory | storage of (1st component) is completed. In the reference reflection component derivation process shown in FIG. 3A, the line CCD of the sensor units 2a and 2b removes the ambient light component from the received light signal that received the incident light, and the received light component after removing the ambient light component. , A process of storing as a reference reflection component. Hereinafter, the content of the reference reflection component derivation process will be described with reference to the flowchart of FIG.

なお、上述の演算制御部3は、CPU61がメモリに読み込まれたプログラムを実行することで、導出手段、検出手段及び算出手段として機能する。これらの手段は、単一のハードウェアで実現してもよいし、複数のハードウェアで実現してもよい。また、CPU以外にも、マイクロプロセッサやDSP、ASIC(application specific integrated circuit)を用いて、これらの手段を実現してもよい。   The arithmetic control unit 3 described above functions as a derivation unit, a detection unit, and a calculation unit when the CPU 61 executes a program read into a memory. These means may be realized by a single hardware or a plurality of hardware. In addition to the CPU, these means may be realized by using a microprocessor, a DSP, or an ASIC (application specific integrated circuit).

また、基準反射成分導出処理は、座標入力面の上に指示物が存在しないときに、実行することを想定している。座標入力面の上に指示物が存在しないと判断する方法としては下記のような方法がある。例えば、座標入力面の上に指示物が存在しないときに、ユーザが基準反射成分導出処理を実行させる操作入力を入力させてもよい。また、一定時間、各ラインCCDにて受光して生成した信号が変動していないときに座標入力面の上に指示物が存在しないと判断してもよい。   Further, it is assumed that the reference reflection component derivation process is executed when there is no indicator on the coordinate input surface. As a method for determining that there is no indicator on the coordinate input surface, there are the following methods. For example, when there is no indicator on the coordinate input surface, the user may input an operation input for executing the reference reflection component derivation process. Alternatively, it may be determined that there is no indicator on the coordinate input surface when the signal received and generated by each line CCD has not changed for a certain period of time.

図3(A)のフローチャートにおいて、先ず、演算制御部3は、ステップS102の処理として、入出力ポートの設定、タイマ設定などの初期化や、ラインCCDの蓄積電荷のリセットなど周辺回路の初期化を行う。ステップS102の後、演算制御部3は、処理をステップS103へ進める。   In the flowchart of FIG. 3A, the arithmetic control unit 3 first initializes peripheral circuits such as input / output port setting, timer setting, resetting of charge accumulated in the line CCD, etc. as processing in step S102. I do. After step S102, the arithmetic control unit 3 advances the process to step S103.

ステップS103では、演算制御部3は、センサユニット2a及び2bの両方の赤外LEDを消灯させて投光が行われていない状態で、それらセンサユニット2a及び2b内の各ラインCCDによる受光を行わせる。このように、基準反射成分導出処理において、センサユニット2a及び2bの赤外LEDによる投光を行っていない状態で各ラインCCDにて入射光を受光して生成した信号が、本実施形態における第1の受光信号である。赤外LEDを消灯させた状態におけるラインCCDの受光信号は、赤外LEDによる赤外光成分を含まない環境光(背景光)のみの光量分布を示す信号であると考えられる。以下の説明では、赤外LEDによる赤外光成分を含まない背景光を「非投光背景光」と表記する。これらセンサユニット2a及び2bの各ラインCCDにより非投光背景光が受光された際の受光信号は、演算制御部3による制御の下、A/Dコンバータ63でそれぞれデジタル化され、非投光背景光データとしてメモリ64に記憶される。   In step S103, the arithmetic control unit 3 turns off the infrared LEDs of the sensor units 2a and 2b and receives light by the line CCDs in the sensor units 2a and 2b in a state where no light is projected. Make it. As described above, in the reference reflection component derivation process, the signal generated by receiving the incident light in each line CCD in a state where the light is not projected by the infrared LEDs of the sensor units 2a and 2b is the first in the present embodiment. 1 is a light reception signal. The light reception signal of the line CCD in a state where the infrared LED is turned off is considered to be a signal indicating a light amount distribution of only ambient light (background light) not including an infrared light component by the infrared LED. In the following description, background light that does not include an infrared light component by an infrared LED is referred to as “non-projected background light”. The light reception signals when the non-projection background light is received by the line CCDs of the sensor units 2a and 2b are respectively digitized by the A / D converter 63 under the control of the arithmetic control unit 3, and the non-projection background is obtained. It is stored in the memory 64 as optical data.

図4(A)は、非投光背景光データの光量分布をグラフ化した一例を示す図である。図4(A)の横軸はラインCCDの各画素番号を示しており、縦軸は光量の大きさを示している。なお、後述する図4(B)〜図4(O)の横軸と縦軸も図4(A)と同様である。図4(A)に例示した非投光背景光データの場合、横軸の中央付近に光量が大きくなっている領域401がある。この光量が大きくなっている領域401は、例えばホワイトボード4の周囲に設置されている白熱灯などからの環境光に含まれている赤外線が、背景光としてラインCCDに入射して受光されたことにより生じていると考えられる。   FIG. 4A is a diagram illustrating an example of a graph of the light amount distribution of the non-projection background light data. The horizontal axis in FIG. 4A indicates the pixel number of the line CCD, and the vertical axis indicates the amount of light. Note that the horizontal and vertical axes in FIGS. 4B to 4O described later are the same as those in FIG. In the case of the non-projection background light data illustrated in FIG. 4A, there is a region 401 where the amount of light is large near the center of the horizontal axis. In the region 401 where the amount of light is large, for example, infrared light included in ambient light from an incandescent lamp installed around the whiteboard 4 is incident on the line CCD as background light and received. It is thought that it is caused by.

ステップS103の後、演算制御部3は、処理をステップS104へ進める。ステップS104では、演算制御部3は、センサユニット2a及び2bの両方の赤外LEDを点灯させて投光が行われている状態でそれらセンサユニット2a及び2b内の各ラインCCDによる受光を行わせる。このように、基準反射成分導出処理において、センサユニット2a及び2bの両赤外LEDによる投光を行っている状態で各ラインCCDにて入射光を受光して、その受光した光に基づいて生成した信号が、本実施形態における第2の受光信号である。赤外LEDを点灯させた状態におけるラインCCDの受光信号は、環境光に更に、赤外LEDから投光された赤外光が何らかの物体等で反射された赤外光成分が加わった信号であると考えられる。言い換えると、この場合のラインCCDの受光信号は、前述した非投光背景光に更に、赤外LEDの投光に起因した赤外光成分が加わった状態の光量分布を示す信号であると考えられる。以下の説明では、環境光と赤外LEDに起因する赤外光成分とを含む背景光を「投光背景光」と表記する。そして、センサユニット2a及び2bの各ラインCCDにより投光背景光が受光された際の受光信号は、演算制御部3による制御の下、A/Dコンバータ63でそれぞれデジタル化され、投光背景光データとしてメモリ64に記憶される。   After step S103, the arithmetic control unit 3 advances the process to step S104. In step S104, the arithmetic control unit 3 turns on the infrared LEDs of the sensor units 2a and 2b and causes the line CCDs in the sensor units 2a and 2b to receive light in a state where light is being projected. . In this way, in the reference reflection component deriving process, incident light is received by each line CCD in a state where light is projected by both infrared LEDs of the sensor units 2a and 2b, and generated based on the received light. This signal is the second received light signal in this embodiment. The light reception signal of the line CCD in a state where the infrared LED is turned on is a signal obtained by adding an infrared light component in which the infrared light projected from the infrared LED is reflected by some object or the like to the ambient light. it is conceivable that. In other words, the light reception signal of the line CCD in this case is considered to be a signal indicating the light amount distribution in a state where the infrared light component resulting from the light projection of the infrared LED is added to the non-light-projected background light described above. It is done. In the following description, background light including ambient light and an infrared light component caused by an infrared LED is referred to as “projection background light”. The received light signals when the projected background light is received by the line CCDs of the sensor units 2a and 2b are respectively digitized by the A / D converter 63 under the control of the arithmetic control unit 3, and the projected background light is obtained. It is stored in the memory 64 as data.

図4(B)は、投光背景光データの光量分布をグラフ化した一例を示す図である。図4(B)に例示した投光背景光データの光量分布には、横軸の中央付近に光量が大きくなっている領域401と横軸の右端付近に光量が大きくなっている領域402とがある。横軸の中央付近で光量が大きい領域401は、図4(A)で説明したのと同様に、ホワイトボード4の周囲にある白熱灯などからの赤外線が、背景光としてラインCCDに入射することで生じた光量成分である。一方、図4(B)と前述の図4(A)とを比較すると、図4(B)の光量分布には、横軸の右端付近に光量が大きくなっている領域402がある。この領域402は、例えば、センサユニット2の赤外LEDから投光された光が、ホワイトボード4の外側の周囲に存在している何らかの物体で反射されてラインCCDに入射したことで生じていると考えられる。なお、ホワイトボード4の外側の周囲に存在する何らかの物体としては、例えば、ペンやその他の文房具、机、椅子、部屋の壁、床、天井等のような、赤外線を反射する様々な物体であると考えられる。これらの物体は、ホワイトボード4の外側の周囲に存在している物体であるため、以下の説明では「外側物体」と表記する。なお、図4(B)の例では、説明を簡単にするために、外側物体による反射光の光量成分は一つのみとしているが、実際にはホワイトボード4の外側の周囲に存在している様々な物体からの反射光の光量成分が広範囲に渡って検出される可能性がある。   FIG. 4B is a diagram illustrating an example of a graph of the light amount distribution of the projection background light data. The light amount distribution of the projected background light data illustrated in FIG. 4B includes a region 401 where the light amount is large near the center of the horizontal axis and a region 402 where the light amount is large near the right end of the horizontal axis. is there. In the region 401 where the amount of light is large near the center of the horizontal axis, infrared rays from an incandescent lamp around the whiteboard 4 enter the line CCD as background light, as described with reference to FIG. The light quantity component generated in On the other hand, when FIG. 4B is compared with FIG. 4A described above, the light quantity distribution in FIG. 4B has a region 402 where the light quantity is large near the right end of the horizontal axis. This region 402 is generated, for example, when light projected from the infrared LED of the sensor unit 2 is reflected by some object existing around the outside of the whiteboard 4 and enters the line CCD. it is conceivable that. Note that some objects existing around the outside of the whiteboard 4 are various objects that reflect infrared rays, such as pens and other stationery, desks, chairs, room walls, floors, ceilings, and the like. it is conceivable that. Since these objects exist around the outside of the whiteboard 4, they are referred to as “outer objects” in the following description. In the example of FIG. 4B, for simplicity of explanation, only one light amount component of the reflected light from the outer object is present, but actually it exists around the outside of the whiteboard 4. There is a possibility that a light amount component of reflected light from various objects is detected over a wide range.

ステップS104の後、演算制御部3は、処理をステップS105へ進める。ステップS105では、演算制御部3は、メモリ64に記憶されている図4(B)の投光背景光データと、同じくメモリ64に記憶されている図4(A)の非投光背景光データの差分を求める。より詳細には、演算制御部3は、センサユニット2aのラインCCDによる投光背景光データと非投光背景光データの差分を求め、同様に、センサユニット2bのラインCCDによる投光背景光データと非投光背景光データの差分を求める。本実施形態では、投光背景光データと非投光背景光データの差分演算として、投光背景光データから非投光背景光データを減算する例を挙げている。   After step S104, the arithmetic control unit 3 advances the process to step S105. In step S <b> 105, the arithmetic control unit 3 stores the projected background light data of FIG. 4B stored in the memory 64 and the non-projected background light data of FIG. 4A stored in the memory 64. Find the difference between More specifically, the arithmetic control unit 3 obtains a difference between the projected background light data by the line CCD of the sensor unit 2a and the non-projected background light data, and similarly, the projected background light data by the line CCD of the sensor unit 2b. And the difference between the non-projected background light data. In the present embodiment, an example of subtracting the non-projection background light data from the projection background light data is given as the difference calculation between the projection background light data and the non-projection background light data.

図4(C)は、図4(B)の投光背景光データから図4(A)の非投光背景光データを減算した場合の光量分布をグラフ化して示す図である。この図4(C)に例示した光量分布では、横軸の右端付近に光量が大きくなっている領域402がある。この図4(C)の例において、光量が大きくなっている領域402は、前述の図4(B)で説明したように、赤外LEDからの光が外側物体により反射された光を、ラインCCDにて検出した光量成分である。   FIG. 4C is a graph showing the light amount distribution when the non-projection background light data in FIG. 4A is subtracted from the projection background light data in FIG. 4B. In the light quantity distribution illustrated in FIG. 4C, there is a region 402 where the light quantity is large near the right end of the horizontal axis. In the example of FIG. 4C, the region 402 where the amount of light is large is obtained by changing the light from the infrared LED reflected by the outer object to the line as described with reference to FIG. This is the light quantity component detected by the CCD.

このように投光背景光データと非投光背景光データの差分演算により導出した光量成分が、本実施形態における基準反射成分である。そして、演算制御部3は、電源投入直後の基準反射成分を示す基準反射成分データをメモリ64に記憶させる。演算制御部3は、以上のようにして基準反射成分データを算出してメモリ64に記憶させると、図3(A)のフローチャートに示した基準反射成分導出処理を終了する。   The light amount component derived by the difference calculation between the projected background light data and the non-projected background light data is the reference reflection component in the present embodiment. Then, the arithmetic control unit 3 causes the memory 64 to store reference reflection component data indicating the reference reflection component immediately after the power is turned on. After calculating the reference reflection component data and storing it in the memory 64 as described above, the arithmetic control unit 3 ends the reference reflection component derivation process shown in the flowchart of FIG.

<入力検出処理(指示物が背景光と重ならない位置に在る場合)>
図3(B)には、前述した基準反射成分導出処理が終了した後に、指などの指示物により表示領域5に対する入力が行われて、その指示物による入力を検出する際に、演算制御部3が制御プログラムを実行することにより実現される処理のフローチャートを示す。以下、各センサユニット2の各ラインCCDから見て、背景光や外側物体等からの反射光と重ならない位置において、指などの指示物による入力がされる場合の処理の流れについて、図3(B)のフローチャートを参照しながら説明する。
<Input detection processing (when the indicator is in a position that does not overlap with the background light)>
In FIG. 3B, after the above-described reference reflection component derivation process is completed, an input to the display area 5 is performed by an indicator such as a finger, and an operation control unit is detected when detecting an input by the indicator. 3 shows a flowchart of processing realized by executing the control program. Hereinafter, the flow of processing in the case where an input by an indicator such as a finger is performed at a position where it does not overlap with background light or reflected light from an outside object or the like as seen from each line CCD of each sensor unit 2 is shown in FIG. This will be described with reference to the flowchart of B).

図3(B)のフローチャートにおいて、演算制御部3は、先ずステップS108の処理として、各センサユニット2の各赤外LEDを消灯させて投光が行われていない状態で各ラインCCDによる受光を行わせる。このように、入力検出処理において、センサユニット2a及び2bの両赤外LEDによる投光を行っていない状態で各ラインCCDにて入射光を受光して、その受光した光に基づいて生成した信号が、本実施形態における第3の受光信号である。以下の説明では、このときの各ラインCCDの受光信号を「非投光データ」と表記する。この場合、各赤外LEDは消灯しており、赤外LEDから投光された赤外光が指示物にて反射された反射光は無いと考えられるので、非投光データの光量分布は、前述の図4(A)に示した光量分布と略々同じになると考えられる。演算制御部3は、この非投光データをメモリ64に記憶させる。ステップS108の後、演算制御部3は、処理をステップS109へ進める。   In the flowchart of FIG. 3B, the arithmetic control unit 3 first receives light by each line CCD in the state where the infrared LEDs of each sensor unit 2 are turned off and no light is projected as the process of step S108. Let it be done. Thus, in the input detection process, incident light is received by each line CCD in a state where light is not projected by both infrared LEDs of the sensor units 2a and 2b, and a signal generated based on the received light. Is the third light reception signal in the present embodiment. In the following description, the light reception signal of each line CCD at this time is referred to as “non-light projection data”. In this case, each infrared LED is turned off, and since it is considered that there is no reflected light in which the infrared light projected from the infrared LED is reflected by the indicator, the light amount distribution of the non-projected data is It is considered that the light amount distribution shown in FIG. The arithmetic control unit 3 stores the non-light projection data in the memory 64. After step S108, the arithmetic control unit 3 advances the process to step S109.

ステップS109では、演算制御部3は、各センサユニット2の各赤外LEDを点灯させて投光が行われている状態で各ラインCCDによる受光を行わせる。このように、入力検出処理において、センサユニット2a及び2bの両赤外LEDによる投光を行っている状態で各ラインCCDにて入射光を受光して、その受光した光に基づいて生成した信号が、本実施形態における第4の受光信号である。以下の説明では、このときの各ラインCCDの受光信号を「投光データ」と表記する。   In step S109, the arithmetic control unit 3 causes each line CCD to receive light in a state where the infrared LED of each sensor unit 2 is turned on and light is being projected. Thus, in the input detection process, incident light is received by each line CCD in a state where light is projected by both infrared LEDs of the sensor units 2a and 2b, and a signal generated based on the received light. Is the fourth light receiving signal in the present embodiment. In the following description, the light reception signal of each line CCD at this time is referred to as “light projection data”.

図4(D)は、投光データの光量分布の一例を示す図である。この図4(D)に示した光量分布の場合、前述した図4(B)の例と比較すると、背景光や外側物体からの反射光と重ならない、例えば横軸の左端付近に光量が大きくなっている領域403が新たに現れている。本実施形態では、図4(D)の例において横軸の左端付近で光量が大きくなっている領域403が、表示領域5内に在る指示物からの反射光の光量成分であるとする。そして、演算制御部3は、この投光データをメモリ64に記憶させる。ステップS109の後、演算制御部3は、処理をステップS110へ進める。   FIG. 4D is a diagram illustrating an example of the light amount distribution of the light projection data. In the case of the light quantity distribution shown in FIG. 4D, compared with the example of FIG. 4B described above, the light quantity does not overlap with the background light or the reflected light from the outer object, for example, near the left end of the horizontal axis. The newly formed area 403 appears. In the present embodiment, it is assumed that a region 403 in which the light amount is large near the left end of the horizontal axis in the example of FIG. 4D is a light amount component of reflected light from an indicator in the display region 5. Then, the arithmetic control unit 3 stores the light projection data in the memory 64. After step S109, the arithmetic control unit 3 advances the process to step S110.

ステップS110では、演算制御部3は、メモリ64にそれぞれ記憶されている、図4(D)の投光データと非投光データ(図4(A))の差分を求める。より詳細には、演算制御部3は、センサユニット2aのラインCCDによる投光データと非投光データの差分を求め、同様に、センサユニット2bのラインCCDによる投光データと非投光データの差分を求める。本実施形態では、投光データと非投光データの差分演算として、投光データから非投光データを減算する例を挙げている。   In step S110, the arithmetic control unit 3 obtains the difference between the light projection data in FIG. 4D and the non-light projection data (FIG. 4A) stored in the memory 64, respectively. More specifically, the arithmetic control unit 3 obtains a difference between the light projection data and the non-light projection data by the line CCD of the sensor unit 2a, and similarly, the light projection data and the non-light projection data of the line CCD of the sensor unit 2b. Find the difference. In the present embodiment, as an example of the difference calculation between the light projection data and the non-light projection data, an example is given in which the non-light projection data is subtracted from the light projection data.

図4(E)は、図4(D)の投光データから非投光データ(図4(A))を減算した後の光量分布をグラフ化して示す図である。この図4(E)に例示した光量分布では、横軸の右端付近に光量が大きくなった領域402と左端付近に光量が大きくなった領域403とがある。この図4(E)の例において、横軸の左端付近で光量が大きい領域403は、前述の図4(D)で説明した表示領域5の内の指示物からの反射光の光量成分である。一方、図4(E)の横軸の右端付近で光量が大きい領域402は、前述の図4(B)で説明した外側物体による反射光の光量成分である。このように、投光データと非投光データの差分演算後のデータは、表示領域5の内と外の様々な物体(指示物が存在する場合にはその指示物も含む)からの反射光成分を含んで入るデータである。以下の説明では、投光データと非投光データの差分演算により得られる反射光成分を、「総反射成分(第2の成分)」と表記する。演算制御部3は、この総反射成分データをメモリ64に記憶させる。   FIG. 4E is a graph showing the light amount distribution after subtracting the non-projection data (FIG. 4A) from the projection data of FIG. 4D. In the light amount distribution illustrated in FIG. 4E, there are a region 402 where the light amount increases near the right end of the horizontal axis and a region 403 where the light amount increases near the left end. In the example of FIG. 4E, a region 403 with a large amount of light near the left end of the horizontal axis is a light amount component of reflected light from the indicator in the display region 5 described with reference to FIG. . On the other hand, a region 402 having a large amount of light near the right end of the horizontal axis in FIG. 4E is a light amount component of light reflected by the outer object described with reference to FIG. As described above, the data after the difference calculation between the projection data and the non-projection data is reflected light from various objects inside and outside the display area 5 (including the indicator when the indicator is present). It is data that contains the components. In the following description, the reflected light component obtained by the difference calculation between the light projection data and the non-light projection data is referred to as “total reflection component (second component)”. The arithmetic control unit 3 stores the total reflection component data in the memory 64.

上述したように、入力検出処理において、ステップS108〜ステップS110の処理は、センサユニット2a,2bのラインCCDが入射光を受光した受光信号から、赤外LEDの投光による反射光の成分のみを抽出するための処理となっている。ステップS110の後、演算制御部3は、処理をステップS111へ進める。   As described above, in the input detection process, the processes of step S108 to step S110 are performed only for the component of the reflected light by the projection of the infrared LED from the light reception signal received by the line CCD of the sensor units 2a and 2b. It is a process for extraction. After step S110, the arithmetic control unit 3 advances the process to step S111.

ステップS111では、演算制御部3は、図4(E)に示した総反射成分データと図4(C)に示した基準反射成分データの差分を求める。より詳細には、演算制御部3は、センサユニット2aのラインCCDによる総反射成分データと基準反射成分データの差分を求め、同様に、センサユニット2bのラインCCDによる総反射成分データと基準反射成分データの差分を求める。本実施形態では、総反射成分データと基準反射成分データの差分演算として、総反射成分データから基準反射成分データを減算する例を挙げている。   In step S111, the calculation control unit 3 obtains a difference between the total reflection component data shown in FIG. 4 (E) and the reference reflection component data shown in FIG. 4 (C). More specifically, the arithmetic control unit 3 obtains a difference between the total reflection component data by the line CCD of the sensor unit 2a and the reference reflection component data, and similarly, the total reflection component data by the line CCD of the sensor unit 2b and the reference reflection component data. Find the data difference. In the present embodiment, an example is given in which the reference reflection component data is subtracted from the total reflection component data as the difference calculation between the total reflection component data and the reference reflection component data.

図4(F)は、総反射成分データから基準反射成分データを減算した後の光量分布をグラフ化して示す図である。この図4(F)に例示した光量分布では、横軸の左端付近に光量が大きくなっている領域403がある。図4(F)の例において、この領域403は、前述の図4(D)と図4(E)で説明した、表示領域5の内の指示物からの反射光の光量成分である。このように総反射成分データと基準反射成分データの差分演算により得られるデータは、表示領域5の内に存在する指示物による反射光成分のみからなるデータとなる。以下、総反射成分データと基準反射成分データの差分演算により得られる成分、つまり指示物による反射光のみの成分を、「入力成分」と表記する。演算制御部3は、その入力成分データをメモリ64に記憶させる。ステップS111の後、演算制御部3は、処理をステップS112へ進める。   FIG. 4F is a graph showing the light amount distribution after subtracting the reference reflection component data from the total reflection component data. In the light quantity distribution illustrated in FIG. 4F, there is a region 403 where the light quantity is large near the left end of the horizontal axis. In the example of FIG. 4F, this area 403 is the light quantity component of the reflected light from the indicator in the display area 5 described with reference to FIGS. 4D and 4E. Thus, the data obtained by calculating the difference between the total reflection component data and the reference reflection component data is data consisting only of the reflected light component by the indicator existing in the display area 5. Hereinafter, a component obtained by calculating a difference between the total reflection component data and the reference reflection component data, that is, a component of only reflected light from the indicator is referred to as an “input component”. The arithmetic control unit 3 stores the input component data in the memory 64. After step S111, the arithmetic control unit 3 advances the process to step S112.

ステップS112では、演算制御部3は、入力成分データの中に、指示物による入力と判断できるだけの有効な入力成分があるかどうかを検出する。より詳細には、演算制御部3は、センサユニット2aのラインCCDによる入力成分データについて有効な入力成分があるかどうか検出し、同様に、センサユニット2bのラインCCDによる入力成分データについて有効な入力成分があるかどうか検出する。例えば、演算制御部3は、入力成分における光量のピークを求め、そのピークの値が所定の第1の閾値TH1より大きければ、有効な入力成分であると判断するなどの処理を行う。なお、このときの第1の閾値TH1は、センサユニット2の赤外LEDの発光強度やラインCCDの受光感度などに基づいて予め決定されている。前述の図4(F)の例では、横軸の左端付近で光量が大きくなっている領域403のピークの値が所定の第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力成分が存在していると判断する。そして、演算制御部3は、センサユニット2a,2bの各ラインCCDの各画素番号のうち、そのピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。その後、このピーク(ピークの画素番号)を対象として座標入力面における座標値が算出されることになる。   In step S112, the arithmetic control unit 3 detects whether there is an effective input component in the input component data that can be determined to be input by the indicator. More specifically, the arithmetic control unit 3 detects whether there is a valid input component for the input component data by the line CCD of the sensor unit 2a, and similarly, the input valid for the input component data by the line CCD of the sensor unit 2b. Detect if there is a component. For example, the arithmetic control unit 3 obtains a peak of the light amount in the input component, and performs a process such as determining that the input component is an effective input component if the peak value is larger than a predetermined first threshold value TH1. Note that the first threshold TH1 at this time is determined in advance based on the light emission intensity of the infrared LED of the sensor unit 2, the light receiving sensitivity of the line CCD, and the like. In the example of FIG. 4F described above, the peak value of the region 403 where the light amount is large near the left end of the horizontal axis is larger than the predetermined first threshold value TH1, and the peak is at one location. The operation control unit 3 determines that there is an effective input component from one indicator. The arithmetic control unit 3 obtains each pixel number corresponding to the peak position among the pixel numbers of the line CCDs of the sensor units 2a and 2b, and stores the data of these pixel numbers in the memory 64. . Thereafter, coordinate values on the coordinate input surface are calculated for this peak (peak pixel number).

上述したように、ステップS111及びS112の処理は、総反射成分データと基準反射成分データの差分演算により得られた入力成分データを、第1の閾値TH1と比較することで有効な入力成分のみを検出する、本実施形態における検出処理となっている。   As described above, the processes in steps S111 and S112 are performed by comparing the input component data obtained by calculating the difference between the total reflection component data and the reference reflection component data with the first threshold value TH1, so that only effective input components are obtained. The detection process in this embodiment is detected.

<入力検出処理(表示領域に指示物が無い場合)>
上述の説明では、表示領域5の内に指示物が在り、その指示物により入力がなされた場合の例を挙げたが、表示領域5の内に指示物が無い場合、図3(B)のステップS108〜S112における各データは、以下のようになる。
<Input detection processing (when there is no indication in the display area)>
In the above description, an example is given in which an indicator is present in the display area 5 and an input is made by the indicator. However, if there is no indicator in the display area 5, FIG. Each data in steps S108 to S112 is as follows.

表示領域5の内に指示物が無い場合において、ステップS108で赤外LEDを消灯した状態でラインCCDによる受光が行われたときの非投光データの光量分布は、前述の図4(A)と同じになる。次に、ステップS109において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、前述の図4(B)と同じになる。   When there is no indicator in the display area 5, the light quantity distribution of the non-projection data when the line CCD receives light with the infrared LED turned off in step S108 is the above-described FIG. Will be the same. Next, in step S109, the light quantity distribution of the light projection data when light is received by the line CCD with the infrared LED being projected is the same as that in FIG.

したがって、ステップS110において図4(B)の投光データから図4(A)の非投光データを減算して得られた総反射成分データは、図4(C)の基準反射成分データと同様になる。このため、ステップS111において総反射成分データ(図4(C)と同様のデータ)から、図4(C)の基準反射成分データを減算して得られた入力成分データの光量分布は、図4(G)のように、全域に渡って略々ゼロ(0)となる。この図4(G)の例の場合、入力成分において第1の閾値TH1を超えるピーク部分がないので、ステップS112による有効な入力があるかどうかの検出処理において、演算制御部3は、有効な入力無し、と判断することになる。   Therefore, the total reflection component data obtained by subtracting the non-projection data in FIG. 4A from the projection data in FIG. 4B in step S110 is the same as the reference reflection component data in FIG. 4C. become. Therefore, the light amount distribution of the input component data obtained by subtracting the reference reflection component data in FIG. 4C from the total reflection component data (data similar to FIG. 4C) in step S111 is as shown in FIG. As in (G), it is substantially zero (0) over the entire area. In the case of the example of FIG. 4G, since there is no peak portion exceeding the first threshold TH1 in the input component, in the detection process of whether there is a valid input in step S112, the arithmetic control unit 3 is effective. It will be judged that there is no input.

<入力検出処理(指示物が背景光と重なる位置に在る場合)>
前述の図4(D)ではラインCCD側からみて背景光と重ならない位置に指示物が在る例を挙げたが、ラインCCD側からみて背景光と重なる位置に指示物が在る場合には、図3(B)のステップS108〜S112の各データは、以下のようになる。
<Input detection processing (when the pointing object is in a position overlapping the background light)>
In FIG. 4D described above, an example in which the indicator is present at a position that does not overlap with the background light when viewed from the line CCD side is given. However, when the indicator is present at a position that overlaps with the background light when viewed from the line CCD side. Each data of steps S108 to S112 in FIG. 3B is as follows.

ラインCCD側からみて背景光と重なった位置に指示物が在る場合において、ステップS108で赤外LEDが消灯された状態でラインCCDによる受光が行われたときの非投光データの光量分布は、図4(H)のようになる。この場合、背景光と重なる位置に指示物が在り、その指示物により背景光の一部が遮られたことで、非投光データの光量分布は、図4(H)に示すように、図4(A)の背景光の領域401の一部の光量が指示物にて遮られて低下したような分布となる。   When there is an indicator at a position overlapping the background light when viewed from the line CCD side, the light quantity distribution of the non-projection data when the line CCD receives light with the infrared LED turned off in step S108 is as follows. As shown in FIG. In this case, there is an indicator at a position overlapping with the background light, and a part of the background light is blocked by the indicator, so that the light quantity distribution of the non-projection data is as shown in FIG. The distribution is such that a part of the amount of light in the background light region 401 of 4 (A) is reduced by being blocked by the indicator.

次に、ステップS109において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、図4(I)のようになる。この場合、背景光と重なる位置に指示物が在り、赤外LEDから投光された光がその指示物により反射されることになるため、ラインCCDでは、背景光と指示物の反射光とが受光されることになる。したがって、投光データの光量分布は、図4(I)のように、図4(B)の背景光の領域401に更に指示物の反射光が重なって光量が増加した領域405が生じたような分布となる。   Next, in step S109, the light quantity distribution of the light projection data when light is received by the line CCD with the infrared LED being projected is as shown in FIG. In this case, there is an indicator at a position overlapping with the background light, and the light projected from the infrared LED is reflected by the indicator, so in the line CCD, the background light and the reflected light of the indicator are Light will be received. Therefore, as shown in FIG. 4I, the light quantity distribution of the projection data seems to have a region 405 in which the reflected light of the indicator further overlaps the background light region 401 of FIG. Distribution.

このため、ステップS110において、図4(I)の投光データから図4(H)の非投光データを減算して得られた総反射成分データの光量分布は、図4(J)のようになる。この図4(J)において、総反射成分データの光量分布は、指示物の反射光により光量が増加した領域406と、前述の図4(C)で説明した外側物体の反射光に対応した領域402とが存在する分布となる。これにより、ステップS111において、図4(J)の総反射成分データから図4(C)の基準反射成分データを減算して得られた入力成分データの光量分布は、図4(K)のようになる。この図4(K)に示すように、入力成分データの光量分布は、指示物の反射光による光量ピークの領域406のみが残った分布となる。   Therefore, in step S110, the light quantity distribution of the total reflection component data obtained by subtracting the non-projection data of FIG. 4H from the projection data of FIG. 4I is as shown in FIG. become. In FIG. 4J, the light quantity distribution of the total reflection component data includes an area 406 where the light quantity is increased by the reflected light of the indicator, and an area corresponding to the reflected light of the outer object described with reference to FIG. 402 is present in the distribution. Thereby, in step S111, the light quantity distribution of the input component data obtained by subtracting the reference reflection component data of FIG. 4C from the total reflection component data of FIG. 4J is as shown in FIG. become. As shown in FIG. 4K, the light quantity distribution of the input component data is a distribution in which only the light quantity peak area 406 caused by the reflected light of the indicator remains.

そして、ステップS112において、演算制御部3は、この図4(K)のような光量分布の入力成分データに基づいて、有効な入力があるかどうかを検出する。この図4(K)の例の場合、指示物の反射光により光量が増加した領域406のピークが第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力が存在していると判断する。そして、演算制御部3は、センサユニット2a,2bのラインCCDの各画素番号のうち、そのピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。   In step S112, the arithmetic control unit 3 detects whether there is a valid input based on the input component data of the light quantity distribution as shown in FIG. In the case of the example of FIG. 4K, the peak of the region 406 where the amount of light is increased by the reflected light of the indicator is larger than the first threshold value TH1, and the peak is at one place. , It is determined that there is a valid input from one indicator. Then, the arithmetic control unit 3 obtains each pixel number corresponding to the peak position among the pixel numbers of the line CCDs of the sensor units 2a and 2b, and stores the data of these pixel numbers in the memory 64.

上述したように、ラインCCD側からみて背景光と重なる位置に指示物が在る場合であっても、図3(B)のステップS108〜S111の処理を行うことで、演算制御部3は、指示物による有効な入力を確実に検出することができる。   As described above, even when the pointing object is present at a position overlapping the background light as viewed from the line CCD side, the calculation control unit 3 performs the processing in steps S108 to S111 in FIG. It is possible to reliably detect a valid input by the indicator.

<入力検出処理(指示物が外側物体と重なる位置に在る場合)>
前述の図4(I)ではラインCCD側からみて背景光と重なる位置に指示物が在る例を挙げたが、ラインCCD側からみて外側物体と重なる位置に指示物が在る場合には、図3(B)のステップS108〜S112の各データは、以下のようになる。
<Input detection processing (when the pointing object is in a position overlapping the outside object)>
In FIG. 4 (I) described above, an example is shown in which an indicator is present at a position overlapping the background light when viewed from the line CCD side. However, when an indicator is present at a position overlapping the outer object when viewed from the line CCD side, Each data in steps S108 to S112 in FIG. 3B is as follows.

ラインCCD側からみて外側物体と重なる位置に指示物が在る場合、ステップS108において赤外LEDが消灯された状態でラインCCDによる受光が行われたときの非投光データの光量分布は、前述の図4(A)と略々同じになる。   When there is an indicator at a position overlapping the outer object as seen from the line CCD side, the light quantity distribution of the non-projection data when the line CCD receives light with the infrared LED turned off in step S108 is as described above. This is substantially the same as FIG.

次に、ステップS109において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、図4(L)のようになる。この場合、ラインCCD側からみて外側物体と重なる位置に指示物があるため、赤外LEDから投光された光は指示物と外側物体の両者により反射されることになる。このため、ラインCCDは、指示物による反射光と外側物体による反射光とが重なった光を受光することになる。図4(L)の例では、背景光により光量が大きくなった領域401とともに、例えば横軸の右端付近の領域407に、指示物と外側物体の両者による反射光が重なることで大きくなった光量成分が現れている。この図4(L)の場合、横軸の右端付近の領域407は、指示物と外側物体の両者による反射光が重なった光量成分となっているため、前述の図4(B)の領域402における外側物体による反射光の光量成分と比較して、光量成分が増加している。   Next, in step S109, the light amount distribution of the light projection data when light is received by the line CCD with the infrared LED being projected is as shown in FIG. In this case, since there is an indicator at a position overlapping the outer object as seen from the line CCD side, the light projected from the infrared LED is reflected by both the indicator and the outer object. For this reason, the line CCD receives light in which the reflected light from the indicator and the reflected light from the outer object overlap. In the example of FIG. 4 (L), the amount of light increased by the reflected light from both the indicator and the outer object overlapping the region 401 near the right end of the horizontal axis together with the region 401 where the amount of light is increased by the background light. Ingredients appear. In the case of FIG. 4L, the region 407 near the right end of the horizontal axis is a light amount component in which the reflected light from both the indicator and the outer object overlaps, and thus the region 402 in FIG. 4B described above. Compared with the light amount component of the reflected light by the outer object in FIG.

したがって、ステップS110において、図4(L)の投光データから図4(A)の非投光データを減算して得られた総反射成分データの光量分布は、図4(M)のようになる。この図4(M)において、総反射成分データの光量分布は、指示物からの反射光と前述の図4(C)で説明した外側物体からの反射光とが重なった領域407が存在している分布となる。これにより、ステップS111において、図4(M)の総反射成分データから図4(C)の基準反射成分データを減算して得られた入力成分データの光量分布は、図4(N)のようになる。この図4(N)に示すように、入力成分データの光量分布は、指示物の反射光による光量ピークの領域408のみが残った分布となる。   Therefore, in step S110, the light quantity distribution of the total reflection component data obtained by subtracting the non-light projection data of FIG. 4A from the light projection data of FIG. 4L is as shown in FIG. Become. In FIG. 4M, the light quantity distribution of the total reflection component data includes a region 407 where the reflected light from the indicator and the reflected light from the outer object described in FIG. 4C overlap. Distribution. Thereby, in step S111, the light quantity distribution of the input component data obtained by subtracting the reference reflection component data in FIG. 4C from the total reflection component data in FIG. 4M is as shown in FIG. become. As shown in FIG. 4N, the light quantity distribution of the input component data is a distribution in which only the light quantity peak region 408 due to the reflected light of the indicator remains.

そして、ステップS112において、演算制御部3は、この図4(N)のような光量分布の入力成分データに基づいて、有効な入力があるかどうかを検出する。この図4(N)の例の場合、指示物の反射光に対応した領域408のピークの値が第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力が存在していると判断する。そして、演算制御部3は、センサユニット2a,2bのラインCCDの各画素番号のうち、有効な入力のピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。   In step S112, the arithmetic control unit 3 detects whether there is a valid input based on the input component data of the light quantity distribution as shown in FIG. In the case of the example of FIG. 4N, the peak value of the region 408 corresponding to the reflected light of the indicator is larger than the first threshold value TH1, and the peak is at one place. , It is determined that there is a valid input from one indicator. The arithmetic control unit 3 obtains each pixel number corresponding to the position of the effective input peak among the pixel numbers of the line CCDs of the sensor units 2a and 2b, and stores the data of these pixel numbers in the memory 64. Remember me.

上述したように、ラインCCD側からみて外側物体と重なる位置に指示物が在る場合であっても、図3(B)のステップS108〜S111の処理を行うことで、演算制御部3は、指示物による有効な入力を確実に検出することができる。   As described above, even when there is an indicator at a position overlapping the outer object as viewed from the line CCD side, the calculation control unit 3 performs the processing of steps S108 to S111 in FIG. It is possible to reliably detect a valid input by the indicator.

<入力検出処理(有効な入力のレベル検出とタッチダウン判定)>
ステップS112の後、演算制御部3は、処理をステップS113へ進める。ここで、前述のステップS112において有効な入力が検出されている場合、前述したように、メモリ64には、その有効な入力のピーク位置に対応した画素番号が記憶されている。また、メモリ64は、前述したように投光データも記憶している。そして、演算制御部3は、ステップS113において、メモリ64に記憶されている投光データの中で、有効な入力のピーク位置の画素番号に対応した光量レベルを、入力レベルとして検出する。ここでは、有効な入力のピーク位置に対応した画素番号を、画素番号GPと表記する。
<Input detection processing (valid input level detection and touchdown determination)>
After step S112, the arithmetic control unit 3 advances the process to step S113. Here, when a valid input is detected in the above-described step S112, as described above, the memory 64 stores a pixel number corresponding to the peak position of the valid input. Further, the memory 64 also stores the projection data as described above. In step S113, the calculation control unit 3 detects the light amount level corresponding to the pixel number of the effective input peak position as the input level in the light projection data stored in the memory 64. Here, a pixel number corresponding to a valid input peak position is represented as a pixel number GP.

ここで、本実施形態において、演算制御部3が投光データから入力データを検出するようにしているのは、前述の入力成分データは必ずしも正しい入力レベルを表していない場合があるためである。例えば、前述の図4(L)と図4(M)のように、ラインCCD側からみて指示物が外側物体と重なっていて、指示物と外側物体の両反射光により光量が増加している領域407が存在しているような場合、入力成分データは前述の図4(N)のようになる。この図4(N)の入力成分データは、図4(M)の総反射成分データから図4(C)の基準反射成分データを減算することで算出されているために、基準反射成分データの光量分だけレベルが小さくなってしまっている。   Here, in the present embodiment, the arithmetic control unit 3 detects the input data from the projection data because the above-described input component data may not necessarily represent a correct input level. For example, as shown in FIG. 4 (L) and FIG. 4 (M) described above, the indicator overlaps the outer object when viewed from the line CCD side, and the amount of light increases due to both reflected light from the indicator and the outer object. When the area 407 exists, the input component data is as shown in FIG. The input component data in FIG. 4N is calculated by subtracting the reference reflection component data in FIG. 4C from the total reflection component data in FIG. 4M. The level has decreased by the amount of light.

このようなことから、本実施形態では、前述したステップS112における有効な入力の検出の際には入力成分データを使うが、一方、正しい入力レベルを得る際には図4(L)の投光データを用いる必要がある。したがって、演算制御部3は、ステップS113において、図4(L)の投光データの中で、有効な入力のピーク位置の画素番号GPに対応した光量レベルを、入力レベルとして検出する。演算制御部3は、ステップS113で検出した入力レベル(有効な入力のピーク位置の画素番号GPに対応した光量レベル)が所定の第2の閾値TH2より大きければ、指示物が表示領域5に接した状態、又は、略々接した状態であるタッチダウン状態と判断する。この場合の第2の閾値TH2は、赤外LEDの発光強度やラインCCDの受光感度などに基づいて予め決定されており、前述した第1の閾値TH1よりも高い値に設定されている。   For this reason, in the present embodiment, the input component data is used when detecting a valid input in the above-described step S112. On the other hand, when the correct input level is obtained, the light projection of FIG. It is necessary to use data. Therefore, in step S113, the arithmetic control unit 3 detects the light amount level corresponding to the pixel number GP at the peak position of the effective input as the input level in the light projection data of FIG. If the input level detected in step S113 (the light level corresponding to the pixel number GP of the effective input peak position) is greater than the predetermined second threshold TH2, the arithmetic control unit 3 touches the display area 5. It is determined that the touched-down state is a touched state or a substantially touched state. The second threshold TH2 in this case is determined in advance based on the light emission intensity of the infrared LED, the light receiving sensitivity of the line CCD, and the like, and is set to a value higher than the first threshold TH1 described above.

また、ステップS113において、演算制御部3は、メモリ64に記憶されている図4(M)に示した総反射成分データを用いて、有効な入力のピーク位置の画素番号GPに対応した光量レベルを入力レベルとして検出してもよい。これは、図4(M)の総反射成分データの領域407の光量レベルは、図4(N)の入力成分データのように基準反射成分データの減算分だけ光量レベルが小さくなされておらず、指示物による反射光の光量レベルを現していると考えられるためである。ただし、総反射成分データから入力レベルを検出することにした場合、タッチダウン状態の判断に用いられる第2の閾値は、前述の第2の閾値TH2よりも値が小さい、例えば図4(M)に示すような第2の閾値TH2gとなされる。このような第2の閾値TH2gを用いるのは、前述の投光データが投光背景光の光量レベルであるのに対し、総反射成分データは、投光データから非投光データを減算することで得られ、投光データよりも光量レベルが低くなっているからである。したがって、総反射成分データから入力レベルを検出することにした場合、ステップS113において、演算制御部3は、総反射成分データから検出した入力レベルが所定の第2の閾値TH2gより大きければ、タッチダウン状態であると判断する。   In step S113, the arithmetic control unit 3 uses the total reflection component data shown in FIG. 4M stored in the memory 64, and the light amount level corresponding to the pixel number GP of the effective input peak position. May be detected as the input level. This is because the light amount level in the total reflection component data area 407 in FIG. 4M is not reduced by the subtraction of the reference reflection component data as in the input component data in FIG. This is because it is considered that the light amount level of the reflected light by the indicator is shown. However, when the input level is detected from the total reflection component data, the second threshold value used for determining the touchdown state is smaller than the second threshold value TH2 described above, for example, FIG. The second threshold value TH2g as shown in FIG. The second threshold TH2g is used because the above-mentioned projection data is the light level of the projection background light, whereas the total reflection component data is obtained by subtracting the non-projection data from the projection data. This is because the light amount level is lower than the light projection data. Therefore, when the input level is detected from the total reflection component data, in step S113, the calculation control unit 3 performs touchdown if the input level detected from the total reflection component data is greater than the predetermined second threshold TH2g. Judged to be in a state.

なお、ここではステップS113の説明として図4(L)〜図4(N)の例を用いたが、前述の図4(D)〜図4(F)の場合や、図4(H)〜図4(K)の場合も前述同様にして入力レベル検出とタッチダウン状態の判断が行われる。   In addition, although the example of FIG.4 (L)-FIG.4 (N) was used as description of step S113 here, in the case of above-mentioned FIG.4 (D) -FIG.4 (F), FIG.4 (H)-. In the case of FIG. 4K as well, the input level is detected and the touchdown state is determined in the same manner as described above.

<入力検出処理(外側物体等の移動等による基準反射成分の変化への対応)>
ステップS113の後、演算制御部3は、処理をステップS114へ進める。ステップS114では、演算制御部3は、外側物体等の移動等が発生した場合に対応するための処理を行う。
<Input detection processing (responding to changes in the reference reflection component due to movement of the outer object, etc.)>
After step S113, the arithmetic control unit 3 advances the process to step S114. In step S <b> 114, the arithmetic control unit 3 performs a process for dealing with a case where a movement or the like of the outer object occurs.

ここでは、簡単な例として、表示領域5の内に指示物が無い場合(指示物による入力が無い場合)を挙げて説明する。表示領域5の内に指示物が存在しない一方で外側物体は存在しているような場合には、前述したように、ステップS109において赤外LEDを投光させた状態でラインCCDによる受光を行った際の投光データは、図4(B)のような光量分布となる。ここで、外側物体が例えば移動するなどして、ラインCCD側からみて外側物体が存在しなくなったとすると、図4(B)の光量が大きくなっている領域402は無くなる。この場合、投光データの光量分布は、図4(A)のようになる。したがって、前述したステップS110において投光データ(図4(A)のような光量分布となったデータ)から非投光データ(図4(A)の光量分布のデータ)を減算して得られた総反射成分データは前述の図4(G)のように略々ゼロ(0)となる。   Here, as a simple example, a case where there is no indicator in the display area 5 (a case where there is no input by the indicator) will be described. When there is no indicator in the display area 5 but there is an outside object, as described above, the light is received by the line CCD with the infrared LED being projected in step S109. In this case, the light projection data has a light amount distribution as shown in FIG. Here, if the outer object is moved, for example, and the outer object no longer exists when viewed from the line CCD side, the region 402 where the amount of light in FIG. 4B is large disappears. In this case, the light amount distribution of the projection data is as shown in FIG. Therefore, it is obtained by subtracting the non-projection data (data of the light quantity distribution of FIG. 4A) from the light projection data (data having the light quantity distribution as shown in FIG. 4A) in step S110 described above. The total reflection component data is substantially zero (0) as shown in FIG.

そして、ステップS111において、総反射成分データ(図4(G))から基準反射成分データ(図4(C))を減算して入力成分データを算出すると、図4(O)のような光量分布のデータが得られることになる。すなわち、図4(O)に示すように、図4(C)に示した領域402に対応した領域409の光量レベルが負のレベルとなって現れることになる。   In step S111, when the input component data is calculated by subtracting the reference reflection component data (FIG. 4C) from the total reflection component data (FIG. 4G), the light quantity distribution as shown in FIG. Data will be obtained. That is, as shown in FIG. 4 (O), the light amount level of the region 409 corresponding to the region 402 shown in FIG. 4 (C) appears as a negative level.

このように総反射成分データから基準反射成分データを減算したことで入力成分データに負のレベルが生じたような場合、演算制御部3は、ステップS114において、基準反射成分データを更新する。例えば図4(O)のように光量レベルが負となった領域409の位置が、図4(C)の領域402に対応した位置である場合、演算制御部3は、図4(C)の基準反射成分データから領域409の成分値を減算したデータにより、基準反射成分データを更新する。このように図4(C)の基準反射成分データから図4(O)の領域409の成分値を減算すると、図4(C)の正の領域402と図4(O)の負の領域409とが相殺されて、図4(G)のように全域に渡って光量がほぼゼロ(0)となる。そして、このときの図4(G)のような光量分布のデータを用いて、前述のように電源投入直後に求められた基準反射成分データを更新する。なお、このような基準反射成分データの更新は、センサユニット2aとセンサユニット2bのそれぞれに対応して行われる。なお、本実施形態の座標入力装置によれば、白熱灯等の背景光が変化する場合も同様に、ステップS110において投光データから非投光データを減算する処理により背景光の成分を相殺することで、その影響を排除できる。   When the negative reflection level is generated in the input component data by subtracting the reference reflection component data from the total reflection component data in this way, the arithmetic control unit 3 updates the reference reflection component data in step S114. For example, when the position of the region 409 where the light amount level is negative as shown in FIG. 4 (O) is a position corresponding to the region 402 of FIG. 4 (C), the arithmetic control unit 3 in FIG. The reference reflection component data is updated with data obtained by subtracting the component value of the region 409 from the reference reflection component data. When the component value in the region 409 in FIG. 4 (O) is subtracted from the reference reflection component data in FIG. 4 (C) in this way, the positive region 402 in FIG. 4 (C) and the negative region 409 in FIG. 4 (O). Are canceled out, and the amount of light becomes almost zero (0) over the entire area as shown in FIG. Then, using the light amount distribution data as shown in FIG. 4G at this time, the reference reflection component data obtained immediately after power-on as described above is updated. Note that the update of the reference reflection component data is performed corresponding to each of the sensor unit 2a and the sensor unit 2b. Note that, according to the coordinate input device of the present embodiment, similarly, when background light such as an incandescent lamp changes, the background light component is canceled by the process of subtracting the non-projection data from the projection data in step S110. This can eliminate the effect.

<有効な入力があった場合の座標変換処理>
ステップS114の後、演算制御部3は、処理をステップS115へ進める。ステップS115では、演算制御部3は、センサユニット2a及び2bの両方において前述した有効な入力を検出したかどうかを判断する。演算制御部3は、ステップS115において、センサユニット2a,2bの両方で有効な入力が検出されないか又は何れか一方でのみ有効な入力が検出されたと判断した場合には、タッチされた座標を算出することはできないので、ステップS108へ処理を戻す。一方、演算制御部3は、ステップS115において、センサユニット2a,2bの両方で有効な入力が検出されたと判断した場合には、処理をステップS116へ進める。
<Coordinate conversion process when there is valid input>
After step S114, the arithmetic control unit 3 advances the process to step S115. In step S115, the arithmetic control unit 3 determines whether the above-described valid input has been detected in both the sensor units 2a and 2b. If the calculation control unit 3 determines in step S115 that a valid input is not detected in both the sensor units 2a and 2b or a valid input is detected only in one of them, the touched coordinates are calculated. Since it cannot be performed, the process returns to step S108. On the other hand, if the arithmetic control unit 3 determines in step S115 that a valid input has been detected in both the sensor units 2a and 2b, the process proceeds to step S116.

ステップS116では、演算制御部3は、センサユニット2a及び2bの両方において検出された有効な入力に対応した画素番号から、センサユニット2aとセンサユニット2bに対する入力位置の後述する角度を算出する。ここで、画素番号から角度値への変換には、テーブル参照や変換式を用いる。変換式は、例えば、高次の多項式を用いると精度を確保できるが、次数等は計算能力及び精度スペック等を鑑みて決定すればよい。本実施形態では、5次多項式を用いる場合の例を示す。先ず、センサバー1の組み立て製造時などに、センサユニット2a及び2bのそれぞれのラインCCDの各画素番号と、角度との関係を予め測定しておく。それら各画素番号と角度の測定結果から、5次多項式近似により画素番号を角度値へ変換するための係数を求めておく。そして、その係数データを不揮発性メモリなどに記憶させておく。画素番号をN、5次多項式の6個の係数をL5,L4,L3,L2,L1,L0とすると、角度値θは、式(1)のように表すことができる。   In step S116, the arithmetic control unit 3 calculates an angle, described later, of the input position with respect to the sensor unit 2a and the sensor unit 2b from the pixel number corresponding to the valid input detected in both the sensor units 2a and 2b. Here, a table reference or a conversion formula is used for the conversion from the pixel number to the angle value. For example, a high-order polynomial can be used as the conversion formula to ensure accuracy, but the order and the like may be determined in consideration of calculation capability, accuracy specifications, and the like. In this embodiment, an example in the case of using a fifth order polynomial is shown. First, when the sensor bar 1 is assembled and manufactured, the relationship between the pixel number of each line CCD of the sensor units 2a and 2b and the angle is measured in advance. From these pixel number and angle measurement results, a coefficient for converting the pixel number into an angle value is obtained by fifth-order polynomial approximation. The coefficient data is stored in a nonvolatile memory or the like. If the pixel number is N, and the six coefficients of the fifth-order polynomial are L5, L4, L3, L2, L1, and L0, the angle value θ can be expressed as Equation (1).

θ=L5*N+L4*N+L3*N+L2*N+L1*N+L0 式(1)   θ = L5 * N + L4 * N + L3 * N + L2 * N + L1 * N + L0 Equation (1)

ステップS116の後、演算制御部3は、処理をステップS117へ進める。ステップS117では、演算制御部3は、ステップS116で算出した角度θを用いて入力座標を算出する。   After step S116, the arithmetic control unit 3 advances the process to step S117. In step S117, the arithmetic control unit 3 calculates input coordinates using the angle θ calculated in step S116.

ここで、演算制御部3が入力座標を算出する際に用いる座標系について説明する。先ず、座標系における原点とx軸とy軸を定義する。図1に示したように、原点は例えばセンサユニット2aの中心とし、その原点の座標値は(0,0)とする。y軸は、原点からセンサユニット2bを結ぶ方向の軸とし、x軸は、y軸に対する垂直方向で且つホワイトボード4に沿う方向(ホワイトボード4に略々平行な方向)の軸とする。また、センサユニット2bの中心の座標値は(0,1)として設定する。そして、演算制御部3は、それらセンサユニット2a,2bの相対的な位置関係に基づく相対座標系を定める。   Here, a coordinate system used when the calculation control unit 3 calculates input coordinates will be described. First, the origin, the x axis, and the y axis in the coordinate system are defined. As shown in FIG. 1, the origin is, for example, the center of the sensor unit 2a, and the coordinate value of the origin is (0, 0). The y-axis is an axis connecting the sensor unit 2b from the origin, and the x-axis is an axis perpendicular to the y-axis and along the whiteboard 4 (a direction substantially parallel to the whiteboard 4). The coordinate value of the center of the sensor unit 2b is set as (0, 1). And the calculation control part 3 determines the relative coordinate system based on the relative positional relationship of these sensor units 2a and 2b.

以下、図1のように、例えば座標(x,y)(以下、タッチ座標(x,y)とする。)において指示物によるタッチが行われたとし、そのタッチ座標(x,y)の入力位置に対する角度値θと座標変換を例に挙げて説明する。ここで、センサユニット2aについてx軸と平行な方向を基準角度(0度)とし、このセンサユニット2aが指示物を検出した際のタッチ座標(x,y)の入力位置と基準角度との成す角度をθ1とする。同様に、センサユニット2bについてx軸と平行な方向を基準角度(0度)とし、このセンサユニット2bが指示物を検出した際のタッチ座標(x,y)の入力位置と基準角度との成す角度をθ2とする。演算制御部3は、前述のステップS116で説明した角度値θの演算を行うことで、センサユニット2aにおける角度θ1と、センサユニット2bにおける角度θ2を求める。そして、演算制御部3は、これらセンサユニット2aと2bのそれぞれについて求めた角度θ1とθ2を用い、ステップS117において、センサユニット2aと2bの相対的な位置関係に基づく相対座標系におけるタッチ座標(x,y)を算出する。より具体的に説明すると、センサユニット2aで検出した角度θ1とタッチ座標(x,y)との間では式(2)の関係が成り立つ。   Hereinafter, as shown in FIG. 1, for example, it is assumed that a touch with an indicator is performed at coordinates (x, y) (hereinafter referred to as touch coordinates (x, y)), and the touch coordinates (x, y) are input. The angle value θ with respect to the position and coordinate conversion will be described as an example. Here, the direction parallel to the x-axis of the sensor unit 2a is defined as a reference angle (0 degree), and the input position of the touch coordinates (x, y) when the sensor unit 2a detects the indicator and the reference angle are formed. The angle is θ1. Similarly, the direction parallel to the x-axis of the sensor unit 2b is defined as a reference angle (0 degree), and the input position of the touch coordinates (x, y) when the sensor unit 2b detects an indicator and the reference angle are formed. The angle is θ2. The calculation control unit 3 calculates the angle value θ described in step S116 described above to obtain the angle θ1 in the sensor unit 2a and the angle θ2 in the sensor unit 2b. Then, the arithmetic control unit 3 uses the angles θ1 and θ2 obtained for each of the sensor units 2a and 2b, and in step S117, the touch coordinates (in the relative coordinate system based on the relative positional relationship between the sensor units 2a and 2b) ( x, y) is calculated. More specifically, the relationship of Expression (2) is established between the angle θ1 detected by the sensor unit 2a and the touch coordinates (x, y).

y=x×tanθ1 式(2)   y = x × tan θ1 Formula (2)

同様に、センサユニット2bで検出した角度θ2とタッチ座標(x,y)との間では式(3)が成り立つ。   Similarly, Expression (3) is established between the angle θ2 detected by the sensor unit 2b and the touch coordinates (x, y).

y−1=x×tanθ2 式(3)   y−1 = x × tan θ2 Formula (3)

このため、演算制御部3は、さらに式(4)及び式(5)の演算を行うことにより、タッチ座標(x,y)を算出する。   For this reason, the calculation control unit 3 calculates the touch coordinates (x, y) by further performing the calculations of Expressions (4) and (5).

x=1/(tanθ1−tanθ2) 式(4)
y=tanθ1/(tanθ1−tanθ2) 式(5)
x = 1 / (tan θ1-tan θ2) Equation (4)
y = tan θ1 / (tan θ1-tan θ2) Equation (5)

ステップS117の後、演算制御部3は、処理をステップS118へ進める。ステップS118では、演算制御部3は、ステップS117で算出したタッチ座標(x、y)を、表示領域5の表示座標系上の座標値に変換する。このステップS118の後、演算制御部3は、ステップS119において、PC10などの外部機器に、その座標値のデータを出力する。その後、演算制御部3は、ステップS108へ処理を戻す。   After step S117, operation control unit 3 advances the process to step S118. In step S118, the arithmetic control unit 3 converts the touch coordinates (x, y) calculated in step S117 into coordinate values on the display coordinate system of the display area 5. After step S118, the calculation control unit 3 outputs the data of the coordinate value to an external device such as the PC 10 in step S119. Thereafter, the arithmetic control unit 3 returns the process to step S108.

<キャリブレーションによる座標変換のためのパラメータの取得>
ここで、タッチ座標(x,y)を表示座標系上の座標値へ変換する方法としては、例えば射影変換などの手法がある。射影変換などの座標変換手法は公知であるため、ここでは詳細な説明は省く。ここで、タッチ座標(x,y)を表示座標系上の座標値へ座標変換するためには、それら二つの座標系の位置関係を対応付けるパラメータ(座標変換行列の要素の値など)が必要となる。以下、このパラメータを設定するための処理の例を説明する。
<Acquiring parameters for coordinate conversion by calibration>
Here, as a method of converting the touch coordinates (x, y) into coordinate values on the display coordinate system, there is a method such as projective conversion. Since coordinate transformation methods such as projective transformation are well known, detailed description is omitted here. Here, in order to perform coordinate conversion of touch coordinates (x, y) into coordinate values on the display coordinate system, parameters (such as values of elements of the coordinate conversion matrix) that associate the positional relationship between these two coordinate systems are required. Become. Hereinafter, an example of processing for setting this parameter will be described.

表示領域5における表示座標系は、図1に示したように、例えばd1を原点としたdx軸とdy軸からなる線形2次元座標系となっている。本実施形態の座標入力装置において、座標変換のパラメータを設定するためには、例えばいわゆるキャリブレーションと呼ばれる処理が行われる。キャリブレーション処理を実現するために、表示制御を行っているPC10には、専用のアプリケーションプログラム(以下、キャリブレーションアプリとする。)がインストールされている。   As shown in FIG. 1, the display coordinate system in the display area 5 is, for example, a linear two-dimensional coordinate system including a dx axis and a dy axis with d1 as an origin. In the coordinate input device of this embodiment, in order to set parameters for coordinate conversion, for example, a process called so-called calibration is performed. In order to realize the calibration process, a dedicated application program (hereinafter referred to as a calibration application) is installed in the PC 10 that performs display control.

キャリブレーションアプリを起動すると、PC10は、フロントプロジェクタの表示制御により、表示領域5上に十字クロス等を表示させるとともに、ユーザに対して、そのクロス位置をタッチするように促すメッセージも表示等させる。そして、PC10は、ユーザにより十字クロス等へのタッチ入力が行われると、そのタッチ入力位置の座標値をセンサバー1から取得する。PC10は、このような十字クロス表示とそれに対するユーザのタッチ入力の座標値の取得とを、十字クロス表示の位置を異ならせて所定回数繰り返す。そして、PC10は、それにより得られた所定回数分の相対座標系の座標値と、十字クロス表示位置の表示座標系の座標値とが一致するようなパラメータをセンサユニット2に設定する。これにより、タッチ座標(x,y)を表示座標系上の座標値へ座標変換した際に、それら二つの座標系の位置関係を対応付けることが可能となる。   When the calibration application is activated, the PC 10 displays a cross or the like on the display area 5 by display control of the front projector, and also displays a message for prompting the user to touch the cross position. Then, when the user performs a touch input to the cross or the like, the PC 10 acquires the coordinate value of the touch input position from the sensor bar 1. The PC 10 repeats such a cross cross display and acquisition of coordinate values of the user's touch input thereto for a predetermined number of times with different positions of the cross cross display. Then, the PC 10 sets a parameter in the sensor unit 2 such that the coordinate value of the relative coordinate system obtained by the predetermined number of times and the coordinate value of the display coordinate system of the cross-cross display position coincide with each other. Thus, when the touch coordinates (x, y) are coordinate-converted into coordinate values on the display coordinate system, the positional relationship between these two coordinate systems can be associated.

キャリブレーション処理は、十字クロスの表示位置をタッチさせることで行われる例のほかにも、例えば表示領域5の四隅に対するタッチをユーザに求め、それら四隅へのタッチ位置と表示領域5の四隅の座標値とに基づいて行われてもよい。この例の場合、その場にあるPCに接続することで、特別なアプリケーションソフトをインストールすることなく、直ぐに使えるようになるという優れた効果が得られる。   In addition to the example in which the calibration process is performed by touching the display position of the cross, for example, the user is asked to touch the four corners of the display area 5, and the touch positions at the four corners and the coordinates of the four corners of the display area 5 are obtained. Based on the value. In the case of this example, by connecting to a PC on the spot, it is possible to obtain an excellent effect that it can be used immediately without installing special application software.

この例の場合、座標入力装置は、例えばセンサバー1のユーザインターフェイス66が備えているモード切替スイッチ等の操作によりキャリブレーションモードに遷移する。なお、キャリブレーションモードによる処理は、例えばセンサバー1をホワイトボード4等に設置した直後や、センサバー1の設置完了後に何らかの拍子でフロントプロジェクタの表示位置やセンサバー1の設置位置がずれてしまった場合などに行われる。そして、キャリブレーションモードに遷移した場合、演算制御部3は、先ず前述の図3(A)に示した基準反射成分導出処理を行う。これは、例えばセンサバー1の設置位置がずれた場合には、センサユニット2からみて背景光や外側物体などの位置が変化してしまうことを想定して、前述の非投光背景光や投光背景光、基準反射成分などの情報を更新するためである。   In the case of this example, the coordinate input device shifts to the calibration mode by, for example, an operation of a mode change switch provided in the user interface 66 of the sensor bar 1. The processing in the calibration mode is performed, for example, immediately after the sensor bar 1 is installed on the whiteboard 4 or when the display position of the front projector or the installation position of the sensor bar 1 is deviated due to any beat after the sensor bar 1 is completely installed. To be done. When transitioning to the calibration mode, the arithmetic control unit 3 first performs the reference reflection component derivation process shown in FIG. This is because, for example, when the installation position of the sensor bar 1 is deviated, it is assumed that the position of the background light, the outside object, or the like changes when viewed from the sensor unit 2, and the above-described non-light-projecting background light or This is for updating information such as background light and reference reflection components.

また、キャリブレーションモードにおいて基準反射成分導出処理が完了すると、演算制御部3は、前述の図3(B)に示した入力検出処理を行う。そして、演算制御部3は、前述したようにステップS115で有効な入力が検出され、ステップS117で入力座標を算出すると、その座標値をメモリ64に記憶させる。なお、キャリブレーションモードにおいて、座標値のデータの取得が完了したことをユーザに報知するような場合には、例えばユーザインターフェイス66に設けられているスピーカから例えばビープ音の出力などよる報知を行ってもよい。その後、演算制御部3は、ステップS118とステップS119の処理は実行せずにステップS108に処理を戻す。   When the reference reflection component derivation process is completed in the calibration mode, the arithmetic control unit 3 performs the input detection process shown in FIG. Then, as described above, when the valid input is detected in step S115 and the input coordinate is calculated in step S117, the arithmetic control unit 3 stores the coordinate value in the memory 64. In the calibration mode, when notifying the user that the acquisition of the coordinate value data has been completed, for example, a beep sound is output from a speaker provided in the user interface 66, for example. Also good. Thereafter, the arithmetic control unit 3 returns the process to step S108 without executing the processes of steps S118 and S119.

演算制御部3は、このような各処理を、表示領域5の四隅に対応した回数(4回)繰り返す。そして、表示領域5の四隅に対応した入力の検出及び座標値の算出が完了すると、演算制御部3は、前述したような座標変換のためのパラメータを算出する。これにより、相対座標系上と表示座標系上において、表示領域5の四隅に対応する四ヶ所の座標値がそれぞれ取得されることになり、例えば射影変換などの手法により座標変換が可能となり、必要なパラメータ(変換行列の要素の値)を算出できる。このようにしてパラメータを算出してメモリ64に記憶した後、演算制御部3は、キャリブレーションモードを終了する。なお、キャリブレーションモードにおいて算出されたパラメータは、その後、前述のステップS118における座標変換で使用されることになる。   The arithmetic control unit 3 repeats each of these processes a number of times (four times) corresponding to the four corners of the display area 5. When the detection of the input corresponding to the four corners of the display area 5 and the calculation of the coordinate values are completed, the arithmetic control unit 3 calculates the parameters for the coordinate conversion as described above. As a result, four coordinate values corresponding to the four corners of the display area 5 are acquired on the relative coordinate system and the display coordinate system, respectively. For example, coordinate conversion can be performed by a method such as projective conversion. Parameters (values of transformation matrix elements) can be calculated. After calculating the parameters in this way and storing them in the memory 64, the arithmetic control unit 3 ends the calibration mode. Note that the parameters calculated in the calibration mode are thereafter used in the coordinate conversion in step S118 described above.

<第1の実施形態の効果>
以上説明したように、第1の実施形態の座標入力装置においては、特にステップS108からステップS114までの処理が行われることで、ラインCCDが検出した光量分布に含まれる環境光成分や外側物体等からの反射光成分の影響を排除することができる。このため、本実施形態によれば、指示物によるタッチ位置が、例えばラインCCDからみて環境光や外側物体からの反射光と重なる位置になっていたとしても、有効な入力を確実に検出することができる。また、本実施形態によれば、環境光や外部物体等からの反射光が変化した場合であっても、有効な入力を確実に検出することができる。
<Effect of the first embodiment>
As described above, in the coordinate input device according to the first embodiment, the processing from step S108 to step S114 is performed in particular, so that the ambient light component included in the light amount distribution detected by the line CCD, the outer object, etc. The influence of the reflected light component from can be eliminated. For this reason, according to the present embodiment, even if the touch position by the pointing object is a position overlapping with ambient light or reflected light from an outside object as viewed from the line CCD, for example, it is possible to reliably detect an effective input. Can do. Further, according to the present embodiment, it is possible to reliably detect an effective input even when ambient light, reflected light from an external object, or the like changes.

<第2の実施形態>
次に、第2の実施形態として、センサユニット2の赤外LEDからの投光を再帰的に反射する再帰反射材を備え、その再帰反射材からの再帰反射光をセンサユニット2のラインCCDで受光する光学遮光方式を採用した座標入力装置について説明する。
<Second Embodiment>
Next, as a second embodiment, a retroreflective material that recursively reflects the light emitted from the infrared LED of the sensor unit 2 is provided, and the retroreflected light from the retroreflective material is reflected by the line CCD of the sensor unit 2. A coordinate input device adopting an optical light shielding method for receiving light will be described.

第2の実施形態の座標入力装置の構成は、概ね図1の構成と同様であるが、光学遮光方式の場合は、ホワイトボード4の周辺部のうちセンサユニット2側からみて対応する辺部分に再帰反射材が設置される。図1の例のように、ホワイトボード4の左下隅にセンサユニット2が配置されるような場合には、ホワイトボード4の上辺と右辺に沿うように再帰反射材101,102が設置される。なお、図1の例では、図中に一点鎖線で示されている部分に再帰反射材101,102が設置されている。   The configuration of the coordinate input device of the second embodiment is substantially the same as the configuration of FIG. 1, but in the case of the optical shading method, the side portion corresponding to the sensor unit 2 side in the peripheral portion of the whiteboard 4 is arranged. Retroreflective material is installed. As in the example of FIG. 1, when the sensor unit 2 is disposed at the lower left corner of the whiteboard 4, the retroreflective members 101 and 102 are installed along the upper and right sides of the whiteboard 4. In the example of FIG. 1, retroreflective materials 101 and 102 are installed in the portion indicated by the alternate long and short dash line in the drawing.

この第2の実施形態の構成例の場合、センサユニット2の内部の赤外LEDから表示領域5に向けて投光された光は、再帰反射材101,102によりそれぞれ再帰反射されてセンサユニット2へ戻ってくる。そして、センサユニット2内部のラインCCDが、その再帰反射光を受光する。ここで、表示領域5内で例えば指などの指示物による入力がなされると、再帰反射材101,102からの再帰反射光は、その指示物により遮られることになる。このため、ラインCCDの受光信号は、再帰反射光が指示物により遮られた領域の光量が低下した光量分布の信号となる。したがって、ラインCCDの受光信号から、指示物に遮られて光量が低下した領域の画素番号を求め、その画素番号に基づいて前述のように角度を算出することで、指示物によるタッチ入力位置を求めることができる。なお、光学遮光方式における位置検出や座標値算出等の詳細な構成や演算処理などについては、例えば特許文献1に詳しく開示されているのでここではその説明は省く。   In the case of the configuration example of the second embodiment, the light projected from the infrared LED inside the sensor unit 2 toward the display region 5 is retroreflected by the retroreflective members 101 and 102, and the sensor unit 2 is reflected. Come back to. The line CCD in the sensor unit 2 receives the retroreflected light. Here, when an input by an indicator such as a finger is made in the display area 5, the retroreflected light from the retroreflective members 101 and 102 is blocked by the indicator. For this reason, the light reception signal of the line CCD is a signal of a light amount distribution in which the light amount in the region where the retroreflected light is blocked by the indicator is reduced. Accordingly, the pixel number of the area where the light amount is reduced due to the light received from the line CCD is obtained, and the angle is calculated as described above based on the pixel number, so that the touch input position by the pointer is determined. Can be sought. The detailed configuration and calculation processing such as position detection and coordinate value calculation in the optical shading method are disclosed in detail in, for example, Japanese Patent Application Laid-Open No. 2004-133620, and therefore description thereof is omitted here.

第2の実施形態において座標入力装置の演算制御部3が制御プログラムを実行する基準反射成分導出処理の流れは、前述の図3(A)に示したフローチャートと略々同様である。なお、第2の実施形態において座標入力装置の演算制御部3が実行する入力検出処理の流れは図5のフローチャートのようになる。先ず、図3(A)を参照しながら第2の実施形態における基準反射成分導出処理について説明する。   In the second embodiment, the flow of the reference reflection component derivation process in which the arithmetic control unit 3 of the coordinate input device executes the control program is substantially the same as the flowchart shown in FIG. In addition, the flow of the input detection process which the calculation control part 3 of the coordinate input device performs in 2nd Embodiment becomes like the flowchart of FIG. First, reference reflection component derivation processing in the second embodiment will be described with reference to FIG.

<第2の実施形態の基準反射成分導出処理>
ステップS102において、演算制御部3は、入出力ポートの設定、タイマ設定などの初期化、ラインCCDの蓄積電荷のリセットなど周辺回路の初期化を行う。次に、演算制御部3は、ステップS103において、第1の実施形態の場合と同様に、センサユニット2a及び2bの赤外LEDを消灯した状態で各センサユニット2内のラインCCDによる受光を行う。そして、センサユニット2a,2bの各ラインCCDの受光信号は、A/Dコンバータ63でそれぞれデジタル化されて、それぞれ非投光背景光データとしてメモリ64に記憶される。
<Reference reflection component derivation processing of the second embodiment>
In step S102, the arithmetic control unit 3 initializes peripheral circuits such as input / output port setting, timer setting initialization, line CCD charge accumulation reset, and the like. Next, in step S103, the arithmetic control unit 3 performs light reception by the line CCD in each sensor unit 2 with the infrared LEDs of the sensor units 2a and 2b turned off in the same manner as in the first embodiment. . The light reception signals of the line CCDs of the sensor units 2a and 2b are respectively digitized by the A / D converter 63 and stored in the memory 64 as non-projected background light data.

図6(A)は、非投光背景光データの光量分布をグラフ化した一例を示す図である。なお、この図6(A)及び後述する図6(B)〜図6(K)において、横軸はラインCCDの画素番号、縦軸は光量であり、前述の図4(A)〜図4(O)の例と同様である。ここで、図6(A)に例示した非投光背景光データの場合、横軸の中央付近に光量が大きくなっている領域601がある。この光量が大きくなっている領域601は、例えば白熱灯などからの環境光に含まれている赤外線が、背景光としてラインCCDに入射して受光されたことにより生じている。   FIG. 6A is a diagram illustrating an example of a graph of the light amount distribution of the non-projection background light data. In FIG. 6A and FIGS. 6B to 6K described later, the horizontal axis is the pixel number of the line CCD, and the vertical axis is the amount of light. The above-described FIGS. This is the same as the example (O). Here, in the case of the non-projection background light data illustrated in FIG. 6A, there is a region 601 where the light amount is large near the center of the horizontal axis. The region 601 where the amount of light is large is caused by the fact that, for example, infrared light included in ambient light from an incandescent lamp or the like enters the line CCD as background light and is received.

次のステップS104では、演算制御部3は、センサユニット2a及び2bの両方の赤外LEDを点灯させた状態でそれら各センサユニット2内の各ラインCCDによる受光を行わせる。そして、センサユニット2a及び2bの各ラインCCDの受光信号は、A/Dコンバータ63でそれぞれデジタル化されて、それぞれ投光背景光データとしてメモリ64に記憶される。   In the next step S104, the calculation control unit 3 causes each line CCD in each of the sensor units 2 to receive light while the infrared LEDs of both of the sensor units 2a and 2b are turned on. The light reception signals of the line CCDs of the sensor units 2a and 2b are digitized by the A / D converter 63 and stored in the memory 64 as projected background light data.

図6(B)は、投光背景光データの光量分布をグラフ化した一例を示す図である。図6(B)に例示した投光背景光データの光量分布の場合、環境光により光量が大きくなっている領域601に更に、再帰反射材101,102からの再帰反射光により光量が横軸の広い範囲に亘って大きくなっている領域602が加わっている。   FIG. 6B is a diagram illustrating an example of a graph of the light amount distribution of the projection background light data. In the case of the light quantity distribution of the projected background light data illustrated in FIG. 6B, the light quantity is further increased in the horizontal axis by the retroreflected light from the retroreflective materials 101 and 102 in the region 601 where the light quantity is increased by the ambient light. A region 602 is added which is enlarged over a wide range.

次のステップS105では、演算制御部3は、メモリ64にそれぞれ記憶されている前述した図6(B)の投光背景光データから図6(A)の非投光背景光データを減算する。これにより、再帰反射材101,102からの再帰反射光成分からなるデータが得られる。第2の実施形態において、投光背景光データから非投光背景光データを減算した後の光量成分(再帰反射光成分のみのデータ)が、基準反射成分となる。   In the next step S105, the arithmetic control unit 3 subtracts the non-projection background light data in FIG. 6 (A) from the projection background light data in FIG. 6 (B) stored in the memory 64, respectively. Thereby, data consisting of retroreflective light components from the retroreflective materials 101 and 102 is obtained. In the second embodiment, the light amount component (data of only the retroreflected light component) after subtracting the non-projected background light data from the projected background light data is the reference reflected component.

図6(C)は、図6(B)の投光背景光データから図6(A)の非投光背景光データを減算した後の光量分布(基準反射成分)をグラフ化して示す図である。この図6(C)に例示した光量分布(基準反射成分)は、再帰反射材101,102からの再帰反射光により光量が横軸の広い範囲に亘って大きくなっている領域602からなる。演算制御部3は、基準反射成分データをメモリ64に記憶させると、第2の実施形態における基準反射成分導出処理を終了する。   FIG. 6C is a graph showing the light amount distribution (reference reflection component) after subtracting the non-projected background light data of FIG. 6A from the projected background light data of FIG. 6B. is there. The light amount distribution (reference reflection component) illustrated in FIG. 6C includes a region 602 in which the light amount is increased over a wide range of the horizontal axis due to retroreflected light from the retroreflective materials 101 and 102. When the calculation control unit 3 stores the reference reflection component data in the memory 64, the calculation control unit 3 ends the reference reflection component derivation process in the second embodiment.

<第2の実施形態の入力検出処理(指示物が背景光と重ならない位置に在る場合)>
以下、前述した基準反射成分導出処理が終了した後に、表示領域5に対する指示物による入力を検出する際に、演算制御部3が実行する処理の流れを、図5のフローチャートを参照しながら説明する。先ず、各センサユニット2の各ラインCCDから見て、背景光と重ならない位置で指示物による入力がされる場合の処理の流れについて説明する。
<Input Detection Processing of Second Embodiment (when the pointing object is at a position that does not overlap with background light)>
Hereinafter, the flow of processing executed by the arithmetic control unit 3 when detecting the input by the indicator to the display area 5 after the above-described reference reflection component derivation processing is completed will be described with reference to the flowchart of FIG. . First, the flow of processing when an input by an indicator is performed at a position that does not overlap with background light when viewed from each line CCD of each sensor unit 2 will be described.

図5のフローチャートにおいて、演算制御部3は、先ずステップS202の処理として、各センサユニット2の各赤外LEDを消灯した状態で各ラインCCDによる受光を行わせて、非投光データを取得する。第2の実施形態の場合の非投光データの光量分布は、赤外LEDの投光が無く、再帰反射光も無いため、前述した図6(A)で例示した光量分布と略々同じになる。演算制御部3は、この非投光データをメモリ64に記憶させる。ステップS202の後、演算制御部3は、処理をステップS203へ進める。   In the flowchart of FIG. 5, first, as a process of step S <b> 202, the arithmetic control unit 3 receives light by each line CCD in a state where each infrared LED of each sensor unit 2 is turned off, and acquires non-light projection data. . The light amount distribution of the non-projection data in the case of the second embodiment is substantially the same as the light amount distribution illustrated in FIG. 6A described above because there is no infrared LED projection and no retroreflected light. Become. The arithmetic control unit 3 stores the non-light projection data in the memory 64. After step S202, the arithmetic control unit 3 advances the process to step S203.

ステップS203では、演算制御部3は、各センサユニット2の各赤外LEDを投光させた状態で各ラインCCDによる受光を行わせて、投光データを取得する。図6(D)は、第2の実施形態において背景光と重ならない位置に指示物が在る場合の投光データの光量分布の一例を示す図である。図6(D)の例の場合、図6(B)の例と比較すると、背景光と重ならない例えば横軸の左端付近の領域603に、再帰反射光が指示物に遮られたことで光量低下が生じた領域が現れている。演算制御部3は、この投光データをメモリ64に記憶させる。ステップS203の後、演算制御部3は、処理をステップS204へ進める。   In step S <b> 203, the arithmetic control unit 3 receives light by each line CCD in a state where each infrared LED of each sensor unit 2 is projected, and acquires projection data. FIG. 6D is a diagram illustrating an example of the light amount distribution of the projection data when the indicator is present at a position that does not overlap with the background light in the second embodiment. In the case of the example in FIG. 6D, compared with the example in FIG. 6B, the amount of light is reduced by the retroreflected light being blocked by the indicator in the region 603 near the left end of the horizontal axis that does not overlap with the background light. A region where a drop has occurred appears. The arithmetic control unit 3 stores the light projection data in the memory 64. After step S203, the arithmetic control unit 3 advances the process to step S204.

ステップS204では、演算制御部3は、メモリ64にそれぞれ記憶されている、図6(D)の投光データから図6(A)と同様の非投光データを減算し、その減算後のデータを総反射成分データとして取得する。   In step S204, the arithmetic control unit 3 subtracts the non-projection data similar to that in FIG. 6A from the projection data in FIG. 6D stored in the memory 64, and the data after the subtraction. Is obtained as total reflection component data.

図6(E)は、図6(D)の投光データから図6(A)と同様の非投光データを減算した後の総反射成分データの光量分布をグラフ化して示す図である。この図6(E)に例示した総反射成分データの光量分布は、再帰反射光成分による領域602と、横軸の左端付近に指示物により再帰反射光が遮られて光量が低下した領域603とを有する分布となる。演算制御部3は、この総反射成分データをメモリ64に記憶させた後、処理をステップS205へ進める。   FIG. 6E is a graph showing the light amount distribution of the total reflection component data after subtracting the non-light projection data similar to FIG. 6A from the light projection data of FIG. 6D. The amount of light distribution of the total reflection component data illustrated in FIG. 6E includes an area 602 due to retroreflective light components, and an area 603 in which the amount of light is reduced due to the retroreflected light being blocked by an indicator near the left end of the horizontal axis. The distribution has The arithmetic control unit 3 stores the total reflection component data in the memory 64, and then advances the process to step S205.

ステップS205では、演算制御部3は、図6(C)に示した基準反射成分データと図6(E)に示した総反射成分データとの差分を求め、その差分演算後のデータを入力成分データとして取得する。この第2の実施形態の場合には、基準反射成分データと図6(E)に示した総反射成分データとの差分演算として、基準反射成分データから総反射成分データを減算する。   In step S205, the calculation control unit 3 obtains a difference between the reference reflection component data shown in FIG. 6C and the total reflection component data shown in FIG. 6E, and uses the data after the difference calculation as an input component. Get as data. In the case of the second embodiment, the total reflection component data is subtracted from the reference reflection component data as a difference calculation between the reference reflection component data and the total reflection component data shown in FIG.

図6(F)は、図6(C)に示した基準反射成分データから図6(E)に示した総反射成分データを減算した後の入力成分データの光量分布をグラフ化して示す図である。この図6(F)に例示した光量分布では、横軸の左端付近に値が大きくなっている領域604がある。図6(F)の例において、この領域604の光量レベルは、センサユニット2から投光された赤外光の再帰反射光が指示物により遮られたことで低下した分の光量レベルに相当すると考えられる。演算制御部3は、その入力成分データをメモリ64に記憶させた後、処理をステップS206へ進める。   FIG. 6F is a graph showing the light amount distribution of the input component data after subtracting the total reflection component data shown in FIG. 6E from the reference reflection component data shown in FIG. 6C. is there. In the light amount distribution illustrated in FIG. 6F, there is a region 604 where the value is large near the left end of the horizontal axis. In the example of FIG. 6F, the light amount level in this region 604 corresponds to the light amount level that is reduced by the retroreflected light of the infrared light projected from the sensor unit 2 being blocked by the indicator. Conceivable. The arithmetic control unit 3 stores the input component data in the memory 64, and then proceeds to step S206.

ステップS206では、演算制御部3は、入力成分データの中に、指示物による入力と判断できるだけの有効な入力成分があるかどうかを検出する。具体的には、前述の第1の実施形態の場合と同様に、演算制御部3は、入力成分における光量のピークを求め、そのピークの値が所定の第1の閾値TH1より大きければ、有効な入力成分であると判断するなどの処理を行う。図6(F)の例では、横軸の左端付近で光量が大きくなっている領域604のピークの値が第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力成分が存在していると判断する。そして、演算制御部3は、センサユニット2a,2bのラインCCDの各画素番号のうち、そのピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。   In step S <b> 206, the arithmetic control unit 3 detects whether there is an effective input component that can be determined to be input by the indicator in the input component data. Specifically, as in the case of the first embodiment described above, the arithmetic control unit 3 obtains the peak of the light amount in the input component, and is effective if the peak value is greater than the predetermined first threshold value TH1. Such as determining that the input component is a correct input component. In the example of FIG. 6F, the peak value of the region 604 where the light amount is large near the left end of the horizontal axis is larger than the first threshold value TH1, and the peak is at one place. 3 determines that there is an effective input component by one indicator. Then, the arithmetic control unit 3 obtains each pixel number corresponding to the peak position among the pixel numbers of the line CCDs of the sensor units 2a and 2b, and stores the data of these pixel numbers in the memory 64.

<第2の実施形態の入力検出処理(表示領域に指示物が無い場合)>
第2の実施形態において、表示領域5の内に指示物が無い場合、図5のステップS102〜S206における各データは、以下のようになる。
<Input Detection Processing of Second Embodiment (when there is no indication in the display area)>
In the second embodiment, when there is no indication in the display area 5, the data in steps S102 to S206 in FIG.

第2の実施形態において表示領域5の内に指示物が無い場合、ステップS202で赤外LEDを消灯した状態でラインCCDによる受光が行われたときの非投光データの光量分布は、前述の図6(A)と略々同じになる。次に、ステップS203において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、前述の図6(B)と略々同じになる。   When there is no indicator in the display area 5 in the second embodiment, the light quantity distribution of the non-projection data when the light is received by the line CCD with the infrared LED turned off in step S202 is as described above. This is substantially the same as FIG. Next, in step S203, the light quantity distribution of the light projection data when light is received by the line CCD with the infrared LED being projected is substantially the same as that in FIG.

したがって、ステップS204において図6(B)の投光データから図6(A)の非投光データが減算された総反射成分データは、図6(C)の基準反射成分データと同様になる。そして、ステップS205において基準反射成分データ(図6(C))から総反射成分データ(図6(C)と同様の光量分布のデータ)が減算されて算出される入力成分データの光量分布は、図6(G)のように、全域に渡って略々ゼロ(0)となる。この図6(G)の例の場合、入力成分において第1の閾値TH1を超えるピーク部分がないので、ステップS206による有効な入力があるかどうかの検出処理において、演算制御部3は、有効な入力無し、と判断することになる。   Accordingly, the total reflection component data obtained by subtracting the non-projection data in FIG. 6A from the projection data in FIG. 6B in step S204 is the same as the reference reflection component data in FIG. 6C. In step S205, the light amount distribution of the input component data calculated by subtracting the total reflection component data (the same light amount distribution data as in FIG. 6C) from the reference reflection component data (FIG. 6C) is: As shown in FIG. 6G, it is substantially zero (0) over the entire area. In the case of the example of FIG. 6G, since there is no peak portion exceeding the first threshold value TH1 in the input component, the calculation control unit 3 determines whether there is a valid input in step S206. It will be judged that there is no input.

<第2の実施形態の入力検出処理(指示物が背景光と重なる位置に在る場合)>
第2の実施形態において、センサユニット2のラインCCD側からみて背景光と重なる位置に指示物が在る場合、図5のステップS202〜S206の各データは、以下のようになる。
<Input Detection Processing of Second Embodiment (When Pointed Object is Overlaid with Background Light)>
In the second embodiment, when there is an indicator at a position overlapping the background light when viewed from the line CCD side of the sensor unit 2, the data in steps S202 to S206 in FIG. 5 are as follows.

第2の実施形態においてラインCCD側からみて背景光と重なった位置に指示物が在る場合、ステップS202で赤外LEDが消灯された状態でラインCCDによる受光が行われたときの非投光データの光量分布は、図6(H)のようになる。この場合、背景光と重なる位置に指示物が在り、その指示物により背景光が一部遮られたことで、非投光データの光量分布は、図6(H)に示すように、図6(A)の背景光の領域601の一部が指示物にて遮られて光量が低下した領域605を有する分布となる。   In the second embodiment, when there is an indicator at a position overlapping the background light when viewed from the line CCD side, no light projection is performed when light is received by the line CCD with the infrared LED turned off in step S202. The light quantity distribution of data is as shown in FIG. In this case, there is an indicator at a position overlapping with the background light, and the background light is partially blocked by the indicator, so that the light quantity distribution of the non-projection data is as shown in FIG. A part of the background light region 601 in (A) is blocked by the indicator, resulting in a distribution having a region 605 in which the amount of light is reduced.

次に、ステップS203において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、図6(I)のようになる。この場合、赤外LEDから投光された光が再帰反射材101,102により再帰反射される一方で、背景光と重なる位置の指示物により再帰反射光が遮られることになる。この場合の投光データの光量分布は、図6(I)のように、背景光による光量が大きい領域601と再帰反射光による光量の大きい領域602とが重なる一方で、指示物により再帰反射光が遮られて光量が低下した領域606が生じた分布となる。なお、このときの領域606の光量レベルは、赤外LEDから投光された赤外光が指示物により反射された反射光の光量レベルであると考えられる。   Next, in step S203, the light quantity distribution of the light projection data when light is received by the line CCD with the infrared LED being projected is as shown in FIG. In this case, the light projected from the infrared LED is retroreflected by the retroreflective materials 101 and 102, while the retroreflected light is blocked by the indicator at a position overlapping the background light. In this case, as shown in FIG. 6 (I), the light quantity distribution of the light projection data is such that the area 601 where the light quantity by the background light is large and the area 602 where the light quantity by the retroreflected light are overlapped, while the retroreflected light by the indicator. Is a distribution in which a region 606 in which the amount of light is reduced due to being blocked. Note that the light amount level of the region 606 at this time is considered to be the light amount level of the reflected light obtained by reflecting the infrared light projected from the infrared LED by the indicator.

そして、ステップS204において、図6(I)の投光データから図6(A)の非投光データを減算した総反射成分データの光量分布は、図6(J)のようになる。この図6(J)において、総反射成分データの光量分布は、再帰反射光成分による光量が大きい領域602と、指示物により再帰反射光が遮られたことで光量が低下した領域606とが存在する分布となる。したがって、ステップS205において、図6(C)の基準反射成分データから図6(J)の総反射成分データを減算した入力成分データの光量分布は、図6(K)のようになる。この図6(K)に示すように、入力成分データの光量分布は、センサユニット2から投光された赤外光の再帰反射光が指示物により遮られたことで低下した分の光量レベルに相当するピークレベルの領域607のみが残った分布となる。   In step S204, the light quantity distribution of the total reflection component data obtained by subtracting the non-light projection data of FIG. 6A from the light projection data of FIG. 6I is as shown in FIG. In FIG. 6J, the light quantity distribution of the total reflection component data includes an area 602 where the light quantity due to the retroreflective light component is large, and an area 606 where the light quantity is reduced by the retroreflected light being blocked by the indicator. Distribution. Therefore, in step S205, the light quantity distribution of the input component data obtained by subtracting the total reflection component data of FIG. 6 (J) from the reference reflection component data of FIG. 6 (C) is as shown in FIG. 6 (K). As shown in FIG. 6 (K), the light quantity distribution of the input component data has a light quantity level that is reduced by the retroreflected light of the infrared light projected from the sensor unit 2 being blocked by the indicator. Only the corresponding peak level region 607 remains.

その後、ステップS206において、演算制御部3は、この図6(K)のような光量分布の入力成分データに基づいて、有効な入力があるかどうかを検出する。図6(K)の例では、赤外LEDから投光された光が指示物により反射された光による領域607の光量ピークが第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力が一つ存在していると判断する。そして、演算制御部3は、センサユニット2a,2bのラインCCDの各画素番号のうち、そのピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。   Thereafter, in step S206, the arithmetic control unit 3 detects whether there is a valid input based on the input component data of the light quantity distribution as shown in FIG. In the example of FIG. 6K, the light intensity peak of the region 607 due to the light projected from the infrared LED reflected by the indicator is larger than the first threshold value TH1, and the peak is at one location. Therefore, the arithmetic control unit 3 determines that there is one valid input from one indicator. Then, the arithmetic control unit 3 obtains each pixel number corresponding to the peak position among the pixel numbers of the line CCDs of the sensor units 2a and 2b, and stores the data of these pixel numbers in the memory 64.

上述したように、第2の実施形態の座標入力装置は、ラインCCD側からみて背景光と重なる位置に指示物が在る場合にも、図5のステップS202〜S206の処理を行うことで、指示物による有効な入力を確実に検出することができる。そして、第2の実施形態の座標入力装置の場合、演算制御部3は、ステップS206において有効な入力が検出されたときに、その有効な入力のピーク位置においてタッチダウンがなされたと判断する。   As described above, the coordinate input device according to the second embodiment performs the processing in steps S202 to S206 in FIG. 5 even when the indicator is present at a position overlapping the background light as viewed from the line CCD side. It is possible to reliably detect a valid input by the indicator. In the case of the coordinate input device according to the second embodiment, the arithmetic control unit 3 determines that touchdown has been performed at the peak position of the valid input when a valid input is detected in step S206.

なお、図5のステップS207の処理は前述の図3(B)のステップS115と同じであり、図5のステップS208の処理は図3(B)のステップS116と同じである。以下同様に、図5のステップS209の処理は図3(B)のステップS117と同じであり、図5のステップS210の処理は図3(B)のステップS118、図5のステップS211の処理は図3(B)のステップS119と同じである。そして、図5のステップS211の後、処理はステップS202へ戻される。このように図5のステップS207〜S211の処理は図3(B)のステップS115〜S119と同じであるため、それら処理の詳細な説明は省略する。   5 is the same as step S115 in FIG. 3B, and the process in step S208 in FIG. 5 is the same as step S116 in FIG. Similarly, the process in step S209 in FIG. 5 is the same as step S117 in FIG. 3B, the process in step S210 in FIG. 5 is the same as that in step S118 in FIG. 3B, and the process in step S211 in FIG. This is the same as step S119 in FIG. Then, after step S211 in FIG. 5, the process returns to step S202. As described above, the processes in steps S207 to S211 in FIG. 5 are the same as those in steps S115 to S119 in FIG. 3B, and thus detailed description thereof will be omitted.

また、第2の実施形態においても、白熱灯等の背景光が変化する場合については、ステップS204において投光データから非投光データを減算する処理によって背景光の成分を相殺することで、その影響を排除できる。   Also in the second embodiment, when background light such as an incandescent lamp changes, the background light component is canceled by subtracting the non-projection data from the projection data in step S204. The influence can be eliminated.

<第2の実施形態の効果>
以上説明したように、光学遮光方式を採用する第2の実施形態の座標入力装置は、前述の第1の実施形態の場合と同様に、ラインCCDが検出した光量分布に含まれる環境光成分の影響を排除することができる。このため、第2の実施形態によれば、指示物によるタッチ位置が、例えばラインCCDからみて環境光と重なる位置になっていたとしても、有効な入力を確実に検出することができる。また、第2の実施形態によれば、環境光の位置や光量が変化した場合であっても、有効な入力を確実に検出することができる。
<Effects of Second Embodiment>
As described above, the coordinate input device according to the second embodiment that employs the optical shading method is similar to the first embodiment described above in that the ambient light component included in the light amount distribution detected by the line CCD is detected. The influence can be eliminated. For this reason, according to the second embodiment, even if the touch position by the pointing object is a position overlapping the ambient light as viewed from the line CCD, for example, it is possible to reliably detect an effective input. Further, according to the second embodiment, it is possible to reliably detect an effective input even when the position or the amount of ambient light changes.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

1 センサバー、2(2a,2b) センサユニット、3 演算制御部、4 ホワイトボード、5 表示領域、10 PC(パーソナルコンピュータ)、61 CPU、64 メモリ   1 sensor bar, 2 (2a, 2b) sensor unit, 3 arithmetic control unit, 4 whiteboard, 5 display area, 10 PC (personal computer), 61 CPU, 64 memory

Claims (7)

座標入力面に沿う方向に対して投光を行う投光手段と、
前記座標入力面に沿う方向から光を受光可能な少なくとも二つの受光手段と、
前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第1の受光信号と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第2の受光信号との差分である第1の成分を導出し、
前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第3の受光信号と、前記第1および第2の受光信号が生成された後の前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第4の受光信号との差分である第2の成分を導出する導出手段と、
前記第1の成分と前記第2の成分との差分に基づいて、指示物による前記座標入力面への入力を検出する検出手段と、
前記検出手段によって指示物による前記座標入力面への入力が検出されると、検出された入力の前記座標入力面における位置を算出する算出手段と
を有することを特徴とする座標入力装置。
A light projecting means for projecting light in a direction along the coordinate input surface;
At least two light receiving means capable of receiving light from a direction along the coordinate input surface;
A first light receiving signal generated based on light received by the light receiving means when no light is projected by the light projecting means when there is no indicator on the coordinate input surface; and the coordinates This is a difference from a second received light signal generated based on the light received by the light receiving means when light is projected by the light projecting means when there is no indicator on the input surface. Deriving one component,
The third light receiving signal generated based on the light received by the light receiving means when no light is projected by the light projecting means, and the first light receiving signal after the first and second light receiving signals are generated. Deriving means for deriving a second component that is a difference from a fourth light receiving signal generated based on light received by the light receiving means when light projecting by the light projecting means is performed;
Detecting means for detecting an input to the coordinate input surface by an indicator based on a difference between the first component and the second component;
A coordinate input device, comprising: a calculating unit that calculates a position of the detected input on the coordinate input surface when an input to the coordinate input surface by an indicator is detected by the detection unit.
前記算出手段は、前記第1の成分と前記第2の成分との差分のピークの値が、所定の閾値を越えているとき、前記差分のピークを対象として、前記座標入力面における座標値を算出することを特徴とする請求項1に記載の座標入力装置。   The calculation means calculates a coordinate value on the coordinate input surface for the difference peak when a difference peak value between the first component and the second component exceeds a predetermined threshold. The coordinate input device according to claim 1, wherein the coordinate input device calculates the coordinate input device. 前記算出手段は、前記第2の成分と前記第1の成分との差分のピークに対応した、前記第4の受光信号の中のピークの値が、所定の閾値を越えているとき、前記第4の受光信号の中のピークを対象として、前記座標入力面における座標値を算出することを特徴とする請求項1に記載の座標入力装置。   When the peak value in the fourth received light signal corresponding to the peak of the difference between the second component and the first component exceeds a predetermined threshold, the calculating means The coordinate input device according to claim 1, wherein a coordinate value on the coordinate input surface is calculated with respect to a peak in the four received light signals. 前記第1の成分を記憶する記憶手段を有し、
前記導出手段は、前記第2の成分から、前記記憶手段によって記憶された前記第1の成分を減算した後の成分が負の成分を含むとき、前記記憶手段によって記憶された前記第1の成分の更新を行うことを特徴とする請求項1〜3のいずれか1項に記載の座標入力装置。
Storing means for storing the first component;
The derivation means, when the component after subtracting the first component stored by the storage means from the second component includes a negative component, the first component stored by the storage means The coordinate input device according to claim 1, wherein the coordinate input device is updated.
前記投光手段は、座標入力面の周辺部に配される再帰反射手段に対して投光を行い、
前記受光手段は、前記再帰反射手段によって反射された光を受光する
ことを特徴とする請求項1〜4のいずれか1項に記載の座標入力装置。
The light projecting means projects light to the retroreflective means disposed on the periphery of the coordinate input surface,
The coordinate input device according to claim 1, wherein the light receiving unit receives light reflected by the retroreflective unit.
座標入力面に沿う方向に対して投光を行う投光手段と、前記座標入力面に沿う方向から光を受光可能な少なくとも二つの受光手段とを有する座標入力装置の制御方法であって、
前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第1の受光信号と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第2の受光信号との差分である第1の成分を導出し、
前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第3の受光信号と、前記第1および第2の受光信号が生成された後の前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第4の受光信号との差分である第2の成分を導出する導出ステップと、
前記第1の成分と前記第2の成分との差分に基づいて、指示物による前記座標入力面への入力を検出する検出ステップと、
前記検出ステップによって指示物による前記座標入力面への入力が検出されると、検出された入力の前記座標入力面における位置を算出する算出ステップと
を含むことを特徴とする座標入力装置の制御方法。
A control method for a coordinate input device, comprising: light projecting means for projecting light in a direction along the coordinate input surface; and at least two light receiving means capable of receiving light from the direction along the coordinate input surface,
A first light receiving signal generated based on light received by the light receiving means when no light is projected by the light projecting means when there is no indicator on the coordinate input surface; and the coordinates This is a difference from a second received light signal generated based on the light received by the light receiving means when light is projected by the light projecting means when there is no indicator on the input surface. Deriving one component,
The third light receiving signal generated based on the light received by the light receiving means when no light is projected by the light projecting means, and the first light receiving signal after the first and second light receiving signals are generated. A derivation step for deriving a second component that is a difference from a fourth light receiving signal generated based on the light received by the light receiving means when the light projecting means performs light projection;
A detection step of detecting an input to the coordinate input surface by an indicator based on a difference between the first component and the second component;
And a calculation step of calculating a position of the detected input on the coordinate input surface when an input to the coordinate input surface by the indicator is detected by the detection step. .
座標入力面に沿う方向に対して投光を行う投光手段と、前記座標入力面に沿う方向から光を受光可能な少なくとも二つの受光手段とを有する座標入力装置のコンピュータを、
前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第1の受光信号と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第2の受光信号との差分である第1の成分を導出し、
前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第3の受光信号と、前記第1および第2の受光信号が生成された後の前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第4の受光信号との差分である第2の成分を導出する導出手段と、
前記第1の成分と前記第2の成分との差分に基づいて、指示物による前記座標入力面への入力を検出する検出手段と、
前記検出手段によって指示物による前記座標入力面への入力が検出されると、検出された入力の前記座標入力面における位置を算出する算出手段
として機能させるためのプログラム。
A computer of a coordinate input device, comprising: a light projecting unit that projects light in a direction along the coordinate input surface; and at least two light receiving units that can receive light from the direction along the coordinate input surface.
A first light receiving signal generated based on light received by the light receiving means when no light is projected by the light projecting means when there is no indicator on the coordinate input surface; and the coordinates This is a difference from a second received light signal generated based on the light received by the light receiving means when light is projected by the light projecting means when there is no indicator on the input surface. Deriving one component,
The third light receiving signal generated based on the light received by the light receiving means when no light is projected by the light projecting means, and the first light receiving signal after the first and second light receiving signals are generated. Deriving means for deriving a second component that is a difference from a fourth light receiving signal generated based on light received by the light receiving means when light projecting by the light projecting means is performed;
Detecting means for detecting an input to the coordinate input surface by an indicator based on a difference between the first component and the second component;
A program for functioning as a calculation means for calculating a position of the detected input on the coordinate input surface when an input to the coordinate input surface by an indicator is detected by the detection means.
JP2015134688A 2015-07-03 2015-07-03 Coordinate input device, control method thereof, and program Pending JP2017016531A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015134688A JP2017016531A (en) 2015-07-03 2015-07-03 Coordinate input device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015134688A JP2017016531A (en) 2015-07-03 2015-07-03 Coordinate input device, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2017016531A true JP2017016531A (en) 2017-01-19

Family

ID=57830742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015134688A Pending JP2017016531A (en) 2015-07-03 2015-07-03 Coordinate input device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2017016531A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058253A (en) * 2023-10-12 2023-11-14 南京邮电大学 PTZ camera-based high-precision alarm positioning method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058253A (en) * 2023-10-12 2023-11-14 南京邮电大学 PTZ camera-based high-precision alarm positioning method
CN117058253B (en) * 2023-10-12 2024-01-23 南京邮电大学 PTZ camera-based high-precision alarm positioning method

Similar Documents

Publication Publication Date Title
JP4442877B2 (en) Coordinate input device and control method thereof
JP5591069B2 (en) Coordinate input device, control method therefor, and program
JP2010277122A (en) Optical position detection apparatus
JP2011070625A (en) Optical touch control system and method thereof
US8941622B2 (en) Coordinate input apparatus
JP6031293B2 (en) Coordinate input device, control method therefor, and program
JP2013210956A (en) Display device
JP2017016531A (en) Coordinate input device, control method thereof, and program
US20110018805A1 (en) Location-detecting system and arrangement method thereof
JP2010282463A (en) Touch panel device
JP2012048403A (en) Coordinate input device and control method thereof, and program
JP5814608B2 (en) Coordinate input device, control method therefor, and program
JP6334980B2 (en) Coordinate input device, control method therefor, and program
JP5049747B2 (en) Coordinate input device, control method therefor, and program
JP2006350908A (en) Optical information input device
JP2013239102A (en) Coordinate instruction device and interactive white board device
TWI529587B (en) Optical touch device and its touch method
JP5865053B2 (en) Coordinate input device, control method of coordinate input device, and program
US20170052642A1 (en) Information processing apparatus, information processing method, and storage medium
JP5950767B2 (en) Coordinate input device, control method therefor, and program
JP2007072506A (en) Coordinate-input device
JP4423113B2 (en) Coordinate input device, control method therefor, and program
JP2005352756A (en) Light shielding type coordinate input device and coordinate input method
JP2005071022A (en) Coordinate inputting device and coordinate inputting method
JP2017041078A (en) Coordinate input device, information processing method, and program