JP2017016531A - Coordinate input device, control method thereof, and program - Google Patents
Coordinate input device, control method thereof, and program Download PDFInfo
- Publication number
- JP2017016531A JP2017016531A JP2015134688A JP2015134688A JP2017016531A JP 2017016531 A JP2017016531 A JP 2017016531A JP 2015134688 A JP2015134688 A JP 2015134688A JP 2015134688 A JP2015134688 A JP 2015134688A JP 2017016531 A JP2017016531 A JP 2017016531A
- Authority
- JP
- Japan
- Prior art keywords
- light
- coordinate input
- component
- indicator
- light receiving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、指などの指示物によって座標入力面に入力された座標位置を光学的に検出する座標入力装置、その制御方法及びプログラムに関する。 The present invention relates to a coordinate input device that optically detects a coordinate position input to a coordinate input surface by an indicator such as a finger, a control method thereof, and a program.
指などの指示物によって座標入力面に入力された座標位置を検出する座標入力装置として、各種方式の座標入力装置(タッチパネルやデジタイザ)が提案、または製品化されている。例えば、特殊な器具等を用いずに、指で画面上をタッチすることで、PC(パーソナルコンピュータ)等の端末の操作を簡単に行うことがきるタッチパネル等が広く用いられている。 Various types of coordinate input devices (touch panels and digitizers) have been proposed or commercialized as coordinate input devices that detect the coordinate position input to the coordinate input surface by an indicator such as a finger. For example, a touch panel that can easily operate a terminal such as a PC (personal computer) by touching the screen with a finger without using a special instrument is widely used.
座標入力方式としては、抵抗膜方式、電磁誘導方式、静電誘導方式、光学方式等、種々のものがある。このうち光学方式としては、座標入力面の外側に再帰反射材を配し、投光部からの光を再帰反射材で再帰反射(入射した光を入射方向に反射)し、その再帰反射光の光量分布を受光部により検出して入力位置を算出する光学遮光方式が知られている。例えば特許文献1には、光学遮光方式を用いた座標入力装置が開示されている。また、光学方式には、座標入力面の外側の再帰反射材を不要とし、投光部からの光が指等の指示物で反射した光の光量分布を検出して入力位置を算出する直接反射光方式も知られている。特許文献2には、直接反射方式を用いた座標検出装置が開示されている。
There are various coordinate input methods such as a resistive film method, an electromagnetic induction method, an electrostatic induction method, and an optical method. Of these, as an optical method, a retroreflective material is arranged outside the coordinate input surface, the light from the light projecting portion is retroreflected by the retroreflective material (incident light is reflected in the incident direction), and the retroreflected light An optical shading method is known in which an input position is calculated by detecting a light amount distribution by a light receiving unit. For example, Patent Document 1 discloses a coordinate input device using an optical shading method. In addition, the optical method eliminates the need for retroreflecting material outside the coordinate input surface, and detects the light quantity distribution of the light reflected from the indicator such as a finger to calculate the input position. An optical system is also known.
この種の座標入力装置を表示装置と一体にすることによって、表示装置の表示画面をタッチすることで、表示状態を制御したり、あたかも紙と鉛筆の様な関係で、入力位置の軌跡を筆跡として表示したりすることが可能となる。 By integrating this type of coordinate input device with the display device, the display state can be controlled by touching the display screen of the display device, or the locus of the input position can be written by hand as if it were a pencil and paper. Can be displayed.
表示装置としては、液晶表示装置等の各種方式のフラットパネルディスプレイやフロントプロジェクタが知られている。フラットパネルディスプレイの場合、そのフラットパネルディスプレイに座標入力装置を重ねて配置すれば、このような操作環境を実現でき、スマートフォン等の携帯機器はその代表例と言える。また、フラットパネルディスプレイの大型化に伴い、大型のタッチパネルと組み合わせて、デジタルサイネージや電子黒板などの分野で導入が進んでいる。 As display devices, various types of flat panel displays such as liquid crystal display devices and front projectors are known. In the case of a flat panel display, such an operating environment can be realized if a coordinate input device is placed on the flat panel display, and a mobile device such as a smartphone can be said to be a representative example. In addition, along with the increase in the size of flat panel displays, it has been introduced in fields such as digital signage and electronic blackboards in combination with large touch panels.
ところで、直接反射光方式における反射光の検出の際には、一例として、以下のようないくつかの問題がある。例えば、照明器具などによる環境光が受光部に入射することで、入力位置及び受光レベルを正しく検出できなくなる場合がある。また、投光部から投光された光が、表示画面の外側にある様々な物体、例えば机や椅子、壁等により反射して受光部に入射している場合も、入力位置及び受光レベルを正しく検出できなくなる場合がある。さらにこれら環境光や表示画面の外側にある物体等の位置等が時間とともに変動することも考えられる。タッチ入力を正しく検出するためには、受光部への入射光が、表示画面をタッチする指等の指示物による反射光であるか、或いは、環境光や画面外の物体等からの反射光であるかを区別する必要がある。 By the way, when detecting reflected light in the direct reflected light system, there are several problems as follows, for example. For example, when the ambient light from a lighting fixture or the like enters the light receiving unit, the input position and the light receiving level may not be detected correctly. In addition, even when the light projected from the light projecting part is reflected by various objects outside the display screen, such as a desk, chair, wall, etc. It may not be detected correctly. Furthermore, it is conceivable that the position of the ambient light, the object, etc. outside the display screen fluctuates with time. In order to correctly detect the touch input, the incident light to the light receiving unit is reflected light from an indicator such as a finger touching the display screen, or reflected light from an ambient light or an object outside the screen. It is necessary to distinguish whether there is.
これらの問題による悪影響を低減するために、これまでにいくつかの方法が開示されている。例えば特許文献2においては、投光と受光のスペクトルを制御することで、環境光を判別するなどの技術が開示されている。
In order to reduce the adverse effects due to these problems, several methods have been disclosed so far. For example,
なお、前述したような照明器具などによる環境光が受光部に入射することによる問題は、光学遮光方式においても同様に生ずると考えられる。 In addition, it is considered that the problem caused by the ambient light from the lighting fixture or the like as described above entering the light receiving section also occurs in the optical light shielding method.
本発明はこのような問題点に鑑みてなされたものであり、指示物による入力をより精度良く検出することを可能とする座標入力装置、その制御方法及びプログラムを提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a coordinate input device, a control method thereof, and a program capable of detecting input by an indicator with higher accuracy.
本発明の座標入力装置は、座標入力面に沿う方向に対して投光を行う投光手段と、前記座標入力面に沿う方向から光を受光可能な少なくとも二つの受光手段と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第1の受光信号と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第2の受光信号との差分である第1の成分を導出し、前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第3の受光信号と、前記第1及び第2の受光信号が生成された後の前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第4の受光信号との差分である第2の成分を導出する導出手段と、前記第1の成分と前記第2の成分との差分に基づいて、指示物による前記座標入力面への入力を検出する検出手段と、前記検出手段によって指示物による前記座標入力面への入力が検出されると、検出された入力の前記座標入力面における位置を算出する算出手段とを有する。 The coordinate input device of the present invention includes a light projecting unit that projects light in a direction along the coordinate input surface, at least two light receiving units that can receive light from the direction along the coordinate input surface, and the coordinate input surface. A first light-receiving signal generated based on light received by the light-receiving means when no light is projected by the light-projecting means when there is no indicator on the coordinate input surface; A first component that is a difference from a second received light signal generated based on the light received by the light receiving means when light is projected by the light projecting means when no indicator is present. A third light receiving signal generated based on the light received by the light receiving means when no light is projected by the light projecting means, and the first and second light receiving signals are generated. By the light projecting means later Deriving means for deriving a second component that is a difference from the fourth light receiving signal generated based on the light received by the light receiving means when light projection is performed, the first component, Based on the difference from the second component, detection means for detecting an input to the coordinate input surface by an indicator, and detection when the detection means detects an input to the coordinate input surface by the indicator. Calculating means for calculating the position of the input on the coordinate input surface.
本発明によれば、指示物による入力をより精度良く検出可能となる。 According to the present invention, it is possible to detect an input by an indicator more accurately.
以下、図面を参照して、本発明の一実施形態の座標入力装置について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, a coordinate input device according to an embodiment of the present invention will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
<第1の実施形態の構成例>
図1には、第1の実施形態として、投光した光が指示物により反射した光を検出して、その指示物による入力位置の座標を算出する、直接反射光方式の座標入力装置の概略構成を示す。本実施形態の座標入力装置の場合、平面状のホワイトボード4などの表示面上に、図示しないフロントプロジェクタなどを用いて画像が投影表示される。以下、ホワイトボード4の表示面上において、フロントプロジェクタなどからの画像が投影表示される領域を表示領域5とする。フロントプロジェクタは、例えばパーソナルコンピュータ(以下、PC10とする。)等から送られてくる画像信号に基づく画像を、ホワイトボード4上の表示領域5に投影表示させる。なお、本実施形態ではホワイトボード4の表示面上に画像を表示させる例を挙げているが、表示面はホワイトボードに限定されるものではなく、壁面等であってもよい。
<Configuration Example of First Embodiment>
In FIG. 1, as a first embodiment, an outline of a direct reflection light type coordinate input apparatus that detects light reflected by an indicator and calculates coordinates of an input position by the indicator. The configuration is shown. In the case of the coordinate input device according to the present embodiment, an image is projected and displayed on a display surface such as a
センサバー1は、センサユニット2a、センサユニット2b、演算制御部3等を有している。なお、以下の説明において、センサユニット2aとセンサユニット2bを区別せずに総称する場合はセンサユニット2と表記する。センサバー1は、例えばユーザにより、表示領域5の外側に設置される。センサバー1には、例えばマグネットが内蔵されていて、例えば強磁性体からなる板材等を有して構成されたホワイトボード4等に、そのマグネットの磁力で貼り付けることができるようになっている。
The sensor bar 1 includes a
センサバー1に内蔵されている演算制御部3は、センサユニット2を制御し、またセンサユニット2からの出力信号に対する演算処理を行う。詳細は後述するが、演算制御部3は、座標入力面である表示領域5に対して指などの指示物による指示入力がなされたときのセンサユニット2の出力信号を処理することにより、その指示物による入力座標を算出する。そして、演算制御部3は、その演算処理により求めた入力座標の情報を、PC10等の外部機器へ出力する。
The
センサユニット2a,2bは、それぞれ投光部及び受光部を有している。投光部は、座標入力面の一例である表示領域5に沿う方向(表示領域5に略々平行な方向)に向けて光を投光する赤外LEDと投光レンズなどにより構成されている。受光部は、入射光を受光可能なラインCCDと受光レンズなどで構成されている。そして、ラインCCDの受光面は、赤外LEDの投光方向に向けられている。投光部及び受光部の内部構造などについては、例えば特許文献1に詳細に開示されているのでここではそれらの説明は省略する。投光部及び受光部には、特許文献1に開示されている構造の他にも、種々の構造を用いることができる。
Each of the
なお、図1中に一点鎖線で示されている部分は、後述する第2の実施形態で説明する光学遮蔽方式の座標入力装置が備えている構成(再帰反射材101,102)であり、第1の実施形態の直接反射光方式では必ずしも必要ではないものである。
1 is a configuration (
図2は、演算制御部3の内部構成例を示す図である。センサユニット2のラインCCD用の制御信号は、CPU61から出力される。CPU61は、その制御信号により、センサユニット2のラインCCDのシャッタータイミングやデータの出力制御等を行う。ラインCCD用のクロックは、クロック発生回路(CLK)62から各センサユニット2に送信されるとともに、ラインCCDとの同期をとって各種制御を行うためにCPU61にも入力されている。また、CPU61は、センサユニット2の赤外LEDを駆動するLED駆動信号を生成しており、赤外LEDからの赤外光の投光を行う状態と投光を行わない状態を切り替え制御することも可能となされている。なお、CPUの代わりにマイクロプロセッサやDSPなど種々のプロセッサを用いてもよいし、それらを組み合わせてもよい。
FIG. 2 is a diagram illustrating an internal configuration example of the
センサユニット2a及びセンサユニット2bが有するそれぞれのラインCCDの受光信号は、A/Dコンバータ63に入力される。A/Dコンバータ63は、CPU61による制御の下で、ラインCCDの受光信号をデジタル値に変換する。A/Dコンバータ63により変換されたデジタルデータはメモリ64に記憶され、後に、CPU61による後述する信号処理や角度計算などの処理に用いられる。そして、CPU61は、計算した角度情報から入力座標を算出し、その算出した座標データを、図1の外部のPC10等の情報処理装置にインタフェース65(例えばUSBインタフェース)を介して出力する。
The light reception signals of the respective line CCDs included in the
また、センサバー1は、ユーザインターフェイス66を備えていてもよい。ユーザインターフェイス66は、例えば後述するキャリブレーションモード等の切り替えなどに用いられる各種スイッチや、例えばビープ音などによるユーザ報知を行うスピーカなどを備えている。なお、センサバー1のモード切り替えやユーザ報知等を含む全ての動作制御がPC10により行われる場合には、ユーザインターフェイス66は必ずしも備えられていなくてもよい。
The sensor bar 1 may include a
<基準反射成分導出処理>
図3(A)は、座標入力装置の電源が入れられ、CPU61が、メモリ64に読み込まれた本実施形態の制御プログラムの実行を開始し、指示物による入力を検出するための基準反射成分(第1の成分)の記憶が完了するまでの処理のフローチャートである。図3(A)に示す基準反射成分導出処理は、センサユニット2a,2bのラインCCDが入射光を受光した受光信号から環境光成分を除去し、その環境光成分を除去した後の受光成分を、基準反射成分として記憶する処理である。以下、図3(A)のフローチャートを参照して、基準反射成分導出処理の内容を説明する。
<Reference reflection component derivation processing>
In FIG. 3A, the coordinate input device is turned on, and the
なお、上述の演算制御部3は、CPU61がメモリに読み込まれたプログラムを実行することで、導出手段、検出手段及び算出手段として機能する。これらの手段は、単一のハードウェアで実現してもよいし、複数のハードウェアで実現してもよい。また、CPU以外にも、マイクロプロセッサやDSP、ASIC(application specific integrated circuit)を用いて、これらの手段を実現してもよい。
The
また、基準反射成分導出処理は、座標入力面の上に指示物が存在しないときに、実行することを想定している。座標入力面の上に指示物が存在しないと判断する方法としては下記のような方法がある。例えば、座標入力面の上に指示物が存在しないときに、ユーザが基準反射成分導出処理を実行させる操作入力を入力させてもよい。また、一定時間、各ラインCCDにて受光して生成した信号が変動していないときに座標入力面の上に指示物が存在しないと判断してもよい。 Further, it is assumed that the reference reflection component derivation process is executed when there is no indicator on the coordinate input surface. As a method for determining that there is no indicator on the coordinate input surface, there are the following methods. For example, when there is no indicator on the coordinate input surface, the user may input an operation input for executing the reference reflection component derivation process. Alternatively, it may be determined that there is no indicator on the coordinate input surface when the signal received and generated by each line CCD has not changed for a certain period of time.
図3(A)のフローチャートにおいて、先ず、演算制御部3は、ステップS102の処理として、入出力ポートの設定、タイマ設定などの初期化や、ラインCCDの蓄積電荷のリセットなど周辺回路の初期化を行う。ステップS102の後、演算制御部3は、処理をステップS103へ進める。
In the flowchart of FIG. 3A, the
ステップS103では、演算制御部3は、センサユニット2a及び2bの両方の赤外LEDを消灯させて投光が行われていない状態で、それらセンサユニット2a及び2b内の各ラインCCDによる受光を行わせる。このように、基準反射成分導出処理において、センサユニット2a及び2bの赤外LEDによる投光を行っていない状態で各ラインCCDにて入射光を受光して生成した信号が、本実施形態における第1の受光信号である。赤外LEDを消灯させた状態におけるラインCCDの受光信号は、赤外LEDによる赤外光成分を含まない環境光(背景光)のみの光量分布を示す信号であると考えられる。以下の説明では、赤外LEDによる赤外光成分を含まない背景光を「非投光背景光」と表記する。これらセンサユニット2a及び2bの各ラインCCDにより非投光背景光が受光された際の受光信号は、演算制御部3による制御の下、A/Dコンバータ63でそれぞれデジタル化され、非投光背景光データとしてメモリ64に記憶される。
In step S103, the
図4(A)は、非投光背景光データの光量分布をグラフ化した一例を示す図である。図4(A)の横軸はラインCCDの各画素番号を示しており、縦軸は光量の大きさを示している。なお、後述する図4(B)〜図4(O)の横軸と縦軸も図4(A)と同様である。図4(A)に例示した非投光背景光データの場合、横軸の中央付近に光量が大きくなっている領域401がある。この光量が大きくなっている領域401は、例えばホワイトボード4の周囲に設置されている白熱灯などからの環境光に含まれている赤外線が、背景光としてラインCCDに入射して受光されたことにより生じていると考えられる。
FIG. 4A is a diagram illustrating an example of a graph of the light amount distribution of the non-projection background light data. The horizontal axis in FIG. 4A indicates the pixel number of the line CCD, and the vertical axis indicates the amount of light. Note that the horizontal and vertical axes in FIGS. 4B to 4O described later are the same as those in FIG. In the case of the non-projection background light data illustrated in FIG. 4A, there is a
ステップS103の後、演算制御部3は、処理をステップS104へ進める。ステップS104では、演算制御部3は、センサユニット2a及び2bの両方の赤外LEDを点灯させて投光が行われている状態でそれらセンサユニット2a及び2b内の各ラインCCDによる受光を行わせる。このように、基準反射成分導出処理において、センサユニット2a及び2bの両赤外LEDによる投光を行っている状態で各ラインCCDにて入射光を受光して、その受光した光に基づいて生成した信号が、本実施形態における第2の受光信号である。赤外LEDを点灯させた状態におけるラインCCDの受光信号は、環境光に更に、赤外LEDから投光された赤外光が何らかの物体等で反射された赤外光成分が加わった信号であると考えられる。言い換えると、この場合のラインCCDの受光信号は、前述した非投光背景光に更に、赤外LEDの投光に起因した赤外光成分が加わった状態の光量分布を示す信号であると考えられる。以下の説明では、環境光と赤外LEDに起因する赤外光成分とを含む背景光を「投光背景光」と表記する。そして、センサユニット2a及び2bの各ラインCCDにより投光背景光が受光された際の受光信号は、演算制御部3による制御の下、A/Dコンバータ63でそれぞれデジタル化され、投光背景光データとしてメモリ64に記憶される。
After step S103, the
図4(B)は、投光背景光データの光量分布をグラフ化した一例を示す図である。図4(B)に例示した投光背景光データの光量分布には、横軸の中央付近に光量が大きくなっている領域401と横軸の右端付近に光量が大きくなっている領域402とがある。横軸の中央付近で光量が大きい領域401は、図4(A)で説明したのと同様に、ホワイトボード4の周囲にある白熱灯などからの赤外線が、背景光としてラインCCDに入射することで生じた光量成分である。一方、図4(B)と前述の図4(A)とを比較すると、図4(B)の光量分布には、横軸の右端付近に光量が大きくなっている領域402がある。この領域402は、例えば、センサユニット2の赤外LEDから投光された光が、ホワイトボード4の外側の周囲に存在している何らかの物体で反射されてラインCCDに入射したことで生じていると考えられる。なお、ホワイトボード4の外側の周囲に存在する何らかの物体としては、例えば、ペンやその他の文房具、机、椅子、部屋の壁、床、天井等のような、赤外線を反射する様々な物体であると考えられる。これらの物体は、ホワイトボード4の外側の周囲に存在している物体であるため、以下の説明では「外側物体」と表記する。なお、図4(B)の例では、説明を簡単にするために、外側物体による反射光の光量成分は一つのみとしているが、実際にはホワイトボード4の外側の周囲に存在している様々な物体からの反射光の光量成分が広範囲に渡って検出される可能性がある。
FIG. 4B is a diagram illustrating an example of a graph of the light amount distribution of the projection background light data. The light amount distribution of the projected background light data illustrated in FIG. 4B includes a
ステップS104の後、演算制御部3は、処理をステップS105へ進める。ステップS105では、演算制御部3は、メモリ64に記憶されている図4(B)の投光背景光データと、同じくメモリ64に記憶されている図4(A)の非投光背景光データの差分を求める。より詳細には、演算制御部3は、センサユニット2aのラインCCDによる投光背景光データと非投光背景光データの差分を求め、同様に、センサユニット2bのラインCCDによる投光背景光データと非投光背景光データの差分を求める。本実施形態では、投光背景光データと非投光背景光データの差分演算として、投光背景光データから非投光背景光データを減算する例を挙げている。
After step S104, the
図4(C)は、図4(B)の投光背景光データから図4(A)の非投光背景光データを減算した場合の光量分布をグラフ化して示す図である。この図4(C)に例示した光量分布では、横軸の右端付近に光量が大きくなっている領域402がある。この図4(C)の例において、光量が大きくなっている領域402は、前述の図4(B)で説明したように、赤外LEDからの光が外側物体により反射された光を、ラインCCDにて検出した光量成分である。
FIG. 4C is a graph showing the light amount distribution when the non-projection background light data in FIG. 4A is subtracted from the projection background light data in FIG. 4B. In the light quantity distribution illustrated in FIG. 4C, there is a
このように投光背景光データと非投光背景光データの差分演算により導出した光量成分が、本実施形態における基準反射成分である。そして、演算制御部3は、電源投入直後の基準反射成分を示す基準反射成分データをメモリ64に記憶させる。演算制御部3は、以上のようにして基準反射成分データを算出してメモリ64に記憶させると、図3(A)のフローチャートに示した基準反射成分導出処理を終了する。
The light amount component derived by the difference calculation between the projected background light data and the non-projected background light data is the reference reflection component in the present embodiment. Then, the
<入力検出処理(指示物が背景光と重ならない位置に在る場合)>
図3(B)には、前述した基準反射成分導出処理が終了した後に、指などの指示物により表示領域5に対する入力が行われて、その指示物による入力を検出する際に、演算制御部3が制御プログラムを実行することにより実現される処理のフローチャートを示す。以下、各センサユニット2の各ラインCCDから見て、背景光や外側物体等からの反射光と重ならない位置において、指などの指示物による入力がされる場合の処理の流れについて、図3(B)のフローチャートを参照しながら説明する。
<Input detection processing (when the indicator is in a position that does not overlap with the background light)>
In FIG. 3B, after the above-described reference reflection component derivation process is completed, an input to the
図3(B)のフローチャートにおいて、演算制御部3は、先ずステップS108の処理として、各センサユニット2の各赤外LEDを消灯させて投光が行われていない状態で各ラインCCDによる受光を行わせる。このように、入力検出処理において、センサユニット2a及び2bの両赤外LEDによる投光を行っていない状態で各ラインCCDにて入射光を受光して、その受光した光に基づいて生成した信号が、本実施形態における第3の受光信号である。以下の説明では、このときの各ラインCCDの受光信号を「非投光データ」と表記する。この場合、各赤外LEDは消灯しており、赤外LEDから投光された赤外光が指示物にて反射された反射光は無いと考えられるので、非投光データの光量分布は、前述の図4(A)に示した光量分布と略々同じになると考えられる。演算制御部3は、この非投光データをメモリ64に記憶させる。ステップS108の後、演算制御部3は、処理をステップS109へ進める。
In the flowchart of FIG. 3B, the
ステップS109では、演算制御部3は、各センサユニット2の各赤外LEDを点灯させて投光が行われている状態で各ラインCCDによる受光を行わせる。このように、入力検出処理において、センサユニット2a及び2bの両赤外LEDによる投光を行っている状態で各ラインCCDにて入射光を受光して、その受光した光に基づいて生成した信号が、本実施形態における第4の受光信号である。以下の説明では、このときの各ラインCCDの受光信号を「投光データ」と表記する。
In step S109, the
図4(D)は、投光データの光量分布の一例を示す図である。この図4(D)に示した光量分布の場合、前述した図4(B)の例と比較すると、背景光や外側物体からの反射光と重ならない、例えば横軸の左端付近に光量が大きくなっている領域403が新たに現れている。本実施形態では、図4(D)の例において横軸の左端付近で光量が大きくなっている領域403が、表示領域5内に在る指示物からの反射光の光量成分であるとする。そして、演算制御部3は、この投光データをメモリ64に記憶させる。ステップS109の後、演算制御部3は、処理をステップS110へ進める。
FIG. 4D is a diagram illustrating an example of the light amount distribution of the light projection data. In the case of the light quantity distribution shown in FIG. 4D, compared with the example of FIG. 4B described above, the light quantity does not overlap with the background light or the reflected light from the outer object, for example, near the left end of the horizontal axis. The newly formed
ステップS110では、演算制御部3は、メモリ64にそれぞれ記憶されている、図4(D)の投光データと非投光データ(図4(A))の差分を求める。より詳細には、演算制御部3は、センサユニット2aのラインCCDによる投光データと非投光データの差分を求め、同様に、センサユニット2bのラインCCDによる投光データと非投光データの差分を求める。本実施形態では、投光データと非投光データの差分演算として、投光データから非投光データを減算する例を挙げている。
In step S110, the
図4(E)は、図4(D)の投光データから非投光データ(図4(A))を減算した後の光量分布をグラフ化して示す図である。この図4(E)に例示した光量分布では、横軸の右端付近に光量が大きくなった領域402と左端付近に光量が大きくなった領域403とがある。この図4(E)の例において、横軸の左端付近で光量が大きい領域403は、前述の図4(D)で説明した表示領域5の内の指示物からの反射光の光量成分である。一方、図4(E)の横軸の右端付近で光量が大きい領域402は、前述の図4(B)で説明した外側物体による反射光の光量成分である。このように、投光データと非投光データの差分演算後のデータは、表示領域5の内と外の様々な物体(指示物が存在する場合にはその指示物も含む)からの反射光成分を含んで入るデータである。以下の説明では、投光データと非投光データの差分演算により得られる反射光成分を、「総反射成分(第2の成分)」と表記する。演算制御部3は、この総反射成分データをメモリ64に記憶させる。
FIG. 4E is a graph showing the light amount distribution after subtracting the non-projection data (FIG. 4A) from the projection data of FIG. 4D. In the light amount distribution illustrated in FIG. 4E, there are a
上述したように、入力検出処理において、ステップS108〜ステップS110の処理は、センサユニット2a,2bのラインCCDが入射光を受光した受光信号から、赤外LEDの投光による反射光の成分のみを抽出するための処理となっている。ステップS110の後、演算制御部3は、処理をステップS111へ進める。
As described above, in the input detection process, the processes of step S108 to step S110 are performed only for the component of the reflected light by the projection of the infrared LED from the light reception signal received by the line CCD of the
ステップS111では、演算制御部3は、図4(E)に示した総反射成分データと図4(C)に示した基準反射成分データの差分を求める。より詳細には、演算制御部3は、センサユニット2aのラインCCDによる総反射成分データと基準反射成分データの差分を求め、同様に、センサユニット2bのラインCCDによる総反射成分データと基準反射成分データの差分を求める。本実施形態では、総反射成分データと基準反射成分データの差分演算として、総反射成分データから基準反射成分データを減算する例を挙げている。
In step S111, the
図4(F)は、総反射成分データから基準反射成分データを減算した後の光量分布をグラフ化して示す図である。この図4(F)に例示した光量分布では、横軸の左端付近に光量が大きくなっている領域403がある。図4(F)の例において、この領域403は、前述の図4(D)と図4(E)で説明した、表示領域5の内の指示物からの反射光の光量成分である。このように総反射成分データと基準反射成分データの差分演算により得られるデータは、表示領域5の内に存在する指示物による反射光成分のみからなるデータとなる。以下、総反射成分データと基準反射成分データの差分演算により得られる成分、つまり指示物による反射光のみの成分を、「入力成分」と表記する。演算制御部3は、その入力成分データをメモリ64に記憶させる。ステップS111の後、演算制御部3は、処理をステップS112へ進める。
FIG. 4F is a graph showing the light amount distribution after subtracting the reference reflection component data from the total reflection component data. In the light quantity distribution illustrated in FIG. 4F, there is a
ステップS112では、演算制御部3は、入力成分データの中に、指示物による入力と判断できるだけの有効な入力成分があるかどうかを検出する。より詳細には、演算制御部3は、センサユニット2aのラインCCDによる入力成分データについて有効な入力成分があるかどうか検出し、同様に、センサユニット2bのラインCCDによる入力成分データについて有効な入力成分があるかどうか検出する。例えば、演算制御部3は、入力成分における光量のピークを求め、そのピークの値が所定の第1の閾値TH1より大きければ、有効な入力成分であると判断するなどの処理を行う。なお、このときの第1の閾値TH1は、センサユニット2の赤外LEDの発光強度やラインCCDの受光感度などに基づいて予め決定されている。前述の図4(F)の例では、横軸の左端付近で光量が大きくなっている領域403のピークの値が所定の第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力成分が存在していると判断する。そして、演算制御部3は、センサユニット2a,2bの各ラインCCDの各画素番号のうち、そのピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。その後、このピーク(ピークの画素番号)を対象として座標入力面における座標値が算出されることになる。
In step S112, the
上述したように、ステップS111及びS112の処理は、総反射成分データと基準反射成分データの差分演算により得られた入力成分データを、第1の閾値TH1と比較することで有効な入力成分のみを検出する、本実施形態における検出処理となっている。 As described above, the processes in steps S111 and S112 are performed by comparing the input component data obtained by calculating the difference between the total reflection component data and the reference reflection component data with the first threshold value TH1, so that only effective input components are obtained. The detection process in this embodiment is detected.
<入力検出処理(表示領域に指示物が無い場合)>
上述の説明では、表示領域5の内に指示物が在り、その指示物により入力がなされた場合の例を挙げたが、表示領域5の内に指示物が無い場合、図3(B)のステップS108〜S112における各データは、以下のようになる。
<Input detection processing (when there is no indication in the display area)>
In the above description, an example is given in which an indicator is present in the
表示領域5の内に指示物が無い場合において、ステップS108で赤外LEDを消灯した状態でラインCCDによる受光が行われたときの非投光データの光量分布は、前述の図4(A)と同じになる。次に、ステップS109において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、前述の図4(B)と同じになる。
When there is no indicator in the
したがって、ステップS110において図4(B)の投光データから図4(A)の非投光データを減算して得られた総反射成分データは、図4(C)の基準反射成分データと同様になる。このため、ステップS111において総反射成分データ(図4(C)と同様のデータ)から、図4(C)の基準反射成分データを減算して得られた入力成分データの光量分布は、図4(G)のように、全域に渡って略々ゼロ(0)となる。この図4(G)の例の場合、入力成分において第1の閾値TH1を超えるピーク部分がないので、ステップS112による有効な入力があるかどうかの検出処理において、演算制御部3は、有効な入力無し、と判断することになる。
Therefore, the total reflection component data obtained by subtracting the non-projection data in FIG. 4A from the projection data in FIG. 4B in step S110 is the same as the reference reflection component data in FIG. 4C. become. Therefore, the light amount distribution of the input component data obtained by subtracting the reference reflection component data in FIG. 4C from the total reflection component data (data similar to FIG. 4C) in step S111 is as shown in FIG. As in (G), it is substantially zero (0) over the entire area. In the case of the example of FIG. 4G, since there is no peak portion exceeding the first threshold TH1 in the input component, in the detection process of whether there is a valid input in step S112, the
<入力検出処理(指示物が背景光と重なる位置に在る場合)>
前述の図4(D)ではラインCCD側からみて背景光と重ならない位置に指示物が在る例を挙げたが、ラインCCD側からみて背景光と重なる位置に指示物が在る場合には、図3(B)のステップS108〜S112の各データは、以下のようになる。
<Input detection processing (when the pointing object is in a position overlapping the background light)>
In FIG. 4D described above, an example in which the indicator is present at a position that does not overlap with the background light when viewed from the line CCD side is given. However, when the indicator is present at a position that overlaps with the background light when viewed from the line CCD side. Each data of steps S108 to S112 in FIG. 3B is as follows.
ラインCCD側からみて背景光と重なった位置に指示物が在る場合において、ステップS108で赤外LEDが消灯された状態でラインCCDによる受光が行われたときの非投光データの光量分布は、図4(H)のようになる。この場合、背景光と重なる位置に指示物が在り、その指示物により背景光の一部が遮られたことで、非投光データの光量分布は、図4(H)に示すように、図4(A)の背景光の領域401の一部の光量が指示物にて遮られて低下したような分布となる。
When there is an indicator at a position overlapping the background light when viewed from the line CCD side, the light quantity distribution of the non-projection data when the line CCD receives light with the infrared LED turned off in step S108 is as follows. As shown in FIG. In this case, there is an indicator at a position overlapping with the background light, and a part of the background light is blocked by the indicator, so that the light quantity distribution of the non-projection data is as shown in FIG. The distribution is such that a part of the amount of light in the
次に、ステップS109において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、図4(I)のようになる。この場合、背景光と重なる位置に指示物が在り、赤外LEDから投光された光がその指示物により反射されることになるため、ラインCCDでは、背景光と指示物の反射光とが受光されることになる。したがって、投光データの光量分布は、図4(I)のように、図4(B)の背景光の領域401に更に指示物の反射光が重なって光量が増加した領域405が生じたような分布となる。
Next, in step S109, the light quantity distribution of the light projection data when light is received by the line CCD with the infrared LED being projected is as shown in FIG. In this case, there is an indicator at a position overlapping with the background light, and the light projected from the infrared LED is reflected by the indicator, so in the line CCD, the background light and the reflected light of the indicator are Light will be received. Therefore, as shown in FIG. 4I, the light quantity distribution of the projection data seems to have a
このため、ステップS110において、図4(I)の投光データから図4(H)の非投光データを減算して得られた総反射成分データの光量分布は、図4(J)のようになる。この図4(J)において、総反射成分データの光量分布は、指示物の反射光により光量が増加した領域406と、前述の図4(C)で説明した外側物体の反射光に対応した領域402とが存在する分布となる。これにより、ステップS111において、図4(J)の総反射成分データから図4(C)の基準反射成分データを減算して得られた入力成分データの光量分布は、図4(K)のようになる。この図4(K)に示すように、入力成分データの光量分布は、指示物の反射光による光量ピークの領域406のみが残った分布となる。
Therefore, in step S110, the light quantity distribution of the total reflection component data obtained by subtracting the non-projection data of FIG. 4H from the projection data of FIG. 4I is as shown in FIG. become. In FIG. 4J, the light quantity distribution of the total reflection component data includes an
そして、ステップS112において、演算制御部3は、この図4(K)のような光量分布の入力成分データに基づいて、有効な入力があるかどうかを検出する。この図4(K)の例の場合、指示物の反射光により光量が増加した領域406のピークが第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力が存在していると判断する。そして、演算制御部3は、センサユニット2a,2bのラインCCDの各画素番号のうち、そのピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。
In step S112, the
上述したように、ラインCCD側からみて背景光と重なる位置に指示物が在る場合であっても、図3(B)のステップS108〜S111の処理を行うことで、演算制御部3は、指示物による有効な入力を確実に検出することができる。
As described above, even when the pointing object is present at a position overlapping the background light as viewed from the line CCD side, the
<入力検出処理(指示物が外側物体と重なる位置に在る場合)>
前述の図4(I)ではラインCCD側からみて背景光と重なる位置に指示物が在る例を挙げたが、ラインCCD側からみて外側物体と重なる位置に指示物が在る場合には、図3(B)のステップS108〜S112の各データは、以下のようになる。
<Input detection processing (when the pointing object is in a position overlapping the outside object)>
In FIG. 4 (I) described above, an example is shown in which an indicator is present at a position overlapping the background light when viewed from the line CCD side. However, when an indicator is present at a position overlapping the outer object when viewed from the line CCD side, Each data in steps S108 to S112 in FIG. 3B is as follows.
ラインCCD側からみて外側物体と重なる位置に指示物が在る場合、ステップS108において赤外LEDが消灯された状態でラインCCDによる受光が行われたときの非投光データの光量分布は、前述の図4(A)と略々同じになる。 When there is an indicator at a position overlapping the outer object as seen from the line CCD side, the light quantity distribution of the non-projection data when the line CCD receives light with the infrared LED turned off in step S108 is as described above. This is substantially the same as FIG.
次に、ステップS109において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、図4(L)のようになる。この場合、ラインCCD側からみて外側物体と重なる位置に指示物があるため、赤外LEDから投光された光は指示物と外側物体の両者により反射されることになる。このため、ラインCCDは、指示物による反射光と外側物体による反射光とが重なった光を受光することになる。図4(L)の例では、背景光により光量が大きくなった領域401とともに、例えば横軸の右端付近の領域407に、指示物と外側物体の両者による反射光が重なることで大きくなった光量成分が現れている。この図4(L)の場合、横軸の右端付近の領域407は、指示物と外側物体の両者による反射光が重なった光量成分となっているため、前述の図4(B)の領域402における外側物体による反射光の光量成分と比較して、光量成分が増加している。
Next, in step S109, the light amount distribution of the light projection data when light is received by the line CCD with the infrared LED being projected is as shown in FIG. In this case, since there is an indicator at a position overlapping the outer object as seen from the line CCD side, the light projected from the infrared LED is reflected by both the indicator and the outer object. For this reason, the line CCD receives light in which the reflected light from the indicator and the reflected light from the outer object overlap. In the example of FIG. 4 (L), the amount of light increased by the reflected light from both the indicator and the outer object overlapping the
したがって、ステップS110において、図4(L)の投光データから図4(A)の非投光データを減算して得られた総反射成分データの光量分布は、図4(M)のようになる。この図4(M)において、総反射成分データの光量分布は、指示物からの反射光と前述の図4(C)で説明した外側物体からの反射光とが重なった領域407が存在している分布となる。これにより、ステップS111において、図4(M)の総反射成分データから図4(C)の基準反射成分データを減算して得られた入力成分データの光量分布は、図4(N)のようになる。この図4(N)に示すように、入力成分データの光量分布は、指示物の反射光による光量ピークの領域408のみが残った分布となる。
Therefore, in step S110, the light quantity distribution of the total reflection component data obtained by subtracting the non-light projection data of FIG. 4A from the light projection data of FIG. 4L is as shown in FIG. Become. In FIG. 4M, the light quantity distribution of the total reflection component data includes a
そして、ステップS112において、演算制御部3は、この図4(N)のような光量分布の入力成分データに基づいて、有効な入力があるかどうかを検出する。この図4(N)の例の場合、指示物の反射光に対応した領域408のピークの値が第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力が存在していると判断する。そして、演算制御部3は、センサユニット2a,2bのラインCCDの各画素番号のうち、有効な入力のピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。
In step S112, the
上述したように、ラインCCD側からみて外側物体と重なる位置に指示物が在る場合であっても、図3(B)のステップS108〜S111の処理を行うことで、演算制御部3は、指示物による有効な入力を確実に検出することができる。
As described above, even when there is an indicator at a position overlapping the outer object as viewed from the line CCD side, the
<入力検出処理(有効な入力のレベル検出とタッチダウン判定)>
ステップS112の後、演算制御部3は、処理をステップS113へ進める。ここで、前述のステップS112において有効な入力が検出されている場合、前述したように、メモリ64には、その有効な入力のピーク位置に対応した画素番号が記憶されている。また、メモリ64は、前述したように投光データも記憶している。そして、演算制御部3は、ステップS113において、メモリ64に記憶されている投光データの中で、有効な入力のピーク位置の画素番号に対応した光量レベルを、入力レベルとして検出する。ここでは、有効な入力のピーク位置に対応した画素番号を、画素番号GPと表記する。
<Input detection processing (valid input level detection and touchdown determination)>
After step S112, the
ここで、本実施形態において、演算制御部3が投光データから入力データを検出するようにしているのは、前述の入力成分データは必ずしも正しい入力レベルを表していない場合があるためである。例えば、前述の図4(L)と図4(M)のように、ラインCCD側からみて指示物が外側物体と重なっていて、指示物と外側物体の両反射光により光量が増加している領域407が存在しているような場合、入力成分データは前述の図4(N)のようになる。この図4(N)の入力成分データは、図4(M)の総反射成分データから図4(C)の基準反射成分データを減算することで算出されているために、基準反射成分データの光量分だけレベルが小さくなってしまっている。
Here, in the present embodiment, the
このようなことから、本実施形態では、前述したステップS112における有効な入力の検出の際には入力成分データを使うが、一方、正しい入力レベルを得る際には図4(L)の投光データを用いる必要がある。したがって、演算制御部3は、ステップS113において、図4(L)の投光データの中で、有効な入力のピーク位置の画素番号GPに対応した光量レベルを、入力レベルとして検出する。演算制御部3は、ステップS113で検出した入力レベル(有効な入力のピーク位置の画素番号GPに対応した光量レベル)が所定の第2の閾値TH2より大きければ、指示物が表示領域5に接した状態、又は、略々接した状態であるタッチダウン状態と判断する。この場合の第2の閾値TH2は、赤外LEDの発光強度やラインCCDの受光感度などに基づいて予め決定されており、前述した第1の閾値TH1よりも高い値に設定されている。
For this reason, in the present embodiment, the input component data is used when detecting a valid input in the above-described step S112. On the other hand, when the correct input level is obtained, the light projection of FIG. It is necessary to use data. Therefore, in step S113, the
また、ステップS113において、演算制御部3は、メモリ64に記憶されている図4(M)に示した総反射成分データを用いて、有効な入力のピーク位置の画素番号GPに対応した光量レベルを入力レベルとして検出してもよい。これは、図4(M)の総反射成分データの領域407の光量レベルは、図4(N)の入力成分データのように基準反射成分データの減算分だけ光量レベルが小さくなされておらず、指示物による反射光の光量レベルを現していると考えられるためである。ただし、総反射成分データから入力レベルを検出することにした場合、タッチダウン状態の判断に用いられる第2の閾値は、前述の第2の閾値TH2よりも値が小さい、例えば図4(M)に示すような第2の閾値TH2gとなされる。このような第2の閾値TH2gを用いるのは、前述の投光データが投光背景光の光量レベルであるのに対し、総反射成分データは、投光データから非投光データを減算することで得られ、投光データよりも光量レベルが低くなっているからである。したがって、総反射成分データから入力レベルを検出することにした場合、ステップS113において、演算制御部3は、総反射成分データから検出した入力レベルが所定の第2の閾値TH2gより大きければ、タッチダウン状態であると判断する。
In step S113, the
なお、ここではステップS113の説明として図4(L)〜図4(N)の例を用いたが、前述の図4(D)〜図4(F)の場合や、図4(H)〜図4(K)の場合も前述同様にして入力レベル検出とタッチダウン状態の判断が行われる。 In addition, although the example of FIG.4 (L)-FIG.4 (N) was used as description of step S113 here, in the case of above-mentioned FIG.4 (D) -FIG.4 (F), FIG.4 (H)-. In the case of FIG. 4K as well, the input level is detected and the touchdown state is determined in the same manner as described above.
<入力検出処理(外側物体等の移動等による基準反射成分の変化への対応)>
ステップS113の後、演算制御部3は、処理をステップS114へ進める。ステップS114では、演算制御部3は、外側物体等の移動等が発生した場合に対応するための処理を行う。
<Input detection processing (responding to changes in the reference reflection component due to movement of the outer object, etc.)>
After step S113, the
ここでは、簡単な例として、表示領域5の内に指示物が無い場合(指示物による入力が無い場合)を挙げて説明する。表示領域5の内に指示物が存在しない一方で外側物体は存在しているような場合には、前述したように、ステップS109において赤外LEDを投光させた状態でラインCCDによる受光を行った際の投光データは、図4(B)のような光量分布となる。ここで、外側物体が例えば移動するなどして、ラインCCD側からみて外側物体が存在しなくなったとすると、図4(B)の光量が大きくなっている領域402は無くなる。この場合、投光データの光量分布は、図4(A)のようになる。したがって、前述したステップS110において投光データ(図4(A)のような光量分布となったデータ)から非投光データ(図4(A)の光量分布のデータ)を減算して得られた総反射成分データは前述の図4(G)のように略々ゼロ(0)となる。
Here, as a simple example, a case where there is no indicator in the display area 5 (a case where there is no input by the indicator) will be described. When there is no indicator in the
そして、ステップS111において、総反射成分データ(図4(G))から基準反射成分データ(図4(C))を減算して入力成分データを算出すると、図4(O)のような光量分布のデータが得られることになる。すなわち、図4(O)に示すように、図4(C)に示した領域402に対応した領域409の光量レベルが負のレベルとなって現れることになる。
In step S111, when the input component data is calculated by subtracting the reference reflection component data (FIG. 4C) from the total reflection component data (FIG. 4G), the light quantity distribution as shown in FIG. Data will be obtained. That is, as shown in FIG. 4 (O), the light amount level of the
このように総反射成分データから基準反射成分データを減算したことで入力成分データに負のレベルが生じたような場合、演算制御部3は、ステップS114において、基準反射成分データを更新する。例えば図4(O)のように光量レベルが負となった領域409の位置が、図4(C)の領域402に対応した位置である場合、演算制御部3は、図4(C)の基準反射成分データから領域409の成分値を減算したデータにより、基準反射成分データを更新する。このように図4(C)の基準反射成分データから図4(O)の領域409の成分値を減算すると、図4(C)の正の領域402と図4(O)の負の領域409とが相殺されて、図4(G)のように全域に渡って光量がほぼゼロ(0)となる。そして、このときの図4(G)のような光量分布のデータを用いて、前述のように電源投入直後に求められた基準反射成分データを更新する。なお、このような基準反射成分データの更新は、センサユニット2aとセンサユニット2bのそれぞれに対応して行われる。なお、本実施形態の座標入力装置によれば、白熱灯等の背景光が変化する場合も同様に、ステップS110において投光データから非投光データを減算する処理により背景光の成分を相殺することで、その影響を排除できる。
When the negative reflection level is generated in the input component data by subtracting the reference reflection component data from the total reflection component data in this way, the
<有効な入力があった場合の座標変換処理>
ステップS114の後、演算制御部3は、処理をステップS115へ進める。ステップS115では、演算制御部3は、センサユニット2a及び2bの両方において前述した有効な入力を検出したかどうかを判断する。演算制御部3は、ステップS115において、センサユニット2a,2bの両方で有効な入力が検出されないか又は何れか一方でのみ有効な入力が検出されたと判断した場合には、タッチされた座標を算出することはできないので、ステップS108へ処理を戻す。一方、演算制御部3は、ステップS115において、センサユニット2a,2bの両方で有効な入力が検出されたと判断した場合には、処理をステップS116へ進める。
<Coordinate conversion process when there is valid input>
After step S114, the
ステップS116では、演算制御部3は、センサユニット2a及び2bの両方において検出された有効な入力に対応した画素番号から、センサユニット2aとセンサユニット2bに対する入力位置の後述する角度を算出する。ここで、画素番号から角度値への変換には、テーブル参照や変換式を用いる。変換式は、例えば、高次の多項式を用いると精度を確保できるが、次数等は計算能力及び精度スペック等を鑑みて決定すればよい。本実施形態では、5次多項式を用いる場合の例を示す。先ず、センサバー1の組み立て製造時などに、センサユニット2a及び2bのそれぞれのラインCCDの各画素番号と、角度との関係を予め測定しておく。それら各画素番号と角度の測定結果から、5次多項式近似により画素番号を角度値へ変換するための係数を求めておく。そして、その係数データを不揮発性メモリなどに記憶させておく。画素番号をN、5次多項式の6個の係数をL5,L4,L3,L2,L1,L0とすると、角度値θは、式(1)のように表すことができる。
In step S116, the
θ=L5*N+L4*N+L3*N+L2*N+L1*N+L0 式(1) θ = L5 * N + L4 * N + L3 * N + L2 * N + L1 * N + L0 Equation (1)
ステップS116の後、演算制御部3は、処理をステップS117へ進める。ステップS117では、演算制御部3は、ステップS116で算出した角度θを用いて入力座標を算出する。
After step S116, the
ここで、演算制御部3が入力座標を算出する際に用いる座標系について説明する。先ず、座標系における原点とx軸とy軸を定義する。図1に示したように、原点は例えばセンサユニット2aの中心とし、その原点の座標値は(0,0)とする。y軸は、原点からセンサユニット2bを結ぶ方向の軸とし、x軸は、y軸に対する垂直方向で且つホワイトボード4に沿う方向(ホワイトボード4に略々平行な方向)の軸とする。また、センサユニット2bの中心の座標値は(0,1)として設定する。そして、演算制御部3は、それらセンサユニット2a,2bの相対的な位置関係に基づく相対座標系を定める。
Here, a coordinate system used when the
以下、図1のように、例えば座標(x,y)(以下、タッチ座標(x,y)とする。)において指示物によるタッチが行われたとし、そのタッチ座標(x,y)の入力位置に対する角度値θと座標変換を例に挙げて説明する。ここで、センサユニット2aについてx軸と平行な方向を基準角度(0度)とし、このセンサユニット2aが指示物を検出した際のタッチ座標(x,y)の入力位置と基準角度との成す角度をθ1とする。同様に、センサユニット2bについてx軸と平行な方向を基準角度(0度)とし、このセンサユニット2bが指示物を検出した際のタッチ座標(x,y)の入力位置と基準角度との成す角度をθ2とする。演算制御部3は、前述のステップS116で説明した角度値θの演算を行うことで、センサユニット2aにおける角度θ1と、センサユニット2bにおける角度θ2を求める。そして、演算制御部3は、これらセンサユニット2aと2bのそれぞれについて求めた角度θ1とθ2を用い、ステップS117において、センサユニット2aと2bの相対的な位置関係に基づく相対座標系におけるタッチ座標(x,y)を算出する。より具体的に説明すると、センサユニット2aで検出した角度θ1とタッチ座標(x,y)との間では式(2)の関係が成り立つ。
Hereinafter, as shown in FIG. 1, for example, it is assumed that a touch with an indicator is performed at coordinates (x, y) (hereinafter referred to as touch coordinates (x, y)), and the touch coordinates (x, y) are input. The angle value θ with respect to the position and coordinate conversion will be described as an example. Here, the direction parallel to the x-axis of the
y=x×tanθ1 式(2) y = x × tan θ1 Formula (2)
同様に、センサユニット2bで検出した角度θ2とタッチ座標(x,y)との間では式(3)が成り立つ。
Similarly, Expression (3) is established between the angle θ2 detected by the
y−1=x×tanθ2 式(3) y−1 = x × tan θ2 Formula (3)
このため、演算制御部3は、さらに式(4)及び式(5)の演算を行うことにより、タッチ座標(x,y)を算出する。
For this reason, the
x=1/(tanθ1−tanθ2) 式(4)
y=tanθ1/(tanθ1−tanθ2) 式(5)
x = 1 / (tan θ1-tan θ2) Equation (4)
y = tan θ1 / (tan θ1-tan θ2) Equation (5)
ステップS117の後、演算制御部3は、処理をステップS118へ進める。ステップS118では、演算制御部3は、ステップS117で算出したタッチ座標(x、y)を、表示領域5の表示座標系上の座標値に変換する。このステップS118の後、演算制御部3は、ステップS119において、PC10などの外部機器に、その座標値のデータを出力する。その後、演算制御部3は、ステップS108へ処理を戻す。
After step S117,
<キャリブレーションによる座標変換のためのパラメータの取得>
ここで、タッチ座標(x,y)を表示座標系上の座標値へ変換する方法としては、例えば射影変換などの手法がある。射影変換などの座標変換手法は公知であるため、ここでは詳細な説明は省く。ここで、タッチ座標(x,y)を表示座標系上の座標値へ座標変換するためには、それら二つの座標系の位置関係を対応付けるパラメータ(座標変換行列の要素の値など)が必要となる。以下、このパラメータを設定するための処理の例を説明する。
<Acquiring parameters for coordinate conversion by calibration>
Here, as a method of converting the touch coordinates (x, y) into coordinate values on the display coordinate system, there is a method such as projective conversion. Since coordinate transformation methods such as projective transformation are well known, detailed description is omitted here. Here, in order to perform coordinate conversion of touch coordinates (x, y) into coordinate values on the display coordinate system, parameters (such as values of elements of the coordinate conversion matrix) that associate the positional relationship between these two coordinate systems are required. Become. Hereinafter, an example of processing for setting this parameter will be described.
表示領域5における表示座標系は、図1に示したように、例えばd1を原点としたdx軸とdy軸からなる線形2次元座標系となっている。本実施形態の座標入力装置において、座標変換のパラメータを設定するためには、例えばいわゆるキャリブレーションと呼ばれる処理が行われる。キャリブレーション処理を実現するために、表示制御を行っているPC10には、専用のアプリケーションプログラム(以下、キャリブレーションアプリとする。)がインストールされている。
As shown in FIG. 1, the display coordinate system in the
キャリブレーションアプリを起動すると、PC10は、フロントプロジェクタの表示制御により、表示領域5上に十字クロス等を表示させるとともに、ユーザに対して、そのクロス位置をタッチするように促すメッセージも表示等させる。そして、PC10は、ユーザにより十字クロス等へのタッチ入力が行われると、そのタッチ入力位置の座標値をセンサバー1から取得する。PC10は、このような十字クロス表示とそれに対するユーザのタッチ入力の座標値の取得とを、十字クロス表示の位置を異ならせて所定回数繰り返す。そして、PC10は、それにより得られた所定回数分の相対座標系の座標値と、十字クロス表示位置の表示座標系の座標値とが一致するようなパラメータをセンサユニット2に設定する。これにより、タッチ座標(x,y)を表示座標系上の座標値へ座標変換した際に、それら二つの座標系の位置関係を対応付けることが可能となる。
When the calibration application is activated, the
キャリブレーション処理は、十字クロスの表示位置をタッチさせることで行われる例のほかにも、例えば表示領域5の四隅に対するタッチをユーザに求め、それら四隅へのタッチ位置と表示領域5の四隅の座標値とに基づいて行われてもよい。この例の場合、その場にあるPCに接続することで、特別なアプリケーションソフトをインストールすることなく、直ぐに使えるようになるという優れた効果が得られる。
In addition to the example in which the calibration process is performed by touching the display position of the cross, for example, the user is asked to touch the four corners of the
この例の場合、座標入力装置は、例えばセンサバー1のユーザインターフェイス66が備えているモード切替スイッチ等の操作によりキャリブレーションモードに遷移する。なお、キャリブレーションモードによる処理は、例えばセンサバー1をホワイトボード4等に設置した直後や、センサバー1の設置完了後に何らかの拍子でフロントプロジェクタの表示位置やセンサバー1の設置位置がずれてしまった場合などに行われる。そして、キャリブレーションモードに遷移した場合、演算制御部3は、先ず前述の図3(A)に示した基準反射成分導出処理を行う。これは、例えばセンサバー1の設置位置がずれた場合には、センサユニット2からみて背景光や外側物体などの位置が変化してしまうことを想定して、前述の非投光背景光や投光背景光、基準反射成分などの情報を更新するためである。
In the case of this example, the coordinate input device shifts to the calibration mode by, for example, an operation of a mode change switch provided in the
また、キャリブレーションモードにおいて基準反射成分導出処理が完了すると、演算制御部3は、前述の図3(B)に示した入力検出処理を行う。そして、演算制御部3は、前述したようにステップS115で有効な入力が検出され、ステップS117で入力座標を算出すると、その座標値をメモリ64に記憶させる。なお、キャリブレーションモードにおいて、座標値のデータの取得が完了したことをユーザに報知するような場合には、例えばユーザインターフェイス66に設けられているスピーカから例えばビープ音の出力などよる報知を行ってもよい。その後、演算制御部3は、ステップS118とステップS119の処理は実行せずにステップS108に処理を戻す。
When the reference reflection component derivation process is completed in the calibration mode, the
演算制御部3は、このような各処理を、表示領域5の四隅に対応した回数(4回)繰り返す。そして、表示領域5の四隅に対応した入力の検出及び座標値の算出が完了すると、演算制御部3は、前述したような座標変換のためのパラメータを算出する。これにより、相対座標系上と表示座標系上において、表示領域5の四隅に対応する四ヶ所の座標値がそれぞれ取得されることになり、例えば射影変換などの手法により座標変換が可能となり、必要なパラメータ(変換行列の要素の値)を算出できる。このようにしてパラメータを算出してメモリ64に記憶した後、演算制御部3は、キャリブレーションモードを終了する。なお、キャリブレーションモードにおいて算出されたパラメータは、その後、前述のステップS118における座標変換で使用されることになる。
The
<第1の実施形態の効果>
以上説明したように、第1の実施形態の座標入力装置においては、特にステップS108からステップS114までの処理が行われることで、ラインCCDが検出した光量分布に含まれる環境光成分や外側物体等からの反射光成分の影響を排除することができる。このため、本実施形態によれば、指示物によるタッチ位置が、例えばラインCCDからみて環境光や外側物体からの反射光と重なる位置になっていたとしても、有効な入力を確実に検出することができる。また、本実施形態によれば、環境光や外部物体等からの反射光が変化した場合であっても、有効な入力を確実に検出することができる。
<Effect of the first embodiment>
As described above, in the coordinate input device according to the first embodiment, the processing from step S108 to step S114 is performed in particular, so that the ambient light component included in the light amount distribution detected by the line CCD, the outer object, etc. The influence of the reflected light component from can be eliminated. For this reason, according to the present embodiment, even if the touch position by the pointing object is a position overlapping with ambient light or reflected light from an outside object as viewed from the line CCD, for example, it is possible to reliably detect an effective input. Can do. Further, according to the present embodiment, it is possible to reliably detect an effective input even when ambient light, reflected light from an external object, or the like changes.
<第2の実施形態>
次に、第2の実施形態として、センサユニット2の赤外LEDからの投光を再帰的に反射する再帰反射材を備え、その再帰反射材からの再帰反射光をセンサユニット2のラインCCDで受光する光学遮光方式を採用した座標入力装置について説明する。
<Second Embodiment>
Next, as a second embodiment, a retroreflective material that recursively reflects the light emitted from the infrared LED of the
第2の実施形態の座標入力装置の構成は、概ね図1の構成と同様であるが、光学遮光方式の場合は、ホワイトボード4の周辺部のうちセンサユニット2側からみて対応する辺部分に再帰反射材が設置される。図1の例のように、ホワイトボード4の左下隅にセンサユニット2が配置されるような場合には、ホワイトボード4の上辺と右辺に沿うように再帰反射材101,102が設置される。なお、図1の例では、図中に一点鎖線で示されている部分に再帰反射材101,102が設置されている。
The configuration of the coordinate input device of the second embodiment is substantially the same as the configuration of FIG. 1, but in the case of the optical shading method, the side portion corresponding to the
この第2の実施形態の構成例の場合、センサユニット2の内部の赤外LEDから表示領域5に向けて投光された光は、再帰反射材101,102によりそれぞれ再帰反射されてセンサユニット2へ戻ってくる。そして、センサユニット2内部のラインCCDが、その再帰反射光を受光する。ここで、表示領域5内で例えば指などの指示物による入力がなされると、再帰反射材101,102からの再帰反射光は、その指示物により遮られることになる。このため、ラインCCDの受光信号は、再帰反射光が指示物により遮られた領域の光量が低下した光量分布の信号となる。したがって、ラインCCDの受光信号から、指示物に遮られて光量が低下した領域の画素番号を求め、その画素番号に基づいて前述のように角度を算出することで、指示物によるタッチ入力位置を求めることができる。なお、光学遮光方式における位置検出や座標値算出等の詳細な構成や演算処理などについては、例えば特許文献1に詳しく開示されているのでここではその説明は省く。
In the case of the configuration example of the second embodiment, the light projected from the infrared LED inside the
第2の実施形態において座標入力装置の演算制御部3が制御プログラムを実行する基準反射成分導出処理の流れは、前述の図3(A)に示したフローチャートと略々同様である。なお、第2の実施形態において座標入力装置の演算制御部3が実行する入力検出処理の流れは図5のフローチャートのようになる。先ず、図3(A)を参照しながら第2の実施形態における基準反射成分導出処理について説明する。
In the second embodiment, the flow of the reference reflection component derivation process in which the
<第2の実施形態の基準反射成分導出処理>
ステップS102において、演算制御部3は、入出力ポートの設定、タイマ設定などの初期化、ラインCCDの蓄積電荷のリセットなど周辺回路の初期化を行う。次に、演算制御部3は、ステップS103において、第1の実施形態の場合と同様に、センサユニット2a及び2bの赤外LEDを消灯した状態で各センサユニット2内のラインCCDによる受光を行う。そして、センサユニット2a,2bの各ラインCCDの受光信号は、A/Dコンバータ63でそれぞれデジタル化されて、それぞれ非投光背景光データとしてメモリ64に記憶される。
<Reference reflection component derivation processing of the second embodiment>
In step S102, the
図6(A)は、非投光背景光データの光量分布をグラフ化した一例を示す図である。なお、この図6(A)及び後述する図6(B)〜図6(K)において、横軸はラインCCDの画素番号、縦軸は光量であり、前述の図4(A)〜図4(O)の例と同様である。ここで、図6(A)に例示した非投光背景光データの場合、横軸の中央付近に光量が大きくなっている領域601がある。この光量が大きくなっている領域601は、例えば白熱灯などからの環境光に含まれている赤外線が、背景光としてラインCCDに入射して受光されたことにより生じている。
FIG. 6A is a diagram illustrating an example of a graph of the light amount distribution of the non-projection background light data. In FIG. 6A and FIGS. 6B to 6K described later, the horizontal axis is the pixel number of the line CCD, and the vertical axis is the amount of light. The above-described FIGS. This is the same as the example (O). Here, in the case of the non-projection background light data illustrated in FIG. 6A, there is a
次のステップS104では、演算制御部3は、センサユニット2a及び2bの両方の赤外LEDを点灯させた状態でそれら各センサユニット2内の各ラインCCDによる受光を行わせる。そして、センサユニット2a及び2bの各ラインCCDの受光信号は、A/Dコンバータ63でそれぞれデジタル化されて、それぞれ投光背景光データとしてメモリ64に記憶される。
In the next step S104, the
図6(B)は、投光背景光データの光量分布をグラフ化した一例を示す図である。図6(B)に例示した投光背景光データの光量分布の場合、環境光により光量が大きくなっている領域601に更に、再帰反射材101,102からの再帰反射光により光量が横軸の広い範囲に亘って大きくなっている領域602が加わっている。
FIG. 6B is a diagram illustrating an example of a graph of the light amount distribution of the projection background light data. In the case of the light quantity distribution of the projected background light data illustrated in FIG. 6B, the light quantity is further increased in the horizontal axis by the retroreflected light from the
次のステップS105では、演算制御部3は、メモリ64にそれぞれ記憶されている前述した図6(B)の投光背景光データから図6(A)の非投光背景光データを減算する。これにより、再帰反射材101,102からの再帰反射光成分からなるデータが得られる。第2の実施形態において、投光背景光データから非投光背景光データを減算した後の光量成分(再帰反射光成分のみのデータ)が、基準反射成分となる。
In the next step S105, the
図6(C)は、図6(B)の投光背景光データから図6(A)の非投光背景光データを減算した後の光量分布(基準反射成分)をグラフ化して示す図である。この図6(C)に例示した光量分布(基準反射成分)は、再帰反射材101,102からの再帰反射光により光量が横軸の広い範囲に亘って大きくなっている領域602からなる。演算制御部3は、基準反射成分データをメモリ64に記憶させると、第2の実施形態における基準反射成分導出処理を終了する。
FIG. 6C is a graph showing the light amount distribution (reference reflection component) after subtracting the non-projected background light data of FIG. 6A from the projected background light data of FIG. 6B. is there. The light amount distribution (reference reflection component) illustrated in FIG. 6C includes a
<第2の実施形態の入力検出処理(指示物が背景光と重ならない位置に在る場合)>
以下、前述した基準反射成分導出処理が終了した後に、表示領域5に対する指示物による入力を検出する際に、演算制御部3が実行する処理の流れを、図5のフローチャートを参照しながら説明する。先ず、各センサユニット2の各ラインCCDから見て、背景光と重ならない位置で指示物による入力がされる場合の処理の流れについて説明する。
<Input Detection Processing of Second Embodiment (when the pointing object is at a position that does not overlap with background light)>
Hereinafter, the flow of processing executed by the
図5のフローチャートにおいて、演算制御部3は、先ずステップS202の処理として、各センサユニット2の各赤外LEDを消灯した状態で各ラインCCDによる受光を行わせて、非投光データを取得する。第2の実施形態の場合の非投光データの光量分布は、赤外LEDの投光が無く、再帰反射光も無いため、前述した図6(A)で例示した光量分布と略々同じになる。演算制御部3は、この非投光データをメモリ64に記憶させる。ステップS202の後、演算制御部3は、処理をステップS203へ進める。
In the flowchart of FIG. 5, first, as a process of step S <b> 202, the
ステップS203では、演算制御部3は、各センサユニット2の各赤外LEDを投光させた状態で各ラインCCDによる受光を行わせて、投光データを取得する。図6(D)は、第2の実施形態において背景光と重ならない位置に指示物が在る場合の投光データの光量分布の一例を示す図である。図6(D)の例の場合、図6(B)の例と比較すると、背景光と重ならない例えば横軸の左端付近の領域603に、再帰反射光が指示物に遮られたことで光量低下が生じた領域が現れている。演算制御部3は、この投光データをメモリ64に記憶させる。ステップS203の後、演算制御部3は、処理をステップS204へ進める。
In step S <b> 203, the
ステップS204では、演算制御部3は、メモリ64にそれぞれ記憶されている、図6(D)の投光データから図6(A)と同様の非投光データを減算し、その減算後のデータを総反射成分データとして取得する。
In step S204, the
図6(E)は、図6(D)の投光データから図6(A)と同様の非投光データを減算した後の総反射成分データの光量分布をグラフ化して示す図である。この図6(E)に例示した総反射成分データの光量分布は、再帰反射光成分による領域602と、横軸の左端付近に指示物により再帰反射光が遮られて光量が低下した領域603とを有する分布となる。演算制御部3は、この総反射成分データをメモリ64に記憶させた後、処理をステップS205へ進める。
FIG. 6E is a graph showing the light amount distribution of the total reflection component data after subtracting the non-light projection data similar to FIG. 6A from the light projection data of FIG. 6D. The amount of light distribution of the total reflection component data illustrated in FIG. 6E includes an
ステップS205では、演算制御部3は、図6(C)に示した基準反射成分データと図6(E)に示した総反射成分データとの差分を求め、その差分演算後のデータを入力成分データとして取得する。この第2の実施形態の場合には、基準反射成分データと図6(E)に示した総反射成分データとの差分演算として、基準反射成分データから総反射成分データを減算する。
In step S205, the
図6(F)は、図6(C)に示した基準反射成分データから図6(E)に示した総反射成分データを減算した後の入力成分データの光量分布をグラフ化して示す図である。この図6(F)に例示した光量分布では、横軸の左端付近に値が大きくなっている領域604がある。図6(F)の例において、この領域604の光量レベルは、センサユニット2から投光された赤外光の再帰反射光が指示物により遮られたことで低下した分の光量レベルに相当すると考えられる。演算制御部3は、その入力成分データをメモリ64に記憶させた後、処理をステップS206へ進める。
FIG. 6F is a graph showing the light amount distribution of the input component data after subtracting the total reflection component data shown in FIG. 6E from the reference reflection component data shown in FIG. 6C. is there. In the light amount distribution illustrated in FIG. 6F, there is a
ステップS206では、演算制御部3は、入力成分データの中に、指示物による入力と判断できるだけの有効な入力成分があるかどうかを検出する。具体的には、前述の第1の実施形態の場合と同様に、演算制御部3は、入力成分における光量のピークを求め、そのピークの値が所定の第1の閾値TH1より大きければ、有効な入力成分であると判断するなどの処理を行う。図6(F)の例では、横軸の左端付近で光量が大きくなっている領域604のピークの値が第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力成分が存在していると判断する。そして、演算制御部3は、センサユニット2a,2bのラインCCDの各画素番号のうち、そのピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。
In step S <b> 206, the
<第2の実施形態の入力検出処理(表示領域に指示物が無い場合)>
第2の実施形態において、表示領域5の内に指示物が無い場合、図5のステップS102〜S206における各データは、以下のようになる。
<Input Detection Processing of Second Embodiment (when there is no indication in the display area)>
In the second embodiment, when there is no indication in the
第2の実施形態において表示領域5の内に指示物が無い場合、ステップS202で赤外LEDを消灯した状態でラインCCDによる受光が行われたときの非投光データの光量分布は、前述の図6(A)と略々同じになる。次に、ステップS203において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、前述の図6(B)と略々同じになる。
When there is no indicator in the
したがって、ステップS204において図6(B)の投光データから図6(A)の非投光データが減算された総反射成分データは、図6(C)の基準反射成分データと同様になる。そして、ステップS205において基準反射成分データ(図6(C))から総反射成分データ(図6(C)と同様の光量分布のデータ)が減算されて算出される入力成分データの光量分布は、図6(G)のように、全域に渡って略々ゼロ(0)となる。この図6(G)の例の場合、入力成分において第1の閾値TH1を超えるピーク部分がないので、ステップS206による有効な入力があるかどうかの検出処理において、演算制御部3は、有効な入力無し、と判断することになる。
Accordingly, the total reflection component data obtained by subtracting the non-projection data in FIG. 6A from the projection data in FIG. 6B in step S204 is the same as the reference reflection component data in FIG. 6C. In step S205, the light amount distribution of the input component data calculated by subtracting the total reflection component data (the same light amount distribution data as in FIG. 6C) from the reference reflection component data (FIG. 6C) is: As shown in FIG. 6G, it is substantially zero (0) over the entire area. In the case of the example of FIG. 6G, since there is no peak portion exceeding the first threshold value TH1 in the input component, the
<第2の実施形態の入力検出処理(指示物が背景光と重なる位置に在る場合)>
第2の実施形態において、センサユニット2のラインCCD側からみて背景光と重なる位置に指示物が在る場合、図5のステップS202〜S206の各データは、以下のようになる。
<Input Detection Processing of Second Embodiment (When Pointed Object is Overlaid with Background Light)>
In the second embodiment, when there is an indicator at a position overlapping the background light when viewed from the line CCD side of the
第2の実施形態においてラインCCD側からみて背景光と重なった位置に指示物が在る場合、ステップS202で赤外LEDが消灯された状態でラインCCDによる受光が行われたときの非投光データの光量分布は、図6(H)のようになる。この場合、背景光と重なる位置に指示物が在り、その指示物により背景光が一部遮られたことで、非投光データの光量分布は、図6(H)に示すように、図6(A)の背景光の領域601の一部が指示物にて遮られて光量が低下した領域605を有する分布となる。
In the second embodiment, when there is an indicator at a position overlapping the background light when viewed from the line CCD side, no light projection is performed when light is received by the line CCD with the infrared LED turned off in step S202. The light quantity distribution of data is as shown in FIG. In this case, there is an indicator at a position overlapping with the background light, and the background light is partially blocked by the indicator, so that the light quantity distribution of the non-projection data is as shown in FIG. A part of the
次に、ステップS203において、赤外LEDを投光させた状態でラインCCDにより受光が行われたときの投光データの光量分布は、図6(I)のようになる。この場合、赤外LEDから投光された光が再帰反射材101,102により再帰反射される一方で、背景光と重なる位置の指示物により再帰反射光が遮られることになる。この場合の投光データの光量分布は、図6(I)のように、背景光による光量が大きい領域601と再帰反射光による光量の大きい領域602とが重なる一方で、指示物により再帰反射光が遮られて光量が低下した領域606が生じた分布となる。なお、このときの領域606の光量レベルは、赤外LEDから投光された赤外光が指示物により反射された反射光の光量レベルであると考えられる。
Next, in step S203, the light quantity distribution of the light projection data when light is received by the line CCD with the infrared LED being projected is as shown in FIG. In this case, the light projected from the infrared LED is retroreflected by the
そして、ステップS204において、図6(I)の投光データから図6(A)の非投光データを減算した総反射成分データの光量分布は、図6(J)のようになる。この図6(J)において、総反射成分データの光量分布は、再帰反射光成分による光量が大きい領域602と、指示物により再帰反射光が遮られたことで光量が低下した領域606とが存在する分布となる。したがって、ステップS205において、図6(C)の基準反射成分データから図6(J)の総反射成分データを減算した入力成分データの光量分布は、図6(K)のようになる。この図6(K)に示すように、入力成分データの光量分布は、センサユニット2から投光された赤外光の再帰反射光が指示物により遮られたことで低下した分の光量レベルに相当するピークレベルの領域607のみが残った分布となる。
In step S204, the light quantity distribution of the total reflection component data obtained by subtracting the non-light projection data of FIG. 6A from the light projection data of FIG. 6I is as shown in FIG. In FIG. 6J, the light quantity distribution of the total reflection component data includes an
その後、ステップS206において、演算制御部3は、この図6(K)のような光量分布の入力成分データに基づいて、有効な入力があるかどうかを検出する。図6(K)の例では、赤外LEDから投光された光が指示物により反射された光による領域607の光量ピークが第1の閾値TH1より大きく、そのピークは一箇所となっているので、演算制御部3は、一つの指示物による有効な入力が一つ存在していると判断する。そして、演算制御部3は、センサユニット2a,2bのラインCCDの各画素番号のうち、そのピークの位置に対応する各画素番号を求めて、それらの画素番号のデータをメモリ64に記憶させる。
Thereafter, in step S206, the
上述したように、第2の実施形態の座標入力装置は、ラインCCD側からみて背景光と重なる位置に指示物が在る場合にも、図5のステップS202〜S206の処理を行うことで、指示物による有効な入力を確実に検出することができる。そして、第2の実施形態の座標入力装置の場合、演算制御部3は、ステップS206において有効な入力が検出されたときに、その有効な入力のピーク位置においてタッチダウンがなされたと判断する。
As described above, the coordinate input device according to the second embodiment performs the processing in steps S202 to S206 in FIG. 5 even when the indicator is present at a position overlapping the background light as viewed from the line CCD side. It is possible to reliably detect a valid input by the indicator. In the case of the coordinate input device according to the second embodiment, the
なお、図5のステップS207の処理は前述の図3(B)のステップS115と同じであり、図5のステップS208の処理は図3(B)のステップS116と同じである。以下同様に、図5のステップS209の処理は図3(B)のステップS117と同じであり、図5のステップS210の処理は図3(B)のステップS118、図5のステップS211の処理は図3(B)のステップS119と同じである。そして、図5のステップS211の後、処理はステップS202へ戻される。このように図5のステップS207〜S211の処理は図3(B)のステップS115〜S119と同じであるため、それら処理の詳細な説明は省略する。 5 is the same as step S115 in FIG. 3B, and the process in step S208 in FIG. 5 is the same as step S116 in FIG. Similarly, the process in step S209 in FIG. 5 is the same as step S117 in FIG. 3B, the process in step S210 in FIG. 5 is the same as that in step S118 in FIG. 3B, and the process in step S211 in FIG. This is the same as step S119 in FIG. Then, after step S211 in FIG. 5, the process returns to step S202. As described above, the processes in steps S207 to S211 in FIG. 5 are the same as those in steps S115 to S119 in FIG. 3B, and thus detailed description thereof will be omitted.
また、第2の実施形態においても、白熱灯等の背景光が変化する場合については、ステップS204において投光データから非投光データを減算する処理によって背景光の成分を相殺することで、その影響を排除できる。 Also in the second embodiment, when background light such as an incandescent lamp changes, the background light component is canceled by subtracting the non-projection data from the projection data in step S204. The influence can be eliminated.
<第2の実施形態の効果>
以上説明したように、光学遮光方式を採用する第2の実施形態の座標入力装置は、前述の第1の実施形態の場合と同様に、ラインCCDが検出した光量分布に含まれる環境光成分の影響を排除することができる。このため、第2の実施形態によれば、指示物によるタッチ位置が、例えばラインCCDからみて環境光と重なる位置になっていたとしても、有効な入力を確実に検出することができる。また、第2の実施形態によれば、環境光の位置や光量が変化した場合であっても、有効な入力を確実に検出することができる。
<Effects of Second Embodiment>
As described above, the coordinate input device according to the second embodiment that employs the optical shading method is similar to the first embodiment described above in that the ambient light component included in the light amount distribution detected by the line CCD is detected. The influence can be eliminated. For this reason, according to the second embodiment, even if the touch position by the pointing object is a position overlapping the ambient light as viewed from the line CCD, for example, it is possible to reliably detect an effective input. Further, according to the second embodiment, it is possible to reliably detect an effective input even when the position or the amount of ambient light changes.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
1 センサバー、2(2a,2b) センサユニット、3 演算制御部、4 ホワイトボード、5 表示領域、10 PC(パーソナルコンピュータ)、61 CPU、64 メモリ 1 sensor bar, 2 (2a, 2b) sensor unit, 3 arithmetic control unit, 4 whiteboard, 5 display area, 10 PC (personal computer), 61 CPU, 64 memory
Claims (7)
前記座標入力面に沿う方向から光を受光可能な少なくとも二つの受光手段と、
前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第1の受光信号と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第2の受光信号との差分である第1の成分を導出し、
前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第3の受光信号と、前記第1および第2の受光信号が生成された後の前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第4の受光信号との差分である第2の成分を導出する導出手段と、
前記第1の成分と前記第2の成分との差分に基づいて、指示物による前記座標入力面への入力を検出する検出手段と、
前記検出手段によって指示物による前記座標入力面への入力が検出されると、検出された入力の前記座標入力面における位置を算出する算出手段と
を有することを特徴とする座標入力装置。 A light projecting means for projecting light in a direction along the coordinate input surface;
At least two light receiving means capable of receiving light from a direction along the coordinate input surface;
A first light receiving signal generated based on light received by the light receiving means when no light is projected by the light projecting means when there is no indicator on the coordinate input surface; and the coordinates This is a difference from a second received light signal generated based on the light received by the light receiving means when light is projected by the light projecting means when there is no indicator on the input surface. Deriving one component,
The third light receiving signal generated based on the light received by the light receiving means when no light is projected by the light projecting means, and the first light receiving signal after the first and second light receiving signals are generated. Deriving means for deriving a second component that is a difference from a fourth light receiving signal generated based on light received by the light receiving means when light projecting by the light projecting means is performed;
Detecting means for detecting an input to the coordinate input surface by an indicator based on a difference between the first component and the second component;
A coordinate input device, comprising: a calculating unit that calculates a position of the detected input on the coordinate input surface when an input to the coordinate input surface by an indicator is detected by the detection unit.
前記導出手段は、前記第2の成分から、前記記憶手段によって記憶された前記第1の成分を減算した後の成分が負の成分を含むとき、前記記憶手段によって記憶された前記第1の成分の更新を行うことを特徴とする請求項1〜3のいずれか1項に記載の座標入力装置。 Storing means for storing the first component;
The derivation means, when the component after subtracting the first component stored by the storage means from the second component includes a negative component, the first component stored by the storage means The coordinate input device according to claim 1, wherein the coordinate input device is updated.
前記受光手段は、前記再帰反射手段によって反射された光を受光する
ことを特徴とする請求項1〜4のいずれか1項に記載の座標入力装置。 The light projecting means projects light to the retroreflective means disposed on the periphery of the coordinate input surface,
The coordinate input device according to claim 1, wherein the light receiving unit receives light reflected by the retroreflective unit.
前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第1の受光信号と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第2の受光信号との差分である第1の成分を導出し、
前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第3の受光信号と、前記第1および第2の受光信号が生成された後の前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第4の受光信号との差分である第2の成分を導出する導出ステップと、
前記第1の成分と前記第2の成分との差分に基づいて、指示物による前記座標入力面への入力を検出する検出ステップと、
前記検出ステップによって指示物による前記座標入力面への入力が検出されると、検出された入力の前記座標入力面における位置を算出する算出ステップと
を含むことを特徴とする座標入力装置の制御方法。 A control method for a coordinate input device, comprising: light projecting means for projecting light in a direction along the coordinate input surface; and at least two light receiving means capable of receiving light from the direction along the coordinate input surface,
A first light receiving signal generated based on light received by the light receiving means when no light is projected by the light projecting means when there is no indicator on the coordinate input surface; and the coordinates This is a difference from a second received light signal generated based on the light received by the light receiving means when light is projected by the light projecting means when there is no indicator on the input surface. Deriving one component,
The third light receiving signal generated based on the light received by the light receiving means when no light is projected by the light projecting means, and the first light receiving signal after the first and second light receiving signals are generated. A derivation step for deriving a second component that is a difference from a fourth light receiving signal generated based on the light received by the light receiving means when the light projecting means performs light projection;
A detection step of detecting an input to the coordinate input surface by an indicator based on a difference between the first component and the second component;
And a calculation step of calculating a position of the detected input on the coordinate input surface when an input to the coordinate input surface by the indicator is detected by the detection step. .
前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第1の受光信号と、前記座標入力面の上に指示物が存在しない場合において前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第2の受光信号との差分である第1の成分を導出し、
前記投光手段による投光が行われていないときに前記受光手段によって受光した光に基づいて生成された第3の受光信号と、前記第1および第2の受光信号が生成された後の前記投光手段による投光が行われているときに前記受光手段によって受光した光に基づいて生成された第4の受光信号との差分である第2の成分を導出する導出手段と、
前記第1の成分と前記第2の成分との差分に基づいて、指示物による前記座標入力面への入力を検出する検出手段と、
前記検出手段によって指示物による前記座標入力面への入力が検出されると、検出された入力の前記座標入力面における位置を算出する算出手段
として機能させるためのプログラム。 A computer of a coordinate input device, comprising: a light projecting unit that projects light in a direction along the coordinate input surface; and at least two light receiving units that can receive light from the direction along the coordinate input surface.
A first light receiving signal generated based on light received by the light receiving means when no light is projected by the light projecting means when there is no indicator on the coordinate input surface; and the coordinates This is a difference from a second received light signal generated based on the light received by the light receiving means when light is projected by the light projecting means when there is no indicator on the input surface. Deriving one component,
The third light receiving signal generated based on the light received by the light receiving means when no light is projected by the light projecting means, and the first light receiving signal after the first and second light receiving signals are generated. Deriving means for deriving a second component that is a difference from a fourth light receiving signal generated based on light received by the light receiving means when light projecting by the light projecting means is performed;
Detecting means for detecting an input to the coordinate input surface by an indicator based on a difference between the first component and the second component;
A program for functioning as a calculation means for calculating a position of the detected input on the coordinate input surface when an input to the coordinate input surface by an indicator is detected by the detection means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015134688A JP2017016531A (en) | 2015-07-03 | 2015-07-03 | Coordinate input device, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015134688A JP2017016531A (en) | 2015-07-03 | 2015-07-03 | Coordinate input device, control method thereof, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017016531A true JP2017016531A (en) | 2017-01-19 |
Family
ID=57830742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015134688A Pending JP2017016531A (en) | 2015-07-03 | 2015-07-03 | Coordinate input device, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017016531A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117058253A (en) * | 2023-10-12 | 2023-11-14 | 南京邮电大学 | PTZ camera-based high-precision alarm positioning method |
-
2015
- 2015-07-03 JP JP2015134688A patent/JP2017016531A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117058253A (en) * | 2023-10-12 | 2023-11-14 | 南京邮电大学 | PTZ camera-based high-precision alarm positioning method |
CN117058253B (en) * | 2023-10-12 | 2024-01-23 | 南京邮电大学 | PTZ camera-based high-precision alarm positioning method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4442877B2 (en) | Coordinate input device and control method thereof | |
JP5591069B2 (en) | Coordinate input device, control method therefor, and program | |
JP2010277122A (en) | Optical position detection apparatus | |
JP2011070625A (en) | Optical touch control system and method thereof | |
US8941622B2 (en) | Coordinate input apparatus | |
JP6031293B2 (en) | Coordinate input device, control method therefor, and program | |
JP2013210956A (en) | Display device | |
JP2017016531A (en) | Coordinate input device, control method thereof, and program | |
US20110018805A1 (en) | Location-detecting system and arrangement method thereof | |
JP2010282463A (en) | Touch panel device | |
JP2012048403A (en) | Coordinate input device and control method thereof, and program | |
JP5814608B2 (en) | Coordinate input device, control method therefor, and program | |
JP6334980B2 (en) | Coordinate input device, control method therefor, and program | |
JP5049747B2 (en) | Coordinate input device, control method therefor, and program | |
JP2006350908A (en) | Optical information input device | |
JP2013239102A (en) | Coordinate instruction device and interactive white board device | |
TWI529587B (en) | Optical touch device and its touch method | |
JP5865053B2 (en) | Coordinate input device, control method of coordinate input device, and program | |
US20170052642A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP5950767B2 (en) | Coordinate input device, control method therefor, and program | |
JP2007072506A (en) | Coordinate-input device | |
JP4423113B2 (en) | Coordinate input device, control method therefor, and program | |
JP2005352756A (en) | Light shielding type coordinate input device and coordinate input method | |
JP2005071022A (en) | Coordinate inputting device and coordinate inputting method | |
JP2017041078A (en) | Coordinate input device, information processing method, and program |