JP2011258102A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2011258102A JP2011258102A JP2010133735A JP2010133735A JP2011258102A JP 2011258102 A JP2011258102 A JP 2011258102A JP 2010133735 A JP2010133735 A JP 2010133735A JP 2010133735 A JP2010133735 A JP 2010133735A JP 2011258102 A JP2011258102 A JP 2011258102A
- Authority
- JP
- Japan
- Prior art keywords
- scatterer
- correction
- image
- input device
- contact surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は入力装置に関し、特に内部に光を導波可能な透明または半透明な導波体の接触面に散乱体が接触する状態を、散乱体が生じる散乱光を用いて撮像された接触面の画像から検出する入力装置に関する。 The present invention relates to an input device, and in particular, a contact surface in which a scatterer is in contact with a contact surface of a transparent or semi-transparent waveguide capable of guiding light therein, and is imaged using scattered light generated by the scatterer. The present invention relates to an input device that detects an image of the above.
FTIR(Frustrated
Total Internal Reflection)という現象を応用し、コンピュータへの情報入力を実現する技術が提案されている。アクリルパネルなどの透明板の端面より赤外光を照射し、全反射現象により透明板内部に赤外光を閉じ込める形で導波させた際、光を散乱する作用を持つ散乱体(散乱物質)を透明板に接触させると、その接触部位において、赤外光の一部が透明板外部に散乱する現象が生じる。この現象がFTIRである。透明板外部に散乱する赤外光をカメラで検出することで、散乱体の透明板への接触状態(接触面積、形状など)を検出することが可能となる。
FTIR (Frustrated
A technology that realizes information input to a computer by applying the phenomenon called “Total Internal Reflection” has been proposed. Scatterer (scattering material) that scatters light when irradiated with infrared light from the end face of a transparent plate such as an acrylic panel and guided in a way that confines infrared light inside the transparent plate due to total reflection. Is brought into contact with the transparent plate, a phenomenon occurs in which a part of the infrared light is scattered outside the transparent plate at the contact portion. This phenomenon is FTIR. By detecting infrared light scattered outside the transparent plate with a camera, it is possible to detect the contact state (contact area, shape, etc.) of the scatterer with the transparent plate.
FTIR方式を応用した入力装置の例が非特許文献1及び非特許文献2に記載されている。非特許文献1では、FTIR方式で検出されるタッチ時の指とパネルの接触領域の面積から、タッチの圧力を推定する方式が提案されている。また、非特許文献2では、FTIR方式で検出されるタッチ時の接触領域の画像形状に基づいて、指の種類、タッチ方向などを区別する方式が提案されている。これらは、何れもFTIRを用いることで散乱体の透明板への接触状態を正確に検出できることを前提として、複雑なタッチ操作を識別可能なコンピュータへの入力装置を提供している。
Non-Patent
FTIR方式を応用した入力装置の他の例が特許文献1に記載されている。特許文献1に記載の入力装置は、導光板と、複数の発光素子と、複数の受光素子と、制御手段とから構成される。導光板は、タッチエリアを有し、このタッチエリアへの接触物による接触に応じて散乱光を発生させる。複数の発光素子は、導光板の一辺の側端面に等間隔で配置され、導光板内に光を照射する。複数の受光素子は、複数の発光素子が配置された辺と直角方向の導光板の辺に等間隔で配置され、導光板内の散乱光を受光する。制御手段は、複数の発光素子を部分的に点灯させる点灯走査を行う。また制御手段は、受光素子によって散乱光が受光されたときの座標(Y座標)と、受光素子の受光時に点灯走査されていた発光素子の座標(X座標)とから、接触物によるタッチエリアへの入力位置を特定する。
Another example of an input device using the FTIR method is described in
他方、カメラにより撮像された画像を処理する際に、画像を補正する技術の一例が特許文献2に記載されている。特許文献2では、ステレオカメラから出力される一対の画像データのそれぞれを、パラメータを用いて変換することにより、ステレオカメラの光学的な歪みと位置的なずれを画像処理によって調整する手法が提案されている。 On the other hand, Patent Document 2 describes an example of a technique for correcting an image when processing an image captured by a camera. Patent Document 2 proposes a method of adjusting optical distortion and positional deviation of a stereo camera by image processing by converting each of a pair of image data output from the stereo camera using parameters. ing.
上述したようにFTIR方式による入力装置が各種提案されている。これらの技術を応用して、例えばユーザの指の接触状態を検出するようにすれば、ユーザのディスプレイへのタッチ操作を検出するタッチインタフェース装置を実現することが可能となる。また、一般のマーカーペン等に用いられているインクも散乱体としての特性を有することから、透明板上へのインクの塗布状態の検出も可能となる。そのため、ディスプレイなどにマーカーペンで描いた描画情報をコンピュータに取り込むデジタルホワイトボードを実現することも可能である。 As described above, various input devices using the FTIR method have been proposed. By applying these techniques and detecting the contact state of the user's finger, for example, it is possible to realize a touch interface device that detects a user's touch operation on the display. In addition, since ink used for general marker pens also has a characteristic as a scatterer, it is possible to detect the application state of the ink on the transparent plate. Therefore, it is possible to realize a digital whiteboard that captures drawing information drawn with a marker pen on a display or the like into a computer.
しかしながら、アクリル板などの透明板内を導波する赤外光は通常、異なる方位に対し、異なる強度で散乱される。このような特性を散乱角度特性と言う。このため、散乱体とパネルの接触状態は同一であっても、散乱体とカメラの位置関係に応じて、検出される散乱光の強度に差が生じてしまう。なお、透明板上で互いに離れた位置にある散乱体ほどカメラに対する角度差が大きくなるため、散乱光の検出強度の差は大きくなる。 However, infrared light guided in a transparent plate such as an acrylic plate is usually scattered at different intensities in different directions. Such a characteristic is called a scattering angle characteristic. For this reason, even if the contact state of a scatterer and a panel is the same, a difference will arise in the intensity | strength of the scattered light detected according to the positional relationship of a scatterer and a camera. In addition, since the angle difference with respect to a camera becomes large as the scatterers located on the transparent plate at a distance from each other, the difference in the detection intensity of the scattered light becomes large.
この散乱角度特性による影響について具体的に図1を用いて説明する。図1はFTIRを用いて散乱体の接触状態を検出する入力装置の構成例を示している。光源部から出力される赤外光は、透明板内部を全反射現象により導波する。そして、赤外光は、散乱体(1)及び散乱体(2)が透明板と接触している箇所では全反射現象が崩れて透明板外部に散乱し、検出部によって検出される(被検出光(1)及び被検出光(2))。なお、散乱体(1)及び散乱体(2)は同一の物質であり、透明板上の位置以外の状態(体積、質量、透明板への接触面積など)は同一とする。図1で示すように、散乱光(1)及び散乱光(2)は異なる方位に対し、異なる強度で生じるため、検出部が検出する被検出光の強度は、被検出光(1)>被検出光(2)となる。なお、図1の例では、カメラがパネルに対し上方に配置された例を示したが、カメラがパネルに対し下方に配置された場合も同様の現象が生じる。 The influence of this scattering angle characteristic will be specifically described with reference to FIG. FIG. 1 shows a configuration example of an input device that detects a contact state of a scatterer using FTIR. Infrared light output from the light source is guided in the transparent plate by a total reflection phenomenon. Then, the infrared light is scattered outside the transparent plate because the total reflection phenomenon is lost at the place where the scatterer (1) and the scatterer (2) are in contact with the transparent plate, and is detected by the detection unit (detected). Light (1) and detected light (2)). The scatterer (1) and the scatterer (2) are the same substance, and the states (volume, mass, contact area with the transparent plate, etc.) other than the position on the transparent plate are the same. As shown in FIG. 1, since scattered light (1) and scattered light (2) are generated at different intensities in different directions, the intensity of the detected light detected by the detector is: detected light (1)> detected It becomes detection light (2). In the example of FIG. 1, the example in which the camera is disposed above the panel is shown, but the same phenomenon occurs when the camera is disposed below the panel.
このようにFTIRでは、透明板と散乱体の接触状態が同一であっても、散乱体の散乱角度特性のために接触位置によって検出される赤外光に強度差が生じる。このような現象は、特に広角レンズを搭載したカメラを用いて広い撮像範囲で接触状態を検出する際、顕著な問題を引き起こす。すなわち、FTIRを用いて広い範囲で、散乱体の接触状態を正確に検出することができなくなるとう問題を引き起こす。この結果、パネルへの接触領域の面積に応じて圧力や指種別を判定する場合には、誤認識を引き起こす恐れがある。また、ディスプレイなどにマーカーペンで描いた描画情報をコンピュータに取り込む場合には、描画した線の太さや濃さを正確に取り込むことが不可能となる。 As described above, in the FTIR, even if the contact state between the transparent plate and the scatterer is the same, an intensity difference occurs in the infrared light detected by the contact position due to the scattering angle characteristic of the scatterer. Such a phenomenon causes a significant problem particularly when a contact state is detected in a wide imaging range using a camera equipped with a wide-angle lens. That is, there is a problem that the contact state of the scatterer cannot be accurately detected over a wide range using FTIR. As a result, when the pressure or the finger type is determined according to the area of the contact area with the panel, there is a risk of causing erroneous recognition. Further, when drawing information drawn with a marker pen on a display or the like is taken into a computer, it is impossible to accurately take in the thickness or darkness of the drawn line.
カメラにより撮像された画像を処理する際に、カメラの光学的な歪みや位置的なずれを画像処理によって調整することは例えば特許文献2において行われている。しかし、散乱体の散乱角度特性による検出光強度のバラツキは、カメラの光学的な歪みや位置的なずれを調整しても解消されることはない。 For example, Patent Document 2 adjusts optical distortion and positional deviation of a camera by image processing when processing an image captured by the camera. However, the variation in detected light intensity due to the scattering angle characteristic of the scatterer is not eliminated even if the optical distortion or positional deviation of the camera is adjusted.
本発明はこのような事情に鑑みて提案されたものであり、その目的は、FTIR方式では散乱体の散乱角度特性のために接触位置によって検出される赤外光に強度差が生じ、それが原因で入力精度が低下する、という課題を解決する入力装置を提供することにある。 The present invention has been proposed in view of such circumstances, and the purpose of the FTIR method is to produce a difference in intensity in the infrared light detected by the contact position due to the scattering angle characteristics of the scatterer. An object of the present invention is to provide an input device that solves the problem that the input accuracy is reduced due to the cause.
本発明の一形態にかかる入力装置は、内部に光を導波可能な透明または半透明な導波体の接触面に散乱体が接触する状態を、前記散乱体が生じる散乱光を用いて撮像された前記接触面の画像から検出する入力装置であって、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段を備える。 An input device according to an aspect of the present invention captures an image of a state in which a scatterer is in contact with a contact surface of a transparent or translucent waveguide capable of guiding light therein by using scattered light generated by the scatterer. An input device for detecting from the image of the contact surface that has been corrected, comprising correction means for correcting variations in detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer.
本発明はこのような構成を有するため、散乱体の散乱角度特性のために接触位置によって検出される赤外光に強度差が生じても、補正手段によって補正されるため、入力精度の低下を防止することができる。 Since the present invention has such a configuration, even if an intensity difference occurs in the infrared light detected by the contact position due to the scattering angle characteristic of the scatterer, the correction is corrected by the correction means, so that the input accuracy is reduced. Can be prevented.
次に本発明の実施の形態について図面を参照して詳細に説明する。
[第1の実施形態]
図2を参照すると、本発明の第1の実施形態にかかる入力装置1は、透明板2と、光源部3と、検出部4と、表示部5と、処理部6とから構成される。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
[First embodiment]
Referring to FIG. 2, the
透明板2は、光源部3から照射された赤外光を板内部に閉じ込めて導波させると共に、その板面上はインクや指といった散乱体7の接触面2aとして用いられる。透明板2は、透明のアクリルパネルやガラスなどを用いることができる。本実施形態では、導波体を透明板2で構成しているが、半透明なアクリルパネル等で導波体を構成してもよい。
The transparent plate 2 confines and guides infrared light emitted from the light source unit 3 inside the plate, and the plate surface is used as a
光源部3は、赤外光を透明板2の一辺の側端面に照射するための光源である。光源部3は、例えば複数の赤外発光ダイオード(LED)を直線上にほぼ等間隔で配列した電子回路基板などを用いることができる。 The light source unit 3 is a light source for irradiating the side end surface of one side of the transparent plate 2 with infrared light. As the light source unit 3, for example, an electronic circuit board in which a plurality of infrared light emitting diodes (LEDs) are arranged on a straight line at almost equal intervals can be used.
検出部4は、散乱体7の接触状態を検出するために、赤外光を用いて透明板2の接触面2aを斜め上方から撮像するものである。検出部4は、例えば、レンズおよび可視光カットフィルタを介して入射する光の明暗を電荷の量に光電変換するCCDイメージセンサを搭載したデジタルカメラなどを用いることができる。
In order to detect the contact state of the scatterer 7, the detection unit 4 captures an image of the
表示部5は、処理部6から出力される情報を表示する表示デバイスである。表示部5は、例えば、液晶ディスプレイやプロジェクターなどを用いることができる。表示部5は、そのディスプレイ面が透明板2の接触面2aと反対の面に対向するように配置されている。表示部5のディスプレイ面に表示された情報は、透明板2を通して見ることができる。表示部5から出射する可視光は、透明板2を介して検出部4にも到達するが、これは上記の可視光カットフィルタにより遮断されるため、撮像結果には現れない。
The display unit 5 is a display device that displays information output from the processing unit 6. For example, a liquid crystal display or a projector can be used as the display unit 5. The display unit 5 is arranged so that its display surface faces the surface opposite to the
処理部6は、キャリブレーション処理部8、補正処理部9、補正パラメータ記憶部10、及び一つまたは複数のアプリケーション実行部11から構成される。処理部6は、例えば汎用のオペレーティングシステム、アプリケーションソフトウェアを動作可能なパーソナルコンピュータ等のコンピュータを用いることができる。この場合、キャリブレーション処理部8、補正処理部9、アプリケーション実行部11は、コンピュータとその上で動作するプログラムとで実現することができる。また、補正パラメータ記憶部10は、コンピュータのメモリやハードディスクで実現することができる。
The processing unit 6 includes a
キャリブレーション処理部8は、散乱体7の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正するための補正パラメータを生成する処理を行う。
The
補正パラメータ記憶部10は、散乱体の散乱特性に基づいて算出された上記の補正パラメータを記録する。なお、この補正パラメータは、指やインクなど散乱体の種類ごとに異なるため、散乱体の種類ごとに記憶する。
The correction
補正処理部9は、補正パラメータ記憶部10に記憶された補正パラメータを用いて、検出部4が検出した接触状態の画像の画素値を補正する。つまり、補正処理部9は、散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する。
The correction processing unit 9 corrects the pixel value of the image in the contact state detected by the detection unit 4 using the correction parameter stored in the correction
アプリケーション実行部11は、タッチ検出や描画情報の記録といったアプリケーションの種類ごとに用意される。個々のアプリケーション実行部11は、補正処理部9が補正した画像を入力情報として受け取り、例えば各画素の画素値を閾値と比較して量子化することにより、散乱体7が接触面2aに接触している画素、接触していない画素を検出し、この検出結果に基づき、各アプリケーションに応じた処理結果を表示部5に表示する。例えばタッチ検出用のアプリケーション実行部11は、図2の表示部5にある表示例で示すように、ユーザの指の接触位置を認識してカーソル画像などを表示部5に表示する。また、例えば描画情報の記録用のアプリケーション実行部11は、検出したインクの塗布領域をコンピュータに取り込む描画情報として表示する。
The
[動作の説明]
次に、本実施の形態の全体の動作について詳細に説明する。本実施の形態の全体の処理は、補正処理を実行するために必要な補正パラメータを事前に取得するためのキャリブレーション処理と、この補正パラメータに基づいて、検出部4が取得した画像を補正するための補正処理と、補正した画像をアプリケーション実行部11が入力情報として受け取り、アプリケーションに応じた処理を行う部分との3つに大きく分けられる。最後のアプリケーション実行部11が行う処理については、タッチ検出や描画情報の記録などアプリケーションごとに様々であるため、本実施の形態ではその詳細な説明を省略する。
[Description of operation]
Next, the overall operation of the present embodiment will be described in detail. The entire process of the present embodiment is a calibration process for acquiring correction parameters necessary for executing the correction process in advance, and the image acquired by the detection unit 4 is corrected based on the correction parameters. For this reason, the
まずキャリブレーション処理について、図面を参照しながら詳細に説明する。 First, the calibration process will be described in detail with reference to the drawings.
図3はキャリブレーション処理の全体の動作を示すフローチャートである。また図4はキャリブレーション処理で取得される散乱特性データの例である。図4の例では、縦軸は画像の任意の画素における検出強度(ピクセル値(例えば輝度値))を表す。また横軸は図6のX座標に対応する。すなわち、本実施形態では、矩形の透明板2の接触面2aの或る角を原点とし、そこから延びる透明板2の一方の一辺をX軸、他方の辺をY軸としている。図4の取得データは、検出部4が取得した画像の透明板2上の検出位置ごとの各検出強度を示している。図4の取得データは、X軸と平行の透明板2上の特定の直線上の複数位置に散乱体を接触させる操作をユーザに実行させることにより得られる。
FIG. 3 is a flowchart showing the overall operation of the calibration process. FIG. 4 is an example of scattering characteristic data acquired by the calibration process. In the example of FIG. 4, the vertical axis represents the detection intensity (pixel value (for example, luminance value)) at an arbitrary pixel of the image. The horizontal axis corresponds to the X coordinate in FIG. That is, in this embodiment, a certain angle of the
キャリブレーション処理部8は、始めに表示部5の画面を通じて、ユーザにキャリブレーション操作を指示するための開始メニューを表示する(図3のStep1)。図7は開始メニューの一例を示す。この例は、散乱体7Aがマーカーペン12のインクであることを想定した例となっている。図7に示されるように、キャリブレーション処理部8は、ユーザにキャリブレーション操作を実施させるにあたり、「こちらの線の上をなぞってください」というメッセージを表示部5に表示すると共に、インクを塗布させる領域をキャリブレーションエリア13として表示する。このような表示により、ユーザはインクを塗布する箇所が分かるため、キャリブレーション操作を容易かつ確実に実行することが可能となる。なお、メッセージは上記の例に限られない。例えば、「こちらの線の上を、ほぼ同じ力でなぞってください」、「こちらの線の上を、一定の速さでなぞってください」などでもよい。
First, the
次にキャリブレーション処理部8は、検出部4を用いて、検出強度の測定を行う(Step2)。具体的には、キャリブレーション処理部8は、検出部4によって撮像された透明板2の撮像画像から、キャリブレーションエリア13上の座標ごとの検出強度(ピクセル値)を測定する。なお、キャリブレーション処理部8は、検出強度を測定する前に、検出部4に用いているカメラや撮像角度、外光などの雑音光の影響といった諸条件に応じて、撮像画像に対してレンズ歪み補正、台形歪み補正、閾値処理などの処理を行ってもよい。
Next, the
図3のStep2の処理は、検出強度がキャリブレーションエリア13内の全エリアで取得できるまで繰り返し実行する。なお、キャリブレーションエリア13は、透明板2の接触面2aの全エリアとしてもよいし、接触面2aの一部の領域に限定してもよい。本実施形態では、同じX座標値であれば、Y座標値に相違があっても散乱光強度がほぼ同じとみなせることを前提としている。このため、Y軸方向の幅が一定で、X軸方向に長く延びるストライプ状のキャリブレーションエリア13を設定している。この場合、X座標値の各値に対応して補正パラメータの値が保存される。
The process of Step 2 in FIG. 3 is repeatedly executed until the detection intensity can be acquired in all areas in the calibration area 13. The calibration area 13 may be the entire area of the
キャリブレーション処理部8は、規定の範囲上で検出強度を取得できた場合は、取得したデータを補正パラメータに変換して補正パラメータ記憶部10に保存する(Step3)。具体的には、キャリブレーション処理部8は、まず、取得した全ての検出強度の平均値を算出する。次に、検出強度を取得した位置毎に、上記平均値に対する当該位置の検出強度の比の逆数を計算し、この計算した値を当該位置の補正パラメータの値とする。逆数でなく、上記の比を補正パラメータの値としてもよい。図5は、算出された補正パラメータの一例を示す。この例では、X座標ごとの各検出強度を全データの平均値との比の逆数に変換して保存している。キャリブレーション処理部8は、補正パラメータの算出と保存を終えると、キャリブレーション処理の終了を示すメッセージを表示部5を通じてユーザに表示し、キャリブレーション処理を終了する(Step4)。
If the detected intensity can be acquired within the specified range, the
なお、キャリブレーション処理において正確な補正パラメータを得るためには、各検出位置に置く散乱体の接触状況にばらつきがないことが重要である。そのため、キャリブレーション処理部8は、上述のようなキャリブレーション処理を複数回実行し、各回で得られた取得データの平均を取り、それに基づいて補正パラメータを算出するようにしてもよい。また、キャリブレーション処理部8は、ユーザがマーカーペンのインクを一定の圧力で塗布できるようにするために、例えば図8に示すように、ユーザのキャリブレーションエリア13への描画操作を一定の速度に誘導するアニメーション14を表示部5に表示するようにしてもよい。その際、図8に示すように、「こちらの線の上を矢印のアニメーションに合わせてなぞってください」といったメッセージを同時に表示部5に表示するようにしてもよい。なお、一定の速度に誘導する表示オブジャクトは、矢印に限定されない。例えば、所定のマークや記号などでもよい。
In order to obtain an accurate correction parameter in the calibration process, it is important that there is no variation in the contact state of the scatterer placed at each detection position. Therefore, the
上記の例では、散乱体がマーカーペンのインクである場合について示したが、散乱体がユーザの指である場合に関しても、マーカーペンによる描画が指でなぞるという行為に置き換わるだけで、上記と同様の方法で補正パラメータを取得し保存することができる。 In the above example, the case where the scatterer is the ink of the marker pen is shown. However, even when the scatterer is the finger of the user, the drawing with the marker pen is replaced with the action of tracing with the finger, and the same as above. The correction parameter can be acquired and stored by this method.
次に、上記生成された補正パラメータを用いて、検出部4が取得した画像を補正する処理について説明する。例として、検出部4が図9の通りに座標(0,0)から(Width,Height)までの透明板2上を撮像し、補正処理部9が、取得した画像に対して、補正処理を実行する場合を例にして、図面を参照しながら詳細に説明する。また、使用する散乱体はインクとし、補正パラメータ記憶部10には、インク用の補正パラメータのみが保存されているものとする。なお、補正パラメータ記憶部10にインク用の補正パラメータ以外に、1以上の他の種類の散乱体用の補正パラメータが保存されている場合、どの補正パラメータを使用するかを事前にユーザに選択させるようにしてもよい。
Next, processing for correcting the image acquired by the detection unit 4 using the generated correction parameter will be described. As an example, the detection unit 4 captures an image of the transparent plate 2 from coordinates (0, 0) to (Width, Height) as shown in FIG. 9, and the correction processing unit 9 performs correction processing on the acquired image. An example of the execution will be described in detail with reference to the drawings. Further, it is assumed that the scatterer to be used is ink, and only the correction parameters for ink are stored in the correction
図10は、補正処理部9の処理の動作手順を示したフローチャートである。また図11は、取得画像の任意の画素の検出強度(ピクセル値)と、それを補正パラメータに基づいて補正した後の値との関係を示したグラフである。以下、説明のために、補正する画像の任意の画素の座標を(i,j)とする。 FIG. 10 is a flowchart showing the operation procedure of the processing of the correction processing unit 9. FIG. 11 is a graph showing the relationship between the detection intensity (pixel value) of an arbitrary pixel of the acquired image and the value after correcting it based on the correction parameter. Hereinafter, for the sake of explanation, the coordinates of an arbitrary pixel of the image to be corrected are assumed to be (i, j).
補正処理部9は、はじめに補正パラメータ記憶部10の補正パラメータより、X=iにおける補正係数を取得する(Step11)。この補正係数は、図11の例で示す通り、補正パラメータの座標X=iのときの値で決定される。 First, the correction processing unit 9 acquires a correction coefficient at X = i from the correction parameters in the correction parameter storage unit 10 (Step 11). This correction coefficient is determined by the value when the correction parameter coordinate X = i, as shown in the example of FIG.
次に補正処理部9は、補正対象の画素座標(i,j)の検出強度を取得する(Step12)。そして補正処理部9は、この検出強度にStep11で取得した補正係数を掛けて補正値を求める(Step13)。具体的には、図11で示すように、補正する画像の座標(i,j)の検出強度pに対して補正パラメータdを掛けたp×dが補正後に得られる値となる。 Next, the correction processing unit 9 acquires the detected intensity of the pixel coordinates (i, j) to be corrected (Step 12). Then, the correction processing unit 9 obtains a correction value by multiplying the detected intensity by the correction coefficient acquired in Step 11 (Step 13). Specifically, as shown in FIG. 11, p × d obtained by multiplying the detection intensity p of the coordinates (i, j) of the image to be corrected by the correction parameter d is a value obtained after correction.
図10のフローチャートで示した通り、補正処理は取得画像の座標(0,0)〜(Width,Height)まで実行される。これにより全画素の検出強度の補正が完了する。なお、補正処理を行う前の画像に対して、キャリブレーション処理の場合と同様に、検出部に用いているカメラや撮像角度、外光などの雑音光の影響といった諸条件に応じて、画像に対してレンズ歪み補正、台形歪み補正、閾値処理などの処理を行ってもよい。 As shown in the flowchart of FIG. 10, the correction process is executed from the coordinates (0, 0) to (Width, Height) of the acquired image. Thereby, the correction of the detection intensity of all pixels is completed. As with the calibration process, the image before correction processing is converted into an image according to various conditions such as the camera used in the detection unit, the imaging angle, and the influence of noise light such as external light. On the other hand, processing such as lens distortion correction, trapezoidal distortion correction, and threshold processing may be performed.
このように補正処理では、キャリブレーション処理で取得した補正パラメータに基づいて、検出部4が取得した画像の各画素の値を補正することにより、散乱特性による検出強度の差を排除できるようになる。 As described above, in the correction process, by correcting the value of each pixel of the image acquired by the detection unit 4 based on the correction parameter acquired in the calibration process, a difference in detection intensity due to the scattering characteristic can be eliminated. .
以上説明したように、本実施の形態では、事前に散乱体の散乱特性を取得するためのキャリブレーション処理により散乱特性データを取得し、これに基づいて算出した補正パラメータに基づいて画像の補正処理を行うように構成されている。そのため、散乱特性の影響に基づく検出強度(ピクセル値)の差を排除した画像を得ることができる。 As described above, in the present embodiment, the scattering characteristic data is acquired in advance by the calibration process for acquiring the scattering characteristic of the scatterer, and the image correction process is performed based on the correction parameter calculated based on this. Is configured to do. Therefore, it is possible to obtain an image in which a difference in detection intensity (pixel value) based on the influence of scattering characteristics is eliminated.
[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings.
本実施の形態では、ユーザが指によるタッチ操作やマーカーペンによる描画などの情報入力操作を実行している最中に、リアルタイムに最適な補正パラメータを特定し、補正を実行していく処理の例について説明する。 In the present embodiment, an example of processing in which a correction parameter is specified in real time and correction is performed while the user is performing an information input operation such as a touch operation with a finger or a drawing with a marker pen. Will be described.
図12を参照すると、本実施の形態にかかる入力装置20は、図2の光源部3に相当する光源部3Aが取り付けられた透明板2の辺と対向する辺に光源部3Bが取り付けられている点と、これら2つの光源部3A、3Bの発光のON/OFFを制御する制御部21を備えている点とが第1の実施形態と相違する。また、処理部6内の補正処理部9の機能の一部が第1の実施形態と相違する。その他の構成に関しては、第1の実施の形態と同一であるため、同一符号を付してその説明を省略する。なお、処理部6内の補正パラメータ記憶部10には、予め種類の異なる複数の散乱体に対応する補正パラメータが記録されている。
Referring to FIG. 12, in the
次に本実施の形態における動作について図面を参照しながら詳細に説明する。まず、制御部21は、透明板2上の画像を撮像する際に光源部3Aのみを発光させた場合と光源部3Bのみを発光させた場合といったように、光源部の発光条件の異なる場合について検出部4を用いて撮像を実行し、それぞれの場合についての画像を取得する。これにより、擬似的に散乱体の位置を変えた場合と同様の効果が得られ、実際には散乱体の位置を変えてなくとも、複数の位置に散乱体をおいた場合と同様の検出強度を得ることが可能となる。これについて、図13、図14、図15を用いて説明する。
Next, the operation in the present embodiment will be described in detail with reference to the drawings. First, when the
図13は光源部3AのみがONの場合に透明板2上の散乱体が赤外光を散乱し、その一部が検出部4に検出される状況を示している。また、図14は光源部3AをOFFにして、光源部3BをONにした状況を示している。この場合、散乱体の位置は変わらないが、透明板2内を導波する赤外光の反射角が変化するため、散乱体の散乱特性により被検出光の強度が変化する。このことは、光源部3Aと光源部3BのON/OFFを切り替えることにより、図15のように散乱体の位置を移動した場合と同様の被検出光が得られる状態を再現できることを示している。 FIG. 13 shows a situation where the scatterer on the transparent plate 2 scatters infrared light when only the light source unit 3 </ b> A is ON, and a part thereof is detected by the detection unit 4. FIG. 14 shows a situation where the light source unit 3A is turned off and the light source unit 3B is turned on. In this case, although the position of the scatterer does not change, the reflection angle of the infrared light guided in the transparent plate 2 changes, so that the intensity of the detected light changes depending on the scattering characteristics of the scatterer. This indicates that by switching ON / OFF of the light source unit 3A and the light source unit 3B, it is possible to reproduce a state in which detected light similar to that obtained when the position of the scatterer is moved as shown in FIG. .
本実施形態では、予め光源部3Aと光源部3Bの切り替えによって変化する被検出光の強度が、どの程度散乱体を移動させた場合に相当するか、その距離Lを測定し、処理部6内のメモリに記憶しておく。本実施形態では、距離Lは、散乱体の種類が違ってもほぼ同じである。また、散乱体が接触する位置が違ってもほぼ同じであるとする。なお、散乱体の種類及び散乱体の接触位置によって距離Lが異なる場合は各散乱体及び散乱体の位置に応じた複数の距離Lを事前に記録しておき、補正処理実行時に散乱体の種類、接触位置に応じて適切な距離Lを参照するものとする。 In the present embodiment, the distance L is measured to determine how much the intensity of the detected light, which is changed by switching between the light source unit 3A and the light source unit 3B, corresponds to when the scatterer is moved. Store it in the memory. In the present embodiment, the distance L is substantially the same regardless of the type of scatterer. Further, it is assumed that the scatterers are almost the same even if they are in different positions. If the distance L varies depending on the type of scatterer and the contact position of the scatterer, a plurality of distances L corresponding to the position of each scatterer and scatterer are recorded in advance, and the type of scatterer when executing the correction process The appropriate distance L is referred to according to the contact position.
次に、本実施の形態における補正処理の実行例について、説明する。例として、光源部3AをON、光源部3BをOFFにして撮像した検出画像(1)に対して、光源部3AをOFF、光源部3BをONに切り替えて撮像して得られるもうひとつの画像(検出画像(2))から、各画素の補正後の検出強度を決定し、検出画像(1)を補正する場合について説明する。 Next, an execution example of the correction process in the present embodiment will be described. As an example, another image obtained by switching the light source unit 3A to OFF and the light source unit 3B to ON for the detected image (1) captured with the light source unit 3A turned on and the light source unit 3B turned off. A case will be described in which the detection intensity after correction of each pixel is determined from (detected image (2)) and the detected image (1) is corrected.
図16は本実施形態における補正処理の流れについて示したフローチャートである。なお、本実施形態では説明のために図9と同様の座標系を用いるとともに、補正する画像の任意の画素の座標を(i,j)とする。 FIG. 16 is a flowchart showing the flow of correction processing in the present embodiment. In the present embodiment, for the sake of explanation, the same coordinate system as in FIG. 9 is used, and the coordinates of an arbitrary pixel of the image to be corrected are (i, j).
補正処理部9は、はじめに一方の光源3AのみをONにした際の検出画像(1)における画素(i,j)の検出強度p1を取得する(Step21)。次に補正処理部9は、光源3BのみをONにした際の検出画像(2)における同画素の検出強度p2を取得する(Step22)。 First, the correction processing unit 9 acquires the detection intensity p1 of the pixel (i, j) in the detection image (1) when only one of the light sources 3A is turned on (Step 21). Next, the correction processing unit 9 acquires the detection intensity p2 of the same pixel in the detection image (2) when only the light source 3B is turned on (Step 22).
そして、補正処理部9は、上記二つの検出強度p1、p2より最適な補正パラメータを推定する(Step23)。ここでの処理は、補正パラメータ記憶部10に予め記録されている種類の異なる複数の散乱体の補正パラメータの候補の中から1つを推定する形で行う。なお、記録されている各散乱体の補正パラメータについては第1の実施の形態で示した補正パラメータのデータと同様の形式で保存されているものとする。これらが保存されるタイミングについては、入力装置の工場出荷時や、入力装置が納品された際の初回起動時に第1の実施の形態で示したキャリブレーション処理を種類の異なる複数の散乱体に対して行い、取得したデータを保存するなど様々なタイミングにおいて可能である。
Then, the correction processing unit 9 estimates an optimal correction parameter from the two detection intensities p1 and p2 (Step 23). This processing is performed in such a way that one of the correction parameter candidates of a plurality of different types of scatterers recorded in advance in the correction
補正処理部9は、p1,p2の2つの平均値をmとすると、平均値との比の逆数m/p1及びm/p2に関して、各散乱体の補正パラメータの各検出位置での値との差を計算する。図17では、散乱体7Aの補正パラメータと散乱体7Bの補正パラメータとの2つのデータの候補に関して比較するグラフの例となっている。具体的には、m/p1は検出画像(1)の当該座標における値、m/p2については検出画像(2)の値で光源を切り替えることで検出位置を前記Lの距離だけずらす効果で得られた値とする。そして、補正処理部9は、値ごとの各補正パラメータのデータとの差が最も少ないものを補正処理に用いるデータとして決定する。図17の例では、散乱体7Aの補正パラメータの方が散乱体7Bと比較して差が少ないため、散乱体7Aの補正パラメータが用いられることとなる。 The correction processing unit 9 calculates the value at each detection position of the correction parameter of each scatterer with respect to the reciprocals m / p1 and m / p2 of the ratio to the average value, where m is the average value of the two values p1 and p2. Calculate the difference. FIG. 17 shows an example of a graph for comparing two data candidates of the correction parameter of the scatterer 7A and the correction parameter of the scatterer 7B. Specifically, m / p1 is obtained by the effect of shifting the detection position by the distance L by switching the light source with the value of the detected image (1) at the corresponding coordinate, and m / p2 with the value of the detected image (2). Value. Then, the correction processing unit 9 determines data having the smallest difference from each correction parameter data for each value as data used for the correction processing. In the example of FIG. 17, since the correction parameter of the scatterer 7A is smaller than that of the scatterer 7B, the correction parameter of the scatterer 7A is used.
次に補正処理部9は、選択した補正パラメータに基づいて該当検出強度の補正を行う(Step24)。Step24の具体的な処理は、第1の実施の形態で示した補正処理と同様に、検出画像(1)の座標(i,j)のピクセル値に対して、補正パラメータを掛けることで補正後のピクセル値を求める処理となる。 Next, the correction processing unit 9 corrects the detected intensity based on the selected correction parameter (Step 24). The specific processing of Step 24 is the same as the correction processing shown in the first embodiment, after correction by multiplying the pixel value of the coordinates (i, j) of the detected image (1) by the correction parameter. This is a process for obtaining the pixel value of.
以上の処理は、図16のフローチャートで示した通り、画素の座標(0,0)〜(Width, Height)まで実行される。これにより全画素の検出強度の補正が完了する。 The above processing is executed from pixel coordinates (0, 0) to (Width, Height) as shown in the flowchart of FIG. Thereby, the correction of the detection intensity of all pixels is completed.
なお、本実施の形態では、検出条件を切り替える方法として、透明板2の両側面にそれぞれのON/OFFを切り替え可能な光源部3A、3Bを設置する方法について説明したが、本例は検出条件の切り替えの一例であり、その限りではない。例えば図18で示したように透明板2の同一側面に入射角度の異なる光源部3A、3Bを設置して、それらのON/OFFを交互に切り替えることで、検出条件を切り替えるといった方法も適用可能である。また、図19で示すように透明体2の接触面を撮像する角度や取り付け位置の異なる検出部4A、4Bを複数用意し、これら複数の検出部4を切り替えることで検出条件を切り替えるといった方法も適用可能とする。すなわち、検出条件の切替えは、透明板2へ照射する光の入射角度、透明板2の接触面の画像を撮像する検出部4の位置、および向きの何れか1つ、または2つ、または全てを切替える方法を採用することができる。 In the present embodiment, as a method for switching the detection condition, a method for installing the light source units 3A and 3B that can be switched ON / OFF on both side surfaces of the transparent plate 2 has been described. This is an example of switching, and is not limited thereto. For example, as shown in FIG. 18, the light source units 3A and 3B having different incident angles are installed on the same side surface of the transparent plate 2 and the detection conditions are switched by alternately switching the ON / OFF thereof. It is. In addition, as shown in FIG. 19, there is a method in which a plurality of detection units 4A and 4B having different angles and attachment positions for imaging the contact surface of the transparent body 2 are prepared, and the detection conditions are switched by switching the plurality of detection units 4. Applicable. That is, the detection condition is switched by any one, two, or all of the incident angle of the light applied to the transparent plate 2, the position and direction of the detection unit 4 that captures the image of the contact surface of the transparent plate 2. It is possible to adopt a method of switching between.
さらに、この他にも例えばユーザが入力操作を行っている最中に得られた複数位置の検出強度から補正パラメータを生成するようにすることで、同様にキャリブレーション操作をユーザに要求しないで補正処理を実行するが可能となる。 In addition to this, for example, correction parameters are generated from detection intensities at a plurality of positions obtained while the user is performing an input operation, thereby similarly correcting without requiring the user to perform a calibration operation. Processing can be executed.
以上説明したように、本実施の形態では、複数の光源部または検出部を切り替えて得られる複数の検出強度より、散乱体を推定し、その補正パラメータにより補正を行うという処理により、事前のユーザによるキャリブレーション操作や使用する補正パラメータの選択操作を必要としないで、散乱特性の影響に基づく検出強度の差を排除した補正画像を得ることができる。 As described above, in the present embodiment, a user in advance is processed by a process of estimating a scatterer from a plurality of detection intensities obtained by switching a plurality of light source units or detection units and performing correction using the correction parameter. Thus, it is possible to obtain a corrected image in which the difference in detection intensity based on the influence of the scattering characteristics is eliminated without requiring the calibration operation by the above and the selection operation of the correction parameter to be used.
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
内部に光を導波可能な透明または半透明な導波体の接触面に散乱体が接触する状態を、前記散乱体が生じる散乱光を用いて撮像された前記接触面の画像から検出する入力装置であって、
前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段を備えることを特徴とする入力装置。
(付記2)
前記補正手段は、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正するための補正パラメータを用いて、前記接触面の画像の画素値を補正することを特徴とする付記1に記載の入力装置。
(付記3)
複数の位置に前記散乱体が接触している前記接触面の画像から前記複数の位置ごとの前記散乱光の強度を測定することで、前記補正パラメータの値を算出するキャリブレーション処理手段を備えることを特徴とする付記2に記載の入力装置。
(付記4)
前記散乱体の種類毎の前記補正パラメータを記憶する補正パラメータ記憶手段を備え、
前記補正手段は、前記補正パラメータ記憶手段に記憶された複数の前記補正パラメータのうちから、実際の補正に使用する前記補正パラメータを選択することを特徴とする付記2または3に記載の入力装置。
(付記5)
前記補正手段は、撮像条件を変えて撮像した前記接触面の画像の各位置における光強度の変化の仕方が前記散乱体の種類によって異なることを利用して、実際の補正に使用する前記補正パラメータを選択することを特徴とする付記4に記載の入力装置。
(付記6)
前記補正手段は、前記散乱体が接触する状態を検出する前記接触面の画像の撮像条件を第1の撮像条件とし、前記第1の撮像条件と異なる撮像条件を第2の撮像条件とし、前記第1の撮影条件における光強度と前記第2の撮影条件における光強度に基づいて、前記補正パラメータ記憶手段に記憶された複数の前記補正パラメータの中から実際の補正に使用する前記補正パラメータを選択することを特徴とする付記4に記載の入力装置。
(付記7)
前記第2の撮像条件は、前記導波体へ光を照射する光源手段が前記導波体へ照射する光の入射角度、前記接触面の画像を撮像する検出部の位置、および向きの何れか1つ、または2つ、または全てが前記第1の撮像条件と相違することを特徴とする付記5または6に記載の入力装置。
(付記8)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、前記接触面の2以上の位置に対し前記散乱体を、同時にもしくは順に接触させる操作を行うように指示する表示を行うことを特徴とする付記3に記載の入力装置。
(付記9)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、前記接触面の2以上の位置に対し前記散乱体を、同一もしくは同程度の圧力により、同時にもしくは順に接触させる操作を行うように指示する表示を行うことを特徴とする付記3に記載の入力装置。
(付記10)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、前記接触面に前記散乱体を第1の位置にて接触させた後、接触した状態を保持したまま、前記第1の位置とは離れた第2の位置に前記散乱体を移動させる操作を行うように指示する表示を行うことを特徴とする付記3に記載の入力装置。
(付記11)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、前記接触面に前記散乱体を第1の位置にて接触させた後、接触した状態を保持したまま、一定の速度で、前記第1の位置とは離れた第2の位置に前記散乱体を移動させる操作を行うように指示する表示を行うことを特徴とする付記3に記載の入力装置。
(付記12)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、所定の経路を一定の速度で移動する図形オブジェクトを表示することを特徴とする付記8乃至11の何れかに記載の入力装置。
(付記13)
前記散乱体はインクであることを特徴とする付記1乃至12の何れかに記載の入力装置。
(付記14)
前記散乱体は利用者の指であることを特徴とする付記1乃至13の何れかに記載の入力装置。
(付記15)
前記検出される接触状態は、前記導波体と前記散乱体との接触面積、接触面の形状の何れか、もしくはその両方であることを特徴とする付記1乃至14の何れかに記載の入力装置。
(付記16)
散乱体を接触させる接触面を有し、内部に光を導波可能な透明または半透明な導波体と、
前記導波体の側面へ赤外光を照射する光源部と、
前記散乱体が生じる散乱光を用いて、前記散乱体が接触する前記接触面の画像を前記導波体の上方または下方から撮像する検出部と、
前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正し、該補正後の前記接触面の画像から、前記接触面に前記散乱体が接触する状態を検出する処理部とを備えることを特徴とする入力装置。
(付記17)
散乱体を接触させる接触面を有し、内部に光を導波可能な透明または半透明な導波体と、検出部と、処理部とを備えた入力装置で実行される入力方法であって、
前記検出部が、前記散乱体が生じる散乱光を用いて、前記散乱体が接触する前記接触面の画像を撮像し、
前記処理部が、前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正することを特徴とする入力方法。
(付記18)
散乱体を接触させる接触面を有し、内部に光を導波可能な透明または半透明な導波体と、検出部と、処理部とを備えた入力装置の前記処理部を構成するコンピュータを、
前記散乱体が生じる散乱光を用いて前記検出部により撮像された前記散乱体が接触する前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段として機能させるための入力用プログラム。
A part or all of the above embodiments can be described as in the following supplementary notes, but is not limited thereto.
(Appendix 1)
Input for detecting a state in which a scatterer is in contact with a contact surface of a transparent or translucent waveguide capable of guiding light inside from an image of the contact surface imaged using scattered light generated by the scatterer A device,
An input device comprising correction means for correcting variation in detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer.
(Appendix 2)
The correction means corrects the pixel value of the image of the contact surface using a correction parameter for correcting variation in detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer. The input device according to
(Appendix 3)
Calibration processing means for calculating the value of the correction parameter by measuring the intensity of the scattered light for each of the plurality of positions from the image of the contact surface in contact with the scatterer at a plurality of positions. The input device according to appendix 2, characterized by:
(Appendix 4)
Correction parameter storage means for storing the correction parameter for each type of the scatterer,
The input device according to appendix 2 or 3, wherein the correction unit selects the correction parameter to be used for actual correction from the plurality of correction parameters stored in the correction parameter storage unit.
(Appendix 5)
The correction means uses the correction parameter used for actual correction by utilizing the fact that the method of changing the light intensity at each position of the image of the contact surface imaged under different imaging conditions varies depending on the type of the scatterer. The input device according to appendix 4, wherein the input device is selected.
(Appendix 6)
The correction means sets the imaging condition of the image of the contact surface for detecting the state in which the scatterer is in contact as the first imaging condition, sets the imaging condition different from the first imaging condition as the second imaging condition, and Based on the light intensity under the first imaging condition and the light intensity under the second imaging condition, the correction parameter used for actual correction is selected from the plurality of correction parameters stored in the correction parameter storage means The input device according to appendix 4, wherein:
(Appendix 7)
The second imaging condition is any one of an incident angle of light applied to the waveguide by a light source unit that irradiates light to the waveguide, a position of a detection unit that captures an image of the contact surface, and an orientation. The input device according to appendix 5 or 6, wherein one, two, or all are different from the first imaging condition.
(Appendix 8)
The calibration processing means performs an operation of bringing the scatterer into contact with two or more positions on the contact surface simultaneously or sequentially on a display unit arranged so that a display surface overlaps the waveguide. 4. The input device according to appendix 3, wherein display for instructing is performed.
(Appendix 9)
The calibration processing means is configured to place the scatterer at two or more positions on the contact surface simultaneously or under the same or similar pressure on the display unit arranged so that the display surface overlaps the waveguide. 4. The input device according to appendix 3, wherein a display for instructing to perform operations in order is performed.
(Appendix 10)
The calibration processing means maintains a state in which the scatterer is brought into contact with the contact surface at a first position on a display unit arranged so that a display surface overlaps the waveguide. The input device according to appendix 3, wherein a display for instructing to perform an operation of moving the scatterer to a second position distant from the first position is performed.
(Appendix 11)
The calibration processing means maintains a state in which the scatterer is brought into contact with the contact surface at a first position on a display unit arranged so that a display surface overlaps the waveguide. The input device according to appendix 3, wherein a display for instructing an operation to move the scatterer to a second position separated from the first position is performed at a constant speed.
(Appendix 12)
The calibration processing means displays a graphic object that moves at a constant speed along a predetermined path on a display unit that is arranged so that a display surface overlaps the waveguide. The input device according to any one of the above.
(Appendix 13)
13. The input device according to any one of
(Appendix 14)
14. The input device according to any one of
(Appendix 15)
The input according to any one of
(Appendix 16)
A transparent or translucent waveguide having a contact surface for contacting the scatterer and capable of guiding light inside;
A light source unit for irradiating infrared light onto the side surface of the waveguide;
A detection unit that captures an image of the contact surface with which the scatterer comes into contact from above or below the waveguide using scattered light generated by the scatterer;
A variation in detected light intensity due to a difference in contact position caused by a scattering characteristic of the scatterer on the image of the contact surface is corrected, and the scattering is applied to the contact surface from the image of the contact surface after the correction. An input device comprising: a processing unit that detects a state of contact with a body.
(Appendix 17)
An input method executed by an input device having a contact surface for contacting a scatterer and having a transparent or translucent waveguide capable of guiding light inside, a detection unit, and a processing unit. ,
The detection unit captures an image of the contact surface with which the scatterer contacts, using scattered light generated by the scatterer,
The input method, wherein the processing unit corrects variation in detected light intensity due to a difference in contact position caused by a scattering characteristic of the scatterer on an image of the contact surface.
(Appendix 18)
A computer that constitutes the processing unit of an input device having a contact surface for contacting a scatterer and having a transparent or translucent waveguide capable of guiding light inside, a detection unit, and a processing unit ,
Detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer on an image of the contact surface on which the scatterer is imaged by the detection unit using scattered light generated by the scatterer An input program for functioning as a correction means for correcting variations in the image.
1 入力装置
2 透明板
2a 接触面
3 光源部
4 検出部
5 表示部
6 処理部
7 散乱体
8 キャリブレーション処理部
9 補正処理部
10 補正パラメータ記憶部
11 アプリケーション実行部
20 入力装置
21 制御部
DESCRIPTION OF
Claims (10)
前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段を備えることを特徴とする入力装置。 Input for detecting a state in which a scatterer is in contact with a contact surface of a transparent or translucent waveguide capable of guiding light inside from an image of the contact surface imaged using scattered light generated by the scatterer A device,
An input device comprising correction means for correcting variation in detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer.
前記補正手段は、前記補正パラメータ記憶手段に記憶された複数の前記補正パラメータのうちから、実際の補正に使用する前記補正パラメータを選択することを特徴とする請求項2または3に記載の入力装置。 Correction parameter storage means for storing the correction parameter for each type of the scatterer,
The input device according to claim 2, wherein the correction unit selects the correction parameter to be used for actual correction from the plurality of correction parameters stored in the correction parameter storage unit. .
前記検出部が、前記散乱体が生じる散乱光を用いて、前記散乱体が接触する前記接触面の画像を撮像し、
前記処理部が、前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正することを特徴とする入力方法。 An input method executed by an input device having a contact surface for contacting a scatterer and having a transparent or translucent waveguide capable of guiding light inside, a detection unit, and a processing unit. ,
The detection unit captures an image of the contact surface with which the scatterer contacts, using scattered light generated by the scatterer,
The input method, wherein the processing unit corrects variation in detected light intensity due to a difference in contact position caused by a scattering characteristic of the scatterer on an image of the contact surface.
前記散乱体が生じる散乱光を用いて前記検出部により撮像された前記散乱体が接触する前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段として機能させるための入力用プログラム。 A computer that constitutes the processing unit of an input device having a contact surface for contacting a scatterer and having a transparent or translucent waveguide capable of guiding light inside, a detection unit, and a processing unit ,
Detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer on an image of the contact surface on which the scatterer is imaged by the detection unit using scattered light generated by the scatterer An input program for functioning as a correction means for correcting variations in the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010133735A JP2011258102A (en) | 2010-06-11 | 2010-06-11 | Input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010133735A JP2011258102A (en) | 2010-06-11 | 2010-06-11 | Input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011258102A true JP2011258102A (en) | 2011-12-22 |
Family
ID=45474186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010133735A Pending JP2011258102A (en) | 2010-06-11 | 2010-06-11 | Input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011258102A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103196075A (en) * | 2012-01-05 | 2013-07-10 | 原相科技股份有限公司 | Positioning signal transmitting module and electronic product with pointer control function |
JP2016519044A (en) * | 2013-05-07 | 2016-06-30 | エージーシー グラス ユーロップ | High infrared transmission glass sheet |
KR20160118233A (en) * | 2013-12-19 | 2016-10-11 | 에이쥐씨 글래스 유럽 | Glass sheet having high transmission of infrared radiation |
-
2010
- 2010-06-11 JP JP2010133735A patent/JP2011258102A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103196075A (en) * | 2012-01-05 | 2013-07-10 | 原相科技股份有限公司 | Positioning signal transmitting module and electronic product with pointer control function |
US9223078B2 (en) | 2012-01-05 | 2015-12-29 | Pixart Imaging Inc. | Positioning signal transmitter module and electronic product with cursor-controllable function |
JP2016519044A (en) * | 2013-05-07 | 2016-06-30 | エージーシー グラス ユーロップ | High infrared transmission glass sheet |
KR20160118233A (en) * | 2013-12-19 | 2016-10-11 | 에이쥐씨 글래스 유럽 | Glass sheet having high transmission of infrared radiation |
JP2017501101A (en) * | 2013-12-19 | 2017-01-12 | エージーシー グラス ユーロップAgc Glass Europe | Glass sheet with high infrared transmission |
KR102306305B1 (en) * | 2013-12-19 | 2021-09-30 | 에이쥐씨 글래스 유럽 | Glass sheet having high transmission of infrared radiation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9019239B2 (en) | Creative design systems and methods | |
JP6135239B2 (en) | Image processing apparatus, image processing program, and image processing method | |
JP6623812B2 (en) | Position detecting device and contrast adjusting method thereof | |
KR100907104B1 (en) | Calculation method and system of pointing locations, and collaboration system comprising it | |
US9454260B2 (en) | System and method for enabling multi-display input | |
US9501160B2 (en) | Coordinate detection system and information processing apparatus | |
KR20120058594A (en) | Interactive input system with improved signal-to-noise ratio (snr) and image capture method | |
US8922526B2 (en) | Touch detection apparatus and touch point detection method | |
US8659577B2 (en) | Touch system and pointer coordinate detection method therefor | |
TWI430151B (en) | Touch device and touch method | |
TWI534687B (en) | Optical touch detection system and object analyzation method thereof | |
US20150242042A1 (en) | Touch panel-equipped display device and non-transitory computer-readable storage medium | |
US9817488B2 (en) | Optical navigation device and related automatic magnification adjusting method | |
TW201633077A (en) | Image processing method capable of detecting noise and related navigation device | |
TW201535204A (en) | Object detection method and calibration apparatus of optical touch system | |
US9639209B2 (en) | Optical touch system and touch display system | |
WO2011118313A1 (en) | Coordinate input device, and program | |
JP6528964B2 (en) | INPUT OPERATION DETECTING DEVICE, IMAGE DISPLAY DEVICE, PROJECTOR DEVICE, PROJECTOR SYSTEM, AND INPUT OPERATION DETECTING METHOD | |
TWI536206B (en) | Locating method, locating device, depth determining method and depth determining device of operating body | |
JP2011258102A (en) | Input device | |
US20160019424A1 (en) | Optical touch-control system | |
US10379677B2 (en) | Optical touch device and operation method thereof | |
US20130016069A1 (en) | Optical imaging device and imaging processing method for optical imaging device | |
TWI521413B (en) | Optical touch screen | |
TW201317858A (en) | Optical touch panel system, optical sensing module, and operation method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20120718 |