JP2011258102A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2011258102A
JP2011258102A JP2010133735A JP2010133735A JP2011258102A JP 2011258102 A JP2011258102 A JP 2011258102A JP 2010133735 A JP2010133735 A JP 2010133735A JP 2010133735 A JP2010133735 A JP 2010133735A JP 2011258102 A JP2011258102 A JP 2011258102A
Authority
JP
Japan
Prior art keywords
scatterer
correction
image
input device
contact surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010133735A
Other languages
Japanese (ja)
Inventor
Shinpei Chihara
晋平 千原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010133735A priority Critical patent/JP2011258102A/en
Publication of JP2011258102A publication Critical patent/JP2011258102A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input device that solves a problem that, in the FTIR method, scattering angle characteristics of a scatterer causes the intensity difference of infrared light detected at a contact location, which results in reduction of the input accuracy.SOLUTION: An input device 1 detects a state in which a scatterer 7 contacts with a contact surface 2a of a transparent plate 2 capable of wave-guiding a light into the inside thereof by an image on the contact plate 2a which is imaged by using scattering light generated by the scatterer 7, after correcting, by a correction processing part 9, unevenness of a detection light intensity due to a difference of a contact location caused by scattering characteristics of the scatterer 7.

Description

本発明は入力装置に関し、特に内部に光を導波可能な透明または半透明な導波体の接触面に散乱体が接触する状態を、散乱体が生じる散乱光を用いて撮像された接触面の画像から検出する入力装置に関する。   The present invention relates to an input device, and in particular, a contact surface in which a scatterer is in contact with a contact surface of a transparent or semi-transparent waveguide capable of guiding light therein, and is imaged using scattered light generated by the scatterer. The present invention relates to an input device that detects an image of the above.

FTIR(Frustrated
Total Internal Reflection)という現象を応用し、コンピュータへの情報入力を実現する技術が提案されている。アクリルパネルなどの透明板の端面より赤外光を照射し、全反射現象により透明板内部に赤外光を閉じ込める形で導波させた際、光を散乱する作用を持つ散乱体(散乱物質)を透明板に接触させると、その接触部位において、赤外光の一部が透明板外部に散乱する現象が生じる。この現象がFTIRである。透明板外部に散乱する赤外光をカメラで検出することで、散乱体の透明板への接触状態(接触面積、形状など)を検出することが可能となる。
FTIR (Frustrated
A technology that realizes information input to a computer by applying the phenomenon called “Total Internal Reflection” has been proposed. Scatterer (scattering material) that scatters light when irradiated with infrared light from the end face of a transparent plate such as an acrylic panel and guided in a way that confines infrared light inside the transparent plate due to total reflection. Is brought into contact with the transparent plate, a phenomenon occurs in which a part of the infrared light is scattered outside the transparent plate at the contact portion. This phenomenon is FTIR. By detecting infrared light scattered outside the transparent plate with a camera, it is possible to detect the contact state (contact area, shape, etc.) of the scatterer with the transparent plate.

FTIR方式を応用した入力装置の例が非特許文献1及び非特許文献2に記載されている。非特許文献1では、FTIR方式で検出されるタッチ時の指とパネルの接触領域の面積から、タッチの圧力を推定する方式が提案されている。また、非特許文献2では、FTIR方式で検出されるタッチ時の接触領域の画像形状に基づいて、指の種類、タッチ方向などを区別する方式が提案されている。これらは、何れもFTIRを用いることで散乱体の透明板への接触状態を正確に検出できることを前提として、複雑なタッチ操作を識別可能なコンピュータへの入力装置を提供している。   Non-Patent Document 1 and Non-Patent Document 2 describe examples of input devices using the FTIR method. Non-Patent Document 1 proposes a method of estimating the touch pressure from the area of the contact area between the finger and the panel at the time of touch detected by the FTIR method. Further, Non-Patent Document 2 proposes a method for distinguishing between the type of finger, the touch direction, and the like based on the image shape of the touched contact area detected by the FTIR method. These provide an input device to a computer that can identify a complex touch operation on the premise that the contact state of the scatterer with the transparent plate can be accurately detected by using FTIR.

FTIR方式を応用した入力装置の他の例が特許文献1に記載されている。特許文献1に記載の入力装置は、導光板と、複数の発光素子と、複数の受光素子と、制御手段とから構成される。導光板は、タッチエリアを有し、このタッチエリアへの接触物による接触に応じて散乱光を発生させる。複数の発光素子は、導光板の一辺の側端面に等間隔で配置され、導光板内に光を照射する。複数の受光素子は、複数の発光素子が配置された辺と直角方向の導光板の辺に等間隔で配置され、導光板内の散乱光を受光する。制御手段は、複数の発光素子を部分的に点灯させる点灯走査を行う。また制御手段は、受光素子によって散乱光が受光されたときの座標(Y座標)と、受光素子の受光時に点灯走査されていた発光素子の座標(X座標)とから、接触物によるタッチエリアへの入力位置を特定する。   Another example of an input device using the FTIR method is described in Patent Document 1. The input device described in Patent Literature 1 includes a light guide plate, a plurality of light emitting elements, a plurality of light receiving elements, and a control unit. The light guide plate has a touch area, and generates scattered light according to contact with the touch area by a contact object. The plurality of light emitting elements are arranged at equal intervals on the side end surface of one side of the light guide plate, and irradiates light into the light guide plate. The plurality of light receiving elements are arranged at equal intervals on the side of the light guide plate perpendicular to the side on which the plurality of light emitting elements are arranged, and receive scattered light in the light guide plate. The control means performs lighting scanning for partially lighting the plurality of light emitting elements. Further, the control means moves from the coordinates when the scattered light is received by the light receiving element (Y coordinate) and the coordinates of the light emitting element that has been lit and scanned when the light receiving element is received (X coordinate) to the touch area by the contact object. Specify the input position.

他方、カメラにより撮像された画像を処理する際に、画像を補正する技術の一例が特許文献2に記載されている。特許文献2では、ステレオカメラから出力される一対の画像データのそれぞれを、パラメータを用いて変換することにより、ステレオカメラの光学的な歪みと位置的なずれを画像処理によって調整する手法が提案されている。   On the other hand, Patent Document 2 describes an example of a technique for correcting an image when processing an image captured by a camera. Patent Document 2 proposes a method of adjusting optical distortion and positional deviation of a stereo camera by image processing by converting each of a pair of image data output from the stereo camera using parameters. ing.

特開2009−223535号公報JP 2009-223535 A 特開2004−132870号公報JP 2004-132870 A

内藤真樹,志築文太郎,田中二郎著「赤外線方式タッチパネルにおける接触面積を利用した押し込み操作の基礎検討」情報処理学会全国大会講演論文集,VOL.71,NO.4,pp.173‐174,2009年Maki Naito, Buntaro Shizuki, Jiro Tanaka “Basic Study on Push-in Operation Using Contact Area in Infrared Touch Panel” Proceedings of IPSJ National Convention, Vol. 71, NO. 4, pp. 173-174, 2009 FengWang, Xiangshi Ren著「Empirical evaluation for fingerinput properties in multi-touch interaction」Proceedingsof the 27th international conference on Human factors in computing systems, pp.1063−1072, 2009年4月FengWang, Xiangshi Ren, “Empirical evaluation for fingerinput properties in multi-touch interaction”, Proceedingsof the 27th international conference on Human factors in computing systems, pp. 1063-1072, April 2009

上述したようにFTIR方式による入力装置が各種提案されている。これらの技術を応用して、例えばユーザの指の接触状態を検出するようにすれば、ユーザのディスプレイへのタッチ操作を検出するタッチインタフェース装置を実現することが可能となる。また、一般のマーカーペン等に用いられているインクも散乱体としての特性を有することから、透明板上へのインクの塗布状態の検出も可能となる。そのため、ディスプレイなどにマーカーペンで描いた描画情報をコンピュータに取り込むデジタルホワイトボードを実現することも可能である。   As described above, various input devices using the FTIR method have been proposed. By applying these techniques and detecting the contact state of the user's finger, for example, it is possible to realize a touch interface device that detects a user's touch operation on the display. In addition, since ink used for general marker pens also has a characteristic as a scatterer, it is possible to detect the application state of the ink on the transparent plate. Therefore, it is possible to realize a digital whiteboard that captures drawing information drawn with a marker pen on a display or the like into a computer.

しかしながら、アクリル板などの透明板内を導波する赤外光は通常、異なる方位に対し、異なる強度で散乱される。このような特性を散乱角度特性と言う。このため、散乱体とパネルの接触状態は同一であっても、散乱体とカメラの位置関係に応じて、検出される散乱光の強度に差が生じてしまう。なお、透明板上で互いに離れた位置にある散乱体ほどカメラに対する角度差が大きくなるため、散乱光の検出強度の差は大きくなる。   However, infrared light guided in a transparent plate such as an acrylic plate is usually scattered at different intensities in different directions. Such a characteristic is called a scattering angle characteristic. For this reason, even if the contact state of a scatterer and a panel is the same, a difference will arise in the intensity | strength of the scattered light detected according to the positional relationship of a scatterer and a camera. In addition, since the angle difference with respect to a camera becomes large as the scatterers located on the transparent plate at a distance from each other, the difference in the detection intensity of the scattered light becomes large.

この散乱角度特性による影響について具体的に図1を用いて説明する。図1はFTIRを用いて散乱体の接触状態を検出する入力装置の構成例を示している。光源部から出力される赤外光は、透明板内部を全反射現象により導波する。そして、赤外光は、散乱体(1)及び散乱体(2)が透明板と接触している箇所では全反射現象が崩れて透明板外部に散乱し、検出部によって検出される(被検出光(1)及び被検出光(2))。なお、散乱体(1)及び散乱体(2)は同一の物質であり、透明板上の位置以外の状態(体積、質量、透明板への接触面積など)は同一とする。図1で示すように、散乱光(1)及び散乱光(2)は異なる方位に対し、異なる強度で生じるため、検出部が検出する被検出光の強度は、被検出光(1)>被検出光(2)となる。なお、図1の例では、カメラがパネルに対し上方に配置された例を示したが、カメラがパネルに対し下方に配置された場合も同様の現象が生じる。   The influence of this scattering angle characteristic will be specifically described with reference to FIG. FIG. 1 shows a configuration example of an input device that detects a contact state of a scatterer using FTIR. Infrared light output from the light source is guided in the transparent plate by a total reflection phenomenon. Then, the infrared light is scattered outside the transparent plate because the total reflection phenomenon is lost at the place where the scatterer (1) and the scatterer (2) are in contact with the transparent plate, and is detected by the detection unit (detected). Light (1) and detected light (2)). The scatterer (1) and the scatterer (2) are the same substance, and the states (volume, mass, contact area with the transparent plate, etc.) other than the position on the transparent plate are the same. As shown in FIG. 1, since scattered light (1) and scattered light (2) are generated at different intensities in different directions, the intensity of the detected light detected by the detector is: detected light (1)> detected It becomes detection light (2). In the example of FIG. 1, the example in which the camera is disposed above the panel is shown, but the same phenomenon occurs when the camera is disposed below the panel.

このようにFTIRでは、透明板と散乱体の接触状態が同一であっても、散乱体の散乱角度特性のために接触位置によって検出される赤外光に強度差が生じる。このような現象は、特に広角レンズを搭載したカメラを用いて広い撮像範囲で接触状態を検出する際、顕著な問題を引き起こす。すなわち、FTIRを用いて広い範囲で、散乱体の接触状態を正確に検出することができなくなるとう問題を引き起こす。この結果、パネルへの接触領域の面積に応じて圧力や指種別を判定する場合には、誤認識を引き起こす恐れがある。また、ディスプレイなどにマーカーペンで描いた描画情報をコンピュータに取り込む場合には、描画した線の太さや濃さを正確に取り込むことが不可能となる。   As described above, in the FTIR, even if the contact state between the transparent plate and the scatterer is the same, an intensity difference occurs in the infrared light detected by the contact position due to the scattering angle characteristic of the scatterer. Such a phenomenon causes a significant problem particularly when a contact state is detected in a wide imaging range using a camera equipped with a wide-angle lens. That is, there is a problem that the contact state of the scatterer cannot be accurately detected over a wide range using FTIR. As a result, when the pressure or the finger type is determined according to the area of the contact area with the panel, there is a risk of causing erroneous recognition. Further, when drawing information drawn with a marker pen on a display or the like is taken into a computer, it is impossible to accurately take in the thickness or darkness of the drawn line.

カメラにより撮像された画像を処理する際に、カメラの光学的な歪みや位置的なずれを画像処理によって調整することは例えば特許文献2において行われている。しかし、散乱体の散乱角度特性による検出光強度のバラツキは、カメラの光学的な歪みや位置的なずれを調整しても解消されることはない。   For example, Patent Document 2 adjusts optical distortion and positional deviation of a camera by image processing when processing an image captured by the camera. However, the variation in detected light intensity due to the scattering angle characteristic of the scatterer is not eliminated even if the optical distortion or positional deviation of the camera is adjusted.

本発明はこのような事情に鑑みて提案されたものであり、その目的は、FTIR方式では散乱体の散乱角度特性のために接触位置によって検出される赤外光に強度差が生じ、それが原因で入力精度が低下する、という課題を解決する入力装置を提供することにある。   The present invention has been proposed in view of such circumstances, and the purpose of the FTIR method is to produce a difference in intensity in the infrared light detected by the contact position due to the scattering angle characteristics of the scatterer. An object of the present invention is to provide an input device that solves the problem that the input accuracy is reduced due to the cause.

本発明の一形態にかかる入力装置は、内部に光を導波可能な透明または半透明な導波体の接触面に散乱体が接触する状態を、前記散乱体が生じる散乱光を用いて撮像された前記接触面の画像から検出する入力装置であって、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段を備える。   An input device according to an aspect of the present invention captures an image of a state in which a scatterer is in contact with a contact surface of a transparent or translucent waveguide capable of guiding light therein by using scattered light generated by the scatterer. An input device for detecting from the image of the contact surface that has been corrected, comprising correction means for correcting variations in detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer.

本発明はこのような構成を有するため、散乱体の散乱角度特性のために接触位置によって検出される赤外光に強度差が生じても、補正手段によって補正されるため、入力精度の低下を防止することができる。   Since the present invention has such a configuration, even if an intensity difference occurs in the infrared light detected by the contact position due to the scattering angle characteristic of the scatterer, the correction is corrected by the correction means, so that the input accuracy is reduced. Can be prevented.

FTIRにおいて散乱体の接触位置の違いによって散乱光が検出される強度に差が生じる場合の具体例について示した図である。It is the figure shown about the specific example in case a difference arises in the intensity | strength in which scattered light is detected by the difference in the contact position of a scatterer in FTIR. 本発明の第1の実施形態のブロック図である。It is a block diagram of a 1st embodiment of the present invention. 本発明の第1の実施形態におけるキャリブレーション処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the calibration process in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるキャリブレーション処理で得られる散乱特性データの例である。It is an example of the scattering characteristic data obtained by the calibration process in the 1st Embodiment of this invention. 本発明の第1の実施形態における補正パラメータの例である。It is an example of the correction parameter in the 1st Embodiment of this invention. 本発明の第1の実施形態における検出部が取得する画像の座標系の例を示す図である。It is a figure which shows the example of the coordinate system of the image which the detection part in the 1st Embodiment of this invention acquires. 本発明の第1の実施形態におけるキャリブレーション処理で表示部に表示する情報の例を示した図である。It is the figure which showed the example of the information displayed on a display part by the calibration process in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるキャリブレーション処理で表示部に表示する情報の他の例を示した図である。It is the figure which showed the other example of the information displayed on a display part by the calibration process in the 1st Embodiment of this invention. 本発明の第1の実施形態における検出部が取得する画像の座標系の例を示す図である。It is a figure which shows the example of the coordinate system of the image which the detection part in the 1st Embodiment of this invention acquires. 本発明の第1の実施形態における補正処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the correction process in the 1st Embodiment of this invention. 本発明の第1の実施形態における検出強度と補正値の関係を示すグラフの例である。It is an example of the graph which shows the relationship between the detection intensity | strength and correction value in the 1st Embodiment of this invention. 本発明の第2の実施形態のブロック図である。It is a block diagram of the 2nd Embodiment of this invention. 本発明の第2の実施形態における一方の光源部のみを発光させた場合の状況を示した図である。It is the figure which showed the condition at the time of making only one light source part in the 2nd Embodiment of this invention light-emit. 本発明の第2の実施形態における他方の光源部のみを発光させた場合の状況を示した図である。It is the figure which showed the condition at the time of making only the other light source part in the 2nd Embodiment of this invention light-emit. 本発明の第2の実施形態における一方の光源部のみを発光させて散乱体を移動させた場合の状況を示した図である。It is the figure which showed the condition at the time of making only one light source part in the 2nd Embodiment of this invention light-emit, and moving a scatterer. 本発明の第2の実施形態における補正処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the correction | amendment process in the 2nd Embodiment of this invention. 本発明の第2の実施形態における補正パラメータを選択する際に用いるグラフの例を示した図である。It is the figure which showed the example of the graph used when selecting the correction parameter in the 2nd Embodiment of this invention. 本発明の第2の実施形態における光源部の透明板への赤外光の照射角度を変える例を示した図である。It is the figure which showed the example which changes the irradiation angle of the infrared light to the transparent plate of the light source part in the 2nd Embodiment of this invention. 本発明の第2の実施形態における検出部の撮像角度を変える例を示した図である。It is the figure which showed the example which changes the imaging angle of the detection part in the 2nd Embodiment of this invention.

次に本発明の実施の形態について図面を参照して詳細に説明する。
[第1の実施形態]
図2を参照すると、本発明の第1の実施形態にかかる入力装置1は、透明板2と、光源部3と、検出部4と、表示部5と、処理部6とから構成される。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
[First embodiment]
Referring to FIG. 2, the input device 1 according to the first embodiment of the present invention includes a transparent plate 2, a light source unit 3, a detection unit 4, a display unit 5, and a processing unit 6.

透明板2は、光源部3から照射された赤外光を板内部に閉じ込めて導波させると共に、その板面上はインクや指といった散乱体7の接触面2aとして用いられる。透明板2は、透明のアクリルパネルやガラスなどを用いることができる。本実施形態では、導波体を透明板2で構成しているが、半透明なアクリルパネル等で導波体を構成してもよい。   The transparent plate 2 confines and guides infrared light emitted from the light source unit 3 inside the plate, and the plate surface is used as a contact surface 2a of a scatterer 7 such as ink or a finger. The transparent plate 2 can be a transparent acrylic panel or glass. In the present embodiment, the waveguide is constituted by the transparent plate 2, but the waveguide may be constituted by a translucent acrylic panel or the like.

光源部3は、赤外光を透明板2の一辺の側端面に照射するための光源である。光源部3は、例えば複数の赤外発光ダイオード(LED)を直線上にほぼ等間隔で配列した電子回路基板などを用いることができる。   The light source unit 3 is a light source for irradiating the side end surface of one side of the transparent plate 2 with infrared light. As the light source unit 3, for example, an electronic circuit board in which a plurality of infrared light emitting diodes (LEDs) are arranged on a straight line at almost equal intervals can be used.

検出部4は、散乱体7の接触状態を検出するために、赤外光を用いて透明板2の接触面2aを斜め上方から撮像するものである。検出部4は、例えば、レンズおよび可視光カットフィルタを介して入射する光の明暗を電荷の量に光電変換するCCDイメージセンサを搭載したデジタルカメラなどを用いることができる。   In order to detect the contact state of the scatterer 7, the detection unit 4 captures an image of the contact surface 2 a of the transparent plate 2 from above obliquely using infrared light. The detection unit 4 may be, for example, a digital camera equipped with a CCD image sensor that photoelectrically converts the brightness of light incident through a lens and a visible light cut filter into the amount of charge.

表示部5は、処理部6から出力される情報を表示する表示デバイスである。表示部5は、例えば、液晶ディスプレイやプロジェクターなどを用いることができる。表示部5は、そのディスプレイ面が透明板2の接触面2aと反対の面に対向するように配置されている。表示部5のディスプレイ面に表示された情報は、透明板2を通して見ることができる。表示部5から出射する可視光は、透明板2を介して検出部4にも到達するが、これは上記の可視光カットフィルタにより遮断されるため、撮像結果には現れない。   The display unit 5 is a display device that displays information output from the processing unit 6. For example, a liquid crystal display or a projector can be used as the display unit 5. The display unit 5 is arranged so that its display surface faces the surface opposite to the contact surface 2 a of the transparent plate 2. Information displayed on the display surface of the display unit 5 can be viewed through the transparent plate 2. Visible light emitted from the display unit 5 also reaches the detection unit 4 via the transparent plate 2, but this does not appear in the imaging result because it is blocked by the visible light cut filter.

処理部6は、キャリブレーション処理部8、補正処理部9、補正パラメータ記憶部10、及び一つまたは複数のアプリケーション実行部11から構成される。処理部6は、例えば汎用のオペレーティングシステム、アプリケーションソフトウェアを動作可能なパーソナルコンピュータ等のコンピュータを用いることができる。この場合、キャリブレーション処理部8、補正処理部9、アプリケーション実行部11は、コンピュータとその上で動作するプログラムとで実現することができる。また、補正パラメータ記憶部10は、コンピュータのメモリやハードディスクで実現することができる。   The processing unit 6 includes a calibration processing unit 8, a correction processing unit 9, a correction parameter storage unit 10, and one or a plurality of application execution units 11. As the processing unit 6, for example, a general-purpose operating system or a computer such as a personal computer capable of operating application software can be used. In this case, the calibration processing unit 8, the correction processing unit 9, and the application execution unit 11 can be realized by a computer and a program that operates on the computer. The correction parameter storage unit 10 can be realized by a computer memory or a hard disk.

キャリブレーション処理部8は、散乱体7の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正するための補正パラメータを生成する処理を行う。   The calibration processing unit 8 performs processing for generating correction parameters for correcting variations in detected light intensity due to the difference in contact position caused by the scattering characteristics of the scatterer 7.

補正パラメータ記憶部10は、散乱体の散乱特性に基づいて算出された上記の補正パラメータを記録する。なお、この補正パラメータは、指やインクなど散乱体の種類ごとに異なるため、散乱体の種類ごとに記憶する。   The correction parameter storage unit 10 records the correction parameters calculated based on the scattering characteristics of the scatterer. Note that this correction parameter is stored for each type of scatterer because it differs for each type of scatterer such as finger or ink.

補正処理部9は、補正パラメータ記憶部10に記憶された補正パラメータを用いて、検出部4が検出した接触状態の画像の画素値を補正する。つまり、補正処理部9は、散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する。   The correction processing unit 9 corrects the pixel value of the image in the contact state detected by the detection unit 4 using the correction parameter stored in the correction parameter storage unit 10. That is, the correction processing unit 9 corrects the variation in detected light intensity due to the difference in contact position caused by the scattering characteristics of the scatterer.

アプリケーション実行部11は、タッチ検出や描画情報の記録といったアプリケーションの種類ごとに用意される。個々のアプリケーション実行部11は、補正処理部9が補正した画像を入力情報として受け取り、例えば各画素の画素値を閾値と比較して量子化することにより、散乱体7が接触面2aに接触している画素、接触していない画素を検出し、この検出結果に基づき、各アプリケーションに応じた処理結果を表示部5に表示する。例えばタッチ検出用のアプリケーション実行部11は、図2の表示部5にある表示例で示すように、ユーザの指の接触位置を認識してカーソル画像などを表示部5に表示する。また、例えば描画情報の記録用のアプリケーション実行部11は、検出したインクの塗布領域をコンピュータに取り込む描画情報として表示する。   The application execution unit 11 is prepared for each type of application such as touch detection and drawing information recording. Each application execution unit 11 receives the image corrected by the correction processing unit 9 as input information, and the scatterer 7 comes into contact with the contact surface 2a by, for example, quantizing the pixel value of each pixel with a threshold value. Pixels that are not in contact with each other and pixels that are not in contact with each other are detected, and based on the detection result, the processing result corresponding to each application is displayed on the display unit 5. For example, the application execution unit 11 for touch detection recognizes the contact position of the user's finger and displays a cursor image or the like on the display unit 5 as shown in the display example in the display unit 5 of FIG. For example, the application execution unit 11 for recording drawing information displays the detected ink application area as drawing information to be taken into a computer.

[動作の説明]
次に、本実施の形態の全体の動作について詳細に説明する。本実施の形態の全体の処理は、補正処理を実行するために必要な補正パラメータを事前に取得するためのキャリブレーション処理と、この補正パラメータに基づいて、検出部4が取得した画像を補正するための補正処理と、補正した画像をアプリケーション実行部11が入力情報として受け取り、アプリケーションに応じた処理を行う部分との3つに大きく分けられる。最後のアプリケーション実行部11が行う処理については、タッチ検出や描画情報の記録などアプリケーションごとに様々であるため、本実施の形態ではその詳細な説明を省略する。
[Description of operation]
Next, the overall operation of the present embodiment will be described in detail. The entire process of the present embodiment is a calibration process for acquiring correction parameters necessary for executing the correction process in advance, and the image acquired by the detection unit 4 is corrected based on the correction parameters. For this reason, the application execution unit 11 receives the corrected image as input information and performs a process according to the application. Since the process performed by the last application execution unit 11 varies depending on the application such as touch detection and recording of drawing information, detailed description thereof is omitted in the present embodiment.

まずキャリブレーション処理について、図面を参照しながら詳細に説明する。   First, the calibration process will be described in detail with reference to the drawings.

図3はキャリブレーション処理の全体の動作を示すフローチャートである。また図4はキャリブレーション処理で取得される散乱特性データの例である。図4の例では、縦軸は画像の任意の画素における検出強度(ピクセル値(例えば輝度値))を表す。また横軸は図6のX座標に対応する。すなわち、本実施形態では、矩形の透明板2の接触面2aの或る角を原点とし、そこから延びる透明板2の一方の一辺をX軸、他方の辺をY軸としている。図4の取得データは、検出部4が取得した画像の透明板2上の検出位置ごとの各検出強度を示している。図4の取得データは、X軸と平行の透明板2上の特定の直線上の複数位置に散乱体を接触させる操作をユーザに実行させることにより得られる。   FIG. 3 is a flowchart showing the overall operation of the calibration process. FIG. 4 is an example of scattering characteristic data acquired by the calibration process. In the example of FIG. 4, the vertical axis represents the detection intensity (pixel value (for example, luminance value)) at an arbitrary pixel of the image. The horizontal axis corresponds to the X coordinate in FIG. That is, in this embodiment, a certain angle of the contact surface 2a of the rectangular transparent plate 2 is set as the origin, one side of the transparent plate 2 extending therefrom is set as the X axis, and the other side is set as the Y axis. The acquired data in FIG. 4 indicates each detection intensity for each detection position on the transparent plate 2 of the image acquired by the detection unit 4. The acquired data in FIG. 4 is obtained by causing the user to perform an operation of bringing the scatterer into contact with a plurality of positions on a specific straight line on the transparent plate 2 parallel to the X axis.

キャリブレーション処理部8は、始めに表示部5の画面を通じて、ユーザにキャリブレーション操作を指示するための開始メニューを表示する(図3のStep1)。図7は開始メニューの一例を示す。この例は、散乱体7Aがマーカーペン12のインクであることを想定した例となっている。図7に示されるように、キャリブレーション処理部8は、ユーザにキャリブレーション操作を実施させるにあたり、「こちらの線の上をなぞってください」というメッセージを表示部5に表示すると共に、インクを塗布させる領域をキャリブレーションエリア13として表示する。このような表示により、ユーザはインクを塗布する箇所が分かるため、キャリブレーション操作を容易かつ確実に実行することが可能となる。なお、メッセージは上記の例に限られない。例えば、「こちらの線の上を、ほぼ同じ力でなぞってください」、「こちらの線の上を、一定の速さでなぞってください」などでもよい。   First, the calibration processing unit 8 displays a start menu for instructing the user to perform a calibration operation through the screen of the display unit 5 (Step 1 in FIG. 3). FIG. 7 shows an example of the start menu. In this example, it is assumed that the scatterer 7A is the ink of the marker pen 12. As shown in FIG. 7, the calibration processing unit 8 displays a message “Please trace this line” on the display unit 5 and applies ink when the user performs the calibration operation. The area to be displayed is displayed as the calibration area 13. Such a display allows the user to know where to apply the ink, so that the calibration operation can be performed easily and reliably. The message is not limited to the above example. For example, “Please trace this line with almost the same force”, “Please trace this line at a constant speed”, etc.

次にキャリブレーション処理部8は、検出部4を用いて、検出強度の測定を行う(Step2)。具体的には、キャリブレーション処理部8は、検出部4によって撮像された透明板2の撮像画像から、キャリブレーションエリア13上の座標ごとの検出強度(ピクセル値)を測定する。なお、キャリブレーション処理部8は、検出強度を測定する前に、検出部4に用いているカメラや撮像角度、外光などの雑音光の影響といった諸条件に応じて、撮像画像に対してレンズ歪み補正、台形歪み補正、閾値処理などの処理を行ってもよい。   Next, the calibration processing unit 8 measures the detection intensity using the detection unit 4 (Step 2). Specifically, the calibration processing unit 8 measures the detection intensity (pixel value) for each coordinate on the calibration area 13 from the captured image of the transparent plate 2 captured by the detection unit 4. Before measuring the detection intensity, the calibration processing unit 8 applies a lens to the captured image in accordance with various conditions such as the camera used in the detection unit 4, the imaging angle, and the influence of noise light such as external light. Processing such as distortion correction, trapezoidal distortion correction, and threshold processing may be performed.

図3のStep2の処理は、検出強度がキャリブレーションエリア13内の全エリアで取得できるまで繰り返し実行する。なお、キャリブレーションエリア13は、透明板2の接触面2aの全エリアとしてもよいし、接触面2aの一部の領域に限定してもよい。本実施形態では、同じX座標値であれば、Y座標値に相違があっても散乱光強度がほぼ同じとみなせることを前提としている。このため、Y軸方向の幅が一定で、X軸方向に長く延びるストライプ状のキャリブレーションエリア13を設定している。この場合、X座標値の各値に対応して補正パラメータの値が保存される。   The process of Step 2 in FIG. 3 is repeatedly executed until the detection intensity can be acquired in all areas in the calibration area 13. The calibration area 13 may be the entire area of the contact surface 2a of the transparent plate 2 or may be limited to a part of the contact surface 2a. In the present embodiment, it is assumed that the scattered light intensity can be regarded as almost the same even if there is a difference in the Y coordinate value if the X coordinate value is the same. For this reason, a stripe-shaped calibration area 13 having a constant width in the Y-axis direction and extending in the X-axis direction is set. In this case, the value of the correction parameter is stored corresponding to each value of the X coordinate value.

キャリブレーション処理部8は、規定の範囲上で検出強度を取得できた場合は、取得したデータを補正パラメータに変換して補正パラメータ記憶部10に保存する(Step3)。具体的には、キャリブレーション処理部8は、まず、取得した全ての検出強度の平均値を算出する。次に、検出強度を取得した位置毎に、上記平均値に対する当該位置の検出強度の比の逆数を計算し、この計算した値を当該位置の補正パラメータの値とする。逆数でなく、上記の比を補正パラメータの値としてもよい。図5は、算出された補正パラメータの一例を示す。この例では、X座標ごとの各検出強度を全データの平均値との比の逆数に変換して保存している。キャリブレーション処理部8は、補正パラメータの算出と保存を終えると、キャリブレーション処理の終了を示すメッセージを表示部5を通じてユーザに表示し、キャリブレーション処理を終了する(Step4)。   If the detected intensity can be acquired within the specified range, the calibration processing unit 8 converts the acquired data into a correction parameter and stores it in the correction parameter storage unit 10 (Step 3). Specifically, the calibration processing unit 8 first calculates an average value of all acquired detection intensities. Next, for each position where the detected intensity is acquired, the reciprocal of the ratio of the detected intensity at the position to the average value is calculated, and this calculated value is used as the value of the correction parameter at the position. The above ratio may be used as the value of the correction parameter instead of the reciprocal. FIG. 5 shows an example of the calculated correction parameter. In this example, each detected intensity for each X coordinate is converted into a reciprocal of the ratio to the average value of all data and stored. When the calibration processing unit 8 finishes calculating and storing the correction parameter, the calibration processing unit 8 displays a message indicating the end of the calibration processing to the user through the display unit 5 and ends the calibration processing (Step 4).

なお、キャリブレーション処理において正確な補正パラメータを得るためには、各検出位置に置く散乱体の接触状況にばらつきがないことが重要である。そのため、キャリブレーション処理部8は、上述のようなキャリブレーション処理を複数回実行し、各回で得られた取得データの平均を取り、それに基づいて補正パラメータを算出するようにしてもよい。また、キャリブレーション処理部8は、ユーザがマーカーペンのインクを一定の圧力で塗布できるようにするために、例えば図8に示すように、ユーザのキャリブレーションエリア13への描画操作を一定の速度に誘導するアニメーション14を表示部5に表示するようにしてもよい。その際、図8に示すように、「こちらの線の上を矢印のアニメーションに合わせてなぞってください」といったメッセージを同時に表示部5に表示するようにしてもよい。なお、一定の速度に誘導する表示オブジャクトは、矢印に限定されない。例えば、所定のマークや記号などでもよい。   In order to obtain an accurate correction parameter in the calibration process, it is important that there is no variation in the contact state of the scatterer placed at each detection position. Therefore, the calibration processing unit 8 may execute the calibration processing as described above a plurality of times, take an average of the acquired data obtained each time, and calculate a correction parameter based on the average. In addition, the calibration processing unit 8 performs a drawing operation on the calibration area 13 by the user at a constant speed so that the user can apply the ink of the marker pen at a constant pressure, for example, as shown in FIG. You may make it display the animation 14 induced | guided | derived to 2 on the display part 5. FIG. At that time, as shown in FIG. 8, a message such as “Please trace this line along with the animation of the arrow” may be displayed on the display unit 5 at the same time. Note that the display object for guiding to a constant speed is not limited to the arrow. For example, a predetermined mark or symbol may be used.

上記の例では、散乱体がマーカーペンのインクである場合について示したが、散乱体がユーザの指である場合に関しても、マーカーペンによる描画が指でなぞるという行為に置き換わるだけで、上記と同様の方法で補正パラメータを取得し保存することができる。   In the above example, the case where the scatterer is the ink of the marker pen is shown. However, even when the scatterer is the finger of the user, the drawing with the marker pen is replaced with the action of tracing with the finger, and the same as above. The correction parameter can be acquired and stored by this method.

次に、上記生成された補正パラメータを用いて、検出部4が取得した画像を補正する処理について説明する。例として、検出部4が図9の通りに座標(0,0)から(Width,Height)までの透明板2上を撮像し、補正処理部9が、取得した画像に対して、補正処理を実行する場合を例にして、図面を参照しながら詳細に説明する。また、使用する散乱体はインクとし、補正パラメータ記憶部10には、インク用の補正パラメータのみが保存されているものとする。なお、補正パラメータ記憶部10にインク用の補正パラメータ以外に、1以上の他の種類の散乱体用の補正パラメータが保存されている場合、どの補正パラメータを使用するかを事前にユーザに選択させるようにしてもよい。   Next, processing for correcting the image acquired by the detection unit 4 using the generated correction parameter will be described. As an example, the detection unit 4 captures an image of the transparent plate 2 from coordinates (0, 0) to (Width, Height) as shown in FIG. 9, and the correction processing unit 9 performs correction processing on the acquired image. An example of the execution will be described in detail with reference to the drawings. Further, it is assumed that the scatterer to be used is ink, and only the correction parameters for ink are stored in the correction parameter storage unit 10. When correction parameters for one or more other types of scatterers are stored in the correction parameter storage unit 10 in addition to the correction parameters for ink, the user is allowed to select in advance which correction parameter to use. You may do it.

図10は、補正処理部9の処理の動作手順を示したフローチャートである。また図11は、取得画像の任意の画素の検出強度(ピクセル値)と、それを補正パラメータに基づいて補正した後の値との関係を示したグラフである。以下、説明のために、補正する画像の任意の画素の座標を(i,j)とする。   FIG. 10 is a flowchart showing the operation procedure of the processing of the correction processing unit 9. FIG. 11 is a graph showing the relationship between the detection intensity (pixel value) of an arbitrary pixel of the acquired image and the value after correcting it based on the correction parameter. Hereinafter, for the sake of explanation, the coordinates of an arbitrary pixel of the image to be corrected are assumed to be (i, j).

補正処理部9は、はじめに補正パラメータ記憶部10の補正パラメータより、X=iにおける補正係数を取得する(Step11)。この補正係数は、図11の例で示す通り、補正パラメータの座標X=iのときの値で決定される。   First, the correction processing unit 9 acquires a correction coefficient at X = i from the correction parameters in the correction parameter storage unit 10 (Step 11). This correction coefficient is determined by the value when the correction parameter coordinate X = i, as shown in the example of FIG.

次に補正処理部9は、補正対象の画素座標(i,j)の検出強度を取得する(Step12)。そして補正処理部9は、この検出強度にStep11で取得した補正係数を掛けて補正値を求める(Step13)。具体的には、図11で示すように、補正する画像の座標(i,j)の検出強度pに対して補正パラメータdを掛けたp×dが補正後に得られる値となる。   Next, the correction processing unit 9 acquires the detected intensity of the pixel coordinates (i, j) to be corrected (Step 12). Then, the correction processing unit 9 obtains a correction value by multiplying the detected intensity by the correction coefficient acquired in Step 11 (Step 13). Specifically, as shown in FIG. 11, p × d obtained by multiplying the detection intensity p of the coordinates (i, j) of the image to be corrected by the correction parameter d is a value obtained after correction.

図10のフローチャートで示した通り、補正処理は取得画像の座標(0,0)〜(Width,Height)まで実行される。これにより全画素の検出強度の補正が完了する。なお、補正処理を行う前の画像に対して、キャリブレーション処理の場合と同様に、検出部に用いているカメラや撮像角度、外光などの雑音光の影響といった諸条件に応じて、画像に対してレンズ歪み補正、台形歪み補正、閾値処理などの処理を行ってもよい。   As shown in the flowchart of FIG. 10, the correction process is executed from the coordinates (0, 0) to (Width, Height) of the acquired image. Thereby, the correction of the detection intensity of all pixels is completed. As with the calibration process, the image before correction processing is converted into an image according to various conditions such as the camera used in the detection unit, the imaging angle, and the influence of noise light such as external light. On the other hand, processing such as lens distortion correction, trapezoidal distortion correction, and threshold processing may be performed.

このように補正処理では、キャリブレーション処理で取得した補正パラメータに基づいて、検出部4が取得した画像の各画素の値を補正することにより、散乱特性による検出強度の差を排除できるようになる。   As described above, in the correction process, by correcting the value of each pixel of the image acquired by the detection unit 4 based on the correction parameter acquired in the calibration process, a difference in detection intensity due to the scattering characteristic can be eliminated. .

以上説明したように、本実施の形態では、事前に散乱体の散乱特性を取得するためのキャリブレーション処理により散乱特性データを取得し、これに基づいて算出した補正パラメータに基づいて画像の補正処理を行うように構成されている。そのため、散乱特性の影響に基づく検出強度(ピクセル値)の差を排除した画像を得ることができる。   As described above, in the present embodiment, the scattering characteristic data is acquired in advance by the calibration process for acquiring the scattering characteristic of the scatterer, and the image correction process is performed based on the correction parameter calculated based on this. Is configured to do. Therefore, it is possible to obtain an image in which a difference in detection intensity (pixel value) based on the influence of scattering characteristics is eliminated.

[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings.

本実施の形態では、ユーザが指によるタッチ操作やマーカーペンによる描画などの情報入力操作を実行している最中に、リアルタイムに最適な補正パラメータを特定し、補正を実行していく処理の例について説明する。   In the present embodiment, an example of processing in which a correction parameter is specified in real time and correction is performed while the user is performing an information input operation such as a touch operation with a finger or a drawing with a marker pen. Will be described.

図12を参照すると、本実施の形態にかかる入力装置20は、図2の光源部3に相当する光源部3Aが取り付けられた透明板2の辺と対向する辺に光源部3Bが取り付けられている点と、これら2つの光源部3A、3Bの発光のON/OFFを制御する制御部21を備えている点とが第1の実施形態と相違する。また、処理部6内の補正処理部9の機能の一部が第1の実施形態と相違する。その他の構成に関しては、第1の実施の形態と同一であるため、同一符号を付してその説明を省略する。なお、処理部6内の補正パラメータ記憶部10には、予め種類の異なる複数の散乱体に対応する補正パラメータが記録されている。   Referring to FIG. 12, in the input device 20 according to the present embodiment, the light source unit 3B is attached to the side opposite to the side of the transparent plate 2 to which the light source unit 3A corresponding to the light source unit 3 of FIG. And the point provided with the control part 21 which controls ON / OFF of light emission of these two light source parts 3A and 3B is different from 1st Embodiment. Moreover, a part of function of the correction | amendment process part 9 in the process part 6 differs from 1st Embodiment. Since other configurations are the same as those of the first embodiment, the same reference numerals are given and description thereof is omitted. A correction parameter corresponding to a plurality of different types of scatterers is recorded in advance in the correction parameter storage unit 10 in the processing unit 6.

次に本実施の形態における動作について図面を参照しながら詳細に説明する。まず、制御部21は、透明板2上の画像を撮像する際に光源部3Aのみを発光させた場合と光源部3Bのみを発光させた場合といったように、光源部の発光条件の異なる場合について検出部4を用いて撮像を実行し、それぞれの場合についての画像を取得する。これにより、擬似的に散乱体の位置を変えた場合と同様の効果が得られ、実際には散乱体の位置を変えてなくとも、複数の位置に散乱体をおいた場合と同様の検出強度を得ることが可能となる。これについて、図13、図14、図15を用いて説明する。   Next, the operation in the present embodiment will be described in detail with reference to the drawings. First, when the control unit 21 captures an image on the transparent plate 2, only the light source unit 3A emits light, and when only the light source unit 3B emits light, the light source unit has different light emission conditions. Imaging is performed using the detection unit 4, and an image for each case is acquired. As a result, the same effect as when the position of the scatterer is changed in a pseudo manner can be obtained. Even if the position of the scatterer is not changed, the detection intensity is the same as when the scatterer is placed at multiple positions. Can be obtained. This will be described with reference to FIGS. 13, 14, and 15. FIG.

図13は光源部3AのみがONの場合に透明板2上の散乱体が赤外光を散乱し、その一部が検出部4に検出される状況を示している。また、図14は光源部3AをOFFにして、光源部3BをONにした状況を示している。この場合、散乱体の位置は変わらないが、透明板2内を導波する赤外光の反射角が変化するため、散乱体の散乱特性により被検出光の強度が変化する。このことは、光源部3Aと光源部3BのON/OFFを切り替えることにより、図15のように散乱体の位置を移動した場合と同様の被検出光が得られる状態を再現できることを示している。   FIG. 13 shows a situation where the scatterer on the transparent plate 2 scatters infrared light when only the light source unit 3 </ b> A is ON, and a part thereof is detected by the detection unit 4. FIG. 14 shows a situation where the light source unit 3A is turned off and the light source unit 3B is turned on. In this case, although the position of the scatterer does not change, the reflection angle of the infrared light guided in the transparent plate 2 changes, so that the intensity of the detected light changes depending on the scattering characteristics of the scatterer. This indicates that by switching ON / OFF of the light source unit 3A and the light source unit 3B, it is possible to reproduce a state in which detected light similar to that obtained when the position of the scatterer is moved as shown in FIG. .

本実施形態では、予め光源部3Aと光源部3Bの切り替えによって変化する被検出光の強度が、どの程度散乱体を移動させた場合に相当するか、その距離Lを測定し、処理部6内のメモリに記憶しておく。本実施形態では、距離Lは、散乱体の種類が違ってもほぼ同じである。また、散乱体が接触する位置が違ってもほぼ同じであるとする。なお、散乱体の種類及び散乱体の接触位置によって距離Lが異なる場合は各散乱体及び散乱体の位置に応じた複数の距離Lを事前に記録しておき、補正処理実行時に散乱体の種類、接触位置に応じて適切な距離Lを参照するものとする。   In the present embodiment, the distance L is measured to determine how much the intensity of the detected light, which is changed by switching between the light source unit 3A and the light source unit 3B, corresponds to when the scatterer is moved. Store it in the memory. In the present embodiment, the distance L is substantially the same regardless of the type of scatterer. Further, it is assumed that the scatterers are almost the same even if they are in different positions. If the distance L varies depending on the type of scatterer and the contact position of the scatterer, a plurality of distances L corresponding to the position of each scatterer and scatterer are recorded in advance, and the type of scatterer when executing the correction process The appropriate distance L is referred to according to the contact position.

次に、本実施の形態における補正処理の実行例について、説明する。例として、光源部3AをON、光源部3BをOFFにして撮像した検出画像(1)に対して、光源部3AをOFF、光源部3BをONに切り替えて撮像して得られるもうひとつの画像(検出画像(2))から、各画素の補正後の検出強度を決定し、検出画像(1)を補正する場合について説明する。   Next, an execution example of the correction process in the present embodiment will be described. As an example, another image obtained by switching the light source unit 3A to OFF and the light source unit 3B to ON for the detected image (1) captured with the light source unit 3A turned on and the light source unit 3B turned off. A case will be described in which the detection intensity after correction of each pixel is determined from (detected image (2)) and the detected image (1) is corrected.

図16は本実施形態における補正処理の流れについて示したフローチャートである。なお、本実施形態では説明のために図9と同様の座標系を用いるとともに、補正する画像の任意の画素の座標を(i,j)とする。   FIG. 16 is a flowchart showing the flow of correction processing in the present embodiment. In the present embodiment, for the sake of explanation, the same coordinate system as in FIG. 9 is used, and the coordinates of an arbitrary pixel of the image to be corrected are (i, j).

補正処理部9は、はじめに一方の光源3AのみをONにした際の検出画像(1)における画素(i,j)の検出強度p1を取得する(Step21)。次に補正処理部9は、光源3BのみをONにした際の検出画像(2)における同画素の検出強度p2を取得する(Step22)。   First, the correction processing unit 9 acquires the detection intensity p1 of the pixel (i, j) in the detection image (1) when only one of the light sources 3A is turned on (Step 21). Next, the correction processing unit 9 acquires the detection intensity p2 of the same pixel in the detection image (2) when only the light source 3B is turned on (Step 22).

そして、補正処理部9は、上記二つの検出強度p1、p2より最適な補正パラメータを推定する(Step23)。ここでの処理は、補正パラメータ記憶部10に予め記録されている種類の異なる複数の散乱体の補正パラメータの候補の中から1つを推定する形で行う。なお、記録されている各散乱体の補正パラメータについては第1の実施の形態で示した補正パラメータのデータと同様の形式で保存されているものとする。これらが保存されるタイミングについては、入力装置の工場出荷時や、入力装置が納品された際の初回起動時に第1の実施の形態で示したキャリブレーション処理を種類の異なる複数の散乱体に対して行い、取得したデータを保存するなど様々なタイミングにおいて可能である。   Then, the correction processing unit 9 estimates an optimal correction parameter from the two detection intensities p1 and p2 (Step 23). This processing is performed in such a way that one of the correction parameter candidates of a plurality of different types of scatterers recorded in advance in the correction parameter storage unit 10 is estimated. It is assumed that the recorded correction parameters of each scatterer are stored in the same format as the correction parameter data shown in the first embodiment. With respect to the timing at which these are stored, the calibration processing shown in the first embodiment is performed on a plurality of different types of scatterers when the input device is shipped from the factory or when the input device is delivered for the first time. This is possible at various timings such as storing the acquired data.

補正処理部9は、p1,p2の2つの平均値をmとすると、平均値との比の逆数m/p1及びm/p2に関して、各散乱体の補正パラメータの各検出位置での値との差を計算する。図17では、散乱体7Aの補正パラメータと散乱体7Bの補正パラメータとの2つのデータの候補に関して比較するグラフの例となっている。具体的には、m/p1は検出画像(1)の当該座標における値、m/p2については検出画像(2)の値で光源を切り替えることで検出位置を前記Lの距離だけずらす効果で得られた値とする。そして、補正処理部9は、値ごとの各補正パラメータのデータとの差が最も少ないものを補正処理に用いるデータとして決定する。図17の例では、散乱体7Aの補正パラメータの方が散乱体7Bと比較して差が少ないため、散乱体7Aの補正パラメータが用いられることとなる。   The correction processing unit 9 calculates the value at each detection position of the correction parameter of each scatterer with respect to the reciprocals m / p1 and m / p2 of the ratio to the average value, where m is the average value of the two values p1 and p2. Calculate the difference. FIG. 17 shows an example of a graph for comparing two data candidates of the correction parameter of the scatterer 7A and the correction parameter of the scatterer 7B. Specifically, m / p1 is obtained by the effect of shifting the detection position by the distance L by switching the light source with the value of the detected image (1) at the corresponding coordinate, and m / p2 with the value of the detected image (2). Value. Then, the correction processing unit 9 determines data having the smallest difference from each correction parameter data for each value as data used for the correction processing. In the example of FIG. 17, since the correction parameter of the scatterer 7A is smaller than that of the scatterer 7B, the correction parameter of the scatterer 7A is used.

次に補正処理部9は、選択した補正パラメータに基づいて該当検出強度の補正を行う(Step24)。Step24の具体的な処理は、第1の実施の形態で示した補正処理と同様に、検出画像(1)の座標(i,j)のピクセル値に対して、補正パラメータを掛けることで補正後のピクセル値を求める処理となる。   Next, the correction processing unit 9 corrects the detected intensity based on the selected correction parameter (Step 24). The specific processing of Step 24 is the same as the correction processing shown in the first embodiment, after correction by multiplying the pixel value of the coordinates (i, j) of the detected image (1) by the correction parameter. This is a process for obtaining the pixel value of.

以上の処理は、図16のフローチャートで示した通り、画素の座標(0,0)〜(Width, Height)まで実行される。これにより全画素の検出強度の補正が完了する。   The above processing is executed from pixel coordinates (0, 0) to (Width, Height) as shown in the flowchart of FIG. Thereby, the correction of the detection intensity of all pixels is completed.

なお、本実施の形態では、検出条件を切り替える方法として、透明板2の両側面にそれぞれのON/OFFを切り替え可能な光源部3A、3Bを設置する方法について説明したが、本例は検出条件の切り替えの一例であり、その限りではない。例えば図18で示したように透明板2の同一側面に入射角度の異なる光源部3A、3Bを設置して、それらのON/OFFを交互に切り替えることで、検出条件を切り替えるといった方法も適用可能である。また、図19で示すように透明体2の接触面を撮像する角度や取り付け位置の異なる検出部4A、4Bを複数用意し、これら複数の検出部4を切り替えることで検出条件を切り替えるといった方法も適用可能とする。すなわち、検出条件の切替えは、透明板2へ照射する光の入射角度、透明板2の接触面の画像を撮像する検出部4の位置、および向きの何れか1つ、または2つ、または全てを切替える方法を採用することができる。   In the present embodiment, as a method for switching the detection condition, a method for installing the light source units 3A and 3B that can be switched ON / OFF on both side surfaces of the transparent plate 2 has been described. This is an example of switching, and is not limited thereto. For example, as shown in FIG. 18, the light source units 3A and 3B having different incident angles are installed on the same side surface of the transparent plate 2 and the detection conditions are switched by alternately switching the ON / OFF thereof. It is. In addition, as shown in FIG. 19, there is a method in which a plurality of detection units 4A and 4B having different angles and attachment positions for imaging the contact surface of the transparent body 2 are prepared, and the detection conditions are switched by switching the plurality of detection units 4. Applicable. That is, the detection condition is switched by any one, two, or all of the incident angle of the light applied to the transparent plate 2, the position and direction of the detection unit 4 that captures the image of the contact surface of the transparent plate 2. It is possible to adopt a method of switching between.

さらに、この他にも例えばユーザが入力操作を行っている最中に得られた複数位置の検出強度から補正パラメータを生成するようにすることで、同様にキャリブレーション操作をユーザに要求しないで補正処理を実行するが可能となる。   In addition to this, for example, correction parameters are generated from detection intensities at a plurality of positions obtained while the user is performing an input operation, thereby similarly correcting without requiring the user to perform a calibration operation. Processing can be executed.

以上説明したように、本実施の形態では、複数の光源部または検出部を切り替えて得られる複数の検出強度より、散乱体を推定し、その補正パラメータにより補正を行うという処理により、事前のユーザによるキャリブレーション操作や使用する補正パラメータの選択操作を必要としないで、散乱特性の影響に基づく検出強度の差を排除した補正画像を得ることができる。   As described above, in the present embodiment, a user in advance is processed by a process of estimating a scatterer from a plurality of detection intensities obtained by switching a plurality of light source units or detection units and performing correction using the correction parameter. Thus, it is possible to obtain a corrected image in which the difference in detection intensity based on the influence of the scattering characteristics is eliminated without requiring the calibration operation by the above and the selection operation of the correction parameter to be used.

上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
内部に光を導波可能な透明または半透明な導波体の接触面に散乱体が接触する状態を、前記散乱体が生じる散乱光を用いて撮像された前記接触面の画像から検出する入力装置であって、
前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段を備えることを特徴とする入力装置。
(付記2)
前記補正手段は、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正するための補正パラメータを用いて、前記接触面の画像の画素値を補正することを特徴とする付記1に記載の入力装置。
(付記3)
複数の位置に前記散乱体が接触している前記接触面の画像から前記複数の位置ごとの前記散乱光の強度を測定することで、前記補正パラメータの値を算出するキャリブレーション処理手段を備えることを特徴とする付記2に記載の入力装置。
(付記4)
前記散乱体の種類毎の前記補正パラメータを記憶する補正パラメータ記憶手段を備え、
前記補正手段は、前記補正パラメータ記憶手段に記憶された複数の前記補正パラメータのうちから、実際の補正に使用する前記補正パラメータを選択することを特徴とする付記2または3に記載の入力装置。
(付記5)
前記補正手段は、撮像条件を変えて撮像した前記接触面の画像の各位置における光強度の変化の仕方が前記散乱体の種類によって異なることを利用して、実際の補正に使用する前記補正パラメータを選択することを特徴とする付記4に記載の入力装置。
(付記6)
前記補正手段は、前記散乱体が接触する状態を検出する前記接触面の画像の撮像条件を第1の撮像条件とし、前記第1の撮像条件と異なる撮像条件を第2の撮像条件とし、前記第1の撮影条件における光強度と前記第2の撮影条件における光強度に基づいて、前記補正パラメータ記憶手段に記憶された複数の前記補正パラメータの中から実際の補正に使用する前記補正パラメータを選択することを特徴とする付記4に記載の入力装置。
(付記7)
前記第2の撮像条件は、前記導波体へ光を照射する光源手段が前記導波体へ照射する光の入射角度、前記接触面の画像を撮像する検出部の位置、および向きの何れか1つ、または2つ、または全てが前記第1の撮像条件と相違することを特徴とする付記5または6に記載の入力装置。
(付記8)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、前記接触面の2以上の位置に対し前記散乱体を、同時にもしくは順に接触させる操作を行うように指示する表示を行うことを特徴とする付記3に記載の入力装置。
(付記9)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、前記接触面の2以上の位置に対し前記散乱体を、同一もしくは同程度の圧力により、同時にもしくは順に接触させる操作を行うように指示する表示を行うことを特徴とする付記3に記載の入力装置。
(付記10)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、前記接触面に前記散乱体を第1の位置にて接触させた後、接触した状態を保持したまま、前記第1の位置とは離れた第2の位置に前記散乱体を移動させる操作を行うように指示する表示を行うことを特徴とする付記3に記載の入力装置。
(付記11)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、前記接触面に前記散乱体を第1の位置にて接触させた後、接触した状態を保持したまま、一定の速度で、前記第1の位置とは離れた第2の位置に前記散乱体を移動させる操作を行うように指示する表示を行うことを特徴とする付記3に記載の入力装置。
(付記12)
前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、所定の経路を一定の速度で移動する図形オブジェクトを表示することを特徴とする付記8乃至11の何れかに記載の入力装置。
(付記13)
前記散乱体はインクであることを特徴とする付記1乃至12の何れかに記載の入力装置。
(付記14)
前記散乱体は利用者の指であることを特徴とする付記1乃至13の何れかに記載の入力装置。
(付記15)
前記検出される接触状態は、前記導波体と前記散乱体との接触面積、接触面の形状の何れか、もしくはその両方であることを特徴とする付記1乃至14の何れかに記載の入力装置。
(付記16)
散乱体を接触させる接触面を有し、内部に光を導波可能な透明または半透明な導波体と、
前記導波体の側面へ赤外光を照射する光源部と、
前記散乱体が生じる散乱光を用いて、前記散乱体が接触する前記接触面の画像を前記導波体の上方または下方から撮像する検出部と、
前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正し、該補正後の前記接触面の画像から、前記接触面に前記散乱体が接触する状態を検出する処理部とを備えることを特徴とする入力装置。
(付記17)
散乱体を接触させる接触面を有し、内部に光を導波可能な透明または半透明な導波体と、検出部と、処理部とを備えた入力装置で実行される入力方法であって、
前記検出部が、前記散乱体が生じる散乱光を用いて、前記散乱体が接触する前記接触面の画像を撮像し、
前記処理部が、前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正することを特徴とする入力方法。
(付記18)
散乱体を接触させる接触面を有し、内部に光を導波可能な透明または半透明な導波体と、検出部と、処理部とを備えた入力装置の前記処理部を構成するコンピュータを、
前記散乱体が生じる散乱光を用いて前記検出部により撮像された前記散乱体が接触する前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段として機能させるための入力用プログラム。
A part or all of the above embodiments can be described as in the following supplementary notes, but is not limited thereto.
(Appendix 1)
Input for detecting a state in which a scatterer is in contact with a contact surface of a transparent or translucent waveguide capable of guiding light inside from an image of the contact surface imaged using scattered light generated by the scatterer A device,
An input device comprising correction means for correcting variation in detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer.
(Appendix 2)
The correction means corrects the pixel value of the image of the contact surface using a correction parameter for correcting variation in detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer. The input device according to Supplementary Note 1, wherein the input device is characterized.
(Appendix 3)
Calibration processing means for calculating the value of the correction parameter by measuring the intensity of the scattered light for each of the plurality of positions from the image of the contact surface in contact with the scatterer at a plurality of positions. The input device according to appendix 2, characterized by:
(Appendix 4)
Correction parameter storage means for storing the correction parameter for each type of the scatterer,
The input device according to appendix 2 or 3, wherein the correction unit selects the correction parameter to be used for actual correction from the plurality of correction parameters stored in the correction parameter storage unit.
(Appendix 5)
The correction means uses the correction parameter used for actual correction by utilizing the fact that the method of changing the light intensity at each position of the image of the contact surface imaged under different imaging conditions varies depending on the type of the scatterer. The input device according to appendix 4, wherein the input device is selected.
(Appendix 6)
The correction means sets the imaging condition of the image of the contact surface for detecting the state in which the scatterer is in contact as the first imaging condition, sets the imaging condition different from the first imaging condition as the second imaging condition, and Based on the light intensity under the first imaging condition and the light intensity under the second imaging condition, the correction parameter used for actual correction is selected from the plurality of correction parameters stored in the correction parameter storage means The input device according to appendix 4, wherein:
(Appendix 7)
The second imaging condition is any one of an incident angle of light applied to the waveguide by a light source unit that irradiates light to the waveguide, a position of a detection unit that captures an image of the contact surface, and an orientation. The input device according to appendix 5 or 6, wherein one, two, or all are different from the first imaging condition.
(Appendix 8)
The calibration processing means performs an operation of bringing the scatterer into contact with two or more positions on the contact surface simultaneously or sequentially on a display unit arranged so that a display surface overlaps the waveguide. 4. The input device according to appendix 3, wherein display for instructing is performed.
(Appendix 9)
The calibration processing means is configured to place the scatterer at two or more positions on the contact surface simultaneously or under the same or similar pressure on the display unit arranged so that the display surface overlaps the waveguide. 4. The input device according to appendix 3, wherein a display for instructing to perform operations in order is performed.
(Appendix 10)
The calibration processing means maintains a state in which the scatterer is brought into contact with the contact surface at a first position on a display unit arranged so that a display surface overlaps the waveguide. The input device according to appendix 3, wherein a display for instructing to perform an operation of moving the scatterer to a second position distant from the first position is performed.
(Appendix 11)
The calibration processing means maintains a state in which the scatterer is brought into contact with the contact surface at a first position on a display unit arranged so that a display surface overlaps the waveguide. The input device according to appendix 3, wherein a display for instructing an operation to move the scatterer to a second position separated from the first position is performed at a constant speed.
(Appendix 12)
The calibration processing means displays a graphic object that moves at a constant speed along a predetermined path on a display unit that is arranged so that a display surface overlaps the waveguide. The input device according to any one of the above.
(Appendix 13)
13. The input device according to any one of appendices 1 to 12, wherein the scatterer is ink.
(Appendix 14)
14. The input device according to any one of appendices 1 to 13, wherein the scatterer is a user's finger.
(Appendix 15)
The input according to any one of appendices 1 to 14, wherein the detected contact state is any one of or both of a contact area between the waveguide and the scatterer, and a shape of a contact surface. apparatus.
(Appendix 16)
A transparent or translucent waveguide having a contact surface for contacting the scatterer and capable of guiding light inside;
A light source unit for irradiating infrared light onto the side surface of the waveguide;
A detection unit that captures an image of the contact surface with which the scatterer comes into contact from above or below the waveguide using scattered light generated by the scatterer;
A variation in detected light intensity due to a difference in contact position caused by a scattering characteristic of the scatterer on the image of the contact surface is corrected, and the scattering is applied to the contact surface from the image of the contact surface after the correction. An input device comprising: a processing unit that detects a state of contact with a body.
(Appendix 17)
An input method executed by an input device having a contact surface for contacting a scatterer and having a transparent or translucent waveguide capable of guiding light inside, a detection unit, and a processing unit. ,
The detection unit captures an image of the contact surface with which the scatterer contacts, using scattered light generated by the scatterer,
The input method, wherein the processing unit corrects variation in detected light intensity due to a difference in contact position caused by a scattering characteristic of the scatterer on an image of the contact surface.
(Appendix 18)
A computer that constitutes the processing unit of an input device having a contact surface for contacting a scatterer and having a transparent or translucent waveguide capable of guiding light inside, a detection unit, and a processing unit ,
Detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer on an image of the contact surface on which the scatterer is imaged by the detection unit using scattered light generated by the scatterer An input program for functioning as a correction means for correcting variations in the image.

1 入力装置
2 透明板
2a 接触面
3 光源部
4 検出部
5 表示部
6 処理部
7 散乱体
8 キャリブレーション処理部
9 補正処理部
10 補正パラメータ記憶部
11 アプリケーション実行部
20 入力装置
21 制御部
DESCRIPTION OF SYMBOLS 1 Input device 2 Transparent board 2a Contact surface 3 Light source part 4 Detection part 5 Display part 6 Processing part 7 Scattering body 8 Calibration processing part 9 Correction processing part 10 Correction parameter memory | storage part 11 Application execution part 20 Input device 21 Control part

Claims (10)

内部に光を導波可能な透明または半透明な導波体の接触面に散乱体が接触する状態を、前記散乱体が生じる散乱光を用いて撮像された前記接触面の画像から検出する入力装置であって、
前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段を備えることを特徴とする入力装置。
Input for detecting a state in which a scatterer is in contact with a contact surface of a transparent or translucent waveguide capable of guiding light inside from an image of the contact surface imaged using scattered light generated by the scatterer A device,
An input device comprising correction means for correcting variation in detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer.
前記補正手段は、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正するための補正パラメータを用いて、前記接触面の画像の画素値を補正することを特徴とする請求項1に記載の入力装置。   The correction means corrects the pixel value of the image of the contact surface using a correction parameter for correcting variation in detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer. The input device according to claim 1. 複数の位置に前記散乱体が接触している前記接触面の画像から前記複数の位置ごとの前記散乱光の強度を測定することで、前記補正パラメータの値を算出するキャリブレーション処理手段を備えることを特徴とする請求項2に記載の入力装置。   Calibration processing means for calculating the value of the correction parameter by measuring the intensity of the scattered light for each of the plurality of positions from the image of the contact surface in contact with the scatterer at a plurality of positions. The input device according to claim 2. 前記散乱体の種類毎の前記補正パラメータを記憶する補正パラメータ記憶手段を備え、
前記補正手段は、前記補正パラメータ記憶手段に記憶された複数の前記補正パラメータのうちから、実際の補正に使用する前記補正パラメータを選択することを特徴とする請求項2または3に記載の入力装置。
Correction parameter storage means for storing the correction parameter for each type of the scatterer,
The input device according to claim 2, wherein the correction unit selects the correction parameter to be used for actual correction from the plurality of correction parameters stored in the correction parameter storage unit. .
前記補正手段は、撮像条件を変えて撮像した前記接触面の画像の各位置における光強度の変化の仕方が前記散乱体の種類によって異なることを利用して、実際の補正に使用する前記補正パラメータを選択することを特徴とする請求項4に記載の入力装置。   The correction means uses the correction parameter used for actual correction by utilizing the fact that the method of changing the light intensity at each position of the image of the contact surface imaged under different imaging conditions varies depending on the type of the scatterer. The input device according to claim 4, wherein the input device is selected. 前記補正手段は、前記散乱体が接触する状態を検出する前記接触面の画像の撮像条件を第1の撮像条件とし、前記第1の撮像条件と異なる撮像条件を第2の撮像条件とし、前記第1の撮影条件における光強度と前記第2の撮影条件における光強度に基づいて、前記補正パラメータ記憶手段に記憶された複数の前記補正パラメータの中から実際の補正に使用する前記補正パラメータを選択することを特徴とする請求項4に記載の入力装置。   The correction means sets the imaging condition of the image of the contact surface for detecting the state in which the scatterer is in contact as the first imaging condition, sets the imaging condition different from the first imaging condition as the second imaging condition, and Based on the light intensity under the first imaging condition and the light intensity under the second imaging condition, the correction parameter used for actual correction is selected from the plurality of correction parameters stored in the correction parameter storage means The input device according to claim 4, wherein: 前記第2の撮像条件は、前記導波体へ光を照射する光源手段が前記導波体へ照射する光の入射角度、前記接触面の画像を撮像する検出部の位置、および向きの何れか1つ、または2つ、または全てが前記第1の撮像条件と相違することを特徴とする請求項5または6に記載の入力装置。   The second imaging condition is any one of an incident angle of light applied to the waveguide by a light source unit that irradiates light to the waveguide, a position of a detection unit that captures an image of the contact surface, and an orientation. The input device according to claim 5, wherein one, two, or all are different from the first imaging condition. 前記キャリブレーション処理手段は、前記導波体にディスプレイ面が重なるように配置された表示部に、前記接触面の2以上の位置に対し前記散乱体を、同時にもしくは順に接触させる操作を行うように指示する表示を行うことを特徴とする請求項3に記載の入力装置。   The calibration processing means performs an operation of bringing the scatterer into contact with two or more positions on the contact surface simultaneously or sequentially on a display unit arranged so that a display surface overlaps the waveguide. The input device according to claim 3, wherein a display for instructing is performed. 散乱体を接触させる接触面を有し、内部に光を導波可能な透明または半透明な導波体と、検出部と、処理部とを備えた入力装置で実行される入力方法であって、
前記検出部が、前記散乱体が生じる散乱光を用いて、前記散乱体が接触する前記接触面の画像を撮像し、
前記処理部が、前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正することを特徴とする入力方法。
An input method executed by an input device having a contact surface for contacting a scatterer and having a transparent or translucent waveguide capable of guiding light inside, a detection unit, and a processing unit. ,
The detection unit captures an image of the contact surface with which the scatterer contacts, using scattered light generated by the scatterer,
The input method, wherein the processing unit corrects variation in detected light intensity due to a difference in contact position caused by a scattering characteristic of the scatterer on an image of the contact surface.
散乱体を接触させる接触面を有し、内部に光を導波可能な透明または半透明な導波体と、検出部と、処理部とを備えた入力装置の前記処理部を構成するコンピュータを、
前記散乱体が生じる散乱光を用いて前記検出部により撮像された前記散乱体が接触する前記接触面の画像上の、前記散乱体の散乱特性に起因して生じる接触位置の相違による検出光強度のバラツキを補正する補正手段として機能させるための入力用プログラム。
A computer that constitutes the processing unit of an input device having a contact surface for contacting a scatterer and having a transparent or translucent waveguide capable of guiding light inside, a detection unit, and a processing unit ,
Detected light intensity due to a difference in contact position caused by scattering characteristics of the scatterer on an image of the contact surface on which the scatterer is imaged by the detection unit using scattered light generated by the scatterer An input program for functioning as a correction means for correcting variations in the image.
JP2010133735A 2010-06-11 2010-06-11 Input device Pending JP2011258102A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010133735A JP2011258102A (en) 2010-06-11 2010-06-11 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010133735A JP2011258102A (en) 2010-06-11 2010-06-11 Input device

Publications (1)

Publication Number Publication Date
JP2011258102A true JP2011258102A (en) 2011-12-22

Family

ID=45474186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010133735A Pending JP2011258102A (en) 2010-06-11 2010-06-11 Input device

Country Status (1)

Country Link
JP (1) JP2011258102A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103196075A (en) * 2012-01-05 2013-07-10 原相科技股份有限公司 Positioning signal transmitting module and electronic product with pointer control function
JP2016519044A (en) * 2013-05-07 2016-06-30 エージーシー グラス ユーロップ High infrared transmission glass sheet
KR20160118233A (en) * 2013-12-19 2016-10-11 에이쥐씨 글래스 유럽 Glass sheet having high transmission of infrared radiation

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103196075A (en) * 2012-01-05 2013-07-10 原相科技股份有限公司 Positioning signal transmitting module and electronic product with pointer control function
US9223078B2 (en) 2012-01-05 2015-12-29 Pixart Imaging Inc. Positioning signal transmitter module and electronic product with cursor-controllable function
JP2016519044A (en) * 2013-05-07 2016-06-30 エージーシー グラス ユーロップ High infrared transmission glass sheet
KR20160118233A (en) * 2013-12-19 2016-10-11 에이쥐씨 글래스 유럽 Glass sheet having high transmission of infrared radiation
JP2017501101A (en) * 2013-12-19 2017-01-12 エージーシー グラス ユーロップAgc Glass Europe Glass sheet with high infrared transmission
KR102306305B1 (en) * 2013-12-19 2021-09-30 에이쥐씨 글래스 유럽 Glass sheet having high transmission of infrared radiation

Similar Documents

Publication Publication Date Title
US9019239B2 (en) Creative design systems and methods
JP6135239B2 (en) Image processing apparatus, image processing program, and image processing method
JP6623812B2 (en) Position detecting device and contrast adjusting method thereof
KR100907104B1 (en) Calculation method and system of pointing locations, and collaboration system comprising it
US9454260B2 (en) System and method for enabling multi-display input
US9501160B2 (en) Coordinate detection system and information processing apparatus
KR20120058594A (en) Interactive input system with improved signal-to-noise ratio (snr) and image capture method
US8922526B2 (en) Touch detection apparatus and touch point detection method
US8659577B2 (en) Touch system and pointer coordinate detection method therefor
TWI430151B (en) Touch device and touch method
TWI534687B (en) Optical touch detection system and object analyzation method thereof
US20150242042A1 (en) Touch panel-equipped display device and non-transitory computer-readable storage medium
US9817488B2 (en) Optical navigation device and related automatic magnification adjusting method
TW201633077A (en) Image processing method capable of detecting noise and related navigation device
TW201535204A (en) Object detection method and calibration apparatus of optical touch system
US9639209B2 (en) Optical touch system and touch display system
WO2011118313A1 (en) Coordinate input device, and program
JP6528964B2 (en) INPUT OPERATION DETECTING DEVICE, IMAGE DISPLAY DEVICE, PROJECTOR DEVICE, PROJECTOR SYSTEM, AND INPUT OPERATION DETECTING METHOD
TWI536206B (en) Locating method, locating device, depth determining method and depth determining device of operating body
JP2011258102A (en) Input device
US20160019424A1 (en) Optical touch-control system
US10379677B2 (en) Optical touch device and operation method thereof
US20130016069A1 (en) Optical imaging device and imaging processing method for optical imaging device
TWI521413B (en) Optical touch screen
TW201317858A (en) Optical touch panel system, optical sensing module, and operation method thereof

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20120718