JP2011175543A - Indicator detection device and touch panel - Google Patents
Indicator detection device and touch panel Download PDFInfo
- Publication number
- JP2011175543A JP2011175543A JP2010040290A JP2010040290A JP2011175543A JP 2011175543 A JP2011175543 A JP 2011175543A JP 2010040290 A JP2010040290 A JP 2010040290A JP 2010040290 A JP2010040290 A JP 2010040290A JP 2011175543 A JP2011175543 A JP 2011175543A
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- image
- display area
- detection
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、検出面上の指示体を検出する指示体検出装置や、当該指示体検出装置を備えたタッチパネルに関する。 The present invention relates to a pointer detection device that detects a pointer on a detection surface, and a touch panel including the pointer detection device.
画像を表示する表示装置と、例えばユーザの指やスタイラスなどの指示体を検出する指示体検出装置とを備え、表示装置上の指示体を検出する、いわゆるタッチパネルが広く普及している。タッチパネルは、表示装置に表示される画像を視認したユーザが、当該画像を手がかりにして表示装置上(当該画像上)の所定の位置に触れるという、直感的かつ簡易的な動作によって操作される。 A so-called touch panel that includes a display device that displays an image and an indicator detection device that detects an indicator such as a user's finger or stylus and detects the indicator on the display device is widely used. The touch panel is operated by an intuitive and simple operation in which a user who visually recognizes an image displayed on the display device touches a predetermined position on the display device (on the image) using the image as a clue.
タッチパネルに備えられる指示体検出装置の方式として、例えば、静電容量方式がある。静電容量方式とは、表示装置上に導電膜を設けて電流を通じ、指が導電膜に接触または近接することで生じる静電容量の変化を電流の変化として検出することで、指が接触または近接した位置を検出するものである。 As a method of the indicator detection device provided in the touch panel, for example, there is a capacitance method. The capacitance method is a method in which a conductive film is provided on a display device and a change in capacitance caused by a finger touching or approaching the conductive film is detected as a current change through a current. It detects the close position.
しかしながら、静電容量方式では、表示装置上に導電膜などを設ける必要があるため、表示装置上の光透過性が低下し、屋外などで画像の視認性が劣化することが問題となる。 However, in the capacitance method, since it is necessary to provide a conductive film or the like on the display device, light transmittance on the display device is lowered, and visibility of an image is deteriorated outdoors.
そこで、この問題を解決する方式として、例えば、赤外線マトリクス方式(検出面の端部に複数の発光部及び受光部を敷き詰め、それぞれの受光部で生成される信号から指示体を検出する方式)や、特許文献1に記載の方式(検出面の2つの隅に赤外線の発光部及びイメージセンサをそれぞれ備えるとともに検出面の端部に赤外線の反射材を備え、イメージセンサで生成される画像からユーザが触れた位置を検出する方式)などが提案されている。 Therefore, as a method for solving this problem, for example, an infrared matrix method (a method in which a plurality of light emitting units and light receiving units are spread at the end of the detection surface, and an indicator is detected from signals generated by the respective light receiving units) The method described in Patent Document 1 (infrared light emitting units and image sensors are provided at two corners of the detection surface, and an infrared reflector is provided at the end of the detection surface. A method for detecting a touched position) has been proposed.
さらに、特許文献2及び3では、撮像により得られた画像中の指示体と、予め記録しておいた指示体のモデルと、を比較することで、指示体と検出面との距離を検出する指示体検出装置が提案されている。 Further, in Patent Documents 2 and 3, the distance between the indicator and the detection surface is detected by comparing the indicator in the image obtained by imaging with the model of the indicator recorded in advance. A pointer detection apparatus has been proposed.
特許文献1で提案されるような赤外線を用いた方式の指示体検出装置であれば、表示装置上に導電膜などの追加部材を備える必要がないため、表示装置上の光透過性の低下(屋外での視認性の劣化)を防止することが可能となる。しかしながら、屋外では発光部以外(例えば、太陽など)から放射される赤外線の影響を受けることで検出精度が劣化するため、問題となる。さらに、赤外線に限らず、屋外では外乱(検出環境の変動)の影響が大きい。そのため、屋内での使用には支障をきたさない検出精度を実現する指示体検出装置であっても、屋外では使用に堪えないものとなる場合がある。
In the case of an indicator detection device using an infrared ray as proposed in
また、特許文献2及び3で提案されている指示体検出装置であれば、指示体と検出面との距離を検出することが可能である。しかしながら、上記のように外乱の影響を受けるなどして、検出精度が劣化する問題が生じ得る。また、予め指示体のモデルを記録しておく必要があることで、指示体の種類や使用方法に制約が生じることや、モデルを記録しておく装置が必要になることで、装置の複雑化や大型化を招来するため、問題となる。さらに、画像中の指示体とモデルとを比較して距離を検出する場合、複雑な演算が必要となるために演算量が膨大となり、迅速に動作することが困難になることも問題となる。 Further, with the pointer detection device proposed in Patent Documents 2 and 3, it is possible to detect the distance between the pointer and the detection surface. However, there is a problem that the detection accuracy deteriorates due to the influence of disturbance as described above. In addition, since it is necessary to record a model of the indicator in advance, the type and usage of the indicator are restricted, and a device for recording the model is required, which complicates the device. This is a problem because it leads to an increase in size. Furthermore, when a distance is detected by comparing an indicator in an image with a model, a complicated calculation is required, so that the calculation amount becomes enormous and it becomes difficult to operate quickly.
そこで本発明は、指示体と検出面との距離を簡易的かつ迅速に検出することを可能とした指示体検出装置と、当該指示体検出装置を備えたタッチパネルと、を提供することを目的とする。 Then, this invention aims at providing the indicator detection apparatus which enabled it to detect the distance of an indicator and a detection surface simply and rapidly, and the touchscreen provided with the said indicator detection apparatus. To do.
上記目的を達成するために、本発明における指示体検出装置は、検出面上の指示体を検出する指示体検出装置であって、前記検出面上を当該検出面と略平行に撮像して画像を生成する少なくとも1つの撮像部と、前記撮像部の撮像により生成される画像中の前記指示体の位置に基づいて、前記指示体と前記検出面との距離を検出する距離検出部と、を備えることを特徴とする。 In order to achieve the above object, a pointer detection apparatus according to the present invention is a pointer detection apparatus that detects a pointer on a detection surface, and images the image on the detection surface substantially parallel to the detection surface. And at least one imaging unit that generates a distance detection unit that detects a distance between the indicator and the detection surface based on a position of the indicator in an image generated by imaging of the imaging unit. It is characterized by providing.
また、上記構成の指示体検出装置において、異なる場所から前記検出面を撮像する2つ以上の前記撮像部により生成される画像中の前記指示体の位置に基づいて、前記検出面上の前記指示体の位置を検出する位置検出部を、さらに備えることとしても構わない。 In the indicator detection device having the above configuration, the indication on the detection surface is based on the position of the indicator in an image generated by two or more imaging units that capture the detection surface from different locations. A position detector that detects the position of the body may be further provided.
このように構成すると、位置検出部及び距離検出部が、ともに画像から認識される指示体の画像中の位置に基づいて、検出面上の指示体の位置及び指示体と検出面との距離を検出することとなる。そのため、検出処理を共通化することが可能となる。したがって、指示体検出装置の処理を簡易化及び迅速化することが可能となる。 With this configuration, the position detection unit and the distance detection unit both determine the position of the indicator on the detection surface and the distance between the indicator and the detection surface based on the position in the image of the indicator recognized from the image. Will be detected. Therefore, it is possible to share the detection process. Therefore, it is possible to simplify and speed up the processing of the pointer detection apparatus.
また、上記構成の指示体検出装置において、前記距離検出部が、いずれか1つの前記撮像部により生成される画像中の前記指示体の位置に基づいて、前記指示体と前記検出面との距離を検出することとしても構わない。 Further, in the pointer detection apparatus having the above configuration, the distance detection unit may determine a distance between the pointer and the detection surface based on the position of the pointer in an image generated by any one of the imaging units. May be detected.
このように構成すると、指示体と検出面との距離の検出に要する演算量を少なくすることが可能となる。 If comprised in this way, it will become possible to reduce the calculation amount required for the detection of the distance of a pointer and a detection surface.
また、上記構成の指示体検出装置において、前記撮像部が、可視光を撮像することで一つの画素に複数の信号値を備えた画像を生成することとしても構わない。 Moreover, in the pointer detection apparatus having the above configuration, the imaging unit may generate an image having a plurality of signal values for one pixel by imaging visible light.
このように構成すると、例えば指示体検出装置を屋外で使用する場合に、検出面上に指示体が進入することで発生する種々の外乱と、指示体とを精度良く区別することが可能となる。特に、一つの画素が単一の信号値のみを備える画像中の指示体を認識するよりも、外乱の影響を受けにくくすることが可能となるため、画像中から精度良く指示体を認識することが可能となる。 With this configuration, for example, when the indicator detection device is used outdoors, it is possible to accurately distinguish between various disturbances generated by the indicator entering the detection surface and the indicator. . In particular, it is possible to make it less susceptible to disturbance than to recognize an indicator in an image in which one pixel has only a single signal value. Is possible.
また、上記構成の指示体検出装置において、前記撮像部の光軸が、前記検出面と略同一の平面内に存在することとしても構わない。 Moreover, in the pointer detection apparatus having the above-described configuration, the optical axis of the imaging unit may be present in substantially the same plane as the detection surface.
このように構成すると、撮像部により生成される画像中において、検出面の所定方向(光軸と略平行な方向)の長さを短くすることが可能となる。そのため、画像中における指示体の直下となる検出面の位置が、指示体の移動(光軸と略平行な方向への移動)によって変動することを抑制することが可能となる。したがって、画像中における指示体と検出面との長さを、容易に算出することが可能となる。 If comprised in this way, in the image produced | generated by an imaging part, it will become possible to shorten the length of the predetermined direction (direction substantially parallel to an optical axis) of a detection surface. For this reason, it is possible to suppress the position of the detection surface immediately below the indicator in the image from fluctuating due to the movement of the indicator (movement in a direction substantially parallel to the optical axis). Therefore, it is possible to easily calculate the length between the indicator and the detection surface in the image.
また、上記構成の指示体検出装置において、前記距離検出部が、前記撮像部の撮像により生成された画像である背景画像を記憶する背景画像記憶部と、前記撮像部の撮像により生成された画像である対象画像と、前記背景画像記憶部に記憶されている背景画像との差分を求め、当該差分が所定の大きさ以上となる領域の位置から、対象画像中の前記指示体の位置を求める画像処理部と、前記画像処理部で求められた前記指示体の位置から、前記指示体と前記検出面との距離を算出する指示体距離算出部と、を備えることとしても構わない。 Further, in the pointer detection apparatus having the above configuration, the distance detection unit stores a background image storage unit that stores a background image that is an image generated by imaging of the imaging unit, and an image generated by imaging of the imaging unit. The difference between the target image and the background image stored in the background image storage unit is obtained, and the position of the indicator in the target image is obtained from the position of the region where the difference is a predetermined size or more. An image processing unit and an indicator distance calculating unit that calculates a distance between the indicator and the detection surface from the position of the indicator obtained by the image processing unit may be provided.
このように構成すると、簡易な処理によって指示体と検出面との距離を検出することが可能となる。特に、対象画像中の指示体の大きさや形状の解析を要することなく、指示体と検出面との距離を検出することが可能となる。 If comprised in this way, it will become possible to detect the distance of a pointer and a detection surface by simple processing. In particular, the distance between the indicator and the detection surface can be detected without requiring analysis of the size and shape of the indicator in the target image.
また、本発明のタッチパネルは、表示領域に画像を表示する表示装置と、前記表示領域を検出面とする上記の指示体検出装置と、を備えることを特徴とする。 In addition, a touch panel according to the present invention includes a display device that displays an image in a display area, and the above indicator detection device that uses the display area as a detection surface.
本発明の構成とすると、撮像部で撮像された画像の少なくとも一つから指示体を認識することで、指示体と検出面との距離を検出することが可能となる。特に、認識した指示体をモデルなどと比較することを要せずに、簡易的かつ迅速に指示体と検出面との距離を検出することが可能となる。 With the configuration of the present invention, it is possible to detect the distance between the indicator and the detection surface by recognizing the indicator from at least one of the images captured by the imaging unit. In particular, it is possible to detect the distance between the indicator and the detection surface simply and quickly without the need to compare the recognized indicator with a model or the like.
本発明の意義ないし効果は、以下に示す実施の形態の説明によりさらに明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の実施の形態の一つであって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。 The significance or effect of the present invention will be further clarified by the following description of embodiments. However, the following embodiment is merely one of the embodiments of the present invention, and the meaning of the terminology of the present invention or each constituent element is limited to those described in the following embodiments. is not.
<全体構成>
本発明の実施の一形態であるタッチパネルについて、以下図面を参照して説明する。図1は、本発明の実施の一形態であるタッチパネルの構成の一例を示す平面図及び側面図である。なお、図1(a)は、タッチパネルの画像が表示される面を示す平面図である。一方、図1(b)は、図1(a)に示す面を右に向けた場合のタッチパネルの左側面を示す側面図である。また、図2は、指示体検出装置の構成の一例を示すブロック図である。
<Overall configuration>
A touch panel according to an embodiment of the present invention will be described below with reference to the drawings. 1A and 1B are a plan view and a side view illustrating an example of a configuration of a touch panel according to an embodiment of the present invention. FIG. 1A is a plan view showing a surface on which an image of the touch panel is displayed. On the other hand, FIG.1 (b) is a side view which shows the left side surface of a touchscreen when the surface shown to Fig.1 (a) is turned to the right. FIG. 2 is a block diagram illustrating an example of the configuration of the pointer detection apparatus.
図1に示すように、本例のタッチパネル1は、非表示領域21に囲まれる表示領域22に画像を表示する表示装置20を備える。また、タッチパネル1は、タッチパネル1の左側から表示領域22面上を撮像する左側撮像部11Lと、タッチパネル1の右側から表示領域22面上を撮像する右側撮像部11Rと、を備えた指示体検出装置10(図2参照)を備える。また、非表示領域21面と表示領域22面とは、略同一の平面内に存在する。なお、左側撮像部11L及び右側撮像部11Rの一部(例えば、撮像素子やレンズなどの一部)が、非表示領域21内に埋め込まれるように配置されても構わない。
As shown in FIG. 1, the
図1(a)及び図1(b)において、左側撮像部11L及び右側撮像部11Rが撮像する方向を矢印で示している。図1(b)に示すように、左側撮像部11L及び右側撮像部11Rは、検出面である表示領域22面と略平行となるように撮像を行う。このとき、例えば左側撮像部11L及び右側撮像部11Rのそれぞれの光軸が、表示領域22面と略平行になる。なお、左側撮像部11L及び右側撮像部11Rの中で、指示体と表示領域22面との距離の検出(詳細については後述)に関与する少なくとも一方の撮像部11L,11Rが、表示領域22面と略平行となるように撮像を行うものであればよい。
In FIG. 1A and FIG. 1B, the directions in which the
また、図2に示すように、指示体検出装置10は、上記の左側撮像部11L及び右側撮像部11Rと、左側撮像部11Lの撮像により生成された左側画像を処理する左側画像処理部12Lと、左側画像処理部12Lでの処理に用いられる左側背景画像を一時的に記憶する左側背景画像記憶部13Lと、右側撮像部11Rの撮像により生成された右側画像を処理する右側画像処理部12Rと、右側画像処理部12Rでの処理に用いられる右側背景画像を一時的に記憶する右側背景画像記憶部13Rと、左側画像処理部12Lによる左側画像の処理結果と右側画像処理部12Rによる右側画像の処理結果とに基づいて表示領域22面上(検出面上)の指示体の位置を算出し指示体位置情報として出力する指示体位置算出部14と、左側画像処理部12Lによる左側画像の処理結果と右側画像処理部12Rによる右側画像の処理結果との少なくとも一方に基づいて指示体と表示領域22面(検出面)との距離を算出し指示体距離情報として出力する指示体距離算出部15と、を備える。なお、指示体とは、ユーザの指やスタイラスなどの、ユーザが検出面上の任意の位置を指示するために用いるものである。以下では説明の具体化のため、指示体として指を例示して説明する。また、指示体距離算出部15に、左側画像処理部12Lの処理結果と右側画像処理部12Rの処理結果とが入力されるように図示しているが、少なくとも一方の処理結果が入力される構成であればよい。
As shown in FIG. 2, the
左側撮像部11Lは、矩形の表示領域22の左上に配置される。右側撮像部11Rは、表示領域22の右上に配置される。即ち、左側撮像部11L及び右側撮像部11Rは、表示領域22の上辺の両端に配置される。また、左側撮像部11Lの撮像により生成される左側画像及び右側撮像部11Rの撮像により生成される右側画像は、それぞれ画角が90°以上であり表示領域22面上の全体が画角内に収まるものであると、好ましい。さらに、左側撮像部11L及び右側撮像部11Rは、例えば単板式ベイヤ配列のイメージセンサや、三板式のイメージセンサなどの、可視光を検出する受光素子を備えカラー画像を生成可能な撮像素子を備えるものであると、好ましい。
The
<指示体の検出面上の位置の検出方法例>
次に、指示体検出装置10による、指示体の表示領域22面上(検出面上)の位置の検出方法の一例について、図3及び図4を参照して説明する。図3及び図4は、指示体の検出面上の位置の検出方法の一例について説明する図である。また、図3は左側撮像部11Lを示す図であり、図4は右側撮像部11Rを示す図である。
<Example of method for detecting the position of the indicator on the detection surface>
Next, an example of a method for detecting the position of the pointer on the
図3(a)は、左側撮像部11Lの撮像により生成される左側画像の画角を示す平面図であり、タッチパネルの平面について示した図1(a)に相当するものである。また、図3(b)は、左側画像の一例を示す模式図であり、図3(a)に示す左側撮像部11Lの撮像素子に映る画像を示している。同様に、図4(a)は、右側撮像部11Rの撮像により生成される右側画像の画角を示す平面図であり、タッチパネルの平面について示した図1(a)に相当するものである。また、図4(b)は、右側画像の一例を示す模式図であり、図4(a)に示す右側撮像部11Rの撮像素子に映る画像を示している。なお、図3(b)及び図4(b)では、左側撮像部11L及び右側撮像部11Rのそれぞれの光軸が、表示領域22面と略同一の平面内に存在する場合に撮像される左側画像及び右側画像を例示している。
FIG. 3A is a plan view showing the angle of view of the left image generated by the imaging of the
図3(a)及び図3(b)に示すように、左側撮像部11Lは、自身を中心として表示領域22の上辺から左辺までを含む左側画像を生成する。ここで、左側撮像部11Lが配置される表示領域22の左上を中心とした角度を考え、上辺を0°、左辺を90°と定義すると、画角内の指示体Dが存在する方向は、時計回り(右回り)の角度αで表現される。なお、本例の左側画像には、非表示領域21及び表示領域22の右下角RBが映り込んでいる。また、上述のように左側撮像部11Lの一部が非表示領域21内に埋め込まれる場合、左側画像中に非表示領域21の断面や側面(図3(b)中、表示領域22の下側部分)などが映り込み得る。
As shown in FIG. 3A and FIG. 3B, the
右側撮像部11Rについても同様である。図4(a)及び図4(b)に示すように、右側撮像部11Rは、自身を中心として表示領域22の上辺から右辺までを含む右側画像を生成する。ここで、右側撮像部11Rが配置される表示領域22の右上を中心とした角度を考え、上辺を0°、右辺を90°と定義すると、画角内の指示体Dが存在する方向は、反時計回り(左回り)の角度βで表現される。なお、本例の右側画像には、非表示領域21及び表示領域22の左下角LBが映り込んでいる。また、上述のように右側撮像部11Rの一部が非表示領域21内に埋め込まれる場合、右側画像中に非表示領域21の断面や側面(図4(b)中、表示領域22の下側部分)などが映り込み得る。
The same applies to the
上記の角度α及び角度βは、図3(b)及び図4(b)に示すように、左側画像中及び右側画像中における指示体Dの左右方向の位置から算出することができる。ただし、実際に角度α及び角度βを算出するためには、左側画像及び右側画像のそれぞれの中から指示体Dを認識する必要がある。本例では、左側画像処理部12Lが、左側画像中の指示体Dを認識することで角度αを算出し、右側画像処理部12Rが、右側画像中の指示体Dを認識することで角度βを算出する。なお、左側画像処理部12L及び右側画像処理部12Rによる左側画像中及び右側画像中の指示体Dの認識方法の詳細については、後述する。
The angles α and β can be calculated from the horizontal position of the indicator D in the left image and the right image, as shown in FIGS. 3B and 4B. However, in order to actually calculate the angle α and the angle β, it is necessary to recognize the indicator D from each of the left image and the right image. In this example, the left
指示体位置算出部14は、例えば、左側画像処理部12L及び右側画像処理部12Rが算出した角度α及び角度βと、既知である表示領域22上辺の長さkと、を用いた三角測量により、指示体Dの表示領域22面上の位置を算出する。具体的には、表示領域22上の任意の位置を座標(x,y)で表現し、左上を(0,0)、右方ほどx座標の値が大きく下方ほどy座標の値が大きくなるように定義する場合、以下の連立方程式を解くことで指示体Dの表示領域22面上の座標(x1,y1)を求めることができる。
The indicator
x1×tanα=y1
(k−x1)×tanβ=y1
x 1 × tan α = y 1
(K−x 1 ) × tan β = y 1
表示装置20は、指示体位置算出部14から出力される指示体位置情報(即ち、ユーザによるタッチパネル1の操作内容)に基づいて、例えば表示領域22に表示する画像を切り替えるなどの各種制御動作を行う。
The
<指示体と検出面との距離の検出方法例>
次に、指示体検出装置10による、指示体と表示領域22面(検出面)との距離の検出方法の一例について、図5を参照して説明する。図5は、指示体と検出面との距離の検出方法の一例について説明する図である。図5(a)は、タッチパネルの左側面を示す側面図であり、図1(b)に相当するものである。また、図5(b)は、左側画像の一例を示す模式図であり、図5(a)に示す左側撮像部11Lの撮像により生成されるものであり、図3(b)に相当するものである。なお、説明の簡略化のため、ここでは左側画像のみに基づいて距離を検出する場合について、具体的に説明する。
<Example of detection method of distance between indicator and detection surface>
Next, an example of a method for detecting the distance between the indicator and the
図5(a)及び図5(b)に示す例では、指示体Dの先端と表示領域22面との距離(図中の両矢印)を検出する。このとき、上述した指示体Dの検出面上の位置の検出方法例と同様に、左側画像処理部12Lが、左側画像中の指示体Dを認識する(認識方法の詳細については後述)。そして、指示体距離算出部15が、左側画像処理部12Lで認識された左側画像中における指示体Dの上下方向の位置に基づいて、指示体Dの先端から左側画像中の所定の位置に存在する表示領域22面までの画像中における長さを求めることで、指示体Dと表示領域22面との距離を算出する。
In the example shown in FIGS. 5A and 5B, the distance (the double arrow in the figure) between the tip of the indicator D and the surface of the
表示装置20は、指示体距離算出部15から出力される指示体距離情報を取得することで、例えば、ユーザが表示領域22面に接触するタイミングを察知(推測)して、ユーザの操作に対する反応を迅速化する。また例えば、指示体と表示領域22面との距離に応じて、表示領域22に表示する画像を変形する(具体的には、指示体が表示領域22面との距離が小さくなるほど、表示しているボタンの画像を大きくしたり、間隔を広くしたりする)ことで、操作性や利便性を向上する。
The
なお、左側画像に基づいて指示体Dと表示領域22面との距離を検出する方法を例示したが、右側画像に基づいても構わないし、両方に基づいても構わない。なお、左側画像及び右側画像の両方に基づいて距離を検出する場合、それぞれから得られる距離を総合的に判断しても(例えば、平均値を求めても)構わない。また、いずれか一方の画像(例えば、指示体Dが精度良く認識できた画像)から、指示体Dと表示領域22面との距離を検出しても構わない。
In addition, although the method of detecting the distance between the indicator D and the
また、指示体距離算出部15が指示体Dと表示領域22面との距離を算出する際に、指示体位置情報を使用しても構わない。例えば、左側画像または右側画像から求められる指示体Dと表示領域22面との画像中における長さを、距離として算出する際に、指示体位置情報を用いても構わない。また例えば、左側画像中または右側画像中で、指示体Dの直下となる表示領域22面の位置を精度良く求めるために、指示体位置情報を用いても構わない。
Further, when the indicator
<動作例>
次に、指示体検出装置10の動作の一例について、図面を参照して説明する。図6は、指示体検出装置の動作の一例について説明する図である。なお、本例では、左側撮像部11L及び右側撮像部11R、左側画像処理部12L及び右側画像処理部12R、左側背景画像記憶部13L及び右側背景画像記憶部13Rが、それぞれ同様の動作を行う。そのため、以下では説明の簡略化のために、左側撮像部11L、左側画像処理部12L及び左側背景画像記憶部13Lのそれぞれの動作を代表させて説明し、右側撮像部11R、右側画像処理部12R及び右側背景画像記憶部13Rのそれぞれの動作については同様のものとして、その説明を省略する。
<Operation example>
Next, an example of operation | movement of the
図6に示すように、指示体検出装置10が動作を開始すると、最初に、左側撮像部11Lの撮像により生成された左側画像を左側画像処理部12Lが取得する(STEP1)。なお、左側画像処理部12Lは、左側撮像部11Lから取得する左側画像の信号値の種類を必要に応じて変換しても構わない。そして、左側画像処理部12Lが処理する左側画像は、例えば、一つの画素がR(赤)G(緑)B(青)の各色の信号値を備えたものであっても構わないし、Y(輝度)U,V(色差)の各種類の信号値を備えたものであっても構わないし、H(色相)S(彩度)B(輝度)の各種類の信号値を備えたものであっても構わない。
As shown in FIG. 6, when the
左側画像処理部12Lは、取得した左側画像が1フレーム目(即ち、動作の開始後最初に取得した左側画像)であるか否か、または、取得した左側画像中の表示領域22が以前に取得した(例えば、前フレームの)左側画像中の表示領域22からずれたか否かを判定する(STEP2)。
The left
左側画像処理部12Lは、取得した左側画像が1フレーム目であると判定する場合、または、取得した左側画像中の表示領域22がずれたと判定する場合(STEP2、YES)、左側画像中から表示領域22を検出する(STEP3)。このとき、例えば所定の目印などを検出することで表示領域22の位置を確認しても構わないし、表示領域22で表示される画像(光)などに基づいて表示領域22の位置を確認しても構わない。
When the left
左側画像処理部12Lは、検出された表示領域22に基づいて、左側画像中で処理を行う範囲(以下、処理範囲とする)を設定する(STEP4)。処理範囲について図7を参照して説明する。図7は、処理範囲の設定方法の一例について説明する左側画像の模式図であり、図3(b)に相当するものである。図7は、左側画像中で表示領域22面上となる範囲が、処理範囲Aとして設定される例を示したものである。
The left
左側画像処理部12Lは、処理範囲Aを設定する(STEP4)、または、取得した左側画像が1フレーム目ではなく表示領域22がずれていないと判定する(STEP2、NO)と、次に撮像環境(例えば、画角内全体の光の強度)が変動したか否かを判定する(STEP5)。このSTEP5の動作の詳細について、図8を参照して説明する。図8は、撮像環境の変動の有無を判定する動作の一例を示すフローチャートである。
When the left
図8に示すように、左側画像処理部12Lは、最初に左側差分画像を算出する(STEP51)。例えば左側画像処理部12Lは、左側背景画像記憶部13Lに記憶している左側背景画像と、直近のSTEP1で取得した左側画像と、の対応する位置の画素ごとに信号値の差分値を求め、当該差分値を各画素の信号値とする左側差分画像を算出する。なお、左側背景画像及び左側画像の各画素が複数種類の信号値を備える場合、信号値の種類ごとに差分値を算出すると好ましい。また、左側背景画像及び左側画像に含まれる全ての画素について差分値を算出しても構わないが、算出する画素を処理範囲A内に限ると、演算量を低減することができるため好ましい。
As shown in FIG. 8, the left
ところで、左側背景画像は、例えば図6に示す動作の開始前に、予め左側背景画像記憶部13Lに記憶されることとしても構わない。例えば、左側画像処理部12Lが、連続して取得される複数フレームの画像を所定時間監視して、信号値の変動(差分値)が小さくなったフレームを左側背景画像として左側背景画像記憶部13Lに記憶しても構わない。また例えば、1フレーム目の左側画像を左側背景画像として記憶しても構わない。なお、左側背景画像記憶部13Lに記憶される左側背景画像を、処理範囲A内の画像に限ると、記憶量を低減することができるため、好ましい。
By the way, the left background image may be stored in advance in the left background
次に、STEP51で算出された左側差分画像について、処理範囲A内の画素の中で差分値が閾値以上となる画素が、所定数以上(所定の大きさ以上)存在するか否かを判定する(STEP52)。即ち、撮像環境の空間方向における変動の有無を判定する。 Next, with respect to the left side difference image calculated in STEP 51, it is determined whether or not there are a predetermined number or more (a predetermined size or more) of pixels within the processing range A that have a difference value equal to or greater than a threshold value. (STEP 52). That is, it is determined whether there is a change in the spatial direction of the imaging environment.
このとき、左側差分画像の各画素が複数種類の信号値の差分値を備える場合、信号値の種類ごとにそれぞれの閾値と比較しても構わないし、複数種類の信号値の差分値を合算した総合的な差分値と閾値とを比較しても構わない。また、この「閾値」は、撮像環境が変動したとみなせる程度に大きい値とする。また、この「所定数」は、処理範囲A全体が変動した(即ち、指示体Dが画角内に進入することによる画像の局所的な変動ではなく、撮像環境が変動した)とみなせる程度の数とする。 At this time, when each pixel of the left difference image has a difference value of a plurality of types of signal values, it may be compared with each threshold value for each type of signal value, or the difference values of a plurality of types of signal values are added together. You may compare a comprehensive difference value and a threshold value. The “threshold value” is set to a value large enough to assume that the imaging environment has changed. In addition, this “predetermined number” is such that the entire processing range A is changed (that is, not the local change of the image due to the indicator D entering the angle of view but the imaging environment is changed). It is a number.
差分値が閾値以上となる画素が所定数より少ない場合(STEP52、NO)、撮像環境は変動していないものと判定する(STEP5、NO)。一方、差分値が閾値以上となる画素が所定数以上となる場合(STEP52、YES)、次に、STEP52の条件を満たす(STEP52がYESとなる)フレームが、継続して所定数以上となったか否かを判定する(STEP53)。即ち、撮像環境の時間方向における変動の有無を判定する。なお、この「所定数」は、撮像環境の変動が継続的なものであり、一過性のものではないとみなせる程度の数とする。 When the number of pixels whose difference value is equal to or greater than the threshold value is less than the predetermined number (STEP 52, NO), it is determined that the imaging environment has not changed (STEP 5, NO). On the other hand, if the number of pixels whose difference value is greater than or equal to the threshold value is greater than or equal to a predetermined number (STEP 52, YES), then whether the number of frames that satisfy the condition of STEP 52 (STEP 52 is YES) continues to be greater than or equal to the predetermined number It is determined whether or not (STEP 53). That is, it is determined whether there is a change in the imaging environment in the time direction. Note that the “predetermined number” is a number that allows the imaging environment to be continuously changed and regarded as not transient.
STEP52の条件を満たすフレームが所定数より少ない場合、撮像環境は変動していないものと判定する(STEP5、NO)。一方、STEP52の条件を満たすフレームが所定数以上となる場合、撮像環境が変動したと判定する(STEP5、YES)。左側画像処理部12Lは、撮像環境が変動したと判定すると、左側背景画像記憶部13Lに記憶している左側背景画像を更新する(STEP6)。例えば、直近のSTEP1で取得した左側画像を、背景画像として記憶し直す。
When the number of frames satisfying the condition of STEP 52 is less than the predetermined number, it is determined that the imaging environment has not changed (STEP 5, NO). On the other hand, when the number of frames satisfying the condition of STEP 52 exceeds a predetermined number, it is determined that the imaging environment has changed (STEP 5, YES). If the left
左側背景画像記憶部13Lが左側背景画像を更新する(STEP6)、または、左側画像処理部12Lが撮像環境が変動していないと判定すると(STEP5、NO)、左側画像処理部12Lは、左側背景画像記憶部13Lに記憶されている左側背景画像と、直近のSTEP1で取得した左側画像と、から左側差分画像を算出する(STEP7)。なお、左側差分画像の算出方法は、STEP51において述べた方法と同様であっても構わない。また、STEP5で撮像環境が変動していないと判定される場合、STEP51で算出した左側差分画像を以降の動作に適用することとして、STEP7を省略しても構わない。
When the left background
そして、左側画像処理部12Lは、生成された左側差分画像の各画素から、指示体Dを表示する画素(以下、指示体表示画素とする)と、背景を表示する画素(以下、背景表示画素とする)とを特定する(STEP8)。例えば、STEP52と同様の方法により、差分値がある閾値以上となる画素を指示体表示画素とし、差分値が閾値よりも小さくなる画素を背景表示画素とする。なお、この「閾値」は、指示体Dであると精度良く判定できる程度に大きい値とする。また、左側画像処理部12Lは、左側背景画像の指示体表示画素と背景表示画素とを異なる信号値で表現した画像(いわゆる、二値化画像)を生成しても構わない。
Then, the left
さらに、左側画像処理部12Lは、左側差分画像(二値化画像を含む)中の指示体表示画素が、検出範囲内で所定数以上存在するか否かを判定する(STEP9)。なお、検出範囲は、少なくとも処理範囲A内の範囲であり、指示体Dが進入し得る表示領域22面上の範囲とすると好ましい。また、この「所定数」は、指示体Dであると精度良く判定できる程度の数であり、例えばノイズなどに起因する画素単位の変動を排除可能な数とする。
Further, the left
左側画像処理部12Lは、左側差分画像(または二値化画像)中の指示体表示画素が、検出範囲内で所定数以上存在すると判定する場合(STEP9、YES)に、左側撮像部11Lに対して指示体Dが存在する方向を特定する(STEP10)。例えば、上述の方法によって角度αを算出する(図3参照)。
When the left
指示体位置算出部14は、例えば上述の方法により、STEP10で得られた角度α及び角度βに基づいて、表示領域22面上の指示体Dの位置を算出する(STEP11)。そして、指示体位置算出部14は、算出した指示体Dの位置を指示体位置情報として、表示装置20に出力する。
The indicator
また、指示体距離算出部15も同様であり、上述の方法により指示体Dと表示領域22面との距離を算出する(STEP12)。そして、指示体距離算出部15は、算出した指示体Dと表示領域22面との距離を指示体距離情報として、表示装置20に出力する。なお、このSTEP12を、STEP10及びSTEP11よりも前に行っても構わないし、並行して行っても構わない。
The indicator
指示体距離算出部15が指示体Dと表示領域22面との距離を算出する(STEP12)、または、左側画像処理部12Lが指示体表示画素が所定数より少ないと判定した後(STEP9、NO)、指示体検出装置10の動作を終了する場合は(STEP13、YES)、動作を終了する。一方、終了せずに動作を継続する場合は(STEP13、NO)、STEP1に戻る。
After the indicator
ところで、上述のSTEP1〜STEP10の各説明中における「左」、「L」及び「α」を、「右」、「R」及び「β」に適宜読み替えることで、右側撮像部11R、右側画像処理部12R及び右側背景画像記憶部13Rのそれぞれの具体的な動作を把握することができる。
By the way, “Left”, “L”, and “α” in the descriptions of
以上のように構成すると、左側画像及び右側画像の少なくとも一方から指示体Dを認識することで、指示体Dと表示領域22面との距離を検出することが可能となる。特に、認識した指示体Dをモデルなどと比較することを要せずに、簡易的かつ迅速に指示体Dと表示領域22面との距離を検出することが可能となる。
If comprised as mentioned above, it will become possible to detect the distance of the indicator D and the
さらに、左側画像及び右側画像のいずれか1つの画像から、指示体Dと表示領域22面との距離を検出することが可能となる。即ち、距離の検出に要する演算量を少なくすることが可能となる。
Furthermore, it is possible to detect the distance between the indicator D and the
また、指示体位置検出部14及び指示体距離検出部15が、ともに左側画像及び右側画像から認識される指示体Dの画像中の位置に基づいて、表示領域22面上の指示体Dの位置及び指示体Dと表示領域22面との距離を検出する。そのため、検出処理を共通化することが可能となる。したがって、指示体検出装置10の処理を簡易化及び迅速化することが可能となる。
Further, the
また、左側画像及び右側画像が可視光を撮像することで生成されるため、精度良く指示体Dと表示領域22面との距離を検出することが可能となる。特に、屋外に配置されるタッチパネル1では、検出面である表示領域22面上に指示体Dが進入することで種々の外乱が発生するため、検出精度が劣化する。しかしながら、上述のように可視光を撮像することで生成される左側画像及び右側画像の少なくとも一方を利用することで、精度良く外乱と指示体Dとを区別することが可能となる。
In addition, since the left image and the right image are generated by capturing visible light, it is possible to detect the distance between the indicator D and the surface of the
また、左側画像及び右側画像を、一つの画素に複数種類の信号値を備えるものとすることで、複数の指標に基づいて左側画像中及び右側画像中から指示体Dを認識することとなる。そのため、上述の従来技術のような、一つの画素が単一の信号値(赤外線の強度を示す信号値)のみを備える画像中の指示体Dを認識するよりも、外乱の影響を受けにくくすることが可能となる。したがって、左側画像中及び右側画像中から精度良く指示体Dを認識することが可能となる。 Further, by providing the left image and the right image with a plurality of types of signal values for one pixel, the indicator D is recognized from the left image and the right image based on the plurality of indices. Therefore, unlike the above-described conventional technique, one pixel is less susceptible to the disturbance than recognizing the indicator D in the image having only a single signal value (signal value indicating the intensity of infrared rays). It becomes possible. Therefore, the indicator D can be recognized with high accuracy from the left image and the right image.
また、左側画像中及び右側画像中の少なくとも一方から認識された指示体Dの画像中の位置に基づいて、指示体Dと表示領域22面との距離を検出することにより、簡易な処理によって指示体Dと表示領域22面との距離を検出することが可能となる。特に、左側画像中及び右側画像中の指示体Dの大きさや形状の解析を要することなく、指示体Dと表示領域22面との距離を検出することが可能となる。
Further, by detecting the distance between the indicator D and the surface of the
また、左側撮像部11L及び右側撮像部11Rの少なくとも一方の光軸が、表示領域22面と略同一の平面内に存在するように構成すると、生成される左側画像中または右側画像中において、表示領域22面の所定方向(光軸と略平行な方向)の長さを短くすることが可能となるため、好ましい。このように構成すると、左側画像中または右側画像中における指示体Dの直下となる表示領域22面の位置が、指示体Dの移動(光軸と略平行な方向の移動)によって変動することを抑制することが可能となる。そのため、左側画像中または右側画像中における指示体Dと表示領域22面との長さを、容易に算出することが可能となる。
Further, when at least one optical axis of the
また、検出面である矩形の表示領域22の一つの端辺の両端に、左側撮像部11L及び右側撮像部11Rを備えることで、表示領域22に近い位置からの撮像により、表示領域22面上の全体を効果的に画角内に収めた左側画像及び右側画像を生成することが可能となる。そのため、外乱の影響を受けにくくかつ死角の少ない左側画像及び右側画像を生成することが可能となる。
In addition, the
また、STEP5で左側画像処理部12L(または右側画像処理部12R)が、撮像環境に変動が生じたと判定する場合、左側背景画像記憶部13L(または右側背景画像記憶部13R)が記録している左側背景画像(または右側背景画像)を更新する。そのため、撮像環境の変動に対応して、背景画像を更新することが可能となる。したがって、外乱の影響を抑制して、精度良く左側画像中及び右側画像中の指示体Dを認識することが可能となる。
Further, when the left
なお、図3及び図4に示す角度α及び角度βの定義や、左側撮像部11L及び右側撮像部11Rによる画像の撮像方法(例えば、使用するレンズなど)は一例に過ぎず、表示領域22面上の指示体Dの位置が検出可能である限り、他のどのような定義及び撮像方法を適用しても構わない。例えば、非表示領域21の上辺を基準として角度α及び角度βを定義しても構わないし、表示領域22の端辺が湾曲する画像が撮像される撮像方法を適用しても構わない。
The definition of the angle α and the angle β shown in FIGS. 3 and 4 and the image capturing method (for example, a lens to be used) by the
また、左側撮像部11L及び右側撮像部11Rの2つの撮像部を備える構成について例示したが、3つ以上の撮像部を備える構成としても構わない。画像処理部や背景画像記憶部についても同様である。 Moreover, although illustrated about the structure provided with two imaging parts, 11L of left side imaging parts, and 11R of right side imaging parts, it is good also as a structure provided with three or more imaging parts. The same applies to the image processing unit and the background image storage unit.
また、左側画像処理部12L及び右側画像処理部12R、左側背景画像記憶部13L及び右側背景画像記憶部13Rを、図2に示すブロック図上で別体として表示したが、ハードウェア上では一体としても構わない。
In addition, the left
また、左側画像処理部12Lが左側画像と左側背景画像とから左側差分画像を算出し、右側画像処理部12Rが右側画像と右側背景画像とから右側差分画像を算出することで、左側画像及び右側画像のそれぞれから指示体Dを認識する方法について例示したが、指示体Dの認識方法はこの限りではない。例えば、連続的な撮像により生成される少なくとも2つの左側画像を比較(例えば、上述のような差分画像を算出)し、同様に少なくとも2つの右側画像を比較することで、指示体Dを認識しても構わない。
Further, the left
また、図6において、左側画像及び右側画像の少なくとも一方に対してSTEP4の処理範囲Aの設定を行った場合や、左側背景画像及び右側背景画像の少なくとも一方に対してSTEP6の更新を行った場合、STEP1に戻り左側撮像部11Lが新たに撮像した左側画像を左側画像処理部12Lが取得し直し、右側撮像部11Rが新たに撮像した右側画像を右側画像処理部12Rが取得し直しても構わない。また、左側画像処理部12L及び右側画像処理部12Rの一方が、STEP4の処理範囲Aの設定や、STEP6の左側背景画像または右側背景画像の更新を行う場合、他方も同様の動作を行うこととしても構わない。
In FIG. 6, when the processing range A of STEP 4 is set for at least one of the left image and the right image, or when STEP 6 is updated for at least one of the left background image and the right background image. Returning to
また、図6のSTEP9で、指示体位置算出部14と指示体距離算出部15の検出範囲を共通のものとしたが、異なるものとしても構わない。例えば、指示体位置算出部14が、表示領域22面上のごく近い領域を検出範囲としても構わない。また例えば、指示体距離算出部15が、表示領域22面上のごく近い領域からある程度離れた領域までを検出範囲としても構わない。
Further, in STEP 9 of FIG. 6, the detection range of the pointer
また、タッチパネルを、図9及び図10に示すような構成としても構わない。図9は、本発明の実施の一形態であるタッチパネルの構成の別例を示す平面図及び側面図である。なお、図9(a)は、タッチパネルの画像が表示される面を示す平面図であり、図1(a)に相当するものである。一方、図9(b)は、図9(a)に示す面を右側としたタッチパネルの左側面を示す側面図であり、図1(b)に相当するものである。また、図10は、左側撮像部または右側撮像部により生成される画像の一例を示す模式図であり、図3(b)または図4(b)に相当するものである。 Further, the touch panel may be configured as shown in FIGS. FIG. 9 is a plan view and a side view showing another example of the configuration of the touch panel according to the embodiment of the present invention. FIG. 9A is a plan view showing a surface on which an image of the touch panel is displayed, and corresponds to FIG. On the other hand, FIG. 9B is a side view showing the left side surface of the touch panel with the surface shown in FIG. 9A on the right side, and corresponds to FIG. FIG. 10 is a schematic diagram illustrating an example of an image generated by the left imaging unit or the right imaging unit, and corresponds to FIG. 3B or 4B.
図9(a)に示すように、本実施例のタッチパネル1aは、非表示領域21上に配置される枠体Fを備える。枠体Fは、指示体検出装置10の検出面である表示領域22の周囲に配置される。図9(a)では、枠体Fが表示領域22の左辺、右辺及び下辺に配置される例を示しているが、表示領域22の周囲の少なくとも一部に配置される構成であれば、どのように配置しても構わない。例えば、表示領域22の全周を囲うように枠体Fを配置しても構わない。
As illustrated in FIG. 9A, the
枠体Fは、どのような色としても構わない。ただし、光の反射が少ない色(例えば、黒色または灰色)や、指示体Dと反対の色(即ち補色であり、例えば、左側画像及び右側画像において枠体F及び指示体Dのそれぞれを表示する画素のRGB、YUV、HSBなどの信号値の差分値が大きくなる色)とすると、好ましい。 The frame F may be any color. However, a color with little light reflection (for example, black or gray) or a color opposite to the indicator D (that is, a complementary color, for example, the frame F and the indicator D are displayed in the left image and the right image, respectively. It is preferable that the difference value of the signal values of RGB, YUV, HSB, etc. of the pixel is large.
このように構成すると、枠体Fによって表示領域22面上の撮像環境の変動が抑制される。そのため、左側画像中及び右側画像中の指示体Dを、精度よく認識することが可能となる。
If comprised in this way, the fluctuation | variation of the imaging environment on the
また、枠体Fの色を光の反射が少ない色(例えば、黒色または灰色)にすることで、撮像環境の変動をさらに抑制することが可能となる。 In addition, by changing the color of the frame F to a color with little light reflection (for example, black or gray), it is possible to further suppress fluctuations in the imaging environment.
一方、枠体Fの色を指示体Dの補色にすることで、可視光の撮像により生成される左側画像中及び右側画像中の枠体F(即ち、背景)と指示体Dとをより明確に区別する(例えば、差分画像中の指示体表示画素の信号値(差分値)をより大きくする)ことが可能となる。そのため、左側画像中及び右側画像中の指示体Dを、さらに精度よく認識することが可能となる。 On the other hand, by making the color of the frame F complementary to that of the indicator D, the frame F (that is, the background) and the indicator D in the left image and the right image generated by imaging visible light are made clearer. (For example, the signal value (difference value) of the indicator display pixel in the difference image can be made larger). Therefore, the indicator D in the left image and the right image can be recognized with higher accuracy.
ところで、図9及び図10に示す構成とする場合、図6のSTEP2及びSTEP3の「表示領域」を「枠体」と読み替えても構わない。さらにSTEP4で、左側画像中及び右側画像中で枠体Fを表示する範囲を、処理範囲として設定しても構わない。また、STEP5(撮像環境の変動の有無の判定)及びSTEP6(左側背景画像及び右側背景画像の更新)を行わないこととしても構わない。 By the way, when it is set as the structure shown in FIG.9 and FIG.10, you may read "the display area" of STEP2 and STEP3 of FIG. Furthermore, in STEP4, the range in which the frame F is displayed in the left image and the right image may be set as the processing range. Further, STEP 5 (determining whether there is a change in the imaging environment) and STEP 6 (updating the left background image and right background image) may not be performed.
<変形例>
本発明の実施の形態における指示体検出装置10について、一部または全部の動作を、マイコンなどの制御装置が行うこととしても構わない。さらに、このような制御装置によって実現される機能の全部または一部をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしても構わない。
<Modification>
About the
また、上述した場合に限らず、図1や図9に示すタッチパネル1,1aや、図2に示す指示体検出装置10は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。また、ソフトウェアを用いてタッチパネル1,1aや指示体検出装置10の一部を構成する場合、ソフトウェアによって実現される部位についてのブロックは、その部位の機能ブロックを表すこととする。
In addition to the above-described case, the
以上、本発明における実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実行することができる。 As mentioned above, although embodiment in this invention was described, the range of this invention is not limited to this, It can add and implement various changes in the range which does not deviate from the main point of invention.
本発明は、検出面上の指示体を検出する指示体検出装置や、当該指示体検出装置を備えたタッチパネルに利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for a pointer detection device that detects a pointer on a detection surface, and a touch panel that includes the pointer detection device.
1,1a タッチパネル
10 指示体検出装置
11L 左側撮像部
11R 右側撮像部
12L 左側画像処理部
12R 右側画像処理部
13L 左側背景画像記憶部
13R 右側背景画像記憶部
14 指示体位置算出部
15 指示体距離算出部
20 表示装置
21 非表示領域
22 表示領域
D 指示体
F 枠体
DESCRIPTION OF
Claims (6)
前記検出面上を当該検出面と略平行に撮像して画像を生成する少なくとも1つの撮像部と、
前記撮像部の撮像により生成される画像中の前記指示体の位置に基づいて、前記指示体と前記検出面との距離を検出する距離検出部と、
を備えることを特徴とする指示体検出装置。 An indicator detection device for detecting an indicator on a detection surface,
At least one imaging unit that captures an image on the detection surface substantially parallel to the detection surface to generate an image;
A distance detection unit that detects a distance between the indicator and the detection surface based on a position of the indicator in an image generated by imaging of the imaging unit;
An indicator detection apparatus comprising:
さらに備えることを特徴とする請求項1に記載の指示体検出装置。 A position detection unit that detects the position of the indicator on the detection surface based on the position of the indicator in an image generated by two or more imaging units that capture the detection surface from different locations,
The pointer detection apparatus according to claim 1, further comprising:
前記表示領域を検出面とする請求項1〜請求項5のいずれかに記載の指示体検出装置と、
を備えることを特徴とするタッチパネル。 A display device for displaying an image in a display area;
The pointer detection apparatus according to any one of claims 1 to 5, wherein the display area is a detection surface;
A touch panel comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010040290A JP2011175543A (en) | 2010-02-25 | 2010-02-25 | Indicator detection device and touch panel |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010040290A JP2011175543A (en) | 2010-02-25 | 2010-02-25 | Indicator detection device and touch panel |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011175543A true JP2011175543A (en) | 2011-09-08 |
Family
ID=44688331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010040290A Ceased JP2011175543A (en) | 2010-02-25 | 2010-02-25 | Indicator detection device and touch panel |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011175543A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05189137A (en) * | 1992-01-16 | 1993-07-30 | Sumitomo Heavy Ind Ltd | Command input device for computer |
JP2004502261A (en) * | 2000-07-05 | 2004-01-22 | スマート テクノロジーズ インコーポレイテッド | Camera-based touch system |
JP2006518076A (en) * | 2003-02-14 | 2006-08-03 | ネクスト ホールディングス リミティド | Touch screen signal processing |
JP2007514241A (en) * | 2003-12-09 | 2007-05-31 | リアクトリクス システムズ、 インコーポレイテッド | Built-in interactive video display system |
JP2007536652A (en) * | 2004-05-05 | 2007-12-13 | スマート テクノロジーズ ユーエルシーエス | Apparatus and method for detecting a pointer corresponding to a touch surface |
-
2010
- 2010-02-25 JP JP2010040290A patent/JP2011175543A/en not_active Ceased
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05189137A (en) * | 1992-01-16 | 1993-07-30 | Sumitomo Heavy Ind Ltd | Command input device for computer |
JP2004502261A (en) * | 2000-07-05 | 2004-01-22 | スマート テクノロジーズ インコーポレイテッド | Camera-based touch system |
JP2006518076A (en) * | 2003-02-14 | 2006-08-03 | ネクスト ホールディングス リミティド | Touch screen signal processing |
JP2007514241A (en) * | 2003-12-09 | 2007-05-31 | リアクトリクス システムズ、 インコーポレイテッド | Built-in interactive video display system |
JP2007536652A (en) * | 2004-05-05 | 2007-12-13 | スマート テクノロジーズ ユーエルシーエス | Apparatus and method for detecting a pointer corresponding to a touch surface |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230367455A1 (en) | Information processing apparatus for responding to finger and hand operation inputs | |
JP4609557B2 (en) | Information processing apparatus and information processing method | |
US9632626B2 (en) | Apparatuses and methods for providing a 3D man-machine interface (MMI) | |
US20110205189A1 (en) | Stereo Optical Sensors for Resolving Multi-Touch in a Touch Detection System | |
US10318152B2 (en) | Modifying key size on a touch screen based on fingertip location | |
JP4915367B2 (en) | Display imaging apparatus and object detection method | |
JP5802247B2 (en) | Information processing device | |
TWI446225B (en) | Projection system and image processing method thereof | |
US20130141393A1 (en) | Frameless optical touch device and image processing method for frameless optical touch device | |
US9235293B2 (en) | Optical touch device and touch sensing method | |
WO2020027818A1 (en) | Determining location of touch on touch sensitive surfaces | |
TWI482067B (en) | Optical touch systems and methods for determining positions of objects thereof | |
US9229586B2 (en) | Touch system and method for determining the distance between a pointer and a surface | |
JP2011175543A (en) | Indicator detection device and touch panel | |
TWI462033B (en) | Touch system and method of making a drawing thereon | |
JP2014209326A (en) | Image processing apparatus, image processing method, and image processing program | |
JP7286612B2 (en) | Operation detection device and operation detection method | |
JP2011198344A (en) | Position detection device and touch panel | |
US9569036B2 (en) | Multi-touch system and method for processing multi-touch signal | |
US9983685B2 (en) | Electronic apparatuses and methods for providing a man-machine interface (MMI) | |
US20240069647A1 (en) | Detecting method, detecting device, and recording medium | |
TWI522871B (en) | Processing method of object image for optical touch system | |
US11762504B2 (en) | Automatic control of image capture device display operation underwater | |
US20180239486A1 (en) | Control method, electronic blackboard system, display device, and program | |
JP2012043142A (en) | Position detector and touch panel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131001 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20131002 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131002 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131114 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20131225 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140408 |
|
A045 | Written measure of dismissal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20140826 |