JP2011175543A - Indicator detection device and touch panel - Google Patents

Indicator detection device and touch panel Download PDF

Info

Publication number
JP2011175543A
JP2011175543A JP2010040290A JP2010040290A JP2011175543A JP 2011175543 A JP2011175543 A JP 2011175543A JP 2010040290 A JP2010040290 A JP 2010040290A JP 2010040290 A JP2010040290 A JP 2010040290A JP 2011175543 A JP2011175543 A JP 2011175543A
Authority
JP
Japan
Prior art keywords
indicator
image
display area
detection
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2010040290A
Other languages
Japanese (ja)
Inventor
Yosuke Tanida
陽介 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010040290A priority Critical patent/JP2011175543A/en
Publication of JP2011175543A publication Critical patent/JP2011175543A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an indicator detection device easily and rapidly detecting the distance between an indicator and a detection surface, and a touch panel having the indicator detection device. <P>SOLUTION: The indicator detection device 1 includes a right imaging part 11R and a left imaging part 11L for imaging the surface of a display area 22 roughly parallel to the surface of the display area 22, and an indicator distance calculation part 15 for calculating the distance between the indicator and the surface of the display area 22 according to the position of the indicator in the image picked up by at least one of the right imaging part 11R and the left imaging part 11L. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、検出面上の指示体を検出する指示体検出装置や、当該指示体検出装置を備えたタッチパネルに関する。   The present invention relates to a pointer detection device that detects a pointer on a detection surface, and a touch panel including the pointer detection device.

画像を表示する表示装置と、例えばユーザの指やスタイラスなどの指示体を検出する指示体検出装置とを備え、表示装置上の指示体を検出する、いわゆるタッチパネルが広く普及している。タッチパネルは、表示装置に表示される画像を視認したユーザが、当該画像を手がかりにして表示装置上(当該画像上)の所定の位置に触れるという、直感的かつ簡易的な動作によって操作される。   A so-called touch panel that includes a display device that displays an image and an indicator detection device that detects an indicator such as a user's finger or stylus and detects the indicator on the display device is widely used. The touch panel is operated by an intuitive and simple operation in which a user who visually recognizes an image displayed on the display device touches a predetermined position on the display device (on the image) using the image as a clue.

タッチパネルに備えられる指示体検出装置の方式として、例えば、静電容量方式がある。静電容量方式とは、表示装置上に導電膜を設けて電流を通じ、指が導電膜に接触または近接することで生じる静電容量の変化を電流の変化として検出することで、指が接触または近接した位置を検出するものである。   As a method of the indicator detection device provided in the touch panel, for example, there is a capacitance method. The capacitance method is a method in which a conductive film is provided on a display device and a change in capacitance caused by a finger touching or approaching the conductive film is detected as a current change through a current. It detects the close position.

しかしながら、静電容量方式では、表示装置上に導電膜などを設ける必要があるため、表示装置上の光透過性が低下し、屋外などで画像の視認性が劣化することが問題となる。   However, in the capacitance method, since it is necessary to provide a conductive film or the like on the display device, light transmittance on the display device is lowered, and visibility of an image is deteriorated outdoors.

そこで、この問題を解決する方式として、例えば、赤外線マトリクス方式(検出面の端部に複数の発光部及び受光部を敷き詰め、それぞれの受光部で生成される信号から指示体を検出する方式)や、特許文献1に記載の方式(検出面の2つの隅に赤外線の発光部及びイメージセンサをそれぞれ備えるとともに検出面の端部に赤外線の反射材を備え、イメージセンサで生成される画像からユーザが触れた位置を検出する方式)などが提案されている。   Therefore, as a method for solving this problem, for example, an infrared matrix method (a method in which a plurality of light emitting units and light receiving units are spread at the end of the detection surface, and an indicator is detected from signals generated by the respective light receiving units) The method described in Patent Document 1 (infrared light emitting units and image sensors are provided at two corners of the detection surface, and an infrared reflector is provided at the end of the detection surface. A method for detecting a touched position) has been proposed.

さらに、特許文献2及び3では、撮像により得られた画像中の指示体と、予め記録しておいた指示体のモデルと、を比較することで、指示体と検出面との距離を検出する指示体検出装置が提案されている。   Further, in Patent Documents 2 and 3, the distance between the indicator and the detection surface is detected by comparing the indicator in the image obtained by imaging with the model of the indicator recorded in advance. A pointer detection apparatus has been proposed.

特許第4229964号Japanese Patent No. 4229964 特開平8−328735号公報JP-A-8-328735 特開2009−259110号公報JP 2009-259110 A

特許文献1で提案されるような赤外線を用いた方式の指示体検出装置であれば、表示装置上に導電膜などの追加部材を備える必要がないため、表示装置上の光透過性の低下(屋外での視認性の劣化)を防止することが可能となる。しかしながら、屋外では発光部以外(例えば、太陽など)から放射される赤外線の影響を受けることで検出精度が劣化するため、問題となる。さらに、赤外線に限らず、屋外では外乱(検出環境の変動)の影響が大きい。そのため、屋内での使用には支障をきたさない検出精度を実現する指示体検出装置であっても、屋外では使用に堪えないものとなる場合がある。   In the case of an indicator detection device using an infrared ray as proposed in Patent Document 1, it is not necessary to provide an additional member such as a conductive film on the display device. It becomes possible to prevent deterioration of visibility in the outdoors. However, since the detection accuracy deteriorates due to the influence of infrared rays radiated from other than the light emitting unit (for example, the sun) outdoors, it becomes a problem. Furthermore, not only infrared rays but also the influence of disturbance (variation of detection environment) is great outdoors. Therefore, even if it is a pointer detection apparatus which implement | achieves the detection accuracy which does not cause trouble in indoor use, it may become unbearable for use outdoors.

また、特許文献2及び3で提案されている指示体検出装置であれば、指示体と検出面との距離を検出することが可能である。しかしながら、上記のように外乱の影響を受けるなどして、検出精度が劣化する問題が生じ得る。また、予め指示体のモデルを記録しておく必要があることで、指示体の種類や使用方法に制約が生じることや、モデルを記録しておく装置が必要になることで、装置の複雑化や大型化を招来するため、問題となる。さらに、画像中の指示体とモデルとを比較して距離を検出する場合、複雑な演算が必要となるために演算量が膨大となり、迅速に動作することが困難になることも問題となる。   Further, with the pointer detection device proposed in Patent Documents 2 and 3, it is possible to detect the distance between the pointer and the detection surface. However, there is a problem that the detection accuracy deteriorates due to the influence of disturbance as described above. In addition, since it is necessary to record a model of the indicator in advance, the type and usage of the indicator are restricted, and a device for recording the model is required, which complicates the device. This is a problem because it leads to an increase in size. Furthermore, when a distance is detected by comparing an indicator in an image with a model, a complicated calculation is required, so that the calculation amount becomes enormous and it becomes difficult to operate quickly.

そこで本発明は、指示体と検出面との距離を簡易的かつ迅速に検出することを可能とした指示体検出装置と、当該指示体検出装置を備えたタッチパネルと、を提供することを目的とする。   Then, this invention aims at providing the indicator detection apparatus which enabled it to detect the distance of an indicator and a detection surface simply and rapidly, and the touchscreen provided with the said indicator detection apparatus. To do.

上記目的を達成するために、本発明における指示体検出装置は、検出面上の指示体を検出する指示体検出装置であって、前記検出面上を当該検出面と略平行に撮像して画像を生成する少なくとも1つの撮像部と、前記撮像部の撮像により生成される画像中の前記指示体の位置に基づいて、前記指示体と前記検出面との距離を検出する距離検出部と、を備えることを特徴とする。   In order to achieve the above object, a pointer detection apparatus according to the present invention is a pointer detection apparatus that detects a pointer on a detection surface, and images the image on the detection surface substantially parallel to the detection surface. And at least one imaging unit that generates a distance detection unit that detects a distance between the indicator and the detection surface based on a position of the indicator in an image generated by imaging of the imaging unit. It is characterized by providing.

また、上記構成の指示体検出装置において、異なる場所から前記検出面を撮像する2つ以上の前記撮像部により生成される画像中の前記指示体の位置に基づいて、前記検出面上の前記指示体の位置を検出する位置検出部を、さらに備えることとしても構わない。   In the indicator detection device having the above configuration, the indication on the detection surface is based on the position of the indicator in an image generated by two or more imaging units that capture the detection surface from different locations. A position detector that detects the position of the body may be further provided.

このように構成すると、位置検出部及び距離検出部が、ともに画像から認識される指示体の画像中の位置に基づいて、検出面上の指示体の位置及び指示体と検出面との距離を検出することとなる。そのため、検出処理を共通化することが可能となる。したがって、指示体検出装置の処理を簡易化及び迅速化することが可能となる。   With this configuration, the position detection unit and the distance detection unit both determine the position of the indicator on the detection surface and the distance between the indicator and the detection surface based on the position in the image of the indicator recognized from the image. Will be detected. Therefore, it is possible to share the detection process. Therefore, it is possible to simplify and speed up the processing of the pointer detection apparatus.

また、上記構成の指示体検出装置において、前記距離検出部が、いずれか1つの前記撮像部により生成される画像中の前記指示体の位置に基づいて、前記指示体と前記検出面との距離を検出することとしても構わない。   Further, in the pointer detection apparatus having the above configuration, the distance detection unit may determine a distance between the pointer and the detection surface based on the position of the pointer in an image generated by any one of the imaging units. May be detected.

このように構成すると、指示体と検出面との距離の検出に要する演算量を少なくすることが可能となる。   If comprised in this way, it will become possible to reduce the calculation amount required for the detection of the distance of a pointer and a detection surface.

また、上記構成の指示体検出装置において、前記撮像部が、可視光を撮像することで一つの画素に複数の信号値を備えた画像を生成することとしても構わない。   Moreover, in the pointer detection apparatus having the above configuration, the imaging unit may generate an image having a plurality of signal values for one pixel by imaging visible light.

このように構成すると、例えば指示体検出装置を屋外で使用する場合に、検出面上に指示体が進入することで発生する種々の外乱と、指示体とを精度良く区別することが可能となる。特に、一つの画素が単一の信号値のみを備える画像中の指示体を認識するよりも、外乱の影響を受けにくくすることが可能となるため、画像中から精度良く指示体を認識することが可能となる。   With this configuration, for example, when the indicator detection device is used outdoors, it is possible to accurately distinguish between various disturbances generated by the indicator entering the detection surface and the indicator. . In particular, it is possible to make it less susceptible to disturbance than to recognize an indicator in an image in which one pixel has only a single signal value. Is possible.

また、上記構成の指示体検出装置において、前記撮像部の光軸が、前記検出面と略同一の平面内に存在することとしても構わない。   Moreover, in the pointer detection apparatus having the above-described configuration, the optical axis of the imaging unit may be present in substantially the same plane as the detection surface.

このように構成すると、撮像部により生成される画像中において、検出面の所定方向(光軸と略平行な方向)の長さを短くすることが可能となる。そのため、画像中における指示体の直下となる検出面の位置が、指示体の移動(光軸と略平行な方向への移動)によって変動することを抑制することが可能となる。したがって、画像中における指示体と検出面との長さを、容易に算出することが可能となる。   If comprised in this way, in the image produced | generated by an imaging part, it will become possible to shorten the length of the predetermined direction (direction substantially parallel to an optical axis) of a detection surface. For this reason, it is possible to suppress the position of the detection surface immediately below the indicator in the image from fluctuating due to the movement of the indicator (movement in a direction substantially parallel to the optical axis). Therefore, it is possible to easily calculate the length between the indicator and the detection surface in the image.

また、上記構成の指示体検出装置において、前記距離検出部が、前記撮像部の撮像により生成された画像である背景画像を記憶する背景画像記憶部と、前記撮像部の撮像により生成された画像である対象画像と、前記背景画像記憶部に記憶されている背景画像との差分を求め、当該差分が所定の大きさ以上となる領域の位置から、対象画像中の前記指示体の位置を求める画像処理部と、前記画像処理部で求められた前記指示体の位置から、前記指示体と前記検出面との距離を算出する指示体距離算出部と、を備えることとしても構わない。   Further, in the pointer detection apparatus having the above configuration, the distance detection unit stores a background image storage unit that stores a background image that is an image generated by imaging of the imaging unit, and an image generated by imaging of the imaging unit. The difference between the target image and the background image stored in the background image storage unit is obtained, and the position of the indicator in the target image is obtained from the position of the region where the difference is a predetermined size or more. An image processing unit and an indicator distance calculating unit that calculates a distance between the indicator and the detection surface from the position of the indicator obtained by the image processing unit may be provided.

このように構成すると、簡易な処理によって指示体と検出面との距離を検出することが可能となる。特に、対象画像中の指示体の大きさや形状の解析を要することなく、指示体と検出面との距離を検出することが可能となる。   If comprised in this way, it will become possible to detect the distance of a pointer and a detection surface by simple processing. In particular, the distance between the indicator and the detection surface can be detected without requiring analysis of the size and shape of the indicator in the target image.

また、本発明のタッチパネルは、表示領域に画像を表示する表示装置と、前記表示領域を検出面とする上記の指示体検出装置と、を備えることを特徴とする。   In addition, a touch panel according to the present invention includes a display device that displays an image in a display area, and the above indicator detection device that uses the display area as a detection surface.

本発明の構成とすると、撮像部で撮像された画像の少なくとも一つから指示体を認識することで、指示体と検出面との距離を検出することが可能となる。特に、認識した指示体をモデルなどと比較することを要せずに、簡易的かつ迅速に指示体と検出面との距離を検出することが可能となる。   With the configuration of the present invention, it is possible to detect the distance between the indicator and the detection surface by recognizing the indicator from at least one of the images captured by the imaging unit. In particular, it is possible to detect the distance between the indicator and the detection surface simply and quickly without the need to compare the recognized indicator with a model or the like.

本発明の意義ないし効果は、以下に示す実施の形態の説明によりさらに明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の実施の形態の一つであって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will be further clarified by the following description of embodiments. However, the following embodiment is merely one of the embodiments of the present invention, and the meaning of the terminology of the present invention or each constituent element is limited to those described in the following embodiments. is not.

は、本発明の実施の一形態であるタッチパネルの構成の一例を示す平面図及び側面図である。These are the top view and side view which show an example of a structure of the touchscreen which is one Embodiment of this invention. は、指示体検出装置の構成の一例を示すブロック図である。These are block diagrams which show an example of a structure of a pointer detection apparatus. は、指示体の検出面上の位置の検出方法の一例について説明する図である。These are figures explaining an example of the detection method of the position on the detection surface of a pointer. は、指示体の検出面上の位置の検出方法の一例について説明する図である。These are figures explaining an example of the detection method of the position on the detection surface of a pointer. は、指示体と検出面との距離の検出方法の一例について説明する図である。These are the figures explaining an example of the detection method of the distance of a pointer and a detection surface. は、指示体検出装置の動作の一例について説明する図である。These are figures explaining an example of operation of a pointer detection device. は、処理範囲の設定方法の一例について説明する左側画像の模式図である。These are the schematic diagrams of the left side image explaining an example of the setting method of a processing range. は、撮像環境の変動の有無を判定する動作の一例を示すフローチャートである。These are flowcharts which show an example of the operation | movement which determines the presence or absence of the fluctuation | variation of an imaging environment. は、本発明の実施の一形態であるタッチパネルの構成の別例を示す平面図及び側面図である。These are the top view and side view which show another example of a structure of the touchscreen which is one Embodiment of this invention. は、図8に示す左側撮像部及び右側撮像部により生成される左側画像及び右側画像の一例を示す模式図である。FIG. 9 is a schematic diagram illustrating an example of a left image and a right image generated by the left imaging unit and the right imaging unit illustrated in FIG. 8.

<全体構成>
本発明の実施の一形態であるタッチパネルについて、以下図面を参照して説明する。図1は、本発明の実施の一形態であるタッチパネルの構成の一例を示す平面図及び側面図である。なお、図1(a)は、タッチパネルの画像が表示される面を示す平面図である。一方、図1(b)は、図1(a)に示す面を右に向けた場合のタッチパネルの左側面を示す側面図である。また、図2は、指示体検出装置の構成の一例を示すブロック図である。
<Overall configuration>
A touch panel according to an embodiment of the present invention will be described below with reference to the drawings. 1A and 1B are a plan view and a side view illustrating an example of a configuration of a touch panel according to an embodiment of the present invention. FIG. 1A is a plan view showing a surface on which an image of the touch panel is displayed. On the other hand, FIG.1 (b) is a side view which shows the left side surface of a touchscreen when the surface shown to Fig.1 (a) is turned to the right. FIG. 2 is a block diagram illustrating an example of the configuration of the pointer detection apparatus.

図1に示すように、本例のタッチパネル1は、非表示領域21に囲まれる表示領域22に画像を表示する表示装置20を備える。また、タッチパネル1は、タッチパネル1の左側から表示領域22面上を撮像する左側撮像部11Lと、タッチパネル1の右側から表示領域22面上を撮像する右側撮像部11Rと、を備えた指示体検出装置10(図2参照)を備える。また、非表示領域21面と表示領域22面とは、略同一の平面内に存在する。なお、左側撮像部11L及び右側撮像部11Rの一部(例えば、撮像素子やレンズなどの一部)が、非表示領域21内に埋め込まれるように配置されても構わない。   As shown in FIG. 1, the touch panel 1 of this example includes a display device 20 that displays an image in a display area 22 surrounded by a non-display area 21. In addition, the touch panel 1 includes a left imaging unit 11L that images the display area 22 surface from the left side of the touch panel 1 and a right imaging unit 11R that images the display area 22 surface from the right side of the touch panel 1. The apparatus 10 (refer FIG. 2) is provided. Further, the non-display area 21 surface and the display area 22 surface exist in substantially the same plane. Note that a part of the left imaging unit 11L and the right imaging unit 11R (for example, a part of an imaging element, a lens, or the like) may be arranged to be embedded in the non-display area 21.

図1(a)及び図1(b)において、左側撮像部11L及び右側撮像部11Rが撮像する方向を矢印で示している。図1(b)に示すように、左側撮像部11L及び右側撮像部11Rは、検出面である表示領域22面と略平行となるように撮像を行う。このとき、例えば左側撮像部11L及び右側撮像部11Rのそれぞれの光軸が、表示領域22面と略平行になる。なお、左側撮像部11L及び右側撮像部11Rの中で、指示体と表示領域22面との距離の検出(詳細については後述)に関与する少なくとも一方の撮像部11L,11Rが、表示領域22面と略平行となるように撮像を行うものであればよい。   In FIG. 1A and FIG. 1B, the directions in which the left imaging unit 11L and the right imaging unit 11R image are indicated by arrows. As illustrated in FIG. 1B, the left imaging unit 11L and the right imaging unit 11R perform imaging so as to be substantially parallel to the display area 22 surface as a detection surface. At this time, for example, the optical axes of the left imaging unit 11L and the right imaging unit 11R are substantially parallel to the display area 22 surface. Of the left imaging unit 11L and the right imaging unit 11R, at least one of the imaging units 11L and 11R involved in detection of the distance between the indicator and the display region 22 surface (details will be described later) is the display region 22 surface. As long as the image is taken so as to be substantially parallel to the line.

また、図2に示すように、指示体検出装置10は、上記の左側撮像部11L及び右側撮像部11Rと、左側撮像部11Lの撮像により生成された左側画像を処理する左側画像処理部12Lと、左側画像処理部12Lでの処理に用いられる左側背景画像を一時的に記憶する左側背景画像記憶部13Lと、右側撮像部11Rの撮像により生成された右側画像を処理する右側画像処理部12Rと、右側画像処理部12Rでの処理に用いられる右側背景画像を一時的に記憶する右側背景画像記憶部13Rと、左側画像処理部12Lによる左側画像の処理結果と右側画像処理部12Rによる右側画像の処理結果とに基づいて表示領域22面上(検出面上)の指示体の位置を算出し指示体位置情報として出力する指示体位置算出部14と、左側画像処理部12Lによる左側画像の処理結果と右側画像処理部12Rによる右側画像の処理結果との少なくとも一方に基づいて指示体と表示領域22面(検出面)との距離を算出し指示体距離情報として出力する指示体距離算出部15と、を備える。なお、指示体とは、ユーザの指やスタイラスなどの、ユーザが検出面上の任意の位置を指示するために用いるものである。以下では説明の具体化のため、指示体として指を例示して説明する。また、指示体距離算出部15に、左側画像処理部12Lの処理結果と右側画像処理部12Rの処理結果とが入力されるように図示しているが、少なくとも一方の処理結果が入力される構成であればよい。   As shown in FIG. 2, the pointer detection apparatus 10 includes a left imaging unit 11L and a right imaging unit 11R, and a left image processing unit 12L that processes a left image generated by imaging of the left imaging unit 11L. A left background image storage unit 13L that temporarily stores a left background image used for processing in the left image processing unit 12L, and a right image processing unit 12R that processes a right image generated by imaging of the right imaging unit 11R. The right background image storage unit 13R that temporarily stores the right background image used for the processing in the right image processing unit 12R, the processing result of the left image by the left image processing unit 12L, and the right image by the right image processing unit 12R. A pointer position calculation unit 14 that calculates the position of the pointer on the display area 22 surface (on the detection surface) based on the processing result and outputs the pointer position information, and a left image processing unit The distance between the indicator and the display area 22 surface (detection surface) is calculated based on at least one of the processing result of the left image by 2L and the processing result of the right image by the right image processing unit 12R, and is output as indicator distance information. And a pointer distance calculation unit 15. The indicator is used by the user to indicate an arbitrary position on the detection surface such as the user's finger or stylus. In the following description, a finger is exemplified as an indicator for the purpose of concrete description. In addition, although it is illustrated that the processing result of the left image processing unit 12L and the processing result of the right image processing unit 12R are input to the indicator distance calculation unit 15, a configuration in which at least one processing result is input. If it is.

左側撮像部11Lは、矩形の表示領域22の左上に配置される。右側撮像部11Rは、表示領域22の右上に配置される。即ち、左側撮像部11L及び右側撮像部11Rは、表示領域22の上辺の両端に配置される。また、左側撮像部11Lの撮像により生成される左側画像及び右側撮像部11Rの撮像により生成される右側画像は、それぞれ画角が90°以上であり表示領域22面上の全体が画角内に収まるものであると、好ましい。さらに、左側撮像部11L及び右側撮像部11Rは、例えば単板式ベイヤ配列のイメージセンサや、三板式のイメージセンサなどの、可視光を検出する受光素子を備えカラー画像を生成可能な撮像素子を備えるものであると、好ましい。   The left imaging unit 11L is disposed at the upper left of the rectangular display area 22. The right imaging unit 11R is disposed at the upper right of the display area 22. That is, the left imaging unit 11L and the right imaging unit 11R are disposed at both ends of the upper side of the display area 22. Further, the left image generated by the imaging of the left imaging unit 11L and the right image generated by the imaging of the right imaging unit 11R each have an angle of view of 90 ° or more, and the entire display area 22 is within the angle of view. It is preferable that it fits. Furthermore, the left imaging unit 11L and the right imaging unit 11R include imaging elements that can generate a color image with a light receiving element that detects visible light, such as a single-plate Bayer array image sensor or a three-plate image sensor. A thing is preferable.

<指示体の検出面上の位置の検出方法例>
次に、指示体検出装置10による、指示体の表示領域22面上(検出面上)の位置の検出方法の一例について、図3及び図4を参照して説明する。図3及び図4は、指示体の検出面上の位置の検出方法の一例について説明する図である。また、図3は左側撮像部11Lを示す図であり、図4は右側撮像部11Rを示す図である。
<Example of method for detecting the position of the indicator on the detection surface>
Next, an example of a method for detecting the position of the pointer on the display area 22 surface (on the detection surface) by the pointer detection apparatus 10 will be described with reference to FIGS. 3 and 4. 3 and 4 are diagrams for explaining an example of a method for detecting the position of the indicator on the detection surface. 3 is a diagram showing the left imaging unit 11L, and FIG. 4 is a diagram showing the right imaging unit 11R.

図3(a)は、左側撮像部11Lの撮像により生成される左側画像の画角を示す平面図であり、タッチパネルの平面について示した図1(a)に相当するものである。また、図3(b)は、左側画像の一例を示す模式図であり、図3(a)に示す左側撮像部11Lの撮像素子に映る画像を示している。同様に、図4(a)は、右側撮像部11Rの撮像により生成される右側画像の画角を示す平面図であり、タッチパネルの平面について示した図1(a)に相当するものである。また、図4(b)は、右側画像の一例を示す模式図であり、図4(a)に示す右側撮像部11Rの撮像素子に映る画像を示している。なお、図3(b)及び図4(b)では、左側撮像部11L及び右側撮像部11Rのそれぞれの光軸が、表示領域22面と略同一の平面内に存在する場合に撮像される左側画像及び右側画像を例示している。   FIG. 3A is a plan view showing the angle of view of the left image generated by the imaging of the left imaging unit 11L, and corresponds to FIG. 1A showing the plane of the touch panel. FIG. 3B is a schematic diagram showing an example of the left side image, and shows an image shown on the image sensor of the left side imaging unit 11L shown in FIG. Similarly, FIG. 4A is a plan view showing the angle of view of the right image generated by imaging of the right imaging unit 11R, and corresponds to FIG. 1A showing the plane of the touch panel. FIG. 4B is a schematic diagram illustrating an example of the right image, and illustrates an image that is reflected on the imaging element of the right imaging unit 11R illustrated in FIG. 3B and 4B, the left side imaged when the optical axes of the left imaging unit 11L and the right imaging unit 11R are in substantially the same plane as the display area 22 plane. An image and a right image are illustrated.

図3(a)及び図3(b)に示すように、左側撮像部11Lは、自身を中心として表示領域22の上辺から左辺までを含む左側画像を生成する。ここで、左側撮像部11Lが配置される表示領域22の左上を中心とした角度を考え、上辺を0°、左辺を90°と定義すると、画角内の指示体Dが存在する方向は、時計回り(右回り)の角度αで表現される。なお、本例の左側画像には、非表示領域21及び表示領域22の右下角RBが映り込んでいる。また、上述のように左側撮像部11Lの一部が非表示領域21内に埋め込まれる場合、左側画像中に非表示領域21の断面や側面(図3(b)中、表示領域22の下側部分)などが映り込み得る。   As shown in FIG. 3A and FIG. 3B, the left imaging unit 11L generates a left image including the upper side to the left side of the display area 22 around itself. Here, considering an angle centered on the upper left of the display area 22 where the left imaging unit 11L is arranged, if the upper side is defined as 0 ° and the left side is defined as 90 °, the direction in which the indicator D within the angle of view is It is expressed by the clockwise angle α. In the left image of this example, the lower right corner RB of the non-display area 21 and the display area 22 is reflected. In addition, when a part of the left imaging unit 11L is embedded in the non-display area 21 as described above, a cross section or a side surface of the non-display area 21 in the left image (lower side of the display area 22 in FIG. 3B). (Part)) may be reflected.

右側撮像部11Rについても同様である。図4(a)及び図4(b)に示すように、右側撮像部11Rは、自身を中心として表示領域22の上辺から右辺までを含む右側画像を生成する。ここで、右側撮像部11Rが配置される表示領域22の右上を中心とした角度を考え、上辺を0°、右辺を90°と定義すると、画角内の指示体Dが存在する方向は、反時計回り(左回り)の角度βで表現される。なお、本例の右側画像には、非表示領域21及び表示領域22の左下角LBが映り込んでいる。また、上述のように右側撮像部11Rの一部が非表示領域21内に埋め込まれる場合、右側画像中に非表示領域21の断面や側面(図4(b)中、表示領域22の下側部分)などが映り込み得る。   The same applies to the right imaging unit 11R. As shown in FIG. 4A and FIG. 4B, the right imaging unit 11R generates a right image including the upper side to the right side of the display area 22 around itself. Here, considering the angle centered on the upper right of the display area 22 where the right imaging unit 11R is arranged, if the upper side is defined as 0 ° and the right side is defined as 90 °, the direction in which the indicator D within the angle of view is It is represented by an angle β counterclockwise (counterclockwise). In the right image of this example, the lower left corner LB of the non-display area 21 and the display area 22 is reflected. In addition, when a part of the right imaging unit 11R is embedded in the non-display area 21 as described above, the cross-section or side surface of the non-display area 21 in the right image (the lower side of the display area 22 in FIG. 4B). (Part)) may be reflected.

上記の角度α及び角度βは、図3(b)及び図4(b)に示すように、左側画像中及び右側画像中における指示体Dの左右方向の位置から算出することができる。ただし、実際に角度α及び角度βを算出するためには、左側画像及び右側画像のそれぞれの中から指示体Dを認識する必要がある。本例では、左側画像処理部12Lが、左側画像中の指示体Dを認識することで角度αを算出し、右側画像処理部12Rが、右側画像中の指示体Dを認識することで角度βを算出する。なお、左側画像処理部12L及び右側画像処理部12Rによる左側画像中及び右側画像中の指示体Dの認識方法の詳細については、後述する。   The angles α and β can be calculated from the horizontal position of the indicator D in the left image and the right image, as shown in FIGS. 3B and 4B. However, in order to actually calculate the angle α and the angle β, it is necessary to recognize the indicator D from each of the left image and the right image. In this example, the left image processing unit 12L calculates the angle α by recognizing the indicator D in the left image, and the right image processing unit 12R recognizes the indicator D in the right image to thereby obtain the angle β. Is calculated. The details of the method of recognizing the indicator D in the left image and the right image by the left image processing unit 12L and the right image processing unit 12R will be described later.

指示体位置算出部14は、例えば、左側画像処理部12L及び右側画像処理部12Rが算出した角度α及び角度βと、既知である表示領域22上辺の長さkと、を用いた三角測量により、指示体Dの表示領域22面上の位置を算出する。具体的には、表示領域22上の任意の位置を座標(x,y)で表現し、左上を(0,0)、右方ほどx座標の値が大きく下方ほどy座標の値が大きくなるように定義する場合、以下の連立方程式を解くことで指示体Dの表示領域22面上の座標(x1,y1)を求めることができる。 The indicator position calculation unit 14 performs, for example, triangulation using the angle α and the angle β calculated by the left image processing unit 12L and the right image processing unit 12R and the known length k of the upper side of the display area 22. Then, the position of the indicator D on the surface of the display area 22 is calculated. Specifically, an arbitrary position on the display area 22 is expressed by coordinates (x, y), the upper left is (0, 0), the value of the x coordinate increases toward the right, and the value of the y coordinate increases toward the bottom. In this case, the coordinates (x 1 , y 1 ) on the display region 22 surface of the indicator D can be obtained by solving the following simultaneous equations.

1×tanα=y1
(k−x1)×tanβ=y1
x 1 × tan α = y 1
(K−x 1 ) × tan β = y 1

表示装置20は、指示体位置算出部14から出力される指示体位置情報(即ち、ユーザによるタッチパネル1の操作内容)に基づいて、例えば表示領域22に表示する画像を切り替えるなどの各種制御動作を行う。   The display device 20 performs various control operations such as switching an image to be displayed on the display area 22 based on the indicator position information (that is, the operation content of the touch panel 1 by the user) output from the indicator position calculation unit 14. Do.

<指示体と検出面との距離の検出方法例>
次に、指示体検出装置10による、指示体と表示領域22面(検出面)との距離の検出方法の一例について、図5を参照して説明する。図5は、指示体と検出面との距離の検出方法の一例について説明する図である。図5(a)は、タッチパネルの左側面を示す側面図であり、図1(b)に相当するものである。また、図5(b)は、左側画像の一例を示す模式図であり、図5(a)に示す左側撮像部11Lの撮像により生成されるものであり、図3(b)に相当するものである。なお、説明の簡略化のため、ここでは左側画像のみに基づいて距離を検出する場合について、具体的に説明する。
<Example of detection method of distance between indicator and detection surface>
Next, an example of a method for detecting the distance between the indicator and the display area 22 surface (detection surface) by the indicator detection device 10 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a method for detecting the distance between the indicator and the detection surface. Fig.5 (a) is a side view which shows the left side surface of a touch panel, and is equivalent to FIG.1 (b). FIG. 5B is a schematic diagram illustrating an example of the left side image, which is generated by imaging of the left imaging unit 11L illustrated in FIG. 5A, and corresponds to FIG. 3B. It is. For simplification of description, the case where the distance is detected based on only the left image will be specifically described here.

図5(a)及び図5(b)に示す例では、指示体Dの先端と表示領域22面との距離(図中の両矢印)を検出する。このとき、上述した指示体Dの検出面上の位置の検出方法例と同様に、左側画像処理部12Lが、左側画像中の指示体Dを認識する(認識方法の詳細については後述)。そして、指示体距離算出部15が、左側画像処理部12Lで認識された左側画像中における指示体Dの上下方向の位置に基づいて、指示体Dの先端から左側画像中の所定の位置に存在する表示領域22面までの画像中における長さを求めることで、指示体Dと表示領域22面との距離を算出する。   In the example shown in FIGS. 5A and 5B, the distance (the double arrow in the figure) between the tip of the indicator D and the surface of the display area 22 is detected. At this time, similarly to the above-described method for detecting the position of the indicator D on the detection surface, the left image processing unit 12L recognizes the indicator D in the left image (details of the recognition method will be described later). Then, the indicator distance calculating unit 15 exists at a predetermined position in the left image from the tip of the indicator D based on the vertical position of the indicator D in the left image recognized by the left image processing unit 12L. The distance between the indicator D and the display area 22 surface is calculated by obtaining the length in the image up to the display area 22 surface.

表示装置20は、指示体距離算出部15から出力される指示体距離情報を取得することで、例えば、ユーザが表示領域22面に接触するタイミングを察知(推測)して、ユーザの操作に対する反応を迅速化する。また例えば、指示体と表示領域22面との距離に応じて、表示領域22に表示する画像を変形する(具体的には、指示体が表示領域22面との距離が小さくなるほど、表示しているボタンの画像を大きくしたり、間隔を広くしたりする)ことで、操作性や利便性を向上する。   The display device 20 acquires the indicator distance information output from the indicator distance calculation unit 15, for example, detects (guesses) the timing at which the user touches the surface of the display area 22, and reacts to the user's operation. To speed up. Further, for example, the image displayed on the display area 22 is deformed according to the distance between the indicator and the display area 22 surface (specifically, the indicator is displayed as the distance between the indicator and the display area 22 decreases). The operability and convenience are improved by enlarging the image of the buttons that are present and widening the interval.

なお、左側画像に基づいて指示体Dと表示領域22面との距離を検出する方法を例示したが、右側画像に基づいても構わないし、両方に基づいても構わない。なお、左側画像及び右側画像の両方に基づいて距離を検出する場合、それぞれから得られる距離を総合的に判断しても(例えば、平均値を求めても)構わない。また、いずれか一方の画像(例えば、指示体Dが精度良く認識できた画像)から、指示体Dと表示領域22面との距離を検出しても構わない。   In addition, although the method of detecting the distance between the indicator D and the display area 22 surface based on the left image has been illustrated, it may be based on the right image or both. Note that when the distance is detected based on both the left image and the right image, the distance obtained from each may be comprehensively determined (for example, an average value may be obtained). In addition, the distance between the indicator D and the surface of the display area 22 may be detected from either one of the images (for example, an image in which the indicator D can be recognized with high accuracy).

また、指示体距離算出部15が指示体Dと表示領域22面との距離を算出する際に、指示体位置情報を使用しても構わない。例えば、左側画像または右側画像から求められる指示体Dと表示領域22面との画像中における長さを、距離として算出する際に、指示体位置情報を用いても構わない。また例えば、左側画像中または右側画像中で、指示体Dの直下となる表示領域22面の位置を精度良く求めるために、指示体位置情報を用いても構わない。   Further, when the indicator distance calculation unit 15 calculates the distance between the indicator D and the surface of the display area 22, the indicator position information may be used. For example, the pointer position information may be used when calculating the distance in the image between the indicator D and the display area 22 surface obtained from the left image or the right image as the distance. Further, for example, in order to obtain the position of the display area 22 surface immediately below the indicator D in the left image or the right image with high accuracy, the indicator position information may be used.

<動作例>
次に、指示体検出装置10の動作の一例について、図面を参照して説明する。図6は、指示体検出装置の動作の一例について説明する図である。なお、本例では、左側撮像部11L及び右側撮像部11R、左側画像処理部12L及び右側画像処理部12R、左側背景画像記憶部13L及び右側背景画像記憶部13Rが、それぞれ同様の動作を行う。そのため、以下では説明の簡略化のために、左側撮像部11L、左側画像処理部12L及び左側背景画像記憶部13Lのそれぞれの動作を代表させて説明し、右側撮像部11R、右側画像処理部12R及び右側背景画像記憶部13Rのそれぞれの動作については同様のものとして、その説明を省略する。
<Operation example>
Next, an example of operation | movement of the indicator detection apparatus 10 is demonstrated with reference to drawings. FIG. 6 is a diagram for explaining an example of the operation of the pointer detection apparatus. In this example, the left imaging unit 11L and the right imaging unit 11R, the left image processing unit 12L and the right image processing unit 12R, the left background image storage unit 13L, and the right background image storage unit 13R perform the same operation. Therefore, for simplification of description, the operations of the left imaging unit 11L, the left image processing unit 12L, and the left background image storage unit 13L will be described as a representative, and the right imaging unit 11R and the right image processing unit 12R will be described. The operations of the right-side background image storage unit 13R are the same, and the description thereof is omitted.

図6に示すように、指示体検出装置10が動作を開始すると、最初に、左側撮像部11Lの撮像により生成された左側画像を左側画像処理部12Lが取得する(STEP1)。なお、左側画像処理部12Lは、左側撮像部11Lから取得する左側画像の信号値の種類を必要に応じて変換しても構わない。そして、左側画像処理部12Lが処理する左側画像は、例えば、一つの画素がR(赤)G(緑)B(青)の各色の信号値を備えたものであっても構わないし、Y(輝度)U,V(色差)の各種類の信号値を備えたものであっても構わないし、H(色相)S(彩度)B(輝度)の各種類の信号値を備えたものであっても構わない。   As shown in FIG. 6, when the pointer detection apparatus 10 starts operating, first, the left image processing unit 12L acquires the left image generated by the imaging of the left imaging unit 11L (STEP 1). Note that the left image processing unit 12L may convert the type of the signal value of the left image acquired from the left imaging unit 11L as necessary. The left image processed by the left image processing unit 12L may be, for example, one pixel having signal values of R (red), G (green), and B (blue), or Y ( Luminance) U and V (color difference) may be provided with each type of signal value, and H (hue) S (saturation) B (luminance) may be provided with each type of signal value. It doesn't matter.

左側画像処理部12Lは、取得した左側画像が1フレーム目(即ち、動作の開始後最初に取得した左側画像)であるか否か、または、取得した左側画像中の表示領域22が以前に取得した(例えば、前フレームの)左側画像中の表示領域22からずれたか否かを判定する(STEP2)。   The left image processing unit 12L determines whether the acquired left image is the first frame (that is, the first left image acquired after the start of the operation) or whether the display area 22 in the acquired left image has been acquired previously. It is determined whether or not the display area 22 in the left image (for example, the previous frame) has shifted (STEP 2).

左側画像処理部12Lは、取得した左側画像が1フレーム目であると判定する場合、または、取得した左側画像中の表示領域22がずれたと判定する場合(STEP2、YES)、左側画像中から表示領域22を検出する(STEP3)。このとき、例えば所定の目印などを検出することで表示領域22の位置を確認しても構わないし、表示領域22で表示される画像(光)などに基づいて表示領域22の位置を確認しても構わない。   When the left image processing unit 12L determines that the acquired left image is the first frame, or when it is determined that the display area 22 in the acquired left image has shifted (STEP 2, YES), the left image processing unit 12L displays the left image. The region 22 is detected (STEP 3). At this time, for example, the position of the display area 22 may be confirmed by detecting a predetermined mark or the like, or the position of the display area 22 may be confirmed based on an image (light) displayed in the display area 22. It doesn't matter.

左側画像処理部12Lは、検出された表示領域22に基づいて、左側画像中で処理を行う範囲(以下、処理範囲とする)を設定する(STEP4)。処理範囲について図7を参照して説明する。図7は、処理範囲の設定方法の一例について説明する左側画像の模式図であり、図3(b)に相当するものである。図7は、左側画像中で表示領域22面上となる範囲が、処理範囲Aとして設定される例を示したものである。   The left image processing unit 12L sets a range to be processed in the left image (hereinafter referred to as a processing range) based on the detected display area 22 (STEP 4). The processing range will be described with reference to FIG. FIG. 7 is a schematic diagram of the left image for explaining an example of the method for setting the processing range, and corresponds to FIG. FIG. 7 shows an example in which the range on the display area 22 surface in the left image is set as the processing range A.

左側画像処理部12Lは、処理範囲Aを設定する(STEP4)、または、取得した左側画像が1フレーム目ではなく表示領域22がずれていないと判定する(STEP2、NO)と、次に撮像環境(例えば、画角内全体の光の強度)が変動したか否かを判定する(STEP5)。このSTEP5の動作の詳細について、図8を参照して説明する。図8は、撮像環境の変動の有無を判定する動作の一例を示すフローチャートである。   When the left image processing unit 12L sets the processing range A (STEP 4) or determines that the acquired left image is not in the first frame and the display area 22 is not shifted (STEP 2, NO), the imaging environment is next set. It is determined whether or not (for example, the light intensity in the entire angle of view) has changed (STEP 5). Details of the operation of STEP 5 will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of an operation for determining whether there is a change in the imaging environment.

図8に示すように、左側画像処理部12Lは、最初に左側差分画像を算出する(STEP51)。例えば左側画像処理部12Lは、左側背景画像記憶部13Lに記憶している左側背景画像と、直近のSTEP1で取得した左側画像と、の対応する位置の画素ごとに信号値の差分値を求め、当該差分値を各画素の信号値とする左側差分画像を算出する。なお、左側背景画像及び左側画像の各画素が複数種類の信号値を備える場合、信号値の種類ごとに差分値を算出すると好ましい。また、左側背景画像及び左側画像に含まれる全ての画素について差分値を算出しても構わないが、算出する画素を処理範囲A内に限ると、演算量を低減することができるため好ましい。   As shown in FIG. 8, the left image processing unit 12L first calculates a left difference image (STEP 51). For example, the left image processing unit 12L obtains a difference value of the signal value for each pixel at a corresponding position between the left background image stored in the left background image storage unit 13L and the left image acquired in the most recent STEP1. A left difference image is calculated using the difference value as the signal value of each pixel. In addition, when each pixel of the left background image and the left image includes a plurality of types of signal values, it is preferable to calculate a difference value for each type of signal value. Further, the difference value may be calculated for all the pixels included in the left background image and the left image. However, it is preferable to limit the calculated pixels to the processing range A because the amount of calculation can be reduced.

ところで、左側背景画像は、例えば図6に示す動作の開始前に、予め左側背景画像記憶部13Lに記憶されることとしても構わない。例えば、左側画像処理部12Lが、連続して取得される複数フレームの画像を所定時間監視して、信号値の変動(差分値)が小さくなったフレームを左側背景画像として左側背景画像記憶部13Lに記憶しても構わない。また例えば、1フレーム目の左側画像を左側背景画像として記憶しても構わない。なお、左側背景画像記憶部13Lに記憶される左側背景画像を、処理範囲A内の画像に限ると、記憶量を低減することができるため、好ましい。   By the way, the left background image may be stored in advance in the left background image storage unit 13L before the operation illustrated in FIG. 6 is started, for example. For example, the left image processing unit 12L monitors a plurality of consecutively acquired images for a predetermined time, and uses the left background image storage unit 13L as a left background image with a frame having a small signal value variation (difference value). You may memorize. For example, the left image of the first frame may be stored as the left background image. Note that it is preferable to limit the left background image stored in the left background image storage unit 13L to an image within the processing range A because the storage amount can be reduced.

次に、STEP51で算出された左側差分画像について、処理範囲A内の画素の中で差分値が閾値以上となる画素が、所定数以上(所定の大きさ以上)存在するか否かを判定する(STEP52)。即ち、撮像環境の空間方向における変動の有無を判定する。   Next, with respect to the left side difference image calculated in STEP 51, it is determined whether or not there are a predetermined number or more (a predetermined size or more) of pixels within the processing range A that have a difference value equal to or greater than a threshold value. (STEP 52). That is, it is determined whether there is a change in the spatial direction of the imaging environment.

このとき、左側差分画像の各画素が複数種類の信号値の差分値を備える場合、信号値の種類ごとにそれぞれの閾値と比較しても構わないし、複数種類の信号値の差分値を合算した総合的な差分値と閾値とを比較しても構わない。また、この「閾値」は、撮像環境が変動したとみなせる程度に大きい値とする。また、この「所定数」は、処理範囲A全体が変動した(即ち、指示体Dが画角内に進入することによる画像の局所的な変動ではなく、撮像環境が変動した)とみなせる程度の数とする。   At this time, when each pixel of the left difference image has a difference value of a plurality of types of signal values, it may be compared with each threshold value for each type of signal value, or the difference values of a plurality of types of signal values are added together. You may compare a comprehensive difference value and a threshold value. The “threshold value” is set to a value large enough to assume that the imaging environment has changed. In addition, this “predetermined number” is such that the entire processing range A is changed (that is, not the local change of the image due to the indicator D entering the angle of view but the imaging environment is changed). It is a number.

差分値が閾値以上となる画素が所定数より少ない場合(STEP52、NO)、撮像環境は変動していないものと判定する(STEP5、NO)。一方、差分値が閾値以上となる画素が所定数以上となる場合(STEP52、YES)、次に、STEP52の条件を満たす(STEP52がYESとなる)フレームが、継続して所定数以上となったか否かを判定する(STEP53)。即ち、撮像環境の時間方向における変動の有無を判定する。なお、この「所定数」は、撮像環境の変動が継続的なものであり、一過性のものではないとみなせる程度の数とする。   When the number of pixels whose difference value is equal to or greater than the threshold value is less than the predetermined number (STEP 52, NO), it is determined that the imaging environment has not changed (STEP 5, NO). On the other hand, if the number of pixels whose difference value is greater than or equal to the threshold value is greater than or equal to a predetermined number (STEP 52, YES), then whether the number of frames that satisfy the condition of STEP 52 (STEP 52 is YES) continues to be greater than or equal to the predetermined number It is determined whether or not (STEP 53). That is, it is determined whether there is a change in the imaging environment in the time direction. Note that the “predetermined number” is a number that allows the imaging environment to be continuously changed and regarded as not transient.

STEP52の条件を満たすフレームが所定数より少ない場合、撮像環境は変動していないものと判定する(STEP5、NO)。一方、STEP52の条件を満たすフレームが所定数以上となる場合、撮像環境が変動したと判定する(STEP5、YES)。左側画像処理部12Lは、撮像環境が変動したと判定すると、左側背景画像記憶部13Lに記憶している左側背景画像を更新する(STEP6)。例えば、直近のSTEP1で取得した左側画像を、背景画像として記憶し直す。   When the number of frames satisfying the condition of STEP 52 is less than the predetermined number, it is determined that the imaging environment has not changed (STEP 5, NO). On the other hand, when the number of frames satisfying the condition of STEP 52 exceeds a predetermined number, it is determined that the imaging environment has changed (STEP 5, YES). If the left image processing unit 12L determines that the imaging environment has changed, the left image processing unit 12L updates the left background image stored in the left background image storage unit 13L (STEP 6). For example, the left image acquired in the latest STEP 1 is stored again as the background image.

左側背景画像記憶部13Lが左側背景画像を更新する(STEP6)、または、左側画像処理部12Lが撮像環境が変動していないと判定すると(STEP5、NO)、左側画像処理部12Lは、左側背景画像記憶部13Lに記憶されている左側背景画像と、直近のSTEP1で取得した左側画像と、から左側差分画像を算出する(STEP7)。なお、左側差分画像の算出方法は、STEP51において述べた方法と同様であっても構わない。また、STEP5で撮像環境が変動していないと判定される場合、STEP51で算出した左側差分画像を以降の動作に適用することとして、STEP7を省略しても構わない。   When the left background image storage unit 13L updates the left background image (STEP 6) or the left image processing unit 12L determines that the imaging environment has not changed (STEP 5, NO), the left image processing unit 12L A left difference image is calculated from the left background image stored in the image storage unit 13L and the left image acquired in the most recent STEP 1 (STEP 7). Note that the method for calculating the left difference image may be the same as the method described in STEP 51. If it is determined in STEP 5 that the imaging environment has not changed, STEP 7 may be omitted by applying the left side difference image calculated in STEP 51 to subsequent operations.

そして、左側画像処理部12Lは、生成された左側差分画像の各画素から、指示体Dを表示する画素(以下、指示体表示画素とする)と、背景を表示する画素(以下、背景表示画素とする)とを特定する(STEP8)。例えば、STEP52と同様の方法により、差分値がある閾値以上となる画素を指示体表示画素とし、差分値が閾値よりも小さくなる画素を背景表示画素とする。なお、この「閾値」は、指示体Dであると精度良く判定できる程度に大きい値とする。また、左側画像処理部12Lは、左側背景画像の指示体表示画素と背景表示画素とを異なる信号値で表現した画像(いわゆる、二値化画像)を生成しても構わない。   Then, the left image processing unit 12L, from each pixel of the generated left difference image, a pixel that displays the indicator D (hereinafter referred to as an indicator display pixel) and a pixel that displays the background (hereinafter, background display pixel). (STEP 8). For example, by the same method as in STEP 52, a pixel whose difference value is greater than or equal to a threshold is set as an indicator display pixel, and a pixel whose difference value is smaller than the threshold is set as a background display pixel. The “threshold value” is set to a value large enough to accurately determine that the indicator is the indicator D. Further, the left image processing unit 12L may generate an image (so-called binarized image) in which the indicator display pixel and the background display pixel of the left background image are expressed with different signal values.

さらに、左側画像処理部12Lは、左側差分画像(二値化画像を含む)中の指示体表示画素が、検出範囲内で所定数以上存在するか否かを判定する(STEP9)。なお、検出範囲は、少なくとも処理範囲A内の範囲であり、指示体Dが進入し得る表示領域22面上の範囲とすると好ましい。また、この「所定数」は、指示体Dであると精度良く判定できる程度の数であり、例えばノイズなどに起因する画素単位の変動を排除可能な数とする。   Further, the left image processing unit 12L determines whether or not there are a predetermined number or more of indicator display pixels in the left difference image (including the binarized image) within the detection range (STEP 9). The detection range is at least a range within the processing range A, and is preferably a range on the surface of the display area 22 into which the indicator D can enter. Further, the “predetermined number” is a number that can be accurately determined as the indicator D, and is, for example, a number that can eliminate a pixel-unit variation caused by noise or the like.

左側画像処理部12Lは、左側差分画像(または二値化画像)中の指示体表示画素が、検出範囲内で所定数以上存在すると判定する場合(STEP9、YES)に、左側撮像部11Lに対して指示体Dが存在する方向を特定する(STEP10)。例えば、上述の方法によって角度αを算出する(図3参照)。   When the left image processing unit 12L determines that there are a predetermined number or more of the indicator display pixels in the left difference image (or binarized image) within the detection range (STEP 9, YES), the left image processing unit 12L The direction in which the indicator D exists is specified (STEP 10). For example, the angle α is calculated by the method described above (see FIG. 3).

指示体位置算出部14は、例えば上述の方法により、STEP10で得られた角度α及び角度βに基づいて、表示領域22面上の指示体Dの位置を算出する(STEP11)。そして、指示体位置算出部14は、算出した指示体Dの位置を指示体位置情報として、表示装置20に出力する。   The indicator position calculation unit 14 calculates the position of the indicator D on the surface of the display region 22 based on the angle α and the angle β obtained in STEP 10 by, for example, the method described above (STEP 11). Then, the indicator position calculation unit 14 outputs the calculated position of the indicator D to the display device 20 as indicator position information.

また、指示体距離算出部15も同様であり、上述の方法により指示体Dと表示領域22面との距離を算出する(STEP12)。そして、指示体距離算出部15は、算出した指示体Dと表示領域22面との距離を指示体距離情報として、表示装置20に出力する。なお、このSTEP12を、STEP10及びSTEP11よりも前に行っても構わないし、並行して行っても構わない。   The indicator distance calculation unit 15 is also the same, and calculates the distance between the indicator D and the surface of the display area 22 by the above-described method (STEP 12). Then, the indicator distance calculation unit 15 outputs the calculated distance between the indicator D and the display area 22 surface to the display device 20 as indicator distance information. This STEP 12 may be performed before STEP 10 and STEP 11, or may be performed in parallel.

指示体距離算出部15が指示体Dと表示領域22面との距離を算出する(STEP12)、または、左側画像処理部12Lが指示体表示画素が所定数より少ないと判定した後(STEP9、NO)、指示体検出装置10の動作を終了する場合は(STEP13、YES)、動作を終了する。一方、終了せずに動作を継続する場合は(STEP13、NO)、STEP1に戻る。   After the indicator distance calculation unit 15 calculates the distance between the indicator D and the surface of the display area 22 (STEP 12), or the left image processing unit 12L determines that the indicator display pixels are less than the predetermined number (STEP 9, NO ) When the operation of the pointer detection apparatus 10 is to be terminated (STEP 13, YES), the operation is terminated. On the other hand, when the operation is continued without ending (STEP 13, NO), the process returns to STEP 1.

ところで、上述のSTEP1〜STEP10の各説明中における「左」、「L」及び「α」を、「右」、「R」及び「β」に適宜読み替えることで、右側撮像部11R、右側画像処理部12R及び右側背景画像記憶部13Rのそれぞれの具体的な動作を把握することができる。   By the way, “Left”, “L”, and “α” in the descriptions of STEP 1 to STEP 10 described above are appropriately replaced with “Right”, “R”, and “β”, so that the right imaging unit 11R and the right image processing are performed. The specific operations of the unit 12R and the right background image storage unit 13R can be grasped.

以上のように構成すると、左側画像及び右側画像の少なくとも一方から指示体Dを認識することで、指示体Dと表示領域22面との距離を検出することが可能となる。特に、認識した指示体Dをモデルなどと比較することを要せずに、簡易的かつ迅速に指示体Dと表示領域22面との距離を検出することが可能となる。   If comprised as mentioned above, it will become possible to detect the distance of the indicator D and the display area 22 surface by recognizing the indicator D from at least one of a left side image and a right side image. In particular, it is possible to detect the distance between the indicator D and the surface of the display area 22 simply and quickly without requiring the recognized indicator D to be compared with a model or the like.

さらに、左側画像及び右側画像のいずれか1つの画像から、指示体Dと表示領域22面との距離を検出することが可能となる。即ち、距離の検出に要する演算量を少なくすることが可能となる。   Furthermore, it is possible to detect the distance between the indicator D and the display area 22 surface from any one of the left image and the right image. That is, it is possible to reduce the amount of calculation required for detecting the distance.

また、指示体位置検出部14及び指示体距離検出部15が、ともに左側画像及び右側画像から認識される指示体Dの画像中の位置に基づいて、表示領域22面上の指示体Dの位置及び指示体Dと表示領域22面との距離を検出する。そのため、検出処理を共通化することが可能となる。したがって、指示体検出装置10の処理を簡易化及び迅速化することが可能となる。   Further, the indicator position detector 14 and the indicator distance detector 15 both indicate the position of the indicator D on the surface of the display area 22 based on the position in the image of the indicator D recognized from the left image and the right image. And the distance of the indicator D and the display area 22 surface is detected. Therefore, it is possible to share the detection process. Therefore, it is possible to simplify and speed up the processing of the pointer detection apparatus 10.

また、左側画像及び右側画像が可視光を撮像することで生成されるため、精度良く指示体Dと表示領域22面との距離を検出することが可能となる。特に、屋外に配置されるタッチパネル1では、検出面である表示領域22面上に指示体Dが進入することで種々の外乱が発生するため、検出精度が劣化する。しかしながら、上述のように可視光を撮像することで生成される左側画像及び右側画像の少なくとも一方を利用することで、精度良く外乱と指示体Dとを区別することが可能となる。   In addition, since the left image and the right image are generated by capturing visible light, it is possible to detect the distance between the indicator D and the surface of the display region 22 with high accuracy. In particular, in the touch panel 1 arranged outdoors, various disturbances occur when the indicator D enters the surface of the display area 22 that is a detection surface, and thus the detection accuracy deteriorates. However, by using at least one of the left image and the right image generated by imaging visible light as described above, it is possible to accurately distinguish the disturbance from the indicator D.

また、左側画像及び右側画像を、一つの画素に複数種類の信号値を備えるものとすることで、複数の指標に基づいて左側画像中及び右側画像中から指示体Dを認識することとなる。そのため、上述の従来技術のような、一つの画素が単一の信号値(赤外線の強度を示す信号値)のみを備える画像中の指示体Dを認識するよりも、外乱の影響を受けにくくすることが可能となる。したがって、左側画像中及び右側画像中から精度良く指示体Dを認識することが可能となる。   Further, by providing the left image and the right image with a plurality of types of signal values for one pixel, the indicator D is recognized from the left image and the right image based on the plurality of indices. Therefore, unlike the above-described conventional technique, one pixel is less susceptible to the disturbance than recognizing the indicator D in the image having only a single signal value (signal value indicating the intensity of infrared rays). It becomes possible. Therefore, the indicator D can be recognized with high accuracy from the left image and the right image.

また、左側画像中及び右側画像中の少なくとも一方から認識された指示体Dの画像中の位置に基づいて、指示体Dと表示領域22面との距離を検出することにより、簡易な処理によって指示体Dと表示領域22面との距離を検出することが可能となる。特に、左側画像中及び右側画像中の指示体Dの大きさや形状の解析を要することなく、指示体Dと表示領域22面との距離を検出することが可能となる。   Further, by detecting the distance between the indicator D and the surface of the display area 22 based on the position in the image of the indicator D recognized from at least one of the left image and the right image, the instruction can be performed by simple processing. It becomes possible to detect the distance between the body D and the display area 22 surface. In particular, it is possible to detect the distance between the indicator D and the surface of the display area 22 without analyzing the size and shape of the indicator D in the left and right images.

また、左側撮像部11L及び右側撮像部11Rの少なくとも一方の光軸が、表示領域22面と略同一の平面内に存在するように構成すると、生成される左側画像中または右側画像中において、表示領域22面の所定方向(光軸と略平行な方向)の長さを短くすることが可能となるため、好ましい。このように構成すると、左側画像中または右側画像中における指示体Dの直下となる表示領域22面の位置が、指示体Dの移動(光軸と略平行な方向の移動)によって変動することを抑制することが可能となる。そのため、左側画像中または右側画像中における指示体Dと表示領域22面との長さを、容易に算出することが可能となる。   Further, when at least one optical axis of the left imaging unit 11L and the right imaging unit 11R is configured to be in the same plane as the display area 22, the display is performed in the generated left image or right image. This is preferable because the length of the region 22 surface in a predetermined direction (a direction substantially parallel to the optical axis) can be shortened. With this configuration, the position of the surface of the display region 22 that is directly below the indicator D in the left image or the right image varies depending on the movement of the indicator D (movement in a direction substantially parallel to the optical axis). It becomes possible to suppress. Therefore, it is possible to easily calculate the length between the indicator D and the display area 22 surface in the left image or the right image.

また、検出面である矩形の表示領域22の一つの端辺の両端に、左側撮像部11L及び右側撮像部11Rを備えることで、表示領域22に近い位置からの撮像により、表示領域22面上の全体を効果的に画角内に収めた左側画像及び右側画像を生成することが可能となる。そのため、外乱の影響を受けにくくかつ死角の少ない左側画像及び右側画像を生成することが可能となる。   In addition, the left imaging unit 11L and the right imaging unit 11R are provided at both ends of one end of the rectangular display region 22 serving as a detection surface, so that an image from a position close to the display region 22 can be obtained on the display region 22 surface. It is possible to generate a left image and a right image in which the entire image is effectively contained within the angle of view. Therefore, it is possible to generate a left side image and a right side image that are not easily affected by disturbance and have few blind spots.

また、STEP5で左側画像処理部12L(または右側画像処理部12R)が、撮像環境に変動が生じたと判定する場合、左側背景画像記憶部13L(または右側背景画像記憶部13R)が記録している左側背景画像(または右側背景画像)を更新する。そのため、撮像環境の変動に対応して、背景画像を更新することが可能となる。したがって、外乱の影響を抑制して、精度良く左側画像中及び右側画像中の指示体Dを認識することが可能となる。   Further, when the left image processing unit 12L (or the right image processing unit 12R) determines in STEP 5 that the imaging environment has changed, the left background image storage unit 13L (or the right background image storage unit 13R) records it. Update the left background image (or right background image). Therefore, it is possible to update the background image in response to changes in the imaging environment. Therefore, it is possible to recognize the indicator D in the left image and the right image with high accuracy while suppressing the influence of disturbance.

なお、図3及び図4に示す角度α及び角度βの定義や、左側撮像部11L及び右側撮像部11Rによる画像の撮像方法(例えば、使用するレンズなど)は一例に過ぎず、表示領域22面上の指示体Dの位置が検出可能である限り、他のどのような定義及び撮像方法を適用しても構わない。例えば、非表示領域21の上辺を基準として角度α及び角度βを定義しても構わないし、表示領域22の端辺が湾曲する画像が撮像される撮像方法を適用しても構わない。   The definition of the angle α and the angle β shown in FIGS. 3 and 4 and the image capturing method (for example, a lens to be used) by the left imaging unit 11L and the right imaging unit 11R are merely examples, and the display area 22 plane Any other definition and imaging method may be applied as long as the position of the upper indicator D can be detected. For example, the angle α and the angle β may be defined with the upper side of the non-display area 21 as a reference, or an imaging method in which an image in which the edge of the display area 22 is curved may be applied.

また、左側撮像部11L及び右側撮像部11Rの2つの撮像部を備える構成について例示したが、3つ以上の撮像部を備える構成としても構わない。画像処理部や背景画像記憶部についても同様である。   Moreover, although illustrated about the structure provided with two imaging parts, 11L of left side imaging parts, and 11R of right side imaging parts, it is good also as a structure provided with three or more imaging parts. The same applies to the image processing unit and the background image storage unit.

また、左側画像処理部12L及び右側画像処理部12R、左側背景画像記憶部13L及び右側背景画像記憶部13Rを、図2に示すブロック図上で別体として表示したが、ハードウェア上では一体としても構わない。   In addition, the left image processing unit 12L, the right image processing unit 12R, the left background image storage unit 13L, and the right background image storage unit 13R are displayed as separate bodies on the block diagram shown in FIG. It doesn't matter.

また、左側画像処理部12Lが左側画像と左側背景画像とから左側差分画像を算出し、右側画像処理部12Rが右側画像と右側背景画像とから右側差分画像を算出することで、左側画像及び右側画像のそれぞれから指示体Dを認識する方法について例示したが、指示体Dの認識方法はこの限りではない。例えば、連続的な撮像により生成される少なくとも2つの左側画像を比較(例えば、上述のような差分画像を算出)し、同様に少なくとも2つの右側画像を比較することで、指示体Dを認識しても構わない。   Further, the left image processing unit 12L calculates a left difference image from the left image and the left background image, and the right image processing unit 12R calculates a right difference image from the right image and the right background image, whereby the left image and the right side image are calculated. Although the method of recognizing the indicator D from each of the images has been illustrated, the method of recognizing the indicator D is not limited to this. For example, the indicator D is recognized by comparing at least two left images generated by continuous imaging (for example, calculating the difference image as described above) and comparing at least two right images in the same manner. It doesn't matter.

また、図6において、左側画像及び右側画像の少なくとも一方に対してSTEP4の処理範囲Aの設定を行った場合や、左側背景画像及び右側背景画像の少なくとも一方に対してSTEP6の更新を行った場合、STEP1に戻り左側撮像部11Lが新たに撮像した左側画像を左側画像処理部12Lが取得し直し、右側撮像部11Rが新たに撮像した右側画像を右側画像処理部12Rが取得し直しても構わない。また、左側画像処理部12L及び右側画像処理部12Rの一方が、STEP4の処理範囲Aの設定や、STEP6の左側背景画像または右側背景画像の更新を行う場合、他方も同様の動作を行うこととしても構わない。   In FIG. 6, when the processing range A of STEP 4 is set for at least one of the left image and the right image, or when STEP 6 is updated for at least one of the left background image and the right background image. Returning to STEP 1, the left image processing unit 12L may re-acquire the left image newly captured by the left imaging unit 11L, and the right image processing unit 12R may re-acquire the right image newly captured by the right imaging unit 11R. Absent. In addition, when one of the left image processing unit 12L and the right image processing unit 12R sets the processing range A of STEP 4 or updates the left background image or the right background image of STEP 6, the other performs the same operation. It doesn't matter.

また、図6のSTEP9で、指示体位置算出部14と指示体距離算出部15の検出範囲を共通のものとしたが、異なるものとしても構わない。例えば、指示体位置算出部14が、表示領域22面上のごく近い領域を検出範囲としても構わない。また例えば、指示体距離算出部15が、表示領域22面上のごく近い領域からある程度離れた領域までを検出範囲としても構わない。   Further, in STEP 9 of FIG. 6, the detection range of the pointer position calculation unit 14 and the pointer distance calculation unit 15 is made common, but may be different. For example, the indicator position calculation unit 14 may use a very close area on the display area 22 as the detection range. Further, for example, the indicator distance calculation unit 15 may set a detection range from a very close area on the display area 22 to a certain distance.

また、タッチパネルを、図9及び図10に示すような構成としても構わない。図9は、本発明の実施の一形態であるタッチパネルの構成の別例を示す平面図及び側面図である。なお、図9(a)は、タッチパネルの画像が表示される面を示す平面図であり、図1(a)に相当するものである。一方、図9(b)は、図9(a)に示す面を右側としたタッチパネルの左側面を示す側面図であり、図1(b)に相当するものである。また、図10は、左側撮像部または右側撮像部により生成される画像の一例を示す模式図であり、図3(b)または図4(b)に相当するものである。   Further, the touch panel may be configured as shown in FIGS. FIG. 9 is a plan view and a side view showing another example of the configuration of the touch panel according to the embodiment of the present invention. FIG. 9A is a plan view showing a surface on which an image of the touch panel is displayed, and corresponds to FIG. On the other hand, FIG. 9B is a side view showing the left side surface of the touch panel with the surface shown in FIG. 9A on the right side, and corresponds to FIG. FIG. 10 is a schematic diagram illustrating an example of an image generated by the left imaging unit or the right imaging unit, and corresponds to FIG. 3B or 4B.

図9(a)に示すように、本実施例のタッチパネル1aは、非表示領域21上に配置される枠体Fを備える。枠体Fは、指示体検出装置10の検出面である表示領域22の周囲に配置される。図9(a)では、枠体Fが表示領域22の左辺、右辺及び下辺に配置される例を示しているが、表示領域22の周囲の少なくとも一部に配置される構成であれば、どのように配置しても構わない。例えば、表示領域22の全周を囲うように枠体Fを配置しても構わない。   As illustrated in FIG. 9A, the touch panel 1 a according to the present embodiment includes a frame F that is disposed on the non-display area 21. The frame body F is arranged around the display area 22 which is a detection surface of the pointer detection apparatus 10. FIG. 9A shows an example in which the frame F is arranged on the left side, the right side, and the lower side of the display area 22. You may arrange as follows. For example, the frame body F may be arranged so as to surround the entire circumference of the display area 22.

枠体Fは、どのような色としても構わない。ただし、光の反射が少ない色(例えば、黒色または灰色)や、指示体Dと反対の色(即ち補色であり、例えば、左側画像及び右側画像において枠体F及び指示体Dのそれぞれを表示する画素のRGB、YUV、HSBなどの信号値の差分値が大きくなる色)とすると、好ましい。   The frame F may be any color. However, a color with little light reflection (for example, black or gray) or a color opposite to the indicator D (that is, a complementary color, for example, the frame F and the indicator D are displayed in the left image and the right image, respectively. It is preferable that the difference value of the signal values of RGB, YUV, HSB, etc. of the pixel is large.

このように構成すると、枠体Fによって表示領域22面上の撮像環境の変動が抑制される。そのため、左側画像中及び右側画像中の指示体Dを、精度よく認識することが可能となる。   If comprised in this way, the fluctuation | variation of the imaging environment on the display area 22 surface will be suppressed by the frame F. FIG. Therefore, it is possible to accurately recognize the indicator D in the left image and the right image.

また、枠体Fの色を光の反射が少ない色(例えば、黒色または灰色)にすることで、撮像環境の変動をさらに抑制することが可能となる。   In addition, by changing the color of the frame F to a color with little light reflection (for example, black or gray), it is possible to further suppress fluctuations in the imaging environment.

一方、枠体Fの色を指示体Dの補色にすることで、可視光の撮像により生成される左側画像中及び右側画像中の枠体F(即ち、背景)と指示体Dとをより明確に区別する(例えば、差分画像中の指示体表示画素の信号値(差分値)をより大きくする)ことが可能となる。そのため、左側画像中及び右側画像中の指示体Dを、さらに精度よく認識することが可能となる。   On the other hand, by making the color of the frame F complementary to that of the indicator D, the frame F (that is, the background) and the indicator D in the left image and the right image generated by imaging visible light are made clearer. (For example, the signal value (difference value) of the indicator display pixel in the difference image can be made larger). Therefore, the indicator D in the left image and the right image can be recognized with higher accuracy.

ところで、図9及び図10に示す構成とする場合、図6のSTEP2及びSTEP3の「表示領域」を「枠体」と読み替えても構わない。さらにSTEP4で、左側画像中及び右側画像中で枠体Fを表示する範囲を、処理範囲として設定しても構わない。また、STEP5(撮像環境の変動の有無の判定)及びSTEP6(左側背景画像及び右側背景画像の更新)を行わないこととしても構わない。   By the way, when it is set as the structure shown in FIG.9 and FIG.10, you may read "the display area" of STEP2 and STEP3 of FIG. Furthermore, in STEP4, the range in which the frame F is displayed in the left image and the right image may be set as the processing range. Further, STEP 5 (determining whether there is a change in the imaging environment) and STEP 6 (updating the left background image and right background image) may not be performed.

<変形例>
本発明の実施の形態における指示体検出装置10について、一部または全部の動作を、マイコンなどの制御装置が行うこととしても構わない。さらに、このような制御装置によって実現される機能の全部または一部をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしても構わない。
<Modification>
About the indicator detection apparatus 10 in embodiment of this invention, it is good also as control apparatuses, such as a microcomputer, performing part or all operation | movement. Further, all or part of the functions realized by such a control device is described as a program, and the program is executed on a program execution device (for example, a computer) to realize all or part of the functions. It doesn't matter if you do.

また、上述した場合に限らず、図1や図9に示すタッチパネル1,1aや、図2に示す指示体検出装置10は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。また、ソフトウェアを用いてタッチパネル1,1aや指示体検出装置10の一部を構成する場合、ソフトウェアによって実現される部位についてのブロックは、その部位の機能ブロックを表すこととする。   In addition to the above-described case, the touch panels 1 and 1a illustrated in FIGS. 1 and 9 and the pointer detection apparatus 10 illustrated in FIG. 2 can be realized by hardware or a combination of hardware and software. When a part of the touch panel 1 or 1a or the indicator detection device 10 is configured using software, a block for a part realized by software represents a functional block of the part.

以上、本発明における実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実行することができる。   As mentioned above, although embodiment in this invention was described, the range of this invention is not limited to this, It can add and implement various changes in the range which does not deviate from the main point of invention.

本発明は、検出面上の指示体を検出する指示体検出装置や、当該指示体検出装置を備えたタッチパネルに利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for a pointer detection device that detects a pointer on a detection surface, and a touch panel that includes the pointer detection device.

1,1a タッチパネル
10 指示体検出装置
11L 左側撮像部
11R 右側撮像部
12L 左側画像処理部
12R 右側画像処理部
13L 左側背景画像記憶部
13R 右側背景画像記憶部
14 指示体位置算出部
15 指示体距離算出部
20 表示装置
21 非表示領域
22 表示領域
D 指示体
F 枠体
DESCRIPTION OF SYMBOLS 1,1a Touch panel 10 Indicator detection apparatus 11L Left imaging part 11R Right imaging part 12L Left image processing part 12R Right image processing part 13L Left background image storage part 13R Right background image storage part 14 Indicator position calculation part 15 Pointer distance calculation Part 20 Display device 21 Non-display area 22 Display area D Indicator F Frame

Claims (6)

検出面上の指示体を検出する指示体検出装置であって、
前記検出面上を当該検出面と略平行に撮像して画像を生成する少なくとも1つの撮像部と、
前記撮像部の撮像により生成される画像中の前記指示体の位置に基づいて、前記指示体と前記検出面との距離を検出する距離検出部と、
を備えることを特徴とする指示体検出装置。
An indicator detection device for detecting an indicator on a detection surface,
At least one imaging unit that captures an image on the detection surface substantially parallel to the detection surface to generate an image;
A distance detection unit that detects a distance between the indicator and the detection surface based on a position of the indicator in an image generated by imaging of the imaging unit;
An indicator detection apparatus comprising:
異なる場所から前記検出面を撮像する2つ以上の前記撮像部により生成される画像中の前記指示体の位置に基づいて、前記検出面上の前記指示体の位置を検出する位置検出部を、
さらに備えることを特徴とする請求項1に記載の指示体検出装置。
A position detection unit that detects the position of the indicator on the detection surface based on the position of the indicator in an image generated by two or more imaging units that capture the detection surface from different locations,
The pointer detection apparatus according to claim 1, further comprising:
前記距離検出部が、いずれか1つの前記撮像部により生成される画像中の前記指示体の位置に基づいて、前記指示体と前記検出面との距離を検出することを特徴とする請求項1または請求項2に記載の指示体検出装置。   The distance detection unit detects a distance between the indicator and the detection surface based on a position of the indicator in an image generated by any one of the imaging units. Or the indicator detection apparatus of Claim 2. 前記撮像部が、可視光を撮像することで一つの画素に複数の信号値を備えた画像を生成することを特徴とする請求項1〜請求項3のいずれかに記載の指示体検出装置。   The pointer detection apparatus according to claim 1, wherein the imaging unit generates an image having a plurality of signal values in one pixel by imaging visible light. 前記撮像部の光軸が、前記検出面と略同一の平面内に存在することを特徴とする請求項1〜請求項4のいずれかに記載の指示体検出装置。   5. The pointer detection apparatus according to claim 1, wherein an optical axis of the imaging unit exists in a plane substantially the same as the detection surface. 表示領域に画像を表示する表示装置と、
前記表示領域を検出面とする請求項1〜請求項5のいずれかに記載の指示体検出装置と、
を備えることを特徴とするタッチパネル。
A display device for displaying an image in a display area;
The pointer detection apparatus according to any one of claims 1 to 5, wherein the display area is a detection surface;
A touch panel comprising:
JP2010040290A 2010-02-25 2010-02-25 Indicator detection device and touch panel Ceased JP2011175543A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010040290A JP2011175543A (en) 2010-02-25 2010-02-25 Indicator detection device and touch panel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010040290A JP2011175543A (en) 2010-02-25 2010-02-25 Indicator detection device and touch panel

Publications (1)

Publication Number Publication Date
JP2011175543A true JP2011175543A (en) 2011-09-08

Family

ID=44688331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010040290A Ceased JP2011175543A (en) 2010-02-25 2010-02-25 Indicator detection device and touch panel

Country Status (1)

Country Link
JP (1) JP2011175543A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189137A (en) * 1992-01-16 1993-07-30 Sumitomo Heavy Ind Ltd Command input device for computer
JP2004502261A (en) * 2000-07-05 2004-01-22 スマート テクノロジーズ インコーポレイテッド Camera-based touch system
JP2006518076A (en) * 2003-02-14 2006-08-03 ネクスト ホールディングス リミティド Touch screen signal processing
JP2007514241A (en) * 2003-12-09 2007-05-31 リアクトリクス システムズ、 インコーポレイテッド Built-in interactive video display system
JP2007536652A (en) * 2004-05-05 2007-12-13 スマート テクノロジーズ ユーエルシーエス Apparatus and method for detecting a pointer corresponding to a touch surface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189137A (en) * 1992-01-16 1993-07-30 Sumitomo Heavy Ind Ltd Command input device for computer
JP2004502261A (en) * 2000-07-05 2004-01-22 スマート テクノロジーズ インコーポレイテッド Camera-based touch system
JP2006518076A (en) * 2003-02-14 2006-08-03 ネクスト ホールディングス リミティド Touch screen signal processing
JP2007514241A (en) * 2003-12-09 2007-05-31 リアクトリクス システムズ、 インコーポレイテッド Built-in interactive video display system
JP2007536652A (en) * 2004-05-05 2007-12-13 スマート テクノロジーズ ユーエルシーエス Apparatus and method for detecting a pointer corresponding to a touch surface

Similar Documents

Publication Publication Date Title
US20230367455A1 (en) Information processing apparatus for responding to finger and hand operation inputs
JP4609557B2 (en) Information processing apparatus and information processing method
US9632626B2 (en) Apparatuses and methods for providing a 3D man-machine interface (MMI)
US20110205189A1 (en) Stereo Optical Sensors for Resolving Multi-Touch in a Touch Detection System
US10318152B2 (en) Modifying key size on a touch screen based on fingertip location
JP4915367B2 (en) Display imaging apparatus and object detection method
JP5802247B2 (en) Information processing device
TWI446225B (en) Projection system and image processing method thereof
US20130141393A1 (en) Frameless optical touch device and image processing method for frameless optical touch device
US9235293B2 (en) Optical touch device and touch sensing method
WO2020027818A1 (en) Determining location of touch on touch sensitive surfaces
TWI482067B (en) Optical touch systems and methods for determining positions of objects thereof
US9229586B2 (en) Touch system and method for determining the distance between a pointer and a surface
JP2011175543A (en) Indicator detection device and touch panel
TWI462033B (en) Touch system and method of making a drawing thereon
JP2014209326A (en) Image processing apparatus, image processing method, and image processing program
JP7286612B2 (en) Operation detection device and operation detection method
JP2011198344A (en) Position detection device and touch panel
US9569036B2 (en) Multi-touch system and method for processing multi-touch signal
US9983685B2 (en) Electronic apparatuses and methods for providing a man-machine interface (MMI)
US20240069647A1 (en) Detecting method, detecting device, and recording medium
TWI522871B (en) Processing method of object image for optical touch system
US11762504B2 (en) Automatic control of image capture device display operation underwater
US20180239486A1 (en) Control method, electronic blackboard system, display device, and program
JP2012043142A (en) Position detector and touch panel

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20131002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131114

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131225

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A045 Written measure of dismissal of application

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20140826