JP2012003583A - Position detector and touch panel - Google Patents

Position detector and touch panel Download PDF

Info

Publication number
JP2012003583A
JP2012003583A JP2010139234A JP2010139234A JP2012003583A JP 2012003583 A JP2012003583 A JP 2012003583A JP 2010139234 A JP2010139234 A JP 2010139234A JP 2010139234 A JP2010139234 A JP 2010139234A JP 2012003583 A JP2012003583 A JP 2012003583A
Authority
JP
Japan
Prior art keywords
indicator
image
candidate
imaging
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010139234A
Other languages
Japanese (ja)
Inventor
Ryuichiro Tominaga
隆一郎 富永
Yosuke Tanida
陽介 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010139234A priority Critical patent/JP2012003583A/en
Publication of JP2012003583A publication Critical patent/JP2012003583A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a position detector capable of accurately detecting a position of a pointer even under the outdoors etc. and a touch panel having the position detector.SOLUTION: The position detector comprises two or more imaging parts 11L and 11R which take images of the top of a detection surface 21 from different locations to produce images. And when a plurality of objects to be recognized D and S including a pointer D are recognized from produced images and a plurality of candidate positions D, S, Pa and Pb including a position of the pointer D on the detection surface 21 can be obtained, the position of the pointer D on the detection surface 21 is detected on the basis of a positional relation of the candidate positions D, S, Pa and Pb.

Description

本発明は、検出面上の指示体の位置を検出する位置検出装置や、当該位置検出装置を備えたタッチパネルに関する。   The present invention relates to a position detection device that detects the position of an indicator on a detection surface, and a touch panel that includes the position detection device.

画像を表示する表示装置と、ユーザが指示する位置を検出する位置検出装置とを備え、ユーザが指示する表示装置上の位置を検出する、いわゆるタッチパネルが広く普及している。タッチパネルは、表示装置に表示される画像を視認したユーザが、当該画像を手がかりにして、例えば指やスタイラスなどの指示体で表示装置上(当該画像上)の所定の位置に触れるという直感的かつ簡易的な動作によって操作される。   A so-called touch panel that includes a display device that displays an image and a position detection device that detects a position designated by a user and detects a position on the display device designated by the user is widely used. The touch panel is intuitive and allows a user who has visually recognized an image displayed on the display device to touch a predetermined position on the display device (on the image) with a pointer such as a finger or a stylus, using the image as a clue. It is operated by a simple operation.

タッチパネルに備えられる位置検出装置の方式として、例えば、静電容量方式がある。静電容量方式とは、表示装置上に導電膜を設けて電流を通じ、指が導電膜に接触または近接することで生じる静電容量の変化を電流の変化として検出することで、指が接触または近接した位置を検出するものである。   As a method of the position detection device provided in the touch panel, for example, there is a capacitance method. The capacitance method is a method in which a conductive film is provided on a display device and a change in capacitance caused by a finger touching or approaching the conductive film is detected as a current change through a current. It detects the close position.

しかしながら、静電容量方式では、表示装置上に導電膜などの検出用部材を設ける必要があるため、表示装置上の光透過性が低下し、屋外などで画像の視認性が劣化することが問題となる。また、静電容量方式では、表示装置に応じた大きさの検出用部材が必要となるため、表示装置が大型化するほど、製造工程が煩雑化したり製造コストが高くなったりするなどの問題が生じる。   However, in the capacitance method, since it is necessary to provide a detection member such as a conductive film on the display device, the light transmittance on the display device is lowered, and the visibility of the image is deteriorated outdoors. It becomes. In addition, since the capacitance method requires a detection member having a size corresponding to the display device, there is a problem that the larger the display device, the more complicated the manufacturing process and the higher the manufacturing cost. Arise.

上記の問題を解決する方式として、特許文献1では、赤外線再帰反射方式(検出面の2つの隅に赤外線の発光部及びイメージセンサをそれぞれ備えるとともに検出面の端部に赤外線の反射材を備え、イメージセンサで生成される画像に基づいてユーザが触れた位置を検出する方式)の位置検出装置が提案されている。   As a method for solving the above problem, Patent Document 1 discloses an infrared retroreflection method (equipped with an infrared light emitting unit and an image sensor at two corners of the detection surface and an infrared reflector at the end of the detection surface, There has been proposed a position detection apparatus of a type that detects a position touched by a user based on an image generated by an image sensor.

また、特許文献2では、ユーザの手や指などの指示体と、指示体の影と、のそれぞれをビデオカメラの撮像により得られた画像データから検出するとともに、指示体及び影の位置に基づいて、指示体の位置及び向きを求める位置検出装置が提案されている。この位置検出装置では、指示体を検出するパラメータ(色相値及び彩度値)と、影を検出するパラメータ(輝度値)と、を異ならせて、指示体及び影のそれぞれを検出する。そして、検出した指示体及び影の位置に基づいて、指示体の位置及び向きを検出する。   Moreover, in patent document 2, while each of indicators, such as a user's hand and a finger, and the shadow of an indicator are detected from the image data obtained by imaging of a video camera, based on the position of an indicator and a shadow. Thus, a position detection device for obtaining the position and orientation of the indicator has been proposed. In this position detection device, the indicator and shadow are detected by differentiating the parameter (hue value and saturation value) for detecting the indicator and the parameter (luminance value) for detecting the shadow. Then, the position and orientation of the indicator are detected based on the detected indicator and the position of the shadow.

特許第4229964号Japanese Patent No. 4229964 特開2008−59283号公報JP 2008-59283 A

特許文献1に記載のような赤外線再帰反射方式では、表示装置上に導電膜などの検出用部材を備える必要がないため、表示装置上の光透過性の低下(屋外での視認性の劣化)や製造工程の煩雑化、製造コストが高くなることなどを防止することが可能となる。しかしながら、屋外では発光部以外(例えば、太陽など)から放射される赤外線の影響や、指示体の影の影響によって検出精度が劣化するため、問題となる。   In the infrared retroreflection method as described in Patent Document 1, since it is not necessary to provide a detection member such as a conductive film on the display device, the light transmittance on the display device is reduced (the visibility is deteriorated outdoors). It is possible to prevent the manufacturing process from becoming complicated and the manufacturing cost from increasing. However, since the detection accuracy is deteriorated outdoors due to the influence of infrared rays radiated from other than the light emitting unit (for example, the sun) and the influence of the shadow of the indicator, it is problematic.

これに対して、特許文献2に記載の位置検出装置であれば、指示体と影とを区別して検出することが可能となる。しかしながら、この位置検出装置では、指示体である手や指を色相値及び彩度値に基づいて検出するため、例えば屋外などの不定な光源の下で指示体が暗くなると、指示体と背景とを区別することができなくなる。同様に、指示体の輝度値が影の輝度値に近くなると、指示体と影とを区別することができなくなる。さらに、指示体から離れた位置に影ができてしまうと、指示体の位置及び向きを正確に検出することができなくなる。したがって、上述の位置検出装置では、照明が一定の位置から一定の光量となる光を照射する必要があり、照明が不定である屋外で使用すると検出精度が劣化するため、問題となる。   On the other hand, with the position detection device described in Patent Document 2, it is possible to distinguish and detect the indicator and the shadow. However, in this position detection device, since the hand or finger that is the indicator is detected based on the hue value and the saturation value, for example, when the indicator becomes dark under an indefinite light source such as outdoors, the indicator and the background Cannot be distinguished. Similarly, when the luminance value of the indicator becomes close to the luminance value of the shadow, the indicator and the shadow cannot be distinguished. Furthermore, if a shadow is formed at a position away from the indicator, the position and orientation of the indicator cannot be accurately detected. Therefore, in the above-described position detection device, it is necessary to irradiate light having a constant light amount from a fixed position, and if it is used outdoors where the illumination is indefinite, the detection accuracy deteriorates, which causes a problem.

そこで本発明は、屋外などの状況下でも精度良く指示体の位置を検出することができる位置検出装置と、当該位置検出装置を備えたタッチパネルと、を提供することを目的とする。   Therefore, an object of the present invention is to provide a position detection device that can accurately detect the position of an indicator even under outdoor conditions and a touch panel including the position detection device.

上記目的を達成するために、本発明における位置検出装置は、検出面上の指示体の位置を検出する位置検出装置であって、異なる場所から前記検出面上を撮像して画像を生成する2つ以上の撮像部と、前記撮像部の撮像により生成される画像中から前記指示体を認識することで、前記検出面上の前記指示体の位置を検出する位置検出部と、を備え、少なくとも1つの前記撮像部の撮像により生成される画像中から、前記指示体を含む複数の被認識体が認識され、前記検出面上の前記指示体の位置を含む複数の候補位置が求められ得るとき、前記位置検出部が、当該複数の候補位置の位置関係に基づいて、前記検出面上の前記指示体の位置を検出することを特徴とする。   In order to achieve the above object, a position detection device according to the present invention is a position detection device that detects the position of a pointer on a detection surface, and generates an image by imaging the detection surface from different locations. Two or more imaging units, and a position detection unit that detects the position of the indicator on the detection surface by recognizing the indicator from an image generated by imaging of the imaging unit, and at least When a plurality of recognition objects including the indicator are recognized from a plurality of images generated by imaging by one imaging unit, and a plurality of candidate positions including the position of the indicator on the detection surface can be obtained. The position detection unit detects the position of the indicator on the detection surface based on a positional relationship between the plurality of candidate positions.

以下の実施の形態では、位置検出部の一例として、左側画像処理部、右側画像処理部及び指示体位置算出部を挙げて説明している。   In the following embodiments, a left image processing unit, a right image processing unit, and a pointer position calculation unit are described as examples of the position detection unit.

また、上記構成の位置検出装置において、前記撮像部の撮像により生成される画像から前記位置検出部が認識する被認識体に、前記指示体と、当該指示体の影と、が含まれ得ることとしても構わない。   Further, in the position detection device having the above configuration, the recognized object recognized by the position detection unit from the image generated by the imaging of the imaging unit may include the indicator and the shadow of the indicator. It does not matter.

このように構成すると、指示体と、光が照射されることで生じる指示体の影と、が被認識体となり、複数の候補位置が求められ得る場合でも、当該候補位置の中から指示体に対応する候補位置を求めることが可能となる。したがって、屋外などの影が生じ得る状況下でも、精度良く指示体の位置を検出することが可能となる。   With this configuration, even when the indicator and the shadow of the indicator generated by light irradiation become a recognized object and a plurality of candidate positions can be obtained, the indicator can be selected from the candidate positions. Corresponding candidate positions can be obtained. Therefore, it is possible to detect the position of the indicator with high accuracy even under conditions where shadows such as outdoors can occur.

また、上記構成の位置検出装置において、前記撮像部が、前記検出面の一つの端辺側に配置され、前記位置検出部が、前記検出面の当該端辺側の候補位置を優先的に選択して、前記検出面上の前記指示体の位置とすることとしても構わない。   Further, in the position detection device having the above configuration, the imaging unit is arranged on one end side of the detection surface, and the position detection unit preferentially selects a candidate position on the end side of the detection surface. Then, the position of the indicator on the detection surface may be set.

このように構成すると、2つの撮像部を結んだ線とそれぞれの撮像部及び非指示体(例えば、影)を結んだそれぞれの線とが成すそれぞれの角度が、2つの撮像部を結んだ線とそれぞれの撮像部及び指示体を結んだそれぞれの線とが成すそれぞれの対応する角度以上となるときなどに、指示体に対応する候補位置を優先的に選択して、指示体の位置とすることが可能となる。なお、以下の実施の形態では、当該端辺側の候補位置の一例として、表示領域の上側の候補位置を挙げて説明している。また、位置検出装置が、当該端辺側から検出面に向かって光が照射されるようにしても構わない。   With this configuration, each angle formed by a line connecting the two imaging units and each line connecting each imaging unit and a non-indicator (for example, a shadow) is a line connecting the two imaging units. When the angle is equal to or greater than the corresponding angle formed by each of the imaging unit and each line connecting the indicators, the candidate position corresponding to the indicator is preferentially selected and set as the indicator position. It becomes possible. In the following embodiments, a candidate position on the upper side of the display area is described as an example of the candidate position on the edge side. In addition, the position detection device may emit light from the end side toward the detection surface.

また、上記構成の位置検出装置において、前記位置検出部が、前記検出面の範囲外に位置する候補位置と、前記撮像部の撮像により得られるそれぞれの画像中で、当該候補位置を求めるための被認識体とはそれぞれ異なる被認識体により求められる候補位置と、を除いた他の候補位置を優先的に選択して、前記検出面上の前記指示体の位置とすることとしても構わない。   In the position detection device having the above configuration, the position detection unit is configured to obtain the candidate position in the candidate position located outside the range of the detection surface and each image obtained by imaging of the imaging unit. Other candidate positions excluding candidate positions obtained by different recognized objects from the recognized objects may be preferentially selected as the position of the indicator on the detection surface.

このように構成すると、指示体及び非指示体(例えば、影)のいずれにも対応しない候補位置を除いた、他の候補位置を優先的に選択して、指示体の位置とすることが可能となる。また、2つの撮像部を結んだ線とそれぞれの撮像部及び非指示体を結んだそれぞれの線とが成すそれぞれの角度の少なくとも一方が、2つの撮像部を結んだ線とそれぞれの撮像部及び指示体を結んだそれぞれの線とが成すそれぞれの対応する角度よりも小さくなり、指示体に対応する候補位置よりも、指示体及び非指示体のいずれにも対応しない候補位置が上記の端辺側に形成されるときなどに、指示体及び非指示体のいずれにも対応しない候補位置が優先的に選択されて指示体の位置となることを、抑制することが可能となる。   With this configuration, it is possible to preferentially select other candidate positions excluding candidate positions that do not correspond to either the indicator or a non-indicator (for example, a shadow), and use them as the indicator positions. It becomes. In addition, at least one of the angles formed by the lines connecting the two imaging units and the lines connecting the imaging units and the non-indicator is the line connecting the two imaging units, the imaging units, The candidate positions that are smaller than the corresponding angles formed by the respective lines connecting the indicators and that do not correspond to either the indicator or the non-indicator than the candidate positions corresponding to the indicator When it is formed on the side, it is possible to prevent the candidate position that does not correspond to either the indicator or the non-indicator from being preferentially selected to become the position of the indicator.

また、上記構成の位置検出装置において、前記位置検出部が、画像の信号値のばらつきが大きい被認識体から求められる候補位置を優先的に選択して、前記検出面上の前記指示体の位置とすることとしても構わない。   Further, in the position detection device having the above configuration, the position detection unit preferentially selects a candidate position obtained from a recognized object having a large variation in image signal value, and the position of the indicator on the detection surface It does not matter as

このように構成すると、指示体である可能性が高い被認識体から求められる候補位置を優先的に選択して、指示体の位置とすることが可能となる。   If comprised in this way, it will become possible to preferentially select the candidate position calculated | required from the to-be-recognized body with high possibility of being a pointer, and let it be the position of a pointer.

また、上記構成の位置検出装置において、前記位置検出部が、画像の信号値の分散値が大きい被認識体から求められる候補位置を優先的に選択して、前記検出面上の前記指示体の位置とすることとしても構わない。   In the position detection device having the above configuration, the position detection unit preferentially selects a candidate position obtained from a recognition object having a large variance of image signal values, and the indicator on the detection surface is selected. It does not matter as the position.

また、本発明のタッチパネルは、表示領域に画像を表示する表示装置と、前記表示領域を検出面とする上記の位置検出装置と、を備えることを特徴とする。   In addition, a touch panel according to the present invention includes a display device that displays an image in a display area, and the position detection device that uses the display area as a detection surface.

本発明の構成とすると、撮像部の撮像により生成された画像中から複数の被認識体が認識され、複数の候補位置が求められ得る状況になったとしても、当該複数の候補位置の位置関係から指示体に対応する候補位置を求めることができる。したがって、屋外などの状況下でも、精度良く指示体の位置を検出することが可能となる。   With the configuration of the present invention, even if a plurality of recognition objects are recognized from an image generated by imaging of the imaging unit and a plurality of candidate positions can be obtained, the positional relationship between the plurality of candidate positions The candidate position corresponding to the indicator can be obtained. Therefore, it is possible to detect the position of the indicator with high accuracy even under outdoor conditions.

本発明の意義ないし効果は、以下に示す実施の形態の説明によりさらに明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の実施の形態の一つであって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will be further clarified by the following description of embodiments. However, the following embodiment is merely one of the embodiments of the present invention, and the meaning of the terminology of the present invention or each constituent element is limited to those described in the following embodiments. is not.

は、本発明の実施の一形態であるタッチパネルの構成の一例を示す平面図及び側面図である。These are the top view and side view which show an example of a structure of the touchscreen which is one Embodiment of this invention. は、位置検出装置の構成の一例を示すブロック図である。These are block diagrams which show an example of a structure of a position detection apparatus. は、左側撮像部について説明する図である。These are figures explaining a left side imaging part. は、右側撮像部について説明する図である。These are figures explaining a right side imaging part. は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第1状況例を示す図である。These are figures which show the 1st example of a situation where a pointer exists on the surface of a display area, and a shadow is reflected on a frame. は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第2状況例を示す図である。These are figures which show the 2nd example of a situation where a pointer exists on the surface of a display area, and a shadow is reflected on a frame. は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第3状況例を示す図である。These are figures which show the 3rd example of a situation where a pointer exists on the surface of a display area, and a shadow is reflected on a frame. は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第4状況例を示す図である。These are figures which show the 4th example of a situation where a pointer exists on the surface of a display area, and a shadow is reflected on a frame. は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第5状況例を示す図である。These are figures which show the 5th example of a situation where a pointer exists on the surface of a display area, and a shadow is reflected on a frame. は、位置検出装置の全体的な動作の一例を示すフローチャートである。These are flowcharts which show an example of the whole operation | movement of a position detection apparatus. は、左側差分画像を算出する動作の一例を示すフローチャートである。These are flowcharts which show an example of the operation | movement which calculates a left side difference image. は、処理範囲の設定方法の一例を示す図である。These are figures which show an example of the setting method of a processing range. は、左側差分画像から被認識体を認識する動作の一例を示すフローチャートである。These are flowcharts which show an example of the operation | movement which recognizes a to-be-recognized body from a left difference image. は、指示体の位置を認識する動作の一例を示すフローチャートである。These are flowcharts which show an example of the operation | movement which recognizes the position of a pointer.

<タッチパネルの構成>
本発明の実施の一形態であるタッチパネルについて、以下図面を参照して説明する。最初に、タッチパネル及び位置検出装置の構成の一例について、図面を参照して説明する。
<Configuration of touch panel>
A touch panel according to an embodiment of the present invention will be described below with reference to the drawings. First, an example of the configuration of the touch panel and the position detection device will be described with reference to the drawings.

図1は、本発明の実施の一形態であるタッチパネルの構成の一例を示す平面図及び側面図である。なお、図1(a)は、タッチパネルの画像が表示される面を示す平面図である。一方、図1(b)は、図1(a)に示す面を右に向けた場合のタッチパネルの左側面を示す側面図である。また、図2は、位置検出装置の構成の一例を示すブロック図である。   1A and 1B are a plan view and a side view illustrating an example of a configuration of a touch panel according to an embodiment of the present invention. FIG. 1A is a plan view showing a surface on which an image of the touch panel is displayed. On the other hand, FIG.1 (b) is a side view which shows the left side surface of a touchscreen when the surface shown to Fig.1 (a) is turned to the right. FIG. 2 is a block diagram illustrating an example of the configuration of the position detection device.

図1に示すように、本実施例のタッチパネル1は、画像を表示する表示領域21の周囲に、表示領域21の表面から突出する枠体22が配置された表示装置20を備える。また、タッチパネル1は、タッチパネル1の表示領域21を撮像する左側撮像部11L及び右側撮像部11Rを備えた位置検出装置10(図2参照)を備える。また、位置検出装置10は、表示領域21の表面を検出面とし、表示領域21の表面上における指示体の位置を検出する。   As shown in FIG. 1, the touch panel 1 of the present embodiment includes a display device 20 in which a frame body 22 that protrudes from the surface of the display area 21 is arranged around a display area 21 that displays an image. In addition, the touch panel 1 includes a position detection device 10 (see FIG. 2) including a left imaging unit 11L and a right imaging unit 11R that images the display area 21 of the touch panel 1. Further, the position detection device 10 detects the position of the indicator on the surface of the display area 21 using the surface of the display area 21 as a detection surface.

図1では、図1(a)に示す平面上で矩形となる表示装置20の一辺の両端に、左側撮像部11L及び右側撮像部11Rが配置される例を示している。以下、図1(a)に示す平面において、左側撮像部11L及び右側撮像部11Rが配置される辺を上辺、表示装置20の上辺と対向する辺を下辺、上辺を上側かつ下辺を下側に配置したときに、左側となる辺を左辺、右側となる辺を右辺としている。また、枠体22は、表示装置20の上記の各辺から表示領域21に向けて所定の長さの幅を有する。   FIG. 1 illustrates an example in which the left imaging unit 11L and the right imaging unit 11R are arranged at both ends of one side of the display device 20 that is rectangular on the plane illustrated in FIG. Hereinafter, in the plane shown in FIG. 1A, the side on which the left imaging unit 11L and the right imaging unit 11R are arranged is the upper side, the side facing the upper side of the display device 20 is the lower side, the upper side is the upper side, and the lower side is the lower side. When arranged, the left side is the left side and the right side is the right side. Further, the frame body 22 has a width of a predetermined length from each side of the display device 20 toward the display area 21.

左側撮像部11Lは、表示装置20の上辺の左辺側の端部に配置され、下辺側及び右辺側を撮像する。また、右側撮像部11Rは、表示装置20の上辺の右辺側の端部に配置され、下辺側及び左辺側を撮像する。図1では、左側撮像部11L及び右側撮像部11Rが撮像する方向を、白抜きの矢印で示している。図1に示す左側撮像部11L及び右側撮像部11Rの配置態様は一例に過ぎず、表示領域21の表面を撮像することができる限り、どのような配置態様としても構わない。例えば、左側撮像部11L及び右側撮像部11Rの一部(例えば、撮像素子やレンズなどの一部)を表示領域21の周囲に埋め込むようにして配置しても構わない。   The left imaging unit 11L is disposed at an end portion on the left side of the upper side of the display device 20, and images the lower side and the right side. Further, the right imaging unit 11R is disposed at an end portion on the right side of the upper side of the display device 20, and images the lower side and the left side. In FIG. 1, the directions in which the left imaging unit 11L and the right imaging unit 11R capture images are indicated by white arrows. The arrangement mode of the left imaging unit 11L and the right imaging unit 11R shown in FIG. For example, a part of the left imaging unit 11L and the right imaging unit 11R (for example, a part of an imaging element or a lens) may be arranged so as to be embedded around the display area 21.

また、図2に示すように、位置検出装置10は、上記の左側撮像部11L及び右側撮像部11Rと、左側撮像部11Lの撮像により生成された左側画像を処理する左側画像処理部12Lと、左側画像処理部12Lでの処理に用いられる左側背景画像を一時的に記憶する左側背景画像記憶部13Lと、右側撮像部11Rの撮像により生成された右側画像を処理する右側画像処理部12Rと、右側画像処理部12Rでの処理に用いられる右側背景画像を一時的に記憶する右側背景画像記憶部13Rと、左側画像処理部12Lによる左側画像の処理結果と右側画像処理部12Rによる右側画像の処理結果とに基づいて表示領域21の表面上における指示体の位置を算出し指示体位置情報として出力する指示体位置算出部14と、を備える。なお、指示体とは、ユーザの指やスタイラスなどの、ユーザが表示領域21の任意の位置を指示するために用いるものである。以下では説明の具体化のため、指示体として指を例示して説明する。   As shown in FIG. 2, the position detection device 10 includes the left imaging unit 11L and the right imaging unit 11R, and a left image processing unit 12L that processes a left image generated by imaging of the left imaging unit 11L. A left background image storage unit 13L that temporarily stores a left background image used for processing in the left image processing unit 12L, a right image processing unit 12R that processes a right image generated by imaging of the right imaging unit 11R, and Right-side background image storage unit 13R that temporarily stores the right-side background image used for processing in the right-side image processing unit 12R, left-side image processing results by the left-side image processing unit 12L, and right-side image processing by the right-side image processing unit 12R And a pointer position calculation unit 14 that calculates the position of the pointer on the surface of the display area 21 based on the result and outputs it as pointer position information. The indicator is used by the user to indicate an arbitrary position in the display area 21 such as the user's finger or stylus. In the following description, a finger is exemplified as an indicator for the purpose of concrete description.

左側撮像部11Lの撮像により生成される左側画像及び右側撮像部11Rの撮像により生成される右側画像は、それぞれ画角が90°程度であり、表示領域21の表面全体が画角内に収まるものであると、好ましい。また、左側撮像部11L及び右側撮像部11Rは、可視光を検出する受光素子を備えるものであると、好ましい。また、左側撮像部11L及び右側撮像部11Rは、例えば単板式ベイヤ配列のイメージセンサや、三板式のイメージセンサなど、カラー画像を生成可能な撮像素子を備えるものであると好ましいが、輝度を検出するイメージセンサなど、モノクロ画像を生成可能な撮像素子を備えるものであっても構わない。   The left image generated by the imaging of the left imaging unit 11L and the right image generated by the imaging of the right imaging unit 11R each have an angle of view of about 90 °, and the entire surface of the display area 21 falls within the angle of view. Is preferable. Further, it is preferable that the left imaging unit 11L and the right imaging unit 11R include a light receiving element that detects visible light. In addition, the left imaging unit 11L and the right imaging unit 11R preferably include an image sensor that can generate a color image, such as a single-plate Bayer array image sensor or a three-plate image sensor. An image sensor that can generate a monochrome image, such as an image sensor, may be provided.

なお、左側画像処理部12L及び右側画像処理部12Rの処理内容(詳細は後述)によっては、左側背景画像記憶部13L及び右側背景画像記憶部13Rが不要となる場合がある。このような場合、左側背景画像記憶部13L及び右側背景画像記憶部13Rを備えない構成としても構わない。   Note that the left background image storage unit 13L and the right background image storage unit 13R may be unnecessary depending on the processing contents (details will be described later) of the left image processing unit 12L and the right image processing unit 12R. In such a case, the left background image storage unit 13L and the right background image storage unit 13R may be omitted.

また、タッチパネル1をユーザが使用する場合に、左側撮像部11L及び右側撮像部11Rが、表示領域21よりも光源側に配置されるように、位置検出装置10やタッチパネル1が設計されている(例えば、表示領域21で画像が表示される方向や、タッチパネル1を支持する台座や取付部材の位置及び方向などが、上記の状態が実現されるものとなっている)と、好ましい。具体的に例えば、光源が電灯などの一般的な照明装置や太陽などである場合、左側撮像部11L及び右側撮像部11Rが、表示領域21よりも鉛直方向の上側となるように、位置検出装置10やタッチパネル1を構成すると、好ましい。   Further, when the user uses the touch panel 1, the position detection device 10 and the touch panel 1 are designed so that the left imaging unit 11 </ b> L and the right imaging unit 11 </ b> R are arranged on the light source side with respect to the display area 21 ( For example, the direction in which the image is displayed in the display area 21 and the positions and directions of the pedestals and mounting members that support the touch panel 1 are those that realize the above state). Specifically, for example, when the light source is a general illumination device such as an electric light or the sun, the position detection device is configured such that the left imaging unit 11L and the right imaging unit 11R are above the display region 21 in the vertical direction. 10 or the touch panel 1 is preferable.

上記のように構成すると、表示装置20の左側撮像部11L及び右側撮像部11Rが設けられた側から表示領域21に向かって、光源の光が照射される。そのため、光源の光が左側撮像部11L及び右側撮像部11Rに直接的に入射して、不明瞭な左側画像及び右側画像が撮像されることを抑制することが可能となる。また、詳細な説明については後述するが、指示体と、表示領域21の表面上に指示体が現れることで生じる外乱(例えば、指示体の影や反射光など)と、の相対的な位置関係を、指示体を精度良く検出することができる程度まで限定することが可能となる。なお、後述する詳細な説明では、説明の具体化のため、タッチパネル1が上記の構成であり、外乱として指示体の影が生じる場合について例示する。   If comprised as mentioned above, the light of a light source will be irradiated toward the display area 21 from the side in which the left imaging part 11L and the right imaging part 11R of the display apparatus 20 were provided. Therefore, it is possible to prevent the light of the light source from directly entering the left imaging unit 11L and the right imaging unit 11R and capturing an unclear left image and right image. Although detailed description will be given later, the relative positional relationship between the indicator and a disturbance (for example, a shadow or reflected light of the indicator) caused by the indicator appearing on the surface of the display area 21. Can be limited to such an extent that the indicator can be detected with high accuracy. In the detailed description to be described later, for the sake of specific description, a case where the touch panel 1 has the above-described configuration and a shadow of an indicator is generated as a disturbance is illustrated.

<指示体の位置の算出方法>
また、左側画像及び右側画像に基づいた指示体の位置の算出方法について、図3及び図4を参照して説明する。図3は、左側撮像部について説明する図であり、図4は、右側撮像部について説明する図である。図3(a)は、左側撮像部11Lが撮像する画角を示す平面図であり、図1(a)と同じ平面を示すものである。また、図3(b)は、図3(a)に示す左側撮像部11Lの撮像により得られる左側画像を示す図である。同様に、図4(a)は、右側撮像部11Rが撮像する画角を示す平面図であり、図1(a)と同じ平面を示すものである。また、図4(b)は、図4(a)に示す右側撮像部11Rの撮像により得られる右側画像を示す図である。
<Method for calculating the position of the indicator>
A method for calculating the position of the indicator based on the left image and the right image will be described with reference to FIGS. FIG. 3 is a diagram illustrating the left imaging unit, and FIG. 4 is a diagram illustrating the right imaging unit. FIG. 3A is a plan view showing an angle of view captured by the left imaging unit 11L, and shows the same plane as FIG. FIG. 3B is a diagram illustrating a left image obtained by imaging by the left imaging unit 11L illustrated in FIG. Similarly, FIG. 4A is a plan view showing an angle of view captured by the right imaging unit 11R, and shows the same plane as FIG. FIG. 4B is a diagram illustrating a right image obtained by imaging by the right imaging unit 11R illustrated in FIG.

図3(a)及び図3(b)に示すように、左側撮像部11Lは、自身を中心として表示装置20の上辺から左辺までを含む左側画像を生成する。ここで、左側撮像部11Lが配置される表示装置20の左上を中心とした角度を考え、上辺を0°、左辺を90°と定義すると、画角内の指示体Dが存在する方向は、時計回り(右回り)の角度αで表現される。また、本例の左側画像は、表示領域21の他に枠体22(図中の灰色で表示した部分。他の図でも同様。)や表示装置の側面(図中の格子状のハッチングで表示した部分。他の図でも同様。)が映り込んでおり、左端がα=90°、右端がα=0°に相当する。なお、角度αは、表示装置20の上辺(左側撮像部11L及び右側撮像部11Rを結んだ線)と、左側撮像部11L及び指示体Dを結んだ線と、が成す角度として解釈することもできる。   As shown in FIGS. 3A and 3B, the left imaging unit 11L generates a left image including the upper side to the left side of the display device 20 around itself. Here, considering an angle centered on the upper left of the display device 20 where the left imaging unit 11L is arranged, if the upper side is defined as 0 ° and the left side is defined as 90 °, the direction in which the indicator D within the angle of view is It is expressed by the clockwise angle α. In addition to the display area 21, the left image in this example is displayed with a frame 22 (the portion displayed in gray in the figure, the same applies to other figures) and the side of the display device (lattice hatching in the figure). The same applies to other figures.) The left end corresponds to α = 90 °, and the right end corresponds to α = 0 °. Note that the angle α may be interpreted as an angle formed by the upper side of the display device 20 (a line connecting the left imaging unit 11L and the right imaging unit 11R) and a line connecting the left imaging unit 11L and the indicator D. it can.

右側撮像部11Rについても同様である。図4(a)及び図4(b)に示すように、右側撮像部11Rは、自身を中心として表示装置20の上辺から右辺までを含む右側画像を生成する。ここで、右側撮像部11Rが配置される表示装置20の右上を中心とした角度を考え、上辺を0°、右辺を90°と定義すると、画角内の指示体Dが存在する方向は、反時計回り(左回り)の角度βで表現される。また、本例の右側画像は、表示領域21の他に枠体22や表示装置の側面が映り込んでおり、左端がβ=0°、右端がβ=90°に相当する。なお、角度βは、表示装置20の上辺(左側撮像部11L及び右側撮像部11Rを結んだ線)と、右側撮像部11R及び指示体Dを結んだ線と、が成す角度として解釈することもできる。   The same applies to the right imaging unit 11R. As shown in FIGS. 4A and 4B, the right imaging unit 11R generates a right image including the upper side to the right side of the display device 20 around itself. Here, considering an angle centered on the upper right side of the display device 20 in which the right imaging unit 11R is arranged and defining the upper side as 0 ° and the right side as 90 °, the direction in which the indicator D within the angle of view is It is represented by an angle β counterclockwise (counterclockwise). Further, the right image in this example includes the frame 22 and the side surface of the display device in addition to the display area 21, and the left end corresponds to β = 0 ° and the right end corresponds to β = 90 °. The angle β may be interpreted as an angle formed by the upper side of the display device 20 (a line connecting the left imaging unit 11L and the right imaging unit 11R) and a line connecting the right imaging unit 11R and the indicator D. it can.

上記の角度α及び角度βは、図3(b)及び図4(b)に示すように、左側画像中及び右側画像中における指示体Dの左右方向の位置に対応している。そのため、左側画像処理部12Lは、左側画像から指示体Dを認識し、その位置を求めることで、角度αを算出する。同様に、右側画像処理部12Rは、右側画像から指示体Dを認識し、その位置を求めることで、角度βを算出する。なお、左側画像処理部12L及び右側画像処理部12Rは、左側画像及び右側画像から指示体Dを認識しても構わないし、左側画像及び右側画像を処理して得られる画像(例えば、後述する左側差分画像及び右側差分画像)から指示体Dを認識しても構わない。いずれにしても、左側画像及び右側画像のそれぞれから、指示体Dが認識されることには変わり無い。また、左側画像処理部12L及び右側画像処理部12Rが、指示体Dを認識する方法の詳細については、後述する。   The angles α and β correspond to the horizontal position of the indicator D in the left image and the right image, as shown in FIGS. 3B and 4B. Therefore, the left image processing unit 12L calculates the angle α by recognizing the indicator D from the left image and obtaining the position thereof. Similarly, the right image processing unit 12R calculates the angle β by recognizing the indicator D from the right image and obtaining the position thereof. Note that the left image processing unit 12L and the right image processing unit 12R may recognize the indicator D from the left image and the right image, or an image obtained by processing the left image and the right image (for example, a left side to be described later). The indicator D may be recognized from the difference image and the right difference image. In any case, the indicator D is recognized from each of the left image and the right image. Details of how the left image processing unit 12L and the right image processing unit 12R recognize the indicator D will be described later.

指示体位置算出部14は、例えば、左側画像処理部12L及び右側画像処理部12Rが算出した角度α及び角度βと、既知である表示装置20の上辺の長さkと、を用いた三角測量により、表示領域21の表面上における指示体Dの位置を算出する。具体的に、算出する位置は、表示領域21を含む面内の任意の位置を示す座標(x,y)で表現する。ここで、表示装置20の左上の座標を(0,0)、右方ほどx座標の値が大きく下方ほどy座標の値が大きくなるように定義する場合、以下の連立方程式を解くことで、表示領域21の表面上における指示体Dの座標(x1,y1)を算出することができる。 The indicator position calculation unit 14 performs, for example, triangulation using the angle α and the angle β calculated by the left image processing unit 12L and the right image processing unit 12R and the known upper side length k of the display device 20. Thus, the position of the indicator D on the surface of the display area 21 is calculated. Specifically, the calculated position is expressed by coordinates (x, y) indicating an arbitrary position in the plane including the display area 21. Here, when the upper left coordinate of the display device 20 is defined as (0, 0) and the value of the x coordinate is larger toward the right and the value of the y coordinate is larger toward the lower side, by solving the following simultaneous equations, The coordinates (x 1 , y 1 ) of the indicator D on the surface of the display area 21 can be calculated.

1×tanα=y1
(k−x1)×tanβ=y1
x 1 × tan α = y 1
(K−x 1 ) × tan β = y 1

指示体位置算出部14は、上述のようにして算出した表示領域21の表面上における指示体Dの位置を示す指示体位置情報を生成し、出力する。そして、表示装置20が、指示体位置情報に基づいて(即ち、ユーザによるタッチパネル1の操作内容に基づいて)、例えば表示領域21に表示する画像を切り替えるなどの各種動作を行う。   The indicator position calculation unit 14 generates and outputs indicator position information indicating the position of the indicator D on the surface of the display area 21 calculated as described above. Then, the display device 20 performs various operations such as switching an image to be displayed in the display area 21 based on the indicator position information (that is, based on the operation content of the touch panel 1 by the user).

なお、上述の算出方法は一例に過ぎず、他の算出方法を適用しても構わない。例えば、左側撮像部11Lを表示領域21の左上に配置するとともに、右側撮像部11Rを表示領域21の右上に配置し、表示領域21の上側の辺から指示体Dまでの時計回りの角度をα、表示領域21の上側の辺から指示体Dまでの反時計回りの角度をβ、表示領域21の左上を(0,0)、右方ほどx座標の値が大きく下方ほどy座標の値が大きくなるように定義しても構わない。この場合も、上記の連立方程式に従って、表示領域21の表面上における指示体Dの座標を算出することができる。   Note that the above calculation method is merely an example, and other calculation methods may be applied. For example, the left imaging unit 11L is arranged at the upper left of the display area 21, the right imaging unit 11R is arranged at the upper right of the display area 21, and the clockwise angle from the upper side of the display area 21 to the indicator D is α The counterclockwise angle from the upper side of the display area 21 to the indicator D is β, the upper left of the display area 21 is (0, 0), the x-coordinate value increases toward the right, and the y-coordinate value decreases toward the bottom. You may define so that it may become large. Also in this case, the coordinates of the indicator D on the surface of the display area 21 can be calculated according to the above simultaneous equations.

<候補位置の選択方法>
上述のように、左側画像処理部12L及び右側画像処理部12Rが、左側画像及び右側画像のそれぞれから指示体Dを認識することができれば、表示領域21の表面上における指示体Dの位置を検出することができる。しかしながら、左側画像処理部12L及び右側画像処理部12Rが、左側画像及び右側画像から認識する被認識体(左側画像処理部12L及び右側画像処理部12Rが、表示領域21の表面上に存在するとして認識する全てのものであり、実体の有無は問わない。即ち、指示体Dなどの物体に限られず、影や反射光などの外乱なども含まれ得る。以下同じ。)には、指示体Dだけでなく、影などの外乱が含まれる可能性がある。特に、影が枠22に映る場合、左側画像処理部12L及び右側画像処理部12Rの少なくとも一方において、影が被認識体として認識される可能性が高くなる。
<Candidate position selection method>
As described above, if the left image processing unit 12L and the right image processing unit 12R can recognize the indicator D from each of the left image and the right image, the position of the indicator D on the surface of the display region 21 is detected. can do. However, the left image processing unit 12L and the right image processing unit 12R recognize the recognition target (the left image processing unit 12L and the right image processing unit 12R exist on the surface of the display area 21 from the left image and the right image. It does not matter whether there is an entity, that is, it is not limited to an object such as the indicator D, and may include disturbances such as shadows and reflected light, and so on. As well as disturbances such as shadows may be included. In particular, when a shadow appears in the frame 22, there is a high possibility that the shadow is recognized as a recognition object in at least one of the left image processing unit 12L and the right image processing unit 12R.

本例の位置検出装置10では、上記のように複数の被認識体が認識されることで求められ得る複数の候補位置の中から、指示体Dに対応する候補位置を選択することで、精度良く指示体Dの位置を検出する。具体的には、左側画像処理部12L及び右側画像処理部12Rが複数の被認識体を認識することで、被認識体が存在する方向(角度)が複数求められたとしても、指示体位置算出部14は、その中から指示体Dが存在する正しい方向(角度)を選択することで、精度良く指示体Dの位置を検出する。以下、この候補位置の選択方法の具体例について、影が表示装置20の下辺側の枠22に映る場合を例示して、説明する。   In the position detection device 10 of the present example, the accuracy is obtained by selecting a candidate position corresponding to the indicator D from among a plurality of candidate positions that can be obtained by recognizing a plurality of recognition objects as described above. The position of the indicator D is often detected. Specifically, even if the left image processing unit 12L and the right image processing unit 12R recognize a plurality of recognized objects, even if a plurality of directions (angles) where the recognized objects exist are obtained, the pointer position calculation is performed. The unit 14 detects the position of the indicator D with high accuracy by selecting a correct direction (angle) in which the indicator D is present. Hereinafter, a specific example of this candidate position selection method will be described by exemplifying a case where a shadow appears in the frame 22 on the lower side of the display device 20.

[第1例]
最初に、第1例の選択方法について、図面を参照して説明する。図5は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第1状況例を示す図である。図5(a)は、タッチパネルの平面図であり、図1(a)と同じ平面を示すものである。図5(b)は、図5(a)に示す左側撮像部11Lの撮像により得られる左側画像を示す図であり、図5(c)は、図5(a)に示す右側撮像部11Rの撮像により得られる右側画像を示す図である。なお、図5(a)〜図5(c)では、指示体D及び影Sの位置を明確に示すため、それぞれ丸印(指示体Dを白抜きの丸印、影Sを黒抜きの丸印)で表示している。
[First example]
First, the selection method of the first example will be described with reference to the drawings. FIG. 5 is a diagram illustrating a first situation example in which the indicator is present on the surface of the display area and the shadow is reflected in the frame. Fig.5 (a) is a top view of a touchscreen, and shows the same plane as Fig.1 (a). FIG. 5B is a diagram showing a left image obtained by imaging of the left imaging unit 11L shown in FIG. 5A, and FIG. 5C is a diagram of the right imaging unit 11R shown in FIG. It is a figure which shows the right side image obtained by imaging. In FIGS. 5A to 5C, in order to clearly indicate the positions of the indicator D and the shadow S, a circle (the indicator D is a white circle and the shadow S is a black circle) is shown. Is displayed.

図5に示すように、第1状況例では、指示体Dを示す角度αD(左側撮像部11Lに対して指示体Dが存在する方向を示す角度であり、上述の角度αの定義に従い表現される角度、以下同じ)が、影S示す角度αS(左側撮像部11Lに対して影Sが存在する方向を示す角度であり、上述の角度αの定義に従い表現される角度、以下同じ)よりも小さくなる。また、指示体Dを示す角度βD(右側撮像部11Rに対して指示体Dが存在する方向を示す角度であり、上述の角度βの定義に従い表現される角度、以下同じ)が、影Sを示す角度βS(右側撮像部11Rに対して影Sが存在する方向を示す角度であり、上述の角度βの定義に従い表現される角度、以下同じ)よりも小さくなる。   As shown in FIG. 5, in the first situation example, an angle αD indicating the indicator D (an angle indicating a direction in which the indicator D exists with respect to the left imaging unit 11L, and is expressed according to the definition of the angle α described above. Than the angle αS indicating the shadow S (the angle indicating the direction in which the shadow S is present with respect to the left imaging unit 11L, the angle expressed according to the definition of the angle α described above, and so on). Get smaller. In addition, an angle βD indicating the indicator D (an angle indicating the direction in which the indicator D is present with respect to the right imaging unit 11R, and an angle expressed according to the definition of the angle β described above, hereinafter the same), The angle βS is smaller than the angle βS (the angle indicating the direction in which the shadow S exists with respect to the right imaging unit 11R, the angle expressed according to the definition of the angle β described above, and so on).

第1状況例では、左側画像処理部12L及び右側画像処理部12Rのそれぞれが、2つの被認識体(指示体D及び影S)のそれぞれを認識する。そのため、指示体位置算出部14は、以下に示す4つの候補位置から、指示体Dの位置を選択することとなる。   In the first situation example, each of the left image processing unit 12L and the right image processing unit 12R recognizes each of the two objects to be recognized (indicator D and shadow S). Therefore, the indicator position calculation unit 14 selects the position of the indicator D from the following four candidate positions.

(1) 角度αD及び角度βDによって規定される候補位置(指示体Dの位置)
(2) 角度αD及び角度βSによって規定される候補位置(左側画像処理部12Lが指示体Dを指示体として認識し、右側画像処理部12Rが影Sを指示体として認識した場合における、指示体Dも影Sも存在しない偽候補Paの位置)
(3) 角度αS及び角度βDによって規定される候補位置(左側画像処理部12Lが影Sを指示体として認識し、右側画像処理部12Rが指示体Dを指示体として認識した場合における、指示体Dも影Sも存在しない偽候補Pbの位置)
(4) 角度αS及び角度βSによって規定される候補位置(影Sの位置)
(1) Candidate position (position of indicator D) defined by angle αD and angle βD
(2) Candidate positions defined by the angle αD and the angle βS (the indicator when the left image processing unit 12L recognizes the indicator D as the indicator and the right image processing unit 12R recognizes the shadow S as the indicator. The position of the false candidate Pa where neither D nor shadow S exists)
(3) Candidate positions defined by the angles αS and βD (indicator in the case where the left image processing unit 12L recognizes the shadow S as an indicator and the right image processing unit 12R recognizes the indicator D as an indicator The position of the false candidate Pb in which neither D nor shadow S exists)
(4) Candidate position (position of shadow S) defined by angle αS and angle βS

第1例の選択方法では、指示体位置算出部14が、候補位置(1)〜(4)から上側(左側撮像部11L及び右側撮像部11Rや光源が存在する方向)の候補位置(1)を優先的に選択して、指示体Dの位置とする。換言すると、指示体位置算出部14が、候補位置(1)〜(4)から、左側撮像部11Lに対する角度(角度αDまたは角度αS)及び右側撮像部11Rに対する角度(角度βDまたは角度βS)がともに小さい候補位置(1)を優先的に選択して、指示体Dの位置とする。   In the selection method of the first example, the indicator position calculation unit 14 is located above the candidate positions (1) to (4) (in the direction in which the left imaging unit 11L, the right imaging unit 11R, and the light source exist), candidate position (1). Is preferentially selected as the position of the indicator D. In other words, the indicator position calculation unit 14 determines that the angle (angle αD or angle αS) with respect to the left imaging unit 11L and the angle (angle βD or angle βS) with respect to the right imaging unit 11R from the candidate positions (1) to (4). The candidate position (1) that is both small is preferentially selected and set as the position of the indicator D.

したがって、第1状況例において第1例の選択方法を行うと、指示体位置算出部14が、指示体Dに対応する候補位置(1)を優先的に選択して、指示体Dの位置とすることが可能となる。   Therefore, when the selection method of the first example is performed in the first situation example, the indicator position calculation unit 14 preferentially selects the candidate position (1) corresponding to the indicator D, and the position of the indicator D is determined. It becomes possible to do.

また、他の状況例について、図面を参照して説明する。図6は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第2状況例を示す図である。図6(a)〜図6(c)は、第1状況例を示す図5(a)〜図5(c)のそれぞれに相当するものである。また、第1状況例と同様であるものには同じ符号を付し、その詳細な説明を省略する。   Another example of the situation will be described with reference to the drawings. FIG. 6 is a diagram illustrating a second situation example in which the indicator is present on the surface of the display area and the shadow is reflected in the frame. FIG. 6A to FIG. 6C correspond to FIG. 5A to FIG. 5C, respectively, showing the first situation example. Moreover, the same code | symbol is attached | subjected to the thing similar to a 1st example of a situation, and the detailed description is abbreviate | omitted.

図6に示すように、第2状況例では、角度αDが角度αSよりも小さくなる。また、角度βDと角度βSとが等しくなる。さらに、第2状況例では、左側画像処理部12Lは2つの被認識体(指示体D及び影S)のそれぞれを認識するが、右側画像処理部12Rは1つの被認識体(影Sの手前に存在する指示体D)を認識する。そのため、指示体位置算出部14は、以下に示す2つの候補位置から、指示体Dの位置を選択することとなる。   As shown in FIG. 6, in the second situation example, the angle αD is smaller than the angle αS. Further, the angle βD and the angle βS are equal. Further, in the second situation example, the left image processing unit 12L recognizes each of the two recognition objects (indicator D and shadow S), but the right image processing unit 12R has one recognition object (in front of the shadow S). Is recognized. Therefore, the indicator position calculation unit 14 selects the position of the indicator D from the following two candidate positions.

(1) 角度αD及び角度βD(βS)によって規定される候補位置(指示体Dの位置)
(4) 角度αS及び角度βD(βS)によって規定される候補位置(影Sの位置)
(1) Candidate position defined by angle αD and angle βD (βS) (position of indicator D)
(4) Candidate position (position of shadow S) defined by angle αS and angle βD (βS)

したがって、第2状況例において第1例の選択方法を行うと、指示体位置算出部14が、指示体Dに対応する候補位置(1)を優先的に選択して、指示体Dの位置とすることが可能となる。   Therefore, when the selection method of the first example is performed in the second situation example, the indicator position calculation unit 14 preferentially selects the candidate position (1) corresponding to the indicator D, and the position of the indicator D is determined. It becomes possible to do.

また、角度αDと角度αSが等しく、角度βDが角度βSよりも小さい場合も、第2状況例と同様である。即ち、指示体位置算出部14が、指示体Dに対応する候補位置(1)を優先的に選択して、指示体Dの位置とすることが可能となる。   The case where the angle αD is equal to the angle αS and the angle βD is smaller than the angle βS is the same as in the second situation example. That is, the indicator position calculation unit 14 can preferentially select the candidate position (1) corresponding to the indicator D and set it as the position of the indicator D.

[第2例]
次に、第2例の選択方法について、図面を参照して説明する。図7は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第3状況例を示す図である。図7(a)〜図7(c)は、第1状況例を示す図5(a)〜図5(c)のそれぞれに相当するものである。また、第1状況例と同様であるものには同じ符号を付し、その詳細な説明を省略する。
[Second example]
Next, the selection method of the second example will be described with reference to the drawings. FIG. 7 is a diagram illustrating a third situation example in which the indicator exists on the surface of the display area and the shadow appears in the frame. FIGS. 7A to 7C correspond to FIGS. 5A to 5C, respectively, illustrating the first situation example. Moreover, the same code | symbol is attached | subjected to the thing similar to a 1st example of a situation, and the detailed description is abbreviate | omitted.

図7に示すように、第3状況例では、角度αDが角度αSよりも小さくなる。また、角度βDが角度βSよりも大きくなる。さらに、第3状況例では、左側画像処理部12L及び右側画像処理部12Rのそれぞれが、2つの被認識体(指示体D及び影S)のそれぞれを認識する。そのため、指示体位置算出部14は、以下に示す4つの候補位置から、指示体Dの位置を選択することとなる。   As shown in FIG. 7, in the third situation example, the angle αD is smaller than the angle αS. Further, the angle βD is larger than the angle βS. Furthermore, in the third situation example, each of the left image processing unit 12L and the right image processing unit 12R recognizes each of the two recognition objects (indicator D and shadow S). Therefore, the indicator position calculation unit 14 selects the position of the indicator D from the following four candidate positions.

(1) 角度αD及び角度βDによって規定される候補位置(指示体Dの位置)
(2) 角度αD及び角度βSによって規定される候補位置(偽候補Paの位置)
(3) 角度αS及び角度βDによって規定される候補位置(偽候補Pbの位置)
(4) 角度αS及び角度βSによって規定される候補位置(影Sの位置)
(1) Candidate position (position of indicator D) defined by angle αD and angle βD
(2) Candidate position (position of false candidate Pa) defined by angle αD and angle βS
(3) Candidate position defined by angle αS and angle βD (position of false candidate Pb)
(4) Candidate position (position of shadow S) defined by angle αS and angle βS

第3状況例では、角度βSが角度βDよりも大きくなるため、最も上側(左側撮像部11L及び右側撮像部11Rや光源が存在する方向)の候補位置が、偽候補Paに対応する候補位置(2)になる。換言すると、左側撮像部11Lに対する角度(角度αDまたは角度αS)及び右側撮像部11Rに対する角度(角度βDまたは角度βS)が、ともに最も小さくなる候補位置が、偽候補Paに対応する候補位置(2)になる。   In the third situation example, since the angle βS is larger than the angle βD, the uppermost candidate position (the direction in which the left imaging unit 11L, the right imaging unit 11R, and the light source exist) is the candidate position corresponding to the false candidate Pa ( 2). In other words, the candidate position where the angle with respect to the left imaging unit 11L (angle αD or angle αS) and the angle with respect to the right imaging unit 11R (angle βD or angle βS) are the smallest is the candidate position corresponding to the false candidate Pa (2 )become.

このような場合、上述の第1例の選択方法では、指示体位置算出部14が、指示体Dに対応する候補位置(1)を選択して指示体Dの位置とすることが、困難になる。そこで、第2例の選択方法を用いて、指示体位置算出部14が、偽候補Paに対応する候補位置(2)が指示体Dの位置として優先的に選択されないようにする。換言すると、指示体位置算出部14が、候補位置(2)を除いた他の候補位置を優先的に選択して、指示体Dの位置とする。   In such a case, in the selection method of the first example described above, it is difficult for the indicator position calculation unit 14 to select the candidate position (1) corresponding to the indicator D as the position of the indicator D. Become. Therefore, using the selection method of the second example, the indicator position calculation unit 14 prevents the candidate position (2) corresponding to the false candidate Pa from being preferentially selected as the position of the indicator D. In other words, the indicator position calculation unit 14 preferentially selects other candidate positions excluding the candidate position (2), and sets it as the position of the indicator D.

具体的に、第2例の選択方法では、まず指示体位置算出部14が、表示領域21の範囲外に位置している候補位置(3)を確認する。すると、指示体位置算出部14は、当該候補位置(3)と、当該候補位置(3)を求めるための被認識体(左側画像処理部12Lが影S、右側画像処理部12Rが指示体D)とはそれぞれ異なる被認識体(左側画像処理部12Lが指示体D、右側画像処理部12Rが影S)によって求められる候補位置(2)と、が指示体D及び影Sのいずれにも対応しない(偽候補Pa及び偽候補Pbに対応する)ことを確認することができる。   Specifically, in the selection method of the second example, the indicator position calculation unit 14 first confirms the candidate position (3) located outside the display area 21. Then, the indicator position calculation unit 14 determines the candidate position (3) and the recognition target for obtaining the candidate position (3) (the left image processing unit 12L has a shadow S, and the right image processing unit 12R has an indicator D. ), The candidate position (2) obtained by a different recognition object (the left image processing unit 12L is the indicator D and the right image processing unit 12R is the shadow S) corresponds to both the indicator D and the shadow S. Can be confirmed (corresponding to false candidate Pa and false candidate Pb).

これは、指示体Dの候補位置(1)よりも上側に、偽候補Paに対応する候補位置(2)が位置する場合、他方の偽候補Pbの候補位置(3)は、枠体22に映る影Sの候補位置(4)よりも下側(即ち、表示領域21の範囲外)に位置するためである。したがって、上記のように表示領域21の範囲外に位置する候補位置(3)を確認することで、指示体Dの候補位置(1)よりも上側に位置する候補位置(2)を確認することができる。   When the candidate position (2) corresponding to the false candidate Pa is positioned above the candidate position (1) of the indicator D, the candidate position (3) of the other false candidate Pb is placed on the frame body 22. This is because it is located below the candidate position (4) of the shadow S to be reflected (that is, outside the range of the display area 21). Therefore, by confirming the candidate position (3) located outside the display area 21 as described above, the candidate position (2) located above the candidate position (1) of the indicator D is confirmed. Can do.

そして、指示体位置算出部14は、指示体D及び影Sのいずれにも対応しない(偽候補Pa及び偽候補Pbに対応する)と確認された候補位置(2)及び(3)が、指示体Dの位置として優先的に選択されないようにする。換言すると、指示体位置算出部14が、候補位置(2)及び(3)を除いた他の候補位置(1)及び(4)を優先的に選択して、指示体Dの位置とする。なお、候補位置(2)及び(3)の中で、表示領域21の範囲外に位置すると確認されていない候補位置(2)のみが、指示体Dの位置として優先的に選択されないようにしても構わない。   Then, the indicator position calculation unit 14 indicates that the candidate positions (2) and (3) that are confirmed to correspond to neither the indicator D nor the shadow S (corresponding to the false candidate Pa and the false candidate Pb) are indicated. The position of the body D is not preferentially selected. In other words, the indicator position calculation unit 14 preferentially selects the other candidate positions (1) and (4) excluding the candidate positions (2) and (3) as the position of the indicator D. It should be noted that only the candidate position (2) that is not confirmed to be located outside the range of the display area 21 among the candidate positions (2) and (3) is not preferentially selected as the position of the indicator D. It doesn't matter.

したがって、第3状況例において第2例の選択方法を行うと、指示体位置算出部14が、指示体Dに対応しない候補位置(2)を、指示体Dの位置として優先的に選択しないようにすることが可能となる。さらに、第3状況例において第1例の選択方法を行うことで、指示体位置算出部14が、指示体Dに対応する候補位置(1)を優先的に選択して、指示体Dの位置とすることが可能となる。   Therefore, when the selection method of the second example is performed in the third situation example, the indicator position calculation unit 14 does not preferentially select the candidate position (2) that does not correspond to the indicator D as the position of the indicator D. It becomes possible to. Furthermore, by performing the selection method of the first example in the third situation example, the indicator position calculation unit 14 preferentially selects the candidate position (1) corresponding to the indicator D, and the position of the indicator D It becomes possible.

また、角度αDが角度αSよりも大きく、角度βDが角度βSよりも小さい場合も、第3状況例と同様である。即ち、指示体位置算出部14が、指示体Dに対応しない候補位置(3)を、指示体Dの位置として優先的に選択しないようにすることが可能となる。さらに、第3状況例において第1例の選択方法を行うことで、指示体位置算出部14が、指示体Dに対応する候補位置(1)を優先的に選択して、指示体Dの位置とすることが可能となる。   The case where the angle αD is larger than the angle αS and the angle βD is smaller than the angle βS is the same as in the third situation example. That is, the indicator position calculation unit 14 can preferentially select the candidate position (3) that does not correspond to the indicator D as the position of the indicator D. Furthermore, by performing the selection method of the first example in the third situation example, the indicator position calculation unit 14 preferentially selects the candidate position (1) corresponding to the indicator D, and the position of the indicator D It becomes possible.

また、指示体位置算出部14が、4つの候補位置(1)〜(4)を求め得るとき、全ての候補位置(1)〜(4)について、表示領域21の範囲外の有無を確認しても構わない。また、4つの候補位置(1)〜(4)中で最も下側(左側撮像部11L及び右側撮像部11Rから離れた側、光源から離れた側)の候補位置、換言すると、左側撮像部11Lに対する角度(角度αDまたは角度αS)及び右側撮像部11Rに対する角度(角度βDまたは角度βS)がともに大きい候補位置について、表示領域21の範囲外の有無を確認しても構わない。また、指示体位置算出部14が、候補位置の座標(x1,y1)を算出することで、表示領域21の範囲外か否かを確認しても構わない。 Further, when the indicator position calculation unit 14 can obtain the four candidate positions (1) to (4), it is confirmed whether or not all the candidate positions (1) to (4) are out of the display area 21. It doesn't matter. Also, the lowest candidate position (the side away from the left imaging unit 11L and the right imaging unit 11R, the side away from the light source) among the four candidate positions (1) to (4), in other words, the left imaging unit 11L. Whether or not the candidate position has a large angle with respect to (angle αD or angle αS) and the angle with respect to the right imaging unit 11R (angle βD or angle βS) may be confirmed. Further, the indicator position calculation unit 14 may check whether or not the display area 21 is out of the range by calculating the coordinates (x 1 , y 1 ) of the candidate position.

また、第3状況例のような状況は、光源が、表示装置20の上辺側から左辺側または右辺側に傾いた位置に存在する場合に生じ得る。そのため、光源がそのような位置になり得ない場合などでは、第2例の選択方法を行わないこととしても構わない。ただし、第1例の選択方法に加えて第2例の選択方法を行うことで、指示体位置算出部14が、指示体Dに対応する候補位置(1)をより優先的に選択して、指示体Dの位置とすることが可能となる。   A situation such as the third situation example may occur when the light source exists at a position inclined from the upper side of the display device 20 to the left side or the right side. Therefore, when the light source cannot be in such a position, the selection method of the second example may not be performed. However, by performing the selection method of the second example in addition to the selection method of the first example, the indicator position calculation unit 14 selects the candidate position (1) corresponding to the indicator D more preferentially, The position of the indicator D can be set.

また、第1状況例や第3状況例のように4つの候補位置が求められ得る場合、指示体Dの候補位置(1)及び影Sの候補位置(4)と、偽候補Paの候補位置(2)及び偽候補Pbの候補位置(3)と、のそれぞれの組は、候補位置(1)〜(4)から成る四角形の対角に位置することになる。そのため、ある組の一方の被認識体が対応する候補位置が分かれば、ある組の他方の被認識体が対応する候補位置が分かる。具体的に、例えば指示体Dに対応する候補位置(1)が分かれば、その対角に位置する候補位置(4)が影Sに対応することが分かる。また例えば、候補位置(3)が偽候補Pbに対応することが分かれば、その対角に位置する候補位置(2)も偽候補Paに対応することが分かる。   When four candidate positions can be obtained as in the first situation example and the third situation example, the candidate position (1) of the indicator D, the candidate position (4) of the shadow S, and the candidate position of the false candidate Pa Each set of (2) and the candidate position (3) of the false candidate Pb is located at the diagonal of a quadrangle composed of candidate positions (1) to (4). Therefore, if a candidate position corresponding to one recognized body in a certain set is known, a candidate position corresponding to the other recognized object in a certain set is known. Specifically, for example, if the candidate position (1) corresponding to the indicator D is known, it can be seen that the candidate position (4) located on the diagonal corresponds to the shadow S. Further, for example, if it is known that the candidate position (3) corresponds to the false candidate Pb, it can be understood that the candidate position (2) located on the diagonal also corresponds to the false candidate Pa.

なお、第1例及び第2例の選択方法が適用され得る上述の第1〜第3状況例は、いずれも表示装置20の下辺側の枠22に影Sが映る場合のものであるが、これ以外に、表示装置20の左辺側及び右辺側の枠22に影Sが映る状況も生じ得る。この状況では、例えば上述の第1例の選択方法を指示体位置算出部14が行うことで、指示体Dに対応する候補位置(1)を優先的に選択して、指示体Dの位置とすることが可能となる。以下、表示装置20の左辺側及び右辺側の枠22に影Sが映る場合について、図面を参照して説明する。   The above-described first to third situation examples to which the selection methods of the first example and the second example can be applied are all in the case where a shadow S is reflected in the frame 22 on the lower side of the display device 20, In addition to this, there may be a situation in which a shadow S appears in the left side frame and the right side frame 22 of the display device 20. In this situation, for example, when the pointer position calculation unit 14 performs the selection method of the first example described above, the candidate position (1) corresponding to the pointer D is preferentially selected, and the position of the pointer D is determined. It becomes possible to do. Hereinafter, the case where the shadow S appears in the left side frame and the right side frame 22 of the display device 20 will be described with reference to the drawings.

図8は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第4状況例を示す図である。図8(a)〜図8(c)は、第1状況例を示す図5(a)〜図5(c)のそれぞれに相当するものである。また、第1状況例と同様であるものには同じ符号を付し、その詳細な説明を省略する。   FIG. 8 is a diagram illustrating a fourth situation example in which the indicator exists on the surface of the display area and the shadow appears in the frame. FIG. 8A to FIG. 8C correspond to FIG. 5A to FIG. 5C, respectively, showing the first situation example. Moreover, the same code | symbol is attached | subjected to the thing similar to a 1st example of a situation, and the detailed description is abbreviate | omitted.

図8に示すように、第4状況例では、角度αDが角度αSよりも小さくなる。また、表示装置20の右辺側の枠体22に影Sが映る。これにより、左側画像処理部12Lは2つの被認識体(指示体D及び影S)のそれぞれを認識するが、右側画像処理部12Rは1つの被認識体(指示体D)を認識する。そのため、指示体位置算出部14は、以下に示す2つの候補位置から、指示体Dの位置を選択することとなる。   As shown in FIG. 8, in the fourth situation example, the angle αD is smaller than the angle αS. In addition, a shadow S appears in the frame 22 on the right side of the display device 20. Thereby, the left image processing unit 12L recognizes each of the two recognized objects (indicator D and shadow S), but the right image processing unit 12R recognizes one recognized object (indicator D). Therefore, the indicator position calculation unit 14 selects the position of the indicator D from the following two candidate positions.

(1) 角度αD及び角度βDによって規定される候補位置(指示体Dの位置)
(3) 角度αS及び角度βDによって規定される候補位置(偽候補Pbの位置)
(1) Candidate position (position of indicator D) defined by angle αD and angle βD
(3) Candidate position defined by angle αS and angle βD (position of false candidate Pb)

したがって、第4状況例において第1例の選択方法を行うと、指示体位置算出部14が、指示体Dに対応する候補位置(1)を優先的に選択して、指示体Dの位置とすることが可能となる。   Therefore, when the selection method of the first example is performed in the fourth situation example, the indicator position calculation unit 14 preferentially selects the candidate position (1) corresponding to the indicator D, and the position of the indicator D is determined. It becomes possible to do.

また、表示装置20の左辺側の枠体22に影Sが映り、角度βDが角度βSよりも小さい場合も、第4状況例と同様である。即ち、指示体位置算出部14が、指示体Dに対応する候補位置(1)を優先的に選択して、指示体Dの位置とすることが可能となる。   Further, the case where the shadow S appears in the frame 22 on the left side of the display device 20 and the angle βD is smaller than the angle βS is the same as in the fourth situation example. That is, the indicator position calculation unit 14 can preferentially select the candidate position (1) corresponding to the indicator D and set it as the position of the indicator D.

また、他の状況例について、図面を参照して説明する。図9は、指示体が表示領域の表面上に存在するとともに影が枠体に映る第5状況例を示す図である。図9(a)〜図9(c)は、第1状況例を示す図5(a)〜図5(c)のそれぞれに相当するものである。また、第1状況例と同様であるものには同じ符号を付し、その詳細な説明を省略する。   Another example of the situation will be described with reference to the drawings. FIG. 9 is a diagram illustrating a fifth situation example in which the indicator exists on the surface of the display area and the shadow appears in the frame. FIGS. 9A to 9C correspond to FIGS. 5A to 5C, respectively, showing the first situation example. Moreover, the same code | symbol is attached | subjected to the thing similar to a 1st example of a situation, and the detailed description is abbreviate | omitted.

図9に示すように、第5状況例では、表示装置20の右辺側の枠体22に影Sが映り、角度αDと角度αSとが等しくなる。そのため、左側画像処理部12Lは1つの被認識体(影Sの手前に存在する指示体D)を認識し、右側画像処理部12Rも1つの被認識体(指示体D)を認識する。   As shown in FIG. 9, in the fifth situation example, a shadow S appears in the frame 22 on the right side of the display device 20, and the angle αD is equal to the angle αS. Therefore, the left image processing unit 12L recognizes one object to be recognized (indicator D existing in front of the shadow S), and the right image processing unit 12R also recognizes one object to be recognized (indicator D).

この場合、指示体位置算出部14は、指示体Dに対応する候補位置(1)のみを算出する。そのため、指示体Dに対応する候補位置(1)を選択して、指示体Dの位置とすることが可能となる。   In this case, the indicator position calculation unit 14 calculates only the candidate position (1) corresponding to the indicator D. Therefore, the candidate position (1) corresponding to the indicator D can be selected and set as the position of the indicator D.

また、表示装置20の左辺側の枠体22に影Sが映り、角度βDと角度βSとが等しくなる場合も、第5状況例と同様である。即ち、指示体Dに対応する候補位置(1)を選択して、指示体Dの位置とすることが可能となる。   Further, the case where the shadow S appears in the frame 22 on the left side of the display device 20 and the angle βD and the angle βS are equal is the same as in the fifth situation example. That is, the candidate position (1) corresponding to the indicator D can be selected and set as the position of the indicator D.

ところで、表示装置20の左辺側及び右辺側の枠体22に影Sが映る場合、上述の第4状況例や第5状況例の他に、以下の2つの状況が生じる可能性があるとも考えられる。   By the way, when the shadow S is reflected on the left side frame and the right side frame 22 of the display device 20, it is considered that the following two situations may occur in addition to the fourth situation example and the fifth situation example described above. It is done.

1.影Sが、表示装置20の右辺側の枠体22に映り、角度αDが角度αSよりも大きくなる。
2.影Sが、表示装置20の左辺側の枠体22に映り、角度βDが角度βSよりも大きくなる。
1. The shadow S is reflected in the frame 22 on the right side of the display device 20, and the angle αD is larger than the angle αS.
2. The shadow S is reflected in the frame 22 on the left side of the display device 20, and the angle βD is larger than the angle βS.

しかしながら、このような状況は、光源が表示装置20の下辺側に存在しない限り生じ得ない。そのため、上述のような、左側撮像部11L及び右側撮像部11Rが、表示領域21よりも光源側に配置されるように設計された位置検出装置10及びタッチパネル1では、生じ得ないものとなる。   However, such a situation cannot occur unless the light source exists on the lower side of the display device 20. Therefore, the position detection device 10 and the touch panel 1 designed so that the left imaging unit 11L and the right imaging unit 11R as described above are arranged closer to the light source than the display area 21 cannot be generated.

[第3例]
次に、第3例の選択方法について説明する。第3例の選択方法は、上述の第1例及び第2例の選択方法とは異なり、左側画像及び右側画像の状態に基づいたものである。具体的には、指示体Dを示す画像と、影Sなどの外乱を示す画像と、の特性の違いを利用して複数の被認識体の中から指示体Dを見分ける。そして、指示体Dと見分けられた被認識体から求められる候補位置を優先的に選択して、指示体Dの位置とする方法である。
[Third example]
Next, the selection method of the third example will be described. The selection method of the third example is based on the state of the left image and the right image, unlike the selection methods of the first example and the second example described above. Specifically, the indicator D is discriminated from the plurality of recognized objects using the difference in characteristics between the image showing the indicator D and the image showing the disturbance such as the shadow S. Then, a candidate position obtained from a recognized object distinguished from the indicator D is preferentially selected and used as the position of the indicator D.

画像は、例えばR(赤)G(緑)B(青)の各色の信号や、Y(輝度)UV(色差)の各種類の信号、H(色相)S(彩度)B(輝度)の各種類の信号によって構成される。そして、影Sを示す画像では、輝度(例えば、上記のY(輝度)やB(輝度))や色信号(例えば、輝度以外の上記の信号)が一様なものになり易く、指示体Dを示す画像では、輝度や色信号が一様なものとはなり難い。   The image includes, for example, R (red), G (green), and B (blue) color signals, Y (luminance), UV (color difference) signals, H (hue), S (saturation), and B (luminance). Consists of various types of signals. In the image showing the shadow S, the luminance (for example, Y (luminance) and B (luminance) described above) and the color signal (for example, the signals other than the luminance) are likely to be uniform, and the indicator D In an image indicating, the luminance and color signals are unlikely to be uniform.

そのため、第3例の選択方法では、指示体位置算出部14が、画像の信号値(例えば、輝度や色信号)のばらつき(例えば、平均値に対するばらつきを示す分散値)が小さい被認識体によって求められる候補位置を優先的に選択せず、画像の信号値のばらつきが大きい被認識体によって求められる候補位置を優先的に選択して、指示体Dの位置とする。   Therefore, in the selection method of the third example, the pointer position calculation unit 14 uses a recognition object having a small variation (for example, a dispersion value indicating variation with respect to the average value) of image signal values (for example, luminance and color signals). The candidate position to be obtained is not preferentially selected, but the candidate position obtained by the recognition object having a large variation in the signal value of the image is preferentially selected to be the position of the indicator D.

したがって、第3例の選択方法を行うことで、指示体Dである可能性が高い被認識体から求められる候補位置を優先的に選択して、指示体Dの位置とすることが可能となる。   Therefore, by performing the selection method of the third example, it is possible to preferentially select a candidate position obtained from a recognized object that is highly likely to be the indicator D and set it as the position of the indicator D. .

なお、信号値のばらつきを求めるための画像は、左側画像及び右側画像でも構わないし、左側画像及び右側画像を処理して得られる画像(例えば、左側画像及び右側画像のそれぞれから、輝度の成分を抽出して得られるそれぞれの輝度画像)でも構わない。いずれにしても、左側画像及び右側画像のそれぞれから、信号値のばらつきが求められることには変わり無い。また、信号値のばらつきは、例えば左側画像処理部12L及び右側画像処理部12Rが求める。   Note that the image for obtaining the variation in the signal value may be a left image and a right image, and an image obtained by processing the left image and the right image (for example, a luminance component from each of the left image and the right image). Each luminance image obtained by extraction) may be used. In any case, the variation in the signal value is obtained from each of the left image and the right image. Further, for example, the left image processing unit 12L and the right image processing unit 12R obtain the variation in the signal value.

また、信号値のばらつきが大きいまたは小さいことを確認するために、所定の閾値と比較して、絶対的に大きいまたは小さいことを確認しても構わない。また、他の被認識体を示す画像の信号値のばらつきと比較して、相対的に大きいまたは小さいことを確認しても構わない。   Further, in order to confirm that the variation of the signal value is large or small, it may be confirmed that it is absolutely larger or smaller than a predetermined threshold value. In addition, it may be confirmed that it is relatively large or small as compared with the variation in the signal value of the image showing another recognition target.

以上のように構成すると、左側撮像部11L及び右側撮像部11Rの撮像により生成された画像中から複数の被認識体が認識され、複数の候補位置が求められ得る状況になったとしても、当該複数の候補位置の位置関係から指示体Dに対応する候補位置を求めることができる。したがって、屋外などの状況下でも、精度良く指示体の位置を検出することが可能となる。   When configured as described above, even if a plurality of recognized objects are recognized from the images generated by the imaging of the left imaging unit 11L and the right imaging unit 11R and a plurality of candidate positions can be obtained, Candidate positions corresponding to the indicator D can be obtained from the positional relationship between the plurality of candidate positions. Therefore, it is possible to detect the position of the indicator with high accuracy even under outdoor conditions.

特に、指示体と、光が照射されることで生じる指示体の影と、が被認識体となり、複数の候補位置が求められ得る場合でも、当該候補位置の中から指示体に対応する候補位置を求めることが可能となる。したがって、屋外などの影が生じ得る状況下でも、精度良く指示体の位置を検出することが可能となる。   In particular, even when the indicator and the shadow of the indicator generated by light irradiation become a recognized object and a plurality of candidate positions can be obtained, candidate positions corresponding to the indicator from the candidate positions Can be obtained. Therefore, it is possible to detect the position of the indicator with high accuracy even under conditions where shadows such as outdoors can occur.

なお、上述の第1例〜第3例の選択方法は、組み合わせて実施することができる。例えば、指示体位置算出部14が、それぞれの選択方法で優先的に選択される候補位置ほど大きい優先度が設定されるように構成して、最終的に優先度が最も大きくなる候補位置を、指示体Dの位置としても構わない。   The selection methods of the first to third examples described above can be implemented in combination. For example, the indicator position calculation unit 14 is configured such that a higher priority is set for a candidate position that is preferentially selected by each selection method, and the candidate position that finally has the highest priority is The position of the indicator D may be used.

また、候補位置を左側撮像部11L及び右側撮像部11Rに対する角度(角度αD、角度αS、角度βD及び角度βS)で表現し、当該角度に基づいて指示体Dの位置となる候補位置を選択する場合について例示したが、候補位置を座標(x1,y1)で表現し、当該座標に基づいて指示体Dの位置となる候補位置を選択しても構わない。 Further, the candidate positions are expressed by angles (angle αD, angle αS, angle βD, and angle βS) with respect to the left imaging unit 11L and the right imaging unit 11R, and a candidate position that becomes the position of the indicator D is selected based on the angles. As an example, the candidate position may be expressed by coordinates (x 1 , y 1 ), and the candidate position that becomes the position of the indicator D may be selected based on the coordinates.

<位置検出装置の動作>
次に、上述の第1〜第3例の選択方法を指示体位置算出部14が行い得る場合の、位置検出装置10の全体的な動作の一例について、図面を参照して説明する。図10は、位置検出装置の動作の一例を示すフローチャートである。
<Operation of position detection device>
Next, an example of the overall operation of the position detection device 10 when the pointer position calculation unit 14 can perform the selection methods of the first to third examples described above will be described with reference to the drawings. FIG. 10 is a flowchart illustrating an example of the operation of the position detection device.

図10に示すように、位置検出装置10が動作を開始すると、最初に、左側画像処理部12Lが、被認識体の認識を行う画像である左側差分画像を算出する(STEP1L)。また、右側画像処理部12Rも同様に、被認識体の認識を行う画像である右側差分画像を算出する(STEP1R)。   As shown in FIG. 10, when the position detection apparatus 10 starts operation, first, the left image processing unit 12L calculates a left difference image that is an image for recognizing the recognition target (STEP 1L). Similarly, the right-side image processing unit 12R calculates a right-side difference image that is an image for recognizing the recognition target (STEP 1R).

STEP1L及びSTEP1Rの左側差分画像及び右側差分画像を算出するそれぞれの動作について、図11を参照して説明する。ただし、右側差分画像を算出する動作は、左側差分画像を算出する動作と同様であるため、省略する。ただし、以下の左側差分画像の算出方法の説明中における「左」及び「L」を、「右」及び「R」に適宜読み替えることで、右側差分画像を算出する動作の説明とすることができる。   The respective operations for calculating the left difference image and the right difference image of STEP1L and STEP1R will be described with reference to FIG. However, the operation for calculating the right side difference image is the same as the operation for calculating the left side difference image, and thus will be omitted. However, the operation of calculating the right difference image can be described by appropriately replacing “left” and “L” in the following description of the calculation method of the left difference image with “right” and “R”. .

図11は、左側差分画像を算出する動作の一例を示すフローチャートである。図11に示すように、まず、左側画像処理部12Lが、左側撮像部11Lの撮像により生成された左側画像を取得する(STEP1L1)。このとき、左側画像処理部12Lは、その後の処理のために、左側撮像部11Lから取得する左側画像の信号値の種類を必要に応じて変換しても構わない。なお、左側画像処理部12Lが処理する左側画像が、例えば、一つの画素がRGBの各色の信号値を備えても構わないし、YUVの各種類の信号値を備えても構わないし、HSBの各種類の信号値を備えても構わない。   FIG. 11 is a flowchart illustrating an example of an operation for calculating the left side difference image. As illustrated in FIG. 11, first, the left image processing unit 12L acquires a left image generated by imaging of the left imaging unit 11L (STEP 1L1). At this time, the left image processing unit 12L may convert the type of the signal value of the left image acquired from the left imaging unit 11L as necessary for subsequent processing. In the left image processed by the left image processing unit 12L, for example, one pixel may include signal values for each color of RGB, each signal value for each type of YUV, and each HSB You may provide a kind of signal value.

左側画像処理部12Lは、取得した左側画像が1フレーム目(即ち、位置検出装置10の動作の開始後、最初に取得した左側画像)であるか否か、または、取得した左側画像中の表示領域21が以前に取得した(例えば、前フレームの)左側画像中の表示領域21からずれたか否かを判定する(STEP1L2)。   The left image processing unit 12L determines whether or not the acquired left image is the first frame (that is, the first left image acquired after the operation of the position detection device 10), or the display in the acquired left image. It is determined whether or not the area 21 has deviated from the display area 21 in the left image acquired previously (for example, in the previous frame) (STEP 1L2).

左側画像処理部12Lは、取得した左側画像が1フレーム目であると判定する場合、または、取得した左側画像中の表示領域21がずれたと判定する場合(STEP1L2、YES)、左側画像中から表示領域21を検出する(STEP1L3)。このとき、例えば所定の目印などを検出することで表示領域21の位置を確認しても構わないし、表示領域21で表示される画像(光)などに基づいて表示領域21の位置を確認しても構わない。   When the left image processing unit 12L determines that the acquired left image is the first frame, or when it is determined that the display area 21 in the acquired left image is shifted (STEP 1L2, YES), the left image processing unit 12L displays the left image from the left image. The area 21 is detected (STEP 1L3). At this time, for example, the position of the display area 21 may be confirmed by detecting a predetermined mark or the like, or the position of the display area 21 may be confirmed based on an image (light) displayed in the display area 21. It doesn't matter.

左側画像処理部12Lは、検出された表示領域21に基づいて、左側画像中で処理を行う範囲(以下、処理範囲とする)を設定する(STEP1L4)。処理範囲について図12を参照して説明する。図12は、処理範囲の設定方法の一例を示す図であり、左側画像の一例について示した図3(b)に相当するものである。図12は、左側画像中で表示領域21の表面上の範囲を、処理範囲Aとして設定する例を示したものである。   The left image processing unit 12L sets a range to be processed in the left image (hereinafter referred to as a processing range) based on the detected display area 21 (STEP 1L4). The processing range will be described with reference to FIG. FIG. 12 is a diagram showing an example of a processing range setting method, and corresponds to FIG. 3B showing an example of the left image. FIG. 12 shows an example in which the range on the surface of the display area 21 in the left image is set as the processing range A.

左側画像処理部12Lは、STEP1L4で処理範囲Aを設定する、または、STEP1L2で左側画像が1フレーム目ではなく表示領域21がずれていないと判定すると、次に、左側画像処理部12Lが左側差分画像を算出する(STEP1L5)。   If the left image processing unit 12L sets the processing range A in STEP1L4, or if it is determined in STEP1L2 that the left image is not in the first frame and the display area 21 is not shifted, then the left image processing unit 12L determines that the left difference An image is calculated (STEP 1L5).

例えば、左側画像処理部12Lは、左側背景画像記憶部13Lに記憶している左側背景画像と、直近のSTEP1L1で取得した左側画像と、の対応する位置の画素ごとに信号値の差分値を求め、当該差分値を各画素の信号値とする左側差分画像を算出する。なお、左側背景画像及び左側画像の各画素が複数種類の信号値を備える場合、信号値の種類ごとに差分値を算出すると好ましい。また、左側背景画像及び左側画像に含まれる全ての画素について差分値を算出しても構わないが、算出する画素を上述の処理範囲A内に限ると、演算量を低減することができるため、好ましい。   For example, the left image processing unit 12L obtains a difference value of the signal value for each pixel at a corresponding position between the left background image stored in the left background image storage unit 13L and the left image acquired in the most recent STEP1L1. The left side difference image is calculated using the difference value as the signal value of each pixel. In addition, when each pixel of the left background image and the left image includes a plurality of types of signal values, it is preferable to calculate a difference value for each type of signal value. Further, the difference value may be calculated for all the pixels included in the left background image and the left image, but if the pixel to be calculated is limited to the above processing range A, the amount of calculation can be reduced. preferable.

ところで、左側背景画像を、例えば図11に示す動作の開始前に、予め左側背景画像記憶部13Lに記憶しても構わない。例えば、左側画像処理部12Lが、連続して取得される複数フレームの画像を所定時間監視して、信号値の変動(差分値)が小さくなったフレームを左側背景画像として左側背景画像記憶部13Lに記憶しても構わない。また例えば、1フレーム目の左側画像を、左側背景画像として記憶しても構わない。なお、左側背景画像記憶部13Lに記憶される左側背景画像を、処理範囲A内の画像に限ると、記憶量を低減することができるため、好ましい。   By the way, the left background image may be stored in the left background image storage unit 13L in advance before, for example, the operation shown in FIG. For example, the left image processing unit 12L monitors a plurality of consecutively acquired images for a predetermined time, and uses the left background image storage unit 13L as a left background image with a frame having a small signal value variation (difference value). You may memorize. For example, the left image of the first frame may be stored as the left background image. Note that it is preferable to limit the left background image stored in the left background image storage unit 13L to an image within the processing range A because the storage amount can be reduced.

また、本例では、後述するSTEP2Lで左側差分画像から精度良く被認識体が検出されるようにするべく、撮像環境(例えば、画角内全体の光の強度)が変動したか否かを監視して、左側背景画像を適正なものに維持する動作を行う(STEP1L6〜1L8)。   Further, in this example, it is monitored whether or not the imaging environment (for example, the light intensity in the entire angle of view) has changed so that the recognition target can be accurately detected from the left difference image in STEP 2L described later. Then, an operation for maintaining the left background image at an appropriate level is performed (STEP 1L6 to 1L8).

まず、STEP1L5で算出された左側差分画像について、処理範囲A内の画素の中で差分値が閾値以上となる画素が、所定数以上存在するか否かを判定する(STEP1L6)。即ち、撮像環境の空間方向における変動の有無を判定する。   First, with respect to the left side difference image calculated in STEP 1L5, it is determined whether or not a predetermined number or more of pixels within the processing range A have a difference value equal to or greater than a threshold value (STEP 1L6). That is, it is determined whether there is a change in the spatial direction of the imaging environment.

このとき、左側差分画像の各画素が複数種類の信号値の差分値を備える場合、信号値の種類ごとにそれぞれの閾値と比較しても構わないし、複数種類の信号値の差分値を合算した総合的な差分値と閾値とを比較しても構わない。また、この「閾値」は、撮像環境が変動したとみなせる程度に大きい値とする。また、この「所定数」は、処理範囲A全体が変動した(即ち、被認識体による画像の局所的な変動ではなく、撮像環境が変動した)とみなせる程度の数とする。   At this time, when each pixel of the left difference image has a difference value of a plurality of types of signal values, it may be compared with each threshold value for each type of signal value, or the difference values of a plurality of types of signal values are added together. You may compare a comprehensive difference value and a threshold value. The “threshold value” is set to a value large enough to assume that the imaging environment has changed. The “predetermined number” is a number that can be regarded as a change in the entire processing range A (that is, not a local change in the image by the recognition target, but a change in the imaging environment).

差分値が閾値以上となる画素が所定数より少ない場合(STEP1L6、NO)、撮像環境は変動していないものと判定する。そして、STEP1Lの動作を終了する。これに対して、差分値が閾値以上となる画素が所定数以上となる場合(STEP1L6、YES)、次に、STEP1L6の条件を満たす(STEP1L6がYESとなる)フレームが、継続して所定数以上あるか否かを判定する(STEP1L7)。即ち、撮像環境の時間方向における変動の有無を判定する。なお、この「所定数」は、撮像環境の変動が継続的なものであり、一過性のものではないとみなせる程度の数とする。   When the number of pixels whose difference value is equal to or greater than the threshold is less than the predetermined number (STEP 1L6, NO), it is determined that the imaging environment has not changed. Then, the operation of STEP1L is terminated. On the other hand, when the number of pixels whose difference value is equal to or greater than the threshold value is equal to or greater than the predetermined number (STEP1L6, YES), the frame that satisfies the condition of STEP1L6 (STEP1L6 is YES) is continuously equal to or greater than the predetermined number. It is determined whether or not there is (STEP 1L7). That is, it is determined whether there is a change in the imaging environment in the time direction. Note that the “predetermined number” is a number that allows the imaging environment to be continuously changed and regarded as not transient.

STEP1L6の条件を満たすフレームが所定数より少ない場合(STEP1L7、NO)、撮像環境は変動していないものと判定する。そしてSTEP1Lの動作を終了する。一方、STEP1L6の条件を満たすフレームが所定数以上となる場合(STEP1L7、YES)、撮像環境が変動したと判定する。すると、左側画像処理部12Lは、左側背景画像記憶部13Lに記憶している左側背景画像を更新する(STEP1L8)。例えば、直近のSTEP1L1で取得した左側画像を、背景画像として記憶し直す。そしてSTEP1Lの動作を終了する。   When the number of frames satisfying the condition of STEP1L6 is less than the predetermined number (STEP1L7, NO), it is determined that the imaging environment has not changed. Then, the operation of STEP1L is terminated. On the other hand, when the number of frames satisfying the condition of STEP1L6 is equal to or greater than the predetermined number (STEP1L7, YES), it is determined that the imaging environment has changed. Then, the left image processing unit 12L updates the left background image stored in the left background image storage unit 13L (STEP 1L8). For example, the left image acquired in the latest STEP1L1 is stored again as the background image. Then, the operation of STEP1L is terminated.

図10に示すように、左側画像処理部12Lは、上述のSTEP1Lを行うと、次にSTEP1Lで得られた左側差分画像から被認識体を認識する(STEP2L)。また、右側画像処理部12Rも同様に、STEP1Rを行うと、次にSTEP1Rで得られた右側差分画像から被認識体を認識する(STEP2R)。   As illustrated in FIG. 10, when the left image processing unit 12L performs the above-described STEP1L, the left image processing unit 12L recognizes the recognition target from the left difference image obtained in STEP1L (STEP2L). Similarly, when STEP1R is performed, the right image processing unit 12R recognizes the recognition target from the right difference image obtained in STEP1R (STEP2R).

STEP2L及びSTEP2Rの左側差分画像及び右側差分画像から被認識体を認識するそれぞれの動作について、図13を参照して説明する。ただし、右側差分画像から被認識体を認識する動作は、左側差分画像から被認識体を認識する動作と同様であるため、省略する。ただし、以下の左側差分画像から被認識体を認識する動作の説明中における「左」及び「L」を、「右」及び「R」に適宜読み替えることで、右側差分画像から被認識体を認識する動作の説明とすることができる。   Each operation for recognizing the recognition target object from the left side difference image and the right side difference image of STEP2L and STEP2R will be described with reference to FIG. However, the operation for recognizing the recognition target from the right side difference image is the same as the operation for recognizing the recognition target from the left side difference image, and is therefore omitted. However, in the following description of the operation for recognizing the recognition target from the left difference image, “left” and “L” are appropriately replaced with “right” and “R” to recognize the recognition target from the right difference image. It can be an explanation of the operation to be performed.

図13は、左側差分画像から被認識体を認識する動作の一例を示すフローチャートである。図13に示すように、左側画像処理部12Lは、STEP1Lで算出した左側差分画像の各画素を、被認識体を表示する画素(以下、被認識体表示画素とする)と、背景を表示する画素(以下、背景表示画素とする)と、に分ける。即ち、左側差分画像を二値化する(STEP2L1)。   FIG. 13 is a flowchart illustrating an example of an operation for recognizing the recognition target object from the left side difference image. As illustrated in FIG. 13, the left image processing unit 12L displays the pixel of the left difference image calculated in STEP 1L as a pixel that displays a recognized object (hereinafter referred to as a recognized object display pixel) and a background. It is divided into pixels (hereinafter referred to as background display pixels). That is, the left difference image is binarized (STEP2L1).

このとき、例えばSTEP1L6と同様の方法により、差分値がある閾値以上となる画素を被認識体表示画素とし、差分値が閾値よりも小さくなる画素を背景表示画素とする。なお、この「閾値」は、指示体Dであると精度良く判定できる程度に大きい値とする。また、左側画像処理部12Lは、左側背景画像の被認識体表示画素と背景表示画素とを異なる信号値で表現した画像(いわゆる、二値化画像)を生成しても構わない。   At this time, for example, by the same method as in STEP1L6, a pixel whose difference value is a certain threshold value or more is set as a recognition object display pixel, and a pixel whose difference value is smaller than the threshold value is set as a background display pixel. The “threshold value” is set to a value large enough to accurately determine that the indicator is the indicator D. Further, the left image processing unit 12L may generate an image (so-called binarized image) in which the recognition target display pixel and the background display pixel of the left background image are expressed by different signal values.

さらに、左側画像処理部12Lは、左側差分画像(二値化画像を含む)の検出範囲内で、所定数以上の被認識体表示画素で構成される領域(即ち、被認識体)を認識する(STEP2L2)。なお、検出範囲は、少なくとも処理範囲内の範囲であると好ましく、例えば、指示体Dが表示領域21に触れたと判断され得る範囲としても構わない。また、この「所定数」は、指示体Dであると精度良く判定できる程度の数であり、例えばノイズなどに起因する画素単位の変動を排除可能な数とする。   Further, the left image processing unit 12L recognizes an area (that is, a recognized object) composed of a predetermined number or more of recognized object display pixels within the detection range of the left difference image (including the binarized image). (STEP2L2). The detection range is preferably at least within the processing range. For example, the detection range may be a range in which it can be determined that the indicator D has touched the display area 21. Further, the “predetermined number” is a number that can be accurately determined as the indicator D, and is, for example, a number that can eliminate a pixel-unit variation caused by noise or the like.

STEP2L2で検出される領域(被認識体)の数が0であれば(STEP2L3、YES)、左側差分画像に被認識体が不存在であると判定する(STEP2L4)。そして、STEP2Lの動作を終了する。   If the number of regions (recognized bodies) detected in STEP2L2 is 0 (STEP2L3, YES), it is determined that there are no recognized bodies in the left difference image (STEP2L4). Then, the operation of STEP2L is terminated.

これに対して、被認識体の数が0でなければ(STEP2L3、NO)、左側差分画像に被認識体が存在すると判定する(STEP2L5)。そして、被認識体の数が2以下か否かを確認する(STEP2L6)。   On the other hand, if the number of recognized objects is not 0 (STEP2L3, NO), it is determined that the recognized object exists in the left difference image (STEP2L5). And it is confirmed whether the number of to-be-recognized bodies is 2 or less (STEP2L6).

被認識体の数が2より多い場合(STEP2L6、NO)、左側画像処理部12Lが左側差分画像から認識した被認識体が不適正なものであると判定する(STEP2L7)。そして、STEP2Lの動作を終了する。   When the number of recognition objects is larger than 2 (STEP2L6, NO), the left image processing unit 12L determines that the recognition object recognized from the left difference image is inappropriate (STEP2L7). Then, the operation of STEP2L is terminated.

これに対して、被認識体の数が2以下であれば(STEP2L6、YES)、左側画像処理部12Lが左側差分画像から認識した被認識体が適正なものであると判定する(STEP2L8)。そして、左側画像処理部12Lは、左側画像中のそれぞれの被認識体について、候補位置の選択方法の第3例で説明したように、当該被認識体を示す画像の信号値のばらつき(例えば、分散)を算出する(STEP2L9)。そして、STEP2Lの動作を終了する。   On the other hand, if the number of recognition objects is 2 or less (STEP2L6, YES), it is determined that the recognition object recognized by the left image processing unit 12L from the left difference image is appropriate (STEP2L8). Then, as described in the third example of the candidate position selection method for each recognized object in the left image, the left image processing unit 12L varies the signal value of the image indicating the recognized object (for example, (Dispersion) is calculated (STEP2L9). Then, the operation of STEP2L is terminated.

図10に示すように、左側画像処理部12L及び右側画像処理部12Rが、上述のSTEP2LとSTEP2Rとを行うと、次に、STEP2L及びSTEP2Rで被認識体が存在していると判定したか否かが確認される(STEP3)。   As shown in FIG. 10, when the left image processing unit 12L and the right image processing unit 12R perform the above-described STEP2L and STEP2R, it is next determined whether or not a recognition object exists in STEP2L and STEP2R. Is confirmed (STEP 3).

ここで、左側画像処理部12L及び右側画像処理部12Rの少なくとも一方が、被認識体が不存在であると判定(STEP2L4参照)していれば(STEP3、NO)、STEP1L及びSTEP1Rに戻り、左側差分画像及び右側差分画像の算出を行う。   Here, if at least one of the left image processing unit 12L and the right image processing unit 12R determines that the recognition target is not present (see STEP2L4) (STEP3, NO), the process returns to STEP1L and STEP1R, and the left side The difference image and the right difference image are calculated.

これに対して、左側画像処理部12L及び右側画像処理部12Rの両方が、被認識体が存在していると判定(STEP2L5参照)していれば(STEP3、YES)、次に、STEP2L及びSTEP2Rで被認識体が適正であると判定したか否かを確認する(STEP4)。   On the other hand, if both the left image processing unit 12L and the right image processing unit 12R determine that a recognition target exists (see STEP 2L5) (STEP 3, YES), then STEP 2L and STEP 2R In step 4, it is confirmed whether or not it is determined that the recognition target is appropriate.

ここで、左側画像処理部12L及び右側画像処理部12Rの少なくとも一方が、被認識体が不適正であると判定(STEP2L7参照)していれば(STEP4、NO)、エラー処理を行う(STEP5)。エラー処理として、どのような処理を行っても構わない。例えば、動作を終了しても構わないし(STEP8、YES)、ユーザに対して検出不能である旨を示す警告を表示しても構わないし、STEP1L及びSTEP1Rで左側背景画像及び右側背景画像を更新(STEP1L8参照)しても構わない。また、被認識体が不適正である判定が継続的に行われる場合に、上記のようなエラー処理を行っても構わない。   Here, if at least one of the left image processing unit 12L and the right image processing unit 12R determines that the recognition object is inappropriate (see STEP2L7) (STEP4, NO), error processing is performed (STEP5). . Any processing may be performed as error processing. For example, the operation may be terminated (STEP 8, YES), a warning indicating that the user cannot be detected may be displayed, and the left background image and the right background image are updated in STEP 1L and STEP 1R ( (Refer to STEP1L8). Moreover, when the determination that the recognition target is inappropriate is continuously performed, the error processing as described above may be performed.

これに対して、左側画像処理部12L及び右側画像処理部12Rの両方が、被認識体が適正であると判定(STEP2L8参照)していれば(STEP4、YES)、次に、指示体位置算出部14が、左側画像処理部12L及び右側画像処理部12Rが認識した被認識体に基づいて、指示体Dの位置を認識する(STEP6)。具体的に例えば、左側撮像部11L及び右側撮像部11Rに対して指示体Dが存在する方向(角度α及び角度β、具体的には角度αD及び角度βD)を認識する。   On the other hand, if both the left image processing unit 12L and the right image processing unit 12R determine that the recognition target is appropriate (see STEP 2L8) (STEP 4, YES), then the pointer position calculation is performed. The unit 14 recognizes the position of the indicator D based on the recognition target recognized by the left image processing unit 12L and the right image processing unit 12R (STEP 6). Specifically, for example, the direction (angle α and angle β, specifically, angle αD and angle βD) in which the indicator D exists is recognized with respect to the left imaging unit 11L and the right imaging unit 11R.

STEP6の指示体位置算出部14が指示体の位置を認識する動作について、図14を参照して説明する。図14は、指示体の位置を認識する動作の一例を示すフローチャートである。図14に示すように、指示体位置算出部14は、例えば図3、図4及び図9のように左側画像処理部12L及び右側画像処理部12Rで認識された被認識体が1つずつである場合(STEP601、YES)、当該被認識体から求められる位置を、指示体の位置として認識する(STEP602)。そして、STEP6の動作を終了する。   The operation in which the indicator position calculation unit 14 of STEP 6 recognizes the position of the indicator will be described with reference to FIG. FIG. 14 is a flowchart illustrating an example of an operation for recognizing the position of the indicator. As shown in FIG. 14, the indicator position calculation unit 14 includes one to-be-recognized object recognized by the left image processing unit 12 </ b> L and the right image processing unit 12 </ b> R, for example, as illustrated in FIGS. 3, 4, and 9. If there is one (STEP 601, YES), the position obtained from the recognized object is recognized as the position of the indicator (STEP 602). Then, the operation of STEP 6 is terminated.

これに対して、指示体位置算出部14は、例えば図5及び図7のように左側画像処理部12L及び右側画像処理部12Rで認識された被認識体が1つずつではなく(STEP601、NO)2つずつである場合(STEP603、YES)、それぞれの被認識体から求められる候補位置を認識する(STEP604)。また、このとき、候補位置が表示領域21の範囲外に位置するか否かを判定するために、例えば候補位置の座標(x1,y1)を求める。 On the other hand, the indicator position calculation unit 14 does not recognize the recognized bodies recognized by the left image processing unit 12L and the right image processing unit 12R as shown in FIGS. 5 and 7, for example (STEP601, NO ) If there are two (STEP 603, YES), the candidate position obtained from each recognition object is recognized (STEP 604). At this time, in order to determine whether or not the candidate position is located outside the range of the display area 21, for example, the coordinates (x 1 , y 1 ) of the candidate position are obtained.

そして、例えば図7のように、表示領域21の範囲外に位置する候補位置が存在する場合(STEP605、YES)、候補位置の選択方法の第2例で説明したように、偽候補の候補位置を除外して、指示体Dの位置として選択されないようにする(STEP606)。そして、次の動作(STEP607)を行う。一方、表示領域21の範囲外に位置する候補位置が存在しない場合(STEP605、NO)は、STEP606の動作を行うことなく、次の動作(STEP607)を行う。   Then, for example, as shown in FIG. 7, when there is a candidate position located outside the range of the display area 21 (STEP 605, YES), as described in the second example of the candidate position selection method, the candidate position of the false candidate Are excluded from the position of the indicator D (STEP 606). Then, the next operation (STEP 607) is performed. On the other hand, when there is no candidate position located outside the display area 21 (STEP 605, NO), the next operation (STEP 607) is performed without performing the operation of STEP 606.

また、例えば図6及び図8のように、左側画像処理部12L及び右側画像処理部12Rで認識された被認識体が1つずつではなく(STEP601、NO)、2つずつでもない場合(STEP603、NO)、STEP604〜STEP606の動作を行うことなく、次の動作(STEP607)を行う。   Further, for example, as shown in FIGS. 6 and 8, the recognition target recognized by the left image processing unit 12L and the right image processing unit 12R is not one by one (STEP 601, NO), but not by two (STEP 603). , NO), the next operation (STEP 607) is performed without performing the operations of STEP 604 to STEP 606.

STEP607では、候補位置の選択方法の第1例及び第3例で説明したように、上側の候補位置であり、信号値のばらつきが所定の大きさ以上となる被認識体から求められる候補位置を選択し、指示体Dの位置として認識する。なお、上記条件の両方を満たす候補位置が無い場合、上述のエラー処理(STEP5参照)を行っても構わないし、一方の条件(例えば、上側)を満たす候補位置を選択し指示体Dの位置として認識しても構わないし、それぞれの選択方法で設定される上述の優先度が最も大きくなる候補位置を選択し指示体Dの位置として認識しても構わない。   In STEP 607, as described in the first and third examples of the candidate position selection method, the candidate position is the upper candidate position, and the candidate position obtained from the recognition target whose signal value variation is equal to or larger than a predetermined size is determined. The position is selected and recognized as the position of the indicator D. If there is no candidate position that satisfies both of the above conditions, the above error processing (see STEP 5) may be performed, and a candidate position that satisfies one of the conditions (for example, the upper side) is selected as the position of the indicator D. It may be recognized, or the candidate position having the highest priority set by each selection method may be selected and recognized as the position of the indicator D.

そして、求められる候補位置が2つである場合(STEP608、YES)、指示体Dの位置として選択した候補位置ではない方の候補位置を、影Sの位置として認識する(STEP609)。そして、STEP6の動作を終了する。   If two candidate positions are obtained (YES in STEP 608), the candidate position that is not the candidate position selected as the position of the indicator D is recognized as the position of the shadow S (STEP 609). Then, the operation of STEP 6 is terminated.

これに対して、求められる候補位置が2つではない場合(STEP608、NO)、上述のように、指示体Dの位置として選択した候補位置の対角に位置する候補位置を、影Sの位置として認識する(STEP610)。そして、STEP6の動作を終了する。なお、影Sの位置が求められない場合や、影Sの位置を認識する必要がなければ、STEP607で指示体Dの位置を認識するのみで、影Sの位置を認識しなくても構わない。   On the other hand, when the number of candidate positions to be obtained is not two (STEP 608, NO), as described above, the candidate position located at the diagonal of the candidate position selected as the position of the indicator D is the position of the shadow S. (STEP 610). Then, the operation of STEP 6 is terminated. If the position of the shadow S cannot be obtained or if it is not necessary to recognize the position of the shadow S, only the position of the indicator D is recognized in STEP 607 and the position of the shadow S may not be recognized. .

図10に示すように、指示体位置算出部14が、上述のSTEP6の動作を行うと、次に、STEP6で認識した指示体Dの位置を用いて上述のように指示体Dの座標(x1,y1)を算出することで、表示領域21の表面上における指示体Dの位置を検出する(STEP7)。そして、指示体位置算出部14は、算出した指示体Dの位置を指示体位置情報として、表示装置20に出力する。 As shown in FIG. 10, when the indicator position calculation unit 14 performs the operation of STEP 6 described above, the coordinates (x of the indicator D as described above are then used using the position of the indicator D recognized in STEP 6. 1 , y 1 ) is calculated to detect the position of the indicator D on the surface of the display area 21 (STEP 7). Then, the indicator position calculation unit 14 outputs the calculated position of the indicator D to the display device 20 as indicator position information.

ここで、位置検出装置10の動作を終了する場合は(STEP8、YES)、動作を終了する。一方、終了せずに動作を継続する場合は(STEP8、NO)、STEP1L及びSTEP1Rに戻り、左側差分画像及び右側差分画像の算出を行う。   Here, when the operation of the position detection device 10 is to be ended (STEP 8, YES), the operation is ended. On the other hand, when the operation is continued without ending (STEP 8, NO), the process returns to STEP 1L and STEP 1R to calculate the left side difference image and the right side difference image.

以上のように構成すると、状況に応じて精度良く指示体Dの位置を認識することで、表示領域21の表面上における指示体Dの位置を検出することが可能となる。特に、屋外などの状況下でも、精度良く指示体の位置を検出することが可能となる。   If comprised as mentioned above, it will become possible to detect the position of the indicator D on the surface of the display area 21 by recognizing the position of the indicator D accurately according to the situation. In particular, the position of the indicator can be detected with high accuracy even under outdoor conditions.

なお、図14では、候補位置の選択方法の第1例〜第3例を順に行うことで、指示体Dに対応する候補位置を選択する動作例について示しているが、一部または全部の候補位置に対してそれぞれの選択方法を適用することで上述の優先度を設定し、当該優先度が最終的に最も大きくなる候補位置を、指示体Dの位置として選択しても構わない。   FIG. 14 shows an operation example in which candidate positions corresponding to the indicator D are selected by sequentially performing the first to third examples of the candidate position selection method, but some or all of the candidates are selected. The above-described priority may be set by applying each selection method to the position, and the candidate position where the priority finally becomes the largest may be selected as the position of the indicator D.

また、図3及び図4に示した角度α及び角度βの定義や、左側撮像部11L及び右側撮像部11Rによる画像の撮像方法(例えば、使用するレンズなど)は一例に過ぎず、表示領域21の表面上の指示体Dの位置が検出可能である限り、他のどのような定義及び撮像方法を適用しても構わない。例えば、表示領域21の端辺が湾曲する画像が撮像される撮像方法を適用しても構わない。   Further, the definition of the angle α and the angle β shown in FIGS. 3 and 4 and the image capturing method (for example, a lens to be used) by the left imaging unit 11L and the right imaging unit 11R are merely examples, and the display area 21 Any other definition and imaging method may be applied as long as the position of the indicator D on the surface can be detected. For example, an imaging method in which an image in which the edge of the display area 21 is curved may be applied.

また、左側画像処理部12L及び右側画像処理部12Rが、左側画像及び右側画像の一部の範囲(処理範囲、検出範囲)に対して処理を行うこととして説明したが、左側撮像部11L及び右側撮像部11Rが、当該範囲の画像のみが生成される撮像を行うものとしても構わない。   Further, the left image processing unit 12L and the right image processing unit 12R have been described as performing processing on a partial range (processing range, detection range) of the left image and the right image. The imaging unit 11R may perform imaging in which only an image in the range is generated.

また、左側撮像部11L及び右側撮像部11Rの2つの撮像部を備える構成について例示したが、3つ以上の撮像部を備える構成としても構わない。画像処理部や背景画像記憶部についても同様である。   Moreover, although illustrated about the structure provided with two imaging parts, 11L of left side imaging parts, and 11R of right side imaging parts, it is good also as a structure provided with three or more imaging parts. The same applies to the image processing unit and the background image storage unit.

また、左側画像処理部12L及び右側画像処理部12R、左側背景画像記憶部13L及び右側背景画像記憶部13Rを、図2に示すブロック図上で別体として表示したが、ハードウェア上では一体であっても構わない。   Further, the left image processing unit 12L, the right image processing unit 12R, the left background image storage unit 13L, and the right background image storage unit 13R are displayed as separate bodies on the block diagram shown in FIG. It does not matter.

また、左側画像処理部12Lが左側画像と左側背景画像とから左側差分画像を算出し、右側画像処理部12Rが右側画像と右側背景画像とから右側差分画像を算出することで、左側画像及び右側画像のそれぞれから被認識体を認識する方法について例示したが、被認識体の認識方法はこの限りではない。例えば、連続的な撮像により生成される少なくとも2つの左側画像を比較(例えば、上述のような差分画像を算出)し、同様に少なくとも2つの右側画像を比較することで、被認識体を認識しても構わない。また、左側画像及び右側画像の信号値に基づいて、直接的に(左側差分画像及び右側差分画像を生成せずに)被認識体を認識しても構わない。   Further, the left image processing unit 12L calculates a left difference image from the left image and the left background image, and the right image processing unit 12R calculates a right difference image from the right image and the right background image, whereby the left image and the right side image are calculated. Although the method for recognizing the recognition object from each of the images has been illustrated, the recognition method for the recognition object is not limited to this. For example, at least two left images generated by continuous imaging are compared (for example, the difference image as described above is calculated), and similarly, at least two right images are compared, thereby recognizing the recognition target. It doesn't matter. Further, the recognition target may be recognized directly (without generating the left difference image and the right difference image) based on the signal values of the left image and the right image.

また、図11のSTEP1L4の処理範囲Aの設定を、左側画像及び右側画像の少なくとも一方に対して行った場合や、STEP1L8の背景画像の更新を、左側背景画像及び右側背景画像の少なくとも一方に対して行った場合、STEP1L1に戻り、左側撮像部11Lが新たに撮像した左側画像を左側画像処理部12Lが取得し直し、右側撮像部11Rが新たに撮像した右側画像を右側画像処理部12Rが取得し直しても構わない。また、左側画像処理部12L及び右側画像処理部12Rの一方が、STEP1L4の処理範囲Aの設定や、STEP1L8の左側背景画像または右側背景画像の更新を行う場合、他方も同様の動作を行うこととしても構わない。   In addition, when the processing range A of STEP1L4 in FIG. 11 is set for at least one of the left image and the right image, or the background image of STEP1L8 is updated for at least one of the left background image and the right background image. The left image processing unit 12L reacquires the left image newly captured by the left imaging unit 11L, and the right image processing unit 12R acquires the right image newly captured by the right imaging unit 11R. You can do it again. Further, when one of the left image processing unit 12L and the right image processing unit 12R sets the processing range A of STEP1L4 or updates the left background image or the right background image of STEP1L8, the other performs the same operation. It doesn't matter.

また、枠体22を備えないこととしても構わないが、表示領域21の表面上における撮像環境の変動の抑制や、左側画像及び右側画像の中から精度良く指示体を認識する観点から、枠体22を備える構成とすると好ましい。また、枠体22は、表示領域21の周囲であればどの位置に設けても構わないし、どのような色としても構わない。ただし、光の反射が少ない色(例えば、黒色または灰色)や、指示体Dと反対の色(即ち補色であり、例えば、左側画像及び右側画像において枠体22及び指示体Dのそれぞれを表示する画素のRGB、YUV、HSBなどの信号値の差分値が大きくなる色)とすると、より指示体が認識され易くなるため、好ましい。また、枠体22の色を光の反射が少ない色(例えば、黒色または灰色)にすると、撮像環境の変動をさらに抑制することが可能となるため、好ましい。   The frame body 22 may be omitted. However, from the viewpoint of suppressing the fluctuation of the imaging environment on the surface of the display area 21 and recognizing the indicator accurately from the left image and the right image, the frame body. A configuration including 22 is preferable. Further, the frame body 22 may be provided at any position as long as it is around the display area 21, and may have any color. However, a color with little light reflection (for example, black or gray) or a color opposite to the indicator D (that is, a complementary color, for example, the frame 22 and the indicator D are displayed in the left image and the right image, respectively. It is preferable to use a color in which a difference value of signal values such as RGB, YUV, and HSB of the pixel is large, because the indicator is more easily recognized. In addition, it is preferable to change the color of the frame body 22 to a color with little light reflection (for example, black or gray), because it is possible to further suppress fluctuations in the imaging environment.

<変形例>
上述の位置検出装置10は、指示体と外乱(例えば、影)とを区別して、それぞれの位置を認識することができる。そのため、検出面上の複数の指示体(例えば、2本の指)の位置を検出し得うる位置検出装置に、上述の位置検出装置10の指示体の検出方法を適用することで、精度良く複数の指示体の位置を検出することが可能になる。
<Modification>
The position detection apparatus 10 described above can recognize the position by distinguishing the indicator and the disturbance (for example, a shadow). For this reason, by applying the indicator detection method of the position detection device 10 described above to a position detection device that can detect the positions of a plurality of indicators (for example, two fingers) on the detection surface, the accuracy can be improved. It becomes possible to detect the positions of a plurality of indicators.

本発明の実施の形態における位置検出装置10について、一部または全部の動作を、マイコンなどの制御装置が行うこととしても構わない。さらに、このような制御装置によって実現される機能の全部または一部をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしても構わない。   The position detection device 10 according to the embodiment of the present invention may be partially or wholly operated by a control device such as a microcomputer. Further, all or part of the functions realized by such a control device is described as a program, and the program is executed on a program execution device (for example, a computer) to realize all or part of the functions. It doesn't matter if you do.

また、上述した場合に限らず、図1に示すタッチパネル1や、図2に示す位置検出装置10は、ハードウェア、または、ハードウェアとソフトウェアの組み合わせによって実現可能である。また、ソフトウェアを用いてタッチパネル1や位置検出装置10の一部を構成する場合、ソフトウェアによって実現される部位についてのブロックは、その部位の機能ブロックを表すこととする。   In addition to the above-described case, the touch panel 1 shown in FIG. 1 and the position detection device 10 shown in FIG. 2 can be realized by hardware or a combination of hardware and software. Moreover, when comprising a part of touch panel 1 or the position detection apparatus 10 using software, the block about the site | part implement | achieved by software shall represent the functional block of the site | part.

以上、本発明における実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実行することができる。   As mentioned above, although embodiment in this invention was described, the range of this invention is not limited to this, It can add and implement various changes in the range which does not deviate from the main point of invention.

本発明は、検出面上の指示体の位置を検出する位置検出装置や、当該位置検出装置を備えたタッチパネルに利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for a position detection device that detects the position of an indicator on a detection surface and a touch panel that includes the position detection device.

1 タッチパネル
10 位置検出装置
11L 左側撮像部
11R 右側撮像部
12L 左側画像処理部
12R 右側画像処理部
13L 左側背景画像記憶部
13R 右側背景画像記憶部
14 指示体位置算出部
20 表示装置
21 表示領域
22 枠体
D 指示体
S 影
DESCRIPTION OF SYMBOLS 1 Touch panel 10 Position detection apparatus 11L Left side imaging part 11R Right side imaging part 12L Left side image processing part 12R Right side image processing part 13L Left side background image memory | storage part 13R Right side background image memory | storage part 14 Pointer position calculation part 20 Display apparatus 21 Display area 22 Frame Body D Indicator S Shadow

Claims (6)

検出面上の指示体の位置を検出する位置検出装置であって、
異なる場所から前記検出面上を撮像して画像を生成する2つ以上の撮像部と、
前記撮像部の撮像により生成される画像中から前記指示体を認識することで、前記検出面上の前記指示体の位置を検出する位置検出部と、を備え、
少なくとも1つの前記撮像部の撮像により生成される画像中から、前記指示体を含む複数の被認識体が認識され、前記検出面上の前記指示体の位置を含む複数の候補位置が求められ得るとき、
前記位置検出部が、当該複数の候補位置の位置関係に基づいて、前記検出面上の前記指示体の位置を検出することを特徴とする位置検出装置。
A position detection device for detecting the position of an indicator on a detection surface,
Two or more imaging units that generate images by imaging the detection surface from different locations;
A position detection unit that detects the position of the indicator on the detection surface by recognizing the indicator from an image generated by imaging of the imaging unit;
A plurality of recognized objects including the indicator can be recognized from among images generated by imaging of the at least one imaging unit, and a plurality of candidate positions including the position of the indicator on the detection surface can be obtained. When
The position detection unit detects a position of the indicator on the detection surface based on a positional relationship between the plurality of candidate positions.
前記撮像部の撮像により生成される画像から前記位置検出部が認識する被認識体に、前記指示体と、当該指示体の影と、が含まれ得ることを特徴とする請求項1に記載の位置検出装置。   The recognized object recognized by the position detection unit from an image generated by imaging of the imaging unit can include the indicator and a shadow of the indicator. Position detection device. 前記撮像部が、前記検出面の一つの端辺側に配置され、
前記位置検出部が、前記検出面の当該端辺側の候補位置を優先的に選択して、前記検出面上の前記指示体の位置とすることを特徴とする請求項1または請求項2に記載の位置検出装置。
The imaging unit is disposed on one end side of the detection surface,
The position detection unit preferentially selects a candidate position on the edge side of the detection surface and sets it as the position of the indicator on the detection surface. The position detection device described.
前記位置検出部が、
前記検出面の範囲外に位置する候補位置と、
前記撮像部の撮像により得られるそれぞれの画像中で、当該候補位置を求めるための被認識体とはそれぞれ異なる被認識体により求められる候補位置と、
を除いた他の候補位置を優先的に選択して、前記検出面上の前記指示体の位置とすることを特徴とする請求項1〜請求項3のいずれかに記載の位置検出装置。
The position detection unit is
Candidate positions located outside the range of the detection surface;
In each image obtained by imaging by the imaging unit, a candidate position obtained by a recognized object different from a recognized object for obtaining the candidate position;
4. The position detection device according to claim 1, wherein other candidate positions excluding the first position are preferentially selected and set as the position of the indicator on the detection surface. 5.
前記位置検出部が、画像の信号値のばらつきが大きい被認識体から求められる候補位置を優先的に選択して、前記検出面上の前記指示体の位置とすることを特徴とする請求項1〜請求項4のいずれかに記載の位置検出装置。   2. The position detection unit preferentially selects a candidate position obtained from a recognition object having a large variation in image signal values, and sets the position as the position of the indicator on the detection surface. The position detection device according to claim 4. 表示領域に画像を表示する表示装置と、
前記表示領域を検出面とする請求項1〜請求項5のいずれかに記載の位置検出装置と、
を備えることを特徴とするタッチパネル。
A display device for displaying an image in a display area;
The position detection device according to any one of claims 1 to 5, wherein the display area is a detection surface;
A touch panel comprising:
JP2010139234A 2010-06-18 2010-06-18 Position detector and touch panel Pending JP2012003583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010139234A JP2012003583A (en) 2010-06-18 2010-06-18 Position detector and touch panel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010139234A JP2012003583A (en) 2010-06-18 2010-06-18 Position detector and touch panel

Publications (1)

Publication Number Publication Date
JP2012003583A true JP2012003583A (en) 2012-01-05

Family

ID=45535473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010139234A Pending JP2012003583A (en) 2010-06-18 2010-06-18 Position detector and touch panel

Country Status (1)

Country Link
JP (1) JP2012003583A (en)

Similar Documents

Publication Publication Date Title
US9939909B2 (en) Gesture manipulation device and method, program, and recording medium
JP4927021B2 (en) Cursor control device and control method for image display device, and image system
TWI454993B (en) Imaging device based touch system
US9535538B2 (en) System, information processing apparatus, and information processing method
CN106558027B (en) Method for estimating deviation error in camera pose
US20100060597A1 (en) Method and apparatus for displaying and selecting icons on a touch screen
JP2010055510A (en) Information processor and information processing method
TWI396121B (en) Touch control apparatus and touch point detection method
JP6052293B2 (en) Image processing apparatus, image processing program, and image processing method
US8659577B2 (en) Touch system and pointer coordinate detection method therefor
TWI441060B (en) Image processing method for optical touch system
KR20140056790A (en) Apparatus for image recognition and method thereof
US20130141393A1 (en) Frameless optical touch device and image processing method for frameless optical touch device
JP2011118533A (en) Device and method for inputting touch position
US20130088425A1 (en) Apparatus and method of detecting an input position with display pattern recognition
JP2016018458A (en) Information processing system, control method therefore, program, and storage medium
US20120249481A1 (en) Optical coordinate input device and coordinate calculation method thereof
JP2014215645A (en) Image processing device, image processing method and image processing program
JP5244084B2 (en) Display control system and display control method
JP2010286995A (en) Image processing system for vehicle
US10379677B2 (en) Optical touch device and operation method thereof
EP2975503A2 (en) Touch device and corresponding touch method
JP2012003583A (en) Position detector and touch panel
US9535535B2 (en) Touch point sensing method and optical touch system
TWI462033B (en) Touch system and method of making a drawing thereon