JPH08212005A - Three-dimensional position recognition type touch panel device - Google Patents

Three-dimensional position recognition type touch panel device

Info

Publication number
JPH08212005A
JPH08212005A JP1896295A JP1896295A JPH08212005A JP H08212005 A JPH08212005 A JP H08212005A JP 1896295 A JP1896295 A JP 1896295A JP 1896295 A JP1896295 A JP 1896295A JP H08212005 A JPH08212005 A JP H08212005A
Authority
JP
Japan
Prior art keywords
object
position
input
touch panel
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1896295A
Other languages
Japanese (ja)
Inventor
Susumu Tanabe
Masakazu Tanimizu
晋 田辺
正和 谷水
Original Assignee
Hitachi Chubu Software Ltd
Hitachi Ltd
日立中部ソフトウェア株式会社
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Chubu Software Ltd, Hitachi Ltd, 日立中部ソフトウェア株式会社, 株式会社日立製作所 filed Critical Hitachi Chubu Software Ltd
Priority to JP1896295A priority Critical patent/JPH08212005A/en
Publication of JPH08212005A publication Critical patent/JPH08212005A/en
Application status is Pending legal-status Critical

Links

Abstract

PURPOSE: To execute input operation without directly touching the surface of a display with a finger or the like and to do plural times of enlarging operation through one input.
CONSTITUTION: This touch panel device provided with plural sensors 2 arranged on the vertical direction to the periphery of a display face 1 and capable of detecting the position of an object 3 inserted into space, a calculating means for calculating the position on the display face 1 indicated by the object 3 based upon detection results by the plural sensors 2 and a display means for displaying an indication point 4 expressing the indication of the position on the display face 1 by the object 3, defines an input when the sensor 2 closest to the display face 1 senses the object 3 inserted into the space or the point 4 exists in a prescribed coordinate section expressing an input area for fixed time. The position of the tip of the detected object 3 is made to correspond to an enlargement ratio.
COPYRIGHT: (C)1996,JPO

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【産業上の利用分野】本発明は、タッチパネル装置に関し、特に、指などの物体の3次元的な位置を認識することによりディスプレイ面に直接タッチしなくても入力を行うことができ、かつその位置(深度)により異なる機能を行わせることを可能にした3次元位置認識タッチパネル装置に関する。 BACKGROUND OF THE INVENTION This invention relates to a touch panel device, in particular, without touching the display surface directly can be input by recognizing a three-dimensional position of an object such as a finger, and that position relates to three-dimensional position recognition touch panel device that allows to perform different functions by (depth).

【0002】 [0002]

【従来の技術】従来のタッチパネル装置における入力は、ディスプレイ面にタッチすることにより行われる。 Input in Conventional touch panel device is performed by touching the display surface.
例えば、特開平4−303229号公報「タッチパネル装置」に開示されているように、位置検出部によって利用者がディスプレイ面にタッチしたことを検出し、該検出されたディスプレイ面上の位置に「+」などの位置表示記号を表示して利用者にタッチした位置を確認させることによって誤操作を防止するようにした方法が知られている。 For example, as disclosed in Japanese Patent Laid-Open No. 4-303229 "touch panel device", it detects that the user by the position detection unit touches the display surface, to the position on the detected display surface "+ there is known a method which is adapted to prevent an erroneous operation by confirmed touch position to the user by displaying the position display symbols such as ".

【0003】 [0003]

【発明が解決しようとする課題】上記従来の方法では、 [SUMMARY OF THE INVENTION] In the above conventional method,
タッチパネル装置を利用して業務上の取引等を行う場合、ディスプレイ面にタッチすることにより入力作業を行うようにしているため、例えば、潔癖性の利用者も何等かの手段を用いて必ずディスプレイ面にタッチしなければならないという問題があった。 If using the touch panel device performs transactions in business, since to perform the input operation by touching the display surface, for example, always display surface with some kind of means is also fastidious for the user there is a problem that must be touched to. また、上述したような従来のタッチパネル装置では、ディスプレイ面への1 Further, in the conventional touch panel device as described above, 1 to the display surface
回のタッチが1回の入力に相当するために、情報提供、 For times touches corresponds to the input of one, provide information,
例えば地理情報等を提供する際、利用者が目的とする地域を限定するまでに複数回の拡大機能の入力を必要としていた。 For example, in providing geographic information, etc., the user has required the input of multiple times of enlargement function before to limit the area of ​​interest. 本発明の目的は、ディスプレイ面上の入力エリアに直接指などを触れることなく入力作業が行えるようにして、利用者がクリーンなイメージで作業を行えるタッチパネル装置を提供することにある。 An object of the present invention, as can be performed input operation without touching the like directly finger in the input area on the display surface, the user is to provide a touch panel device capable of performing work in a clean image. また、指などの物体の3次元的な位置を認識させてその位置情報に依存して機能を異ならせることにより拡大操作の回数を少なくすることができるタッチパネル装置を提供することにある。 Another object is to provide a touch panel device capable of reducing the number of expansion operation by varying the functions depending on their position information to recognize the three-dimensional position of an object such as a finger.

【0004】 [0004]

【課題を解決するための手段】本発明のタッチパネル装置は、上記目的を達成するために、ディスプレイ面(1)に対し垂直方向に空間的厚みを持たせ、その上面および下面を除く側面に設けられ、空間内に挿入された物体の位置を検出する複数のセンサ(2)と、該複数のセンサ(2)による検出結果に基づいて物体が指し示すディスプレイ面(1)上の位置を計算する計算手段と、 The touch panel device of the present invention, in order to solve the problems] In order to achieve the above object, to have a spatial thickness in a direction perpendicular to the display surface (1), provided on the side surface except for the upper and lower surfaces is, calculation for calculating a plurality of sensors for detecting the position of an object that is inserted into the space (2), the position on the display surface of the object pointed (1) on the basis of the detection result of the plurality of sensors (2) and means,
該計算手段によって得られたディスプレイ面(1)上の位置に物体が指し示していることを表わす指示ポイント(4)を表示する表示手段とを有することを特徴としている。 It is characterized by having a display unit that displays an instruction point (4) representing the the pointing the object at the position of the display surface (1) on which is obtained by said calculating means. また、複数のセンサ(2)のうち、ディスプレイ面(1)に最も近いセンサ(6)が空間内に挿入された物体(3)を感知した場合またはディスプレイ面(1) Further, among the plurality of sensors (2), or if the display surface closest sensor to the display surface (1) (6) senses an object (3) which is inserted into the space (1)
に表示されている指示ポイント(4)が入力エリアを表わす所定座標区域内に一定時間存在したと判断された場合に入力を確定するようにしたことを特徴としている。 Displayed by being instructed points (4) it is characterized in that so as to confirm the entry when it is determined that there a certain time in a predetermined coordinate area representing the input area.
さらに、複数のセンサ(2)の出力によって空間内に挿入された物体(3)の先端とディスプレイ面(1)との距離を判定し、その距離に依存して画像の拡大率を変化させるようにしたことを特徴としている。 Furthermore, to determine the distance between the tip and the display surface of the object (3) which is inserted into the space (1) by the output of a plurality of sensors (2), so as to vary the magnification of the image depending on the distance It is characterized in the thing.

【0005】 [0005]

【作用】本発明は、ディスプレイ面の周囲に設けた複数のセンサが空間内に挿入された物体の位置を検出し、その結果からディスプレイ面のどの位置を指しているかを認識し、指示ポイントとしてディスプレイ面上に表示する。 DETAILED DESCRIPTION OF THE INVENTION The present invention, a plurality of sensors disposed around the display surface detects the position of an object that is inserted into the space, to recognize whether the pointing to any position on the display surface from the result as an indication point It is displayed on the display surface. そして、最深部のセンサがその物体を感知した場合、もしくはディスプレイ面上の該指示ポイントが入力エリア上を表わす座標内に一定時間存在した場合に入力確定と判断することによって直接ディスプレイ面に触れる必要がなくなった。 The need to touch directly the display surface by the sensor of deepest to determine the input confirmation that case when an object is sensed, and that or the instruction points on the display surface exists a certain time in a coordinate representing the upper input area It is gone. また、従来のタッチパネル装置では、上述したように、例えば、地図などの地理情報を提供する際、利用者が目的とする地域を限定するまでに数回の選択入力を必要としていたが、本構成では、例えば、複数のセンサを格子状に配置することによって空間内に存在する物体の位置を多段階に感知することが可能となり、指示ポイントを中心とした一定エリア内の画像を拡大、または詳細に表示することができるため弱視者の方に対し親切な設計が可能になるとともに、空間内に挿入する物体の深さに応じて画像を拡大率を変えて表示できるため、簡単な操作により迅速に目的とする地理情報を提供することが可能になる。 Further, in the conventional touch panel device, as described above, for example, in providing geographic information such as maps, but users have required several selection input before limiting the area of ​​interest, the present arrangement in, for example, it is possible to sense the position of an object present in a space by arranging a plurality of sensors in a grid in multiple stages, to enlarge in a certain area centered instruction points, or details in conjunction becomes possible friendly design to low vision who it is possible to display, which allows viewing by changing the magnification of the image according to the depth of the object to be inserted into the space, fast by a simple operation it is possible to provide geographic information for the purpose to.

【0006】 [0006]

【実施例】図1は、本発明による3次元位置認識型タッチパネル装置の一実施例を説明するための斜視図である。 DETAILED DESCRIPTION FIG. 1 is a perspective view for explaining an embodiment of a 3-dimensional position recognition touch panel device according to the present invention. 本装置は、画像情報を表示するディスプレイ面1、 The apparatus has a display surface 1 for displaying image information,
該ディスプレイ面1に対し垂直方向に空間的厚みを持たせ、その上面および下面を除く側面に格子状に設けた複数のセンサ2を有する。 To have a spatial thickness in the direction perpendicular to the display surface 1 has a plurality of sensors 2 provided in a lattice shape on the side surface except for the upper and lower surfaces. 同図において、4はディスプレイ面1上の空間内に挿入された指などの物体3(以下、 In the figure, 4 is the object 3 such as a finger inserted in the space on the display surface 1 (hereinafter,
単に「物体」と略すことがある)がディスプレイ面1のどの位置を指し示しているのかを表わす指示ポイントである。 Simply be abbreviated to "object") is an instruction point representing whether pointing the position of the display surface 1 throat. 物体の位置情報から指示ポインタ4を求める方法は後述するように幾つかの方法がある。 The method of obtaining the instruction pointer 4 from the position information of the object there are several ways as described below. 図2は、本発明におけるシステム構成図を示す。 Figure 2 shows a system configuration diagram of the present invention. 本装置は、空間内に挿入された物体の位置を検出するために格子状に設けた複数のセンサ群からなる位置検出部8、位置検出部8から送られてきたデータを3次元の座標に変換し、その物体3の位置とディスプレイ面1に対して指し示す方向を計算および指し示している時間を測定することにより、入力されたか否かを判断するとともに、各装置の制御を行う制御部9、および表示部10からなる。 The apparatus includes a position detection unit 8 comprising a plurality of sensors provided in a grid pattern in order to detect the position of an object that is inserted into the space, the data sent from the position detecting unit 8 to the three-dimensional coordinates conversion, by measuring the calculations and pointing the times the pointing direction with respect to the position and the display surface 1 of the object 3, as well as judges whether or not the input, the control unit 9 for controlling the respective devices, and it consists of a display unit 10. 位置検出部8 Position detection unit 8
は、複数のセンサ2により空間内に挿入された物体3の位置を検出する。 Detects the position of the object 3 inserted into the space by a plurality of sensors 2. 制御部9は、位置検出部8によって検出したデータを受け取り、格子状に配列したセンサ群を3次元の座標に対応させた座標変換テーブルを用いて3 Control unit 9 receives the data detected by the position detecting unit 8, using the coordinate transformation table that associates a group of sensors arranged in a grid in a three-dimensional coordinate 3
次元の座標データ群に変換する。 Converting the coordinate data group of dimensions. その結果をもとにして数学的な方法で座標データ群を直線近似することにより、その直線とディスプレイ面1が交差する点を算出する等といった位置算出手段により表示位置を求め、その位置に指示ポイント4を表示する。 By the result linear approximation coordinate data group in a mathematical method based on, obtains the display position by the position calculating means such equal to the straight line and the display surface 1 is calculated point of intersection, indicated in its position to display the point 4. 指示ポイント4の位置算出手段の他の一例としては、位置検出部8にて得られた物体3の先端からディスプレイ面1に対して垂線を引き、その垂線とディスプレイ面1が重なる点に指示ポイント4を表示する等、いくつかの方法が考えられる。 As another example of the position calculation section indicated point 4, instruction points from the tip of the object 3 obtained by the position detecting unit 8 a vertical line with respect to the display surface 1, in that the perpendicular line and the display surface 1 overlaps etc. that 4 to display, in several ways be considered.
このような複数の方法を本装置内に用意しておき、それらを利用者が自由に選択するようにしてもよい。 Such multiple ways are prepared within the apparatus, they user may select freely.

【0007】図3は、位置検出部8の中の最深部のセンサ6が空間内の物体3を感知した時、入力を確定する入力方式を説明するための斜視図である。 [0007] Figure 3, when the sensor 6 in the deepest portion of inside of the position detection unit 8 detects the object 3 in the space, is a perspective view for explaining an input method to confirm the entry. 同図において、 In the figure,
5は入力エリア、6はディスプレイ面1上の周囲に設けられた最深部のセンサを示している。 5 input area, 6 denotes a sensor deepest portion provided around on the display surface 1. 入力の確定は、制御部9が空間内に挿入された物体3の先端が入力エリア5を示す座標上に存在することを認知し、かつ最深部のセンサ6が物体3を感知したとき入力確定と判断する。 Determination of inputs, input confirmation when the control unit 9 recognizes that present on coordinates of the distal input area 5 of the object 3 inserted into the space, and the sensor 6 of the deepest portion senses the object 3 it is determined that the.
図4は、画像が標準状態で表示されており、かつ非接触手法によって入力を行う方式を説明するための斜視図であり、図5は、画像を拡大表示し、かつ非接触手法によって入力を行う方式を説明するための斜視図である。 4, the image is a perspective view for explaining a method of performing input by the displayed and, and non-contact techniques in the standard state, FIG. 5 is an enlarged view of the image, and an input by a non-contact technique is a perspective view for explaining a method of performing. 図4において、7は位置検出部8の中の最浅部のセンサを示している。 4, 7 denotes a sensor shallowest portion in the position detecting unit 8. 入力モードとして拡大モードおよび通常モード(非拡大モード)を設けておき、ボタンや表示メニューなどの周知の方法によって入力モードの切替を可能にしておくことができる。 Larger as the input mode and normal modes advance the (non-enlargement mode) provided, it can be kept to allow switching of the input mode by well-known methods, such as buttons and display menus. 入力は、入力モードが拡大モードか通常モードであるかに関らず、ディスプレイ面に最も近いセンサが空間内に挿入された物体を感知した場合、または指示ポイント4が入力エリア座標内に存在し、かつ一定時間その位置を示す座標が変化しない場合に入力エリア5に対する入力を確定する。 Input, regardless of whether the input mode is the enlargement mode or the normal mode, if the closest sensor senses an object that is inserted into the space on the display surface, or instruction point 4 is present in the input area coordinates and determining the input to the input area 5 when coordinates indicating the predetermined time its position is not changed.

【0008】さらに、拡大モード選択時における拡大表示は、制御部9が位置検出部8の最浅部のセンサ7を基準とし、物体3を感知している位置検出部8におけるセンサ2の深さに応じて指示ポイント4を中心とした一定エリア内の画像を拡大表示する。 Furthermore, enlarged display during enlargement mode is selected, the control unit 9 with respect to the sensor 7 of the shallowest portion of the position detecting portion 8, of the sensor 2 in the position detecting portion 8 which detects the object 3 depth image of a constant area around the instruction point 4 to enlarge in response to. センサの深さに対する倍率は、あらかじめ標準的な倍率を、例えば、倍率テーブルとして設定しておく。 Ratio to the depth of the sensor, the pre-standard magnification, for example, is set as a ratio table. なお、この倍率テーブルは、 It should be noted that this magnification table,
ユーザによって変更可能なようにしておいてもよい。 It may have been to so that it can be changed by the user. 本構成により、物体3を感知している位置検出部8におけるセンサ2が最深部のセンサ6に近づくに従い指示ポイントを中心とした一定エリア内の画像を順次拡大表示し、逆に物体3を感知している位置検出部8におけるセンサ2が最浅部のセンサ7に近づくに従い指示ポイントを中心とした一定エリア内の画像を順次標準の大きさの画像に戻して表示する、すなわち、表示の拡大倍率を物体(指など)を移動することにより自由に制御することができる。 With this configuration, sequentially enlarge the image in a predetermined area centered instruction points gets closer to the sensor 6 the sensor 2 of the deepest portion in the position detecting unit 8 which senses the object 3, sensing objects 3 in the opposite position sensor 2 in the detection unit 8 displays back to the image sequence standard size of the image in a certain area around the instruction point gets closer to the sensor 7 of the shallowest portion being, namely, enlargement of the display it can be freely controlled by moving the object magnification (such as a finger).

【0009】図6は、本発明における処理のフローチャートを示す図である。 [0009] Figure 6 is a diagram showing a flowchart of processing in the present invention. まず、位置検出部8の複数のセンサ2により空間内の状態を検出し(ステップ11)、センサ2が何も感知しない場合(ステップ12;NO)は、 First, to detect the state in the space by a plurality of sensors 2 of the position detecting section 8 (step 11), if the sensor 2 does not sense anything (step 12; NO), the
ステップ11に戻り再度空間内の状態の検出を行う。 Again to detect the state of the space returns to step 11. センサ2が空間内に存在する物体3を感知した場合(ステップ12;YES)は、そのデータを制御部9へ送信する(ステップ13)。 If the sensor 2 senses the object 3 existing in the space (step 12; YES) transmits the data to the control section 9 (step 13). 制御部9は位置検出部8から送信されてきたデータを座標変換テーブルにより連続した3次元の座標に変換し(ステップ14)、その座標データを指示ポイント4の位置算出手段により、空間内の物体3 The control unit 9 converts the three-dimensional coordinates sequentially by transmitted becoming coordinate transformation table data from the position detecting unit 8 (step 14), the position calculating means instructs point 4 the coordinate data, the object in space 3
が指し示すディスプレイ面1の位置を計算し、その位置に指示ポイント4を表示する(ステップ15)。 Calculates the position of the display surface 1 indicated by the displays instructions point 4 in that position (step 15). そして、現在拡大モードが選択されているか否かの識別を行う(ステップ16)。 Then, whether or not the identification current enlargement mode is selected (step 16). 拡大モードが選択されている場合(ステップ16;YES)は、位置検出部8が空間内に存在する物体3の位置を認識し、制御部9にて変換した座標データをもとにその物体3と最浅部のセンサ7との相対位置を比較し(ステップ17)、物体3の先端が最浅部のセンサ7に比べ深い位置にあると判断した場合(ステップ18;YES)は、指示ポイント4の位置を中心とした一定エリア内の画像を拡大表示し(ステップ1 If the enlargement mode is selected (step 16; YES), the position detecting unit 8 recognizes the position of the object 3 which exists in the space, the object 3 on the basis of the coordinate data converted by the control unit 9 and comparing the relative position between the sensor 7 of the shallowest portion (step 17), when the tip of the object 3 is determined to be in a deeper position than the sensor 7 of the shallowest portion (step 18; YES), the instruction point an image of a constant area around the position of the 4 larger image (step 1
9)、また、最浅部のセンサ7の位置にあると判断した場合(ステップ18;NO)は、拡大表示を行なわない(ステップ20)。 9) When it is determined that the position of the sensor 7 of the shallowest portion (step 18; NO) does not perform enlarged display (step 20).

【0010】次に入力を確定するための処理として、最深部のセンサ6が物体3を感知したか否かの判断を物体3の先端を表わす座標から行い(ステップ21)、感知している場合(ステップ21;YES)には入力確定と判断してステップ22に進む。 [0010] Then as a process for determining an input, performs the coordinate sensor 6 of the deepest portion represents the leading edge of the object 3 is determined whether the sensed object 3 (step 21), if sensed the process proceeds to step 22 it is determined that input confirmation in; (YES step 21). 最深部のセンサ6が物体を感知しなかった場合(ステップ21;NO)は、別の方法で入力を確定するために、ディスプレイ面1上に表示されている指示ポイント4が一定時間内、入力エリア5の座標内に存在するか否かを判定し、存在した場合(ステップ23;YES)には入力確定と判断してステップ22 If the sensor 6 of the deepest did not sense the object (step 21; NO), in order to confirm the entry in a different way, the instruction point 4 which is displayed on the display surface 1 is constant time, the input determines whether present within the coordinates of the area 5, if present; in (step 23 YES) it is determined that the input confirmation step 22
に進む。 Proceed to. しかし、指示ポイント4が入力エリア5を示す座標から外れ、一定時間内入力エリア5の座標内に存在しない場合(ステップ23;NO)は、制御部9による該一定時間をカウントするためのカウンタを停止し、ステップ11に戻り再度入力待ち状態となる。 However, off the coordinates indication point 4 indicates an input area 5 and is not present in the coordinates of a certain time in the input area 5 (step 23; NO), the counter for counting the predetermined time by the control unit 9 stop, an input waiting state again returns to step 11. 入力が確定と判断されたオペレーションについては、ステップ22において、その入力エリア5の持つ命令を実行するよう制御部9により外部に対して要求を出す。 Input for is determined that the determined operation, in step 22, issues a request to the outside by the control unit 9 to execute an instruction with the the input area 5. 以上説明したように、本発明によると、物体の3次元的位置を認識することにより、タッチパネル装置のディスプレイ面にタッチしなくても入力有および入力の種類(表示の拡大率) As described above, according to the present invention, by recognizing the three-dimensional position of the object, the type of entry has and input without touching the display surface of the touch panel device (enlargement of the display)
を確定することができる。 It is possible to determine the.

【0011】 [0011]

【発明の効果】本発明によれば、本装置への入力手段として、(a)最深部のセンサが物体の先端を感知した時点で入力を確定する方法と、(b)指示ポイントが入力エリアを示す座標内に一定時間存在したとき入力を確定する方法の2つの入力方法がある。 According to the present invention, as an input device for the apparatus, a method for determining an input when the (a) sensor deepest senses the leading edge of the object, (b) an instruction point input area there are two input methods on how to determine the input when there a certain time in a coordinate showing the. 従って、前者(a) Accordingly, the former (a)
の方法では、空間内に所定の状態にある物体を感知したときにそのことを意味する「指示ポイント」を表示して操作者に確認させることができるため、操作員の誤入力を防止することができる。 In the method, since it is possible to confirm on the display to the operator the "instruction point" which means that the when sensing an object in a predetermined state in the space, to prevent erroneous input of the operator can. 後者(b)の方法では、ディスプレイ面に対し非接触で入力を行うことができるため、利用者はクリーンなイメージで入力作業を行うことができる。 In the method of the latter (b), it is possible to perform an input in a non-contact to the display surface, the user can perform an input operation with a clean image. また、挿入する物体の位置によって拡大率を指定することができるため、例えば、地図情報のサービスを受ける際、利用者は、空間内に指などの物体を挿入しその深さを調整するだけで任意の拡大表示を行え、したがって、少ない選択入力だけで大まかな情報から詳細な情報までを迅速に求めることが可能になる。 Moreover, since it is possible to specify the magnification by the position of the object to be inserted, for example, when receiving a service map information, the user inserts an object such as a finger in the space simply by adjusting the depth can any enlarged display, therefore, it is possible to obtain the extra information from the rough information quickly with as few select input.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明による3次元位置認識型タッチパネル装置の一実施例を示す斜視図である。 1 is a perspective view showing an embodiment of a 3-dimensional position recognition touch panel device according to the present invention.

【図2】本発明におけるシステム構成を示す図である。 Is a diagram showing the system configuration in the present invention; FIG.

【図3】最深部のセンサが物体を感知したとき入力を確定する方法を説明するための斜視図である。 [Figure 3] sensor deepest is a perspective view for explaining a method for determining an input upon sensing an object.

【図4】拡大モード動作時における画面の標準画面表示および非接触による入力方法を説明するための斜視図である。 4 is a perspective view for explaining an input method according to screen standard screen display and non-contact during the expansion mode operation.

【図5】拡大モード動作時における画面の拡大方法および非接触による入力方法を説明するための斜視図である。 5 is a perspective view for explaining how to enter by expanding method and the non-contact of the screen during the expansion mode operation.

【図6】本発明における処理のフローチャートを示す図である。 6 is a diagram showing a flowchart of processing in the present invention.

【符号の簡単な説明】 BRIEF DESCRIPTION OF THE SYMBOLS

1:ディスプレイ面、2:センサ、3:物体(指など)、4:指示ポイント、5:入力エリア、6:最深部のセンサ、7:最浅部のセンサ、8:位置検出部、9: 1: display surface, 2: sensor, 3: an object (such as a finger), 4: instruction points, 5: input area, 6: deepest portion of the sensor, 7: sensor shallowest portion, 8: position detection unit, 9:
制御部、10:表示部 Control unit, 10: display unit

Claims (3)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 ディスプレイ面に対し垂直方向に空間的厚みを持たせ、その上面および下面を除く側面に設けられ、空間内に挿入された物体の位置を検出する複数のセンサと、その検出結果に基づいて上記物体が指し示すディスプレイ面上の位置を計算する計算手段と、該計算手段によって得られたディスプレイ面上の位置に上記物体が指し示していることを表わす指示ポイントを表示する表示手段とを有することを特徴とする3次元位置認識型タッチパネル装置。 1. A to have a spatial thickness in the direction perpendicular to the display surface, provided on a side surface except for the upper and lower surfaces, a plurality of sensors for detecting the position of an object that is inserted into the space, the detection result a calculating means for calculating a position on the display surface indicated by the above object based on, and display means that displays an instruction points representing the said object is pointing to a position on the obtained display plane by said calculating means 3-dimensional position recognition touch panel device, characterized in that it comprises.
  2. 【請求項2】 請求項1に記載の3次元位置認識型タッチパネル装置において、 上記複数のセンサのうち、ディスプレイ面に最も近いセンサが空間内に挿入された物体を感知した場合、もしくはディスプレイ面に表示されている指示ポイントが入力エリアを表わす所定座標区域内に一定時間存在したと判断された場合に入力を確定する入力確定手段をさらに有することを特徴とする3次元位置認識型タッチパネル装置。 2. A three-dimensional location aware touch panel device according to claim 1, among the plurality of sensors, if the sensor closest to the display surface is sensed objects inserted into the space, or the display surface 3-dimensional position recognition touch panel apparatus further comprising an input determination means for determining an input when it is determined that there a certain time in a predetermined coordinate area indicated points shown represent the input area.
  3. 【請求項3】 請求項1または2に記載の3次元位置認識型タッチパネル装置において、 上記複数のセンサの出力によって空間内に挿入された物体の先端とディスプレイ面との距離を判定し、その距離に依存して画像の拡大率を変化させる手段をさらに有することを特徴とする3次元位置認識型タッチパネル装置。 3. A 3-dimensional location aware touch panel device according to claim 1 or 2, to determine the distance between the tip and the display surface of the object that is inserted into the space by the output of said plurality of sensors, the distance 3-dimensional position recognition touch panel apparatus further comprising a means for changing the magnification of the dependent to images.
JP1896295A 1995-02-07 1995-02-07 Three-dimensional position recognition type touch panel device Pending JPH08212005A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1896295A JPH08212005A (en) 1995-02-07 1995-02-07 Three-dimensional position recognition type touch panel device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1896295A JPH08212005A (en) 1995-02-07 1995-02-07 Three-dimensional position recognition type touch panel device

Publications (1)

Publication Number Publication Date
JPH08212005A true JPH08212005A (en) 1996-08-20

Family

ID=11986282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1896295A Pending JPH08212005A (en) 1995-02-07 1995-02-07 Three-dimensional position recognition type touch panel device

Country Status (1)

Country Link
JP (1) JPH08212005A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282597A (en) * 1997-10-24 1999-10-15 Sony United Kingdom Ltd Data processor
US6072475A (en) * 1996-08-23 2000-06-06 Telefonaktiebolaget Lm Ericsson Touch screen
WO2006003591A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Discontinuous zoom
WO2006003590A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. A method and device for preventing staining of a display device
WO2006003586A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Zooming in 3-d touch interaction
JP2008520268A (en) * 2004-11-16 2008-06-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Touchless manipulation of the image for local enhancement
WO2009024112A2 (en) * 2007-08-22 2009-02-26 Navigon Ag Display device with image surface
CN101540794A (en) * 2008-03-21 2009-09-23 Lg电子株式会社 Mobile terminal and screen displaying method thereof
JP2009277194A (en) * 2008-04-18 2009-11-26 Panasonic Electric Works Co Ltd Display operation system
WO2011054549A1 (en) * 2009-11-04 2011-05-12 Tomtom International B.V. Electronic device having a proximity based touch screen
EP2431848A2 (en) 2010-09-16 2012-03-21 Nitto Denko Corporation Optical waveguide device and optical touch panel
US8310456B2 (en) 2008-03-21 2012-11-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
WO2013089048A1 (en) * 2011-12-16 2013-06-20 株式会社村田製作所 Touch operation input device
US8483768B2 (en) 2008-03-25 2013-07-09 Lg Electronics Inc. Mobile terminal and method of displaying information therein
JP2013171422A (en) * 2012-02-21 2013-09-02 Shimane Univ Three-dimensional underwater interactive device
CN103294383A (en) * 2012-03-05 2013-09-11 宇龙计算机通信科技(深圳)有限公司 Mobile terminal and application method of touch screen keyboard
JP2013190862A (en) * 2012-03-12 2013-09-26 Panasonic Corp Input device, input support method and program
KR101387218B1 (en) * 2008-02-29 2014-04-21 주식회사 케이티 Method of adjusting screen magnification ratio of mobile terminal using multi-touch input device and mobile terminal performing the same
US8963832B2 (en) 2010-03-05 2015-02-24 Lenovo Innovations Limited (Hong Kong) Mobile terminal
EP2853991A1 (en) * 2008-06-03 2015-04-01 Shimane Prefectural Government Image recognizing device, operation judging method, and program
JP2015130044A (en) * 2014-01-07 2015-07-16 コニカミノルタ株式会社 Input receiving device and image processing apparatus

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072475A (en) * 1996-08-23 2000-06-06 Telefonaktiebolaget Lm Ericsson Touch screen
JPH11282597A (en) * 1997-10-24 1999-10-15 Sony United Kingdom Ltd Data processor
US7786980B2 (en) * 2004-06-29 2010-08-31 Koninklijke Philips Electronics N.V. Method and device for preventing staining of a display device
WO2006003591A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Discontinuous zoom
WO2006003590A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. A method and device for preventing staining of a display device
WO2006003586A3 (en) * 2004-06-29 2006-03-23 Koninkl Philips Electronics Nv Zooming in 3-d touch interaction
WO2006003590A3 (en) * 2004-06-29 2006-05-18 Koninkl Philips Electronics Nv A method and device for preventing staining of a display device
WO2006003591A3 (en) * 2004-06-29 2006-07-13 Vincent P Buil Discontinuous zoom
JP2008505381A (en) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus to prevent contamination of the display device
JP2008505379A (en) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Touch-down feed-forward in the three-dimensional touch-type interaction
WO2006003586A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Zooming in 3-d touch interaction
KR101134027B1 (en) * 2004-06-29 2012-04-13 코닌클리케 필립스 일렉트로닉스 엔.브이. A method and device for preventing staining of a display device
US8473869B2 (en) 2004-11-16 2013-06-25 Koninklijke Philips Electronics N.V. Touchless manipulation of images for regional enhancement
JP2008520268A (en) * 2004-11-16 2008-06-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Touchless manipulation of the image for local enhancement
WO2009024112A2 (en) * 2007-08-22 2009-02-26 Navigon Ag Display device with image surface
WO2009024112A3 (en) * 2007-08-22 2009-04-30 Navigon Ag Display device with image surface
KR101387218B1 (en) * 2008-02-29 2014-04-21 주식회사 케이티 Method of adjusting screen magnification ratio of mobile terminal using multi-touch input device and mobile terminal performing the same
US9052808B2 (en) 2008-03-21 2015-06-09 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US9760204B2 (en) 2008-03-21 2017-09-12 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
CN101540794A (en) * 2008-03-21 2009-09-23 Lg电子株式会社 Mobile terminal and screen displaying method thereof
US8160652B2 (en) 2008-03-21 2012-04-17 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US8310456B2 (en) 2008-03-21 2012-11-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US8723811B2 (en) 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US8483768B2 (en) 2008-03-25 2013-07-09 Lg Electronics Inc. Mobile terminal and method of displaying information therein
JP2009277194A (en) * 2008-04-18 2009-11-26 Panasonic Electric Works Co Ltd Display operation system
EP2853991A1 (en) * 2008-06-03 2015-04-01 Shimane Prefectural Government Image recognizing device, operation judging method, and program
WO2011054549A1 (en) * 2009-11-04 2011-05-12 Tomtom International B.V. Electronic device having a proximity based touch screen
US8963832B2 (en) 2010-03-05 2015-02-24 Lenovo Innovations Limited (Hong Kong) Mobile terminal
JP2012063969A (en) * 2010-09-16 2012-03-29 Nitto Denko Corp Optical waveguide device and optical touch panel
EP2431848A2 (en) 2010-09-16 2012-03-21 Nitto Denko Corporation Optical waveguide device and optical touch panel
WO2013089048A1 (en) * 2011-12-16 2013-06-20 株式会社村田製作所 Touch operation input device
CN103988433A (en) * 2011-12-16 2014-08-13 株式会社村田制作所 Touch operation input device
JPWO2013089048A1 (en) * 2011-12-16 2015-04-27 株式会社村田製作所 Touch-type operation input device
JP2013171422A (en) * 2012-02-21 2013-09-02 Shimane Univ Three-dimensional underwater interactive device
CN103294383A (en) * 2012-03-05 2013-09-11 宇龙计算机通信科技(深圳)有限公司 Mobile terminal and application method of touch screen keyboard
JP2013190862A (en) * 2012-03-12 2013-09-26 Panasonic Corp Input device, input support method and program
US9891753B2 (en) 2012-03-12 2018-02-13 Panasonic Intellectual Property Corporation Of America Input device, input assistance method and program
JP2015130044A (en) * 2014-01-07 2015-07-16 コニカミノルタ株式会社 Input receiving device and image processing apparatus

Similar Documents

Publication Publication Date Title
JP5430782B2 (en) Display and input device and the in-vehicle information equipment
US7864161B2 (en) Use of a two finger input on touch screens
JP5777745B2 (en) Display input device and navigation system
JP5604739B2 (en) Image recognition apparatus and the operation determination method, and program
US8692792B2 (en) Bounding box gesture recognition on a touch detecting interactive display
US4908704A (en) Method and apparatus for obtaining an object image and distance data of a moving object
US8830189B2 (en) Device and method for monitoring the object's behavior
EP0856786B1 (en) Window Displaying apparatus and method
US20020149605A1 (en) System and method for manipulating an image on a screen
CN1054450C (en) Dynamic touchscreen button adjustment mechanism
EP0637795B1 (en) Gestural indicators for selecting graphic objects
JP3773716B2 (en) Recording medium storing a program for causing a process in the graphical user interface display device and a device in the computer
CN102257468B (en) Input device and method for adjusting a parameter of an electronic system
JP4820285B2 (en) Self-aligning touch system and method
US20040021663A1 (en) Information processing method for designating an arbitrary point within a three-dimensional space
US8466934B2 (en) Touchscreen interface
US7158123B2 (en) Secondary touch contextual sub-menu navigation for touch screen interface
USRE45411E1 (en) Method for entering commands and/or characters for a portable communication device equipped with a tilt sensor
CN101375235B (en) Information processing device
US20050088409A1 (en) Method of providing a display for a gui
EP0827064A2 (en) Selection device for touchscreen systems
US7573462B2 (en) Image display apparatus, multi display system, coordinate information output method, and program for implementing the method
CN100363880C (en) Operation input device and method of operation input
KR100941282B1 (en) Information processing device having detector capable of detecting coordinate values, as well as changes thereof, of a plurality of points on display screen
EP0795811A1 (en) Display system and method of moving a cursor of the display screen