JPH11353118A - Information input device - Google Patents

Information input device

Info

Publication number
JPH11353118A
JPH11353118A JP15888998A JP15888998A JPH11353118A JP H11353118 A JPH11353118 A JP H11353118A JP 15888998 A JP15888998 A JP 15888998A JP 15888998 A JP15888998 A JP 15888998A JP H11353118 A JPH11353118 A JP H11353118A
Authority
JP
Japan
Prior art keywords
touch panel
input device
information input
panel operator
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15888998A
Other languages
Japanese (ja)
Inventor
Otoya Shirotsuka
音也 城塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Group Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP15888998A priority Critical patent/JPH11353118A/en
Publication of JPH11353118A publication Critical patent/JPH11353118A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To input information that a touch panel operator desires even when the gaze of the touch panel operator at a display surface is not at a standard position. SOLUTION: A gaze position estimation part 17 finds position data on the head of the touch panel operator from detection signals from sensors 5 and 7 and estimates the gaze position of the touch panel operator by using data representing the display area of image information on the display surface 9 from an input information processing/image information selective output part 21. A correspondence correction part 19 corrects the correspondence between two-dimensional coordinate value data representing respective positions on the display screen 9 and two-dimensional coordinate value data representing respective positions on the surface area of the touch panel 11 with the estimated value of the gaze position so that the surface area of the touch panel 11 corresponding to the display area of the image information on the display surface 9 is positioned on the gaze position. A process/output part 21 discriminates which image information on the display surface 9 the electric signal from the touch panel 11 corresponds to according to the information from the correction part 19, interprets the meaning of the electric signal according to corresponding specific image information, and stores the interpretation result as input information in an input information storage part 25.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば銀行の現金
自動預入支払機(ATM)や、鉄道駅の自動券売機など
の端末装置に適用される情報入力装置の改良に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information input device applied to a terminal device such as an automatic teller machine (ATM) at a bank or an automatic ticket vending machine at a railway station.

【0002】[0002]

【従来の技術】従来、この種の情報入力装置において、
表示面上の各種画像情報(アイコン)に触れようとして
表示面を覆うタッチパネルの表面に接触すると、タッチ
パネルの接触物検知機能が起動して電気信号を生成し、
その電気信号が表示中の画像情報に対応する情報として
端末に入力される構成の装置が知られている。
2. Description of the Related Art Conventionally, in this type of information input device,
When touching the surface of the touch panel covering the display surface in an attempt to touch various image information (icons) on the display surface, the touch object detection function of the touch panel is activated to generate an electric signal,
There is known a device in which the electric signal is input to a terminal as information corresponding to image information being displayed.

【0003】[0003]

【発明が解決しようとする課題】ところで、上記構成の
情報入力装置においては、表示面上の各位置を示す座標
値データ(x、y)と、タッチパネルの表面上の各位置
を示す座標値データ(x、y)とが、予め対応付けられ
て(つまり、テーブル形式で)端末のメモリ等に記憶さ
れている。よって、端末のCPUは、上記テーブルを参
照することにより、入力した電気信号が上記画像情報に
対応するタッチパネルの表面領域から出力されたもので
あることを認識する。しかし、上記両座標データの対応
付けは、標準的な身長の利用者が標準的な姿勢でタッチ
パネルを操作することを想定して設定されており、例え
ば比較的背の低い利用者がタッチパネルを操作する場合
や、標準的な身長の利用者であっても通常とは異なった
姿勢でタッチパネルを操作する場合等を全く想定してい
ない。しかも、上記装置では、標準的な身長の利用者が
標準的な姿勢でタッチパネルを操作するときの利用者の
視線を基準に、その視線と表示面とのなす角度が90度
になるよう、装置の姿勢が固定されている。
By the way, in the information input device having the above structure, coordinate value data (x, y) indicating each position on the display surface, and coordinate value data indicating each position on the surface of the touch panel. (X, y) are stored in the terminal memory or the like in association with each other (that is, in a table format). Therefore, by referring to the table, the CPU of the terminal recognizes that the input electric signal is output from the surface area of the touch panel corresponding to the image information. However, the correspondence between the two coordinate data is set on the assumption that a user of a standard height operates the touch panel in a standard posture, and for example, a relatively short user operates the touch panel. It is not assumed that the user operates the touch panel in an unusual posture even if the user has a standard height. Moreover, in the above device, the angle between the line of sight and the display surface is set to 90 degrees based on the line of sight of the user when the user of the standard height operates the touch panel in the standard posture. The posture is fixed.

【0004】そのため、上記のような、利用者の視線と
表示面とのなす角度が90度でない場合には、タッチパ
ネルの、利用者が選択した画像情報の表示領域と対応し
ない表面領域に触れることになる。その結果、タッチパ
ネルの、別の画像情報の表示領域に対応する表面領域で
生成された電気信号が端末に入力されるという問題が生
じる虞があった。
Therefore, when the angle between the user's line of sight and the display surface is not 90 degrees as described above, the user touches the surface area of the touch panel which does not correspond to the display area of the image information selected by the user. become. As a result, there is a concern that a problem may occur that an electric signal generated in a surface area of the touch panel corresponding to a display area of another image information is input to the terminal.

【0005】従って本発明の目的は、表示面に対するタ
ッチパネル操作者の視線の位置が標準的な位置でないと
きでも、タッチパネル操作者の所望する情報を入力する
ことが可能な情報入力装置を提供することにある。
Accordingly, it is an object of the present invention to provide an information input device capable of inputting information desired by a touch panel operator even when the position of the line of sight of the touch panel operator with respect to the display surface is not a standard position. It is in.

【0006】[0006]

【課題を解決するための手段】本発明の第1の側面に従
う情報入力装置は、画像情報を表示する表示部と、表示
部の表示面を覆う位置に設けられ、表示面に対応する表
面領域全体に亘って接触物を検知する機能を有するタッ
チパネルと、画像情報を表示している表示面中の特定領
域に対応するタッチパネルの表面領域が、画像情報を目
視するタッチパネル操作者の視線上に位置する表面領域
になるよう、特定領域と表面領域の間の対応付けを調整
する手段とを備える。
An information input device according to a first aspect of the present invention is provided with a display unit for displaying image information, and a surface area provided at a position covering the display surface of the display unit and corresponding to the display surface. A touch panel having a function of detecting a contact object over the whole, and a surface area of the touch panel corresponding to a specific area on a display surface displaying image information is positioned on a line of sight of a touch panel operator who views the image information. Means for adjusting the correspondence between the specific region and the surface region so that the surface region becomes the target region.

【0007】上記構成によれば、画像情報を表示してい
る表示面中の特定領域に対応するタッチパネルの表面領
域が、画像情報を目視するタッチパネル操作者の視線上
に位置する表面領域になるよう、特定領域と表面領域の
間の対応付けを調整することとした。そのため、表示面
に対するタッチパネル操作者の視線の位置が標準的な位
置でないときでも、タッチパネル操作者の所望する情報
を入力することができる。
According to the above arrangement, the surface area of the touch panel corresponding to the specific area on the display surface displaying the image information is the surface area positioned on the line of sight of the touch panel operator who views the image information. The correspondence between the specific area and the surface area is adjusted. Therefore, even when the position of the line of sight of the touch panel operator with respect to the display surface is not a standard position, it is possible to input information desired by the touch panel operator.

【0008】本発明の第1の側面に係る好適な実施形態
では、対応付け調整手段は、タッチパネル操作者の頭部
位置の検知結果から推定されるタッチパネル操作者の視
線位置に基づいて上述した調整を行う。上記調整は、タ
ッチパネル操作者の視線上に位置するタッチパネルの表
面領域を、表示面上の画像情報の表示領域に対応する表
面領域になるよう可変することによって行われる。
[0008] In a preferred embodiment according to the first aspect of the present invention, the associating adjustment means performs the above-described adjustment based on the gaze position of the touch panel operator estimated from the detection result of the head position of the touch panel operator. I do. The adjustment is performed by changing the surface area of the touch panel positioned on the line of sight of the touch panel operator to be a surface area corresponding to the display area of the image information on the display surface.

【0009】また、上記実施形態に係る変形例では、上
記調整は、表示面上の画像情報の表示領域を、タッチパ
ネル操作者により接触されたタッチパネルの表面領域に
対応する表示領域になるよう可変することによって行わ
れる。
In the modification according to the embodiment, the adjustment is performed such that the display area of the image information on the display surface is changed to a display area corresponding to the surface area of the touch panel touched by the touch panel operator. This is done by:

【0010】上述した実施形態、或いは上述した実施形
態に係る変形例では、上記調整は、予め記憶部に対応付
けて記憶されている表示部の表示面上の各位置を示す第
1のデータ、及びタッチパネルの表面領域上の各位置を
示す第2のデータを参照することによって行われる。更
に、タッチパネル操作者の頭部位置の検出は、光学セン
サ又は超音波センサを少なくとも2個以上用いて行われ
る。
In the above-described embodiment or a modification of the above-described embodiment, the adjustment is performed by first data indicating each position on the display surface of the display unit stored in advance in association with the storage unit; This is performed by referring to the second data indicating each position on the surface area of the touch panel. Further, the detection of the head position of the touch panel operator is performed using at least two or more optical sensors or ultrasonic sensors.

【0011】また、上述した実施形態に係る別の変形例
では、タッチパネル操作者の頭部位置の検出は、固体撮
像素子を備える1台の撮像装置を用いて行われるととも
に、タッチパネル操作者の視線位置の推定は、撮像装置
からの画像情報に所定の処理を施すことにより求めたタ
ッチパネル操作者の眼球位置と、撮像装置の自動焦点機
能から求まる撮像装置と頭部位置との間の距離とに基づ
いて行われる。
In another modification of the above-described embodiment, the detection of the head position of the touch panel operator is performed using a single imaging device having a solid-state imaging device, and the line of sight of the touch panel operator is detected. The position estimation is based on the eyeball position of the touch panel operator obtained by performing predetermined processing on the image information from the imaging device, and the distance between the imaging device and the head position obtained from the autofocus function of the imaging device. It is done based on.

【0012】また、上述した実施形態に係る更に別の変
形例では、タッチパネル操作者の頭部位置の検出は、固
体撮像素子を備える2台の撮像装置を用いて行われると
ともに、タッチパネル操作者の視線位置の推定は、各撮
像装置から夫々出力される各画像情報に所定の処理を施
すことにより求めた各画像情報毎のタッチパネル操作者
の眼球位置と、撮像装置間の距離とに基づき、三角測量
の手法により眼球位置を特定した後に行われる。
In still another modification according to the above-described embodiment, the detection of the head position of the touch panel operator is performed by using two imaging devices including the solid-state imaging device, and the touch panel operator's head is detected. The gaze position is estimated based on the eyeball position of the touch panel operator for each piece of image information obtained by performing a predetermined process on each piece of image information output from each image pickup device, and the distance between the image pickup devices. This is performed after the position of the eyeball is specified by a surveying method.

【0013】本発明の第2の側面に従う情報入力装置
は、表示面が正面を向くよう変位自在に支持される表示
部と、表示面を覆う位置に設けられ、表示面に対応する
表面領域全体に亘って接触物を検知する機能を有するタ
ッチパネルと、画像情報を表示している表示面中の特定
領域に対応するタッチパネルの表面領域が、画像情報を
目視するタッチパネル操作者の視線上に位置する表面領
域になるよう、視線に対する表示面の角度を調整する手
段とを備える。
According to a second aspect of the present invention, there is provided an information input device comprising: a display portion which is supported so as to be displaceable so that a display surface faces the front; A touch panel having a function of detecting a contact object over the touch panel, and a surface area of the touch panel corresponding to a specific area on the display surface displaying the image information is positioned on a line of sight of a touch panel operator who views the image information Means for adjusting the angle of the display surface with respect to the line of sight so as to form a surface region.

【0014】上記構成によれば、画像情報を表示してい
る表示面中の特定領域に対応するタッチパネルの表面領
域が、画像情報を目視するタッチパネル操作者の視線上
に位置する表面領域になるよう、視線に対する表示面の
角度を調整することとした。そのため、表示面に対する
タッチパネル操作者の視線の位置が標準的な位置でない
ときでも、タッチパネル操作者の所望する情報を入力す
ることができる。
According to the above arrangement, the surface area of the touch panel corresponding to the specific area on the display surface displaying the image information is the surface area located on the line of sight of the touch panel operator who views the image information. The angle of the display surface with respect to the line of sight was adjusted. Therefore, even when the position of the line of sight of the touch panel operator with respect to the display surface is not a standard position, it is possible to input information desired by the touch panel operator.

【0015】本発明の第2の側面に係る好適な実施形態
では、角度調整手段は、タッチパネル操作者の頭部位置
の検知結果から推定されるタッチパネル操作者の視線位
置に基づいて調整を行う。この角度調整手段は、推定さ
れるタッチパネル操作者の視線に対するタッチパネルの
表面の角度が所定角度になるよう、表示部の回転角度を
演算する演算部と、演算された回転角度に基づき、表示
部を回転させる回転駆動部とを備える。上述した所定角
度は、90度に設定される。更に、タッチパネル操作者
の頭部位置の検出は、光学センサ又は超音波センサを少
なくとも2個以上用いて行われる。
In a preferred embodiment according to the second aspect of the present invention, the angle adjusting means performs the adjustment based on the gaze position of the touch panel operator estimated from the detection result of the head position of the touch panel operator. The angle adjusting means is configured to calculate the rotation angle of the display unit so that the estimated angle of the surface of the touch panel with respect to the line of sight of the touch panel operator becomes a predetermined angle, and the display unit based on the calculated rotation angle. And a rotation drive unit for rotating. The above-mentioned predetermined angle is set to 90 degrees. Further, the detection of the head position of the touch panel operator is performed using at least two or more optical sensors or ultrasonic sensors.

【0016】また、上述した実施形態に係る別の変形例
では、タッチパネル操作者の頭部位置の検出は、固体撮
像素子を備える1台の撮像装置を用いて行われるととも
に、タッチパネル操作者の視線位置の推定は、撮像装置
からの画像情報に所定の処理を施すことにより求めたタ
ッチパネル操作者の眼球位置と、撮像装置の自動焦点機
能から求まる撮像装置と頭部位置との間の距離とに基づ
いて行われる。
In another modification according to the above-described embodiment, the detection of the head position of the touch panel operator is performed using a single imaging device having a solid-state image sensor, and the line of sight of the touch panel operator is detected. The position estimation is based on the eyeball position of the touch panel operator obtained by performing predetermined processing on the image information from the imaging device, and the distance between the imaging device and the head position obtained from the autofocus function of the imaging device. It is done based on.

【0017】また、上述した実施形態に係る更に別の変
形例では、タッチパネル操作者の頭部位置の検出は、固
体撮像素子を備える2台の撮像装置を用いて行われると
ともに、タッチパネル操作者の視線位置の推定は、各撮
像装置から夫々出力される各画像情報に所定の処理を施
すことにより求めた各画像情報毎のタッチパネル操作者
の眼球位置と、撮像装置間の距離とに基づき、三角測量
の手法により眼球位置を特定した後に行われる。
In still another modification according to the above-described embodiment, the detection of the head position of the touch panel operator is performed by using two imaging devices including the solid-state imaging device, and the touch panel operator's head position is detected. The gaze position is estimated based on the eyeball position of the touch panel operator for each piece of image information obtained by performing a predetermined process on each piece of image information output from each image pickup device, and the distance between the image pickup devices. This is performed after the position of the eyeball is specified by a surveying method.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態を、図
面により詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0019】図1は、本発明の一実施形態に係る端末装
置の全体構成を示す説明図である。
FIG. 1 is an explanatory diagram showing the overall configuration of a terminal device according to one embodiment of the present invention.

【0020】上記装置は、端末装置本体(装置本体)1
と、装置本体1の正面を占めるLCD表示部3と、複数
個のセンサ5、7とを備える。
The above device is a terminal device main body (device main body) 1
And an LCD display unit 3 occupying the front of the apparatus body 1 and a plurality of sensors 5 and 7.

【0021】LCD表示部3は、表示面9と、表示面9
をその全域に亘って覆うタッチパネル11とを備える。
表示面9には、例えば所定の電圧が印加されることによ
り駆動して、装置本体1内部の信号処理部から与えられ
る種々の画像情報(図1では、符号10で示す)を表示
するドットマトリクスLCDが用いられる。タッチパネ
ル11には、例えば表示面9に対応する表面領域全体に
亘り接触物を検知して所定の電気信号を上記信号処理部
に出力する機能を有した感応フィールドが設定されてい
る所謂管面タッチスイッチが用いられる。
The LCD display unit 3 has a display surface 9 and a display surface 9.
And a touch panel 11 that covers the entire area.
The display surface 9 is driven by, for example, application of a predetermined voltage, and is a dot matrix that displays various image information (indicated by reference numeral 10 in FIG. 1) provided from a signal processing unit inside the apparatus main body 1. LCD is used. The touch panel 11 is provided with a sensitive field having a function of detecting, for example, a contact object over the entire surface area corresponding to the display surface 9 and outputting a predetermined electric signal to the signal processing unit. A switch is used.

【0022】センサ5、7は、共に端末装置1の正面に
正対しているタッチパネル操作者13の頭部位置を検出
して夫々所定の検出信号を上記信号処理部に出力するも
のである。本実施形態では、センサ5はLCD表示部3
の直上方に、検出領域を水平方向に設定した状態で配置
され、センサ7はタッチパネル操作者13がタッチパネ
ル操作時に立つ位置の直上方に、検出領域を垂直方向
(下方)に設定した状態で配置される。なお、センサ
5、7には、例えば赤外線センサなどの光学センサ、或
いは超音波センサが用いられる。
The sensors 5 and 7 both detect the position of the head of the touch panel operator 13 facing the front of the terminal device 1 and output predetermined detection signals to the signal processing unit. In the present embodiment, the sensor 5 is the LCD display unit 3
The sensor 7 is arranged directly above the position where the detection area is set in the horizontal direction, and the sensor 7 is arranged just above the position where the touch panel operator 13 stands when operating the touch panel and with the detection area set vertically (downward). Is done. As the sensors 5 and 7, for example, an optical sensor such as an infrared sensor or an ultrasonic sensor is used.

【0023】装置本体1内部には、上述した信号処理部
が内蔵されている。
The signal processing section described above is built in the apparatus main body 1.

【0024】信号処理部は、センサ5、7から出力され
るタッチパネル操作者13の頭部位置検出信号からタッ
チパネル操作者13の視線位置15を推定する。そし
て、この推定結果に基づいて、画像情報10を表示して
いる表示面9中の領域に対応するタッチパネル11の表
面領域が、画像情報10を目視するタッチパネル操作者
13の視線15上に位置する表面領域になるよう、上記
領域と上記表面領域の間の対応付けを調整する。
The signal processing unit estimates the line-of-sight position 15 of the touch panel operator 13 from the head position detection signals of the touch panel operator 13 output from the sensors 5 and 7. Then, based on the estimation result, the surface area of the touch panel 11 corresponding to the area on the display surface 9 displaying the image information 10 is positioned on the line of sight 15 of the touch panel operator 13 who views the image information 10. The correspondence between the region and the surface region is adjusted so as to be the surface region.

【0025】図2は、上述した信号処理部の構成を示す
機能ブロック図である。
FIG. 2 is a functional block diagram showing the configuration of the above-described signal processing unit.

【0026】上記信号処理部は、図2に示すように、視
線位置推定部17と、対応付け補正部19と、入力情報
処理/画像情報選択出力部(処理/出力部)21と、座
標値データ記憶部23と、入力情報記憶部25と、画像
情報記憶部27とを備える。
As shown in FIG. 2, the signal processing section includes a line-of-sight position estimating section 17, an association correcting section 19, an input information processing / image information selection output section (processing / output section) 21, and a coordinate value. A data storage unit 23, an input information storage unit 25, and an image information storage unit 27 are provided.

【0027】視線位置推定部17は、センサ5、7から
夫々出力される検出信号に基づき、タッチパネル操作者
13の頭部の平面上での位置データ及び高さ位置データ
を所定の演算処理を行うことによって夫々求める。次い
で、上記求めた各位置データ、及び処理/出力部21か
ら与えられる表示面9上での画像情報10の表示領域を
示すデータ等から所定の演算処理を行うことによってタ
ッチパネル操作者13の視線位置15を推定し、その推
定値(推定した視線位置15を示す三次元データ)を対
応付け補正部19に出力する。
The line-of-sight position estimating unit 17 performs predetermined arithmetic processing on position data and height position data on the plane of the head of the touch panel operator 13 based on the detection signals output from the sensors 5 and 7, respectively. Ask for each by doing. Next, a predetermined calculation process is performed from the obtained position data and data indicating the display area of the image information 10 on the display surface 9 given from the processing / output unit 21, thereby obtaining the gaze position of the touch panel operator 13. 15, and outputs the estimated value (three-dimensional data indicating the estimated line-of-sight position 15) to the association correction unit 19.

【0028】座標値データ記憶部23は、表示面9上の
各位置を示す二次元座標値データと、タッチパネル11
の表面領域上の各位置を示す二次元座標値データとを、
予めテーブル形式で固定データとして記憶しており、対
応付け補正部19からの読出し要求に応じて上記固定デ
ータを出力する。本実施形態では、上記両二次元座標値
データの対応付けは、タッチパネル11の表面上の任意
の位置を示す二次元座標値データと、その任意の位置か
ら表示面9に向かって垂線を引いたときに、その垂線と
交わる表示面9上の位置を示す二次元座標値データとが
対応するよう予め設定されている。なお、上記両二次元
座標値データの対応付けに当っては、標準的な身長のタ
ッチパネル操作者が、標準的な姿勢でタッチパネル11
を操作しているときのタッチパネル操作者の視線位置に
ついても考慮されているものとする。
The coordinate value data storage unit 23 stores two-dimensional coordinate value data indicating each position on the display surface 9 and the touch panel 11.
And two-dimensional coordinate value data indicating each position on the surface area of
The fixed data is stored in a table format in advance, and the fixed data is output in response to a read request from the association correction unit 19. In the present embodiment, the two-dimensional coordinate value data is associated with two-dimensional coordinate value data indicating an arbitrary position on the surface of the touch panel 11 and a perpendicular drawn from the arbitrary position toward the display surface 9. The two-dimensional coordinate value data indicating the position on the display surface 9 that intersects with the perpendicular is set in advance so as to correspond. When associating the two-dimensional coordinate value data with each other, the touch panel operator having a standard height can use the touch panel 11 in a standard posture.
It is assumed that the gaze position of the touch panel operator when operating is also considered.

【0029】対応付け補正部19は、視線位置15の推
定値が視線位置推定部17から与えられると、座標値デ
ータ記憶部23から上記固定データを読出す。そして、
上記推定値に基づいて、表示面9中の画像情報10の表
示領域に対応するタッチパネル11の表面領域が上記視
線位置15上に位置する表面領域になるよう、上記両二
次元座標値データの対応付けを補正する。つまり、上記
対応付けを、予め画像情報10の表示領域に対応付けら
れているタッチパネル11の特定表面領域から、視線位
置15上において上記表示領域に対応するタッチパネル
11の別の表面領域に変更することになる。この補正し
た結果は、処理/出力部21に通知される。
When the estimated value of the line-of-sight position 15 is given from the line-of-sight position estimating unit 17, the association correcting unit 19 reads the fixed data from the coordinate value data storage unit 23. And
Based on the estimated value, the correspondence between the two-dimensional coordinate value data is set such that the surface area of the touch panel 11 corresponding to the display area of the image information 10 on the display surface 9 becomes the surface area located on the line-of-sight position 15. Correct the attachment. That is, the association is changed from a specific surface area of the touch panel 11 previously associated with the display area of the image information 10 to another surface area of the touch panel 11 corresponding to the display area on the line-of-sight position 15. become. The result of this correction is notified to the processing / output unit 21.

【0030】入力情報記憶部25は、処理/出力部21
から与えられる情報を入力情報として消去可能な状態で
記憶すると共に、処理/出力部21からの読出し要求に
応じて対応する入力情報を処理/出力部21に出力す
る。
The input information storage unit 25 includes the processing / output unit 21
Is stored in an erasable state as input information, and corresponding input information is output to the processing / output unit 21 in response to a read request from the processing / output unit 21.

【0031】画像情報記憶部27は、表示面9に表示さ
れる複数の画像情報(アイコン)を予め記憶しており、
処理/出力部21からの読出し要求に応じて対応する画
像情報を処理/出力部21に出力する。
The image information storage unit 27 stores a plurality of image information (icons) displayed on the display surface 9 in advance.
The image information corresponding to the read request from the processing / output unit 21 is output to the processing / output unit 21.

【0032】処理/出力部21は、対応付け補正部19
からの上記通知に基づき、タッチパネル11からの電気
信号が表示面9上のどの画像情報に対応するものである
かを識別する。そして、この識別の結果、特定の画像情
報(本実施形態では、画像情報10)に対応するもので
あることを認識すると、その画像情報に基づき上記電気
信号の意味を解釈し、その解釈の結果を入力情報として
入力情報記憶部25に記憶させる。例えば、上記画像情
報10が普通預金の払出に関するソフトキーであったと
すれば、普通預金の払出キーの操作情報が入力情報とし
て入力情報記憶部25に記憶させることになる。処理/
出力部21は、また、画像情報記憶部27に記憶されて
いる複数の画像情報の中から表示すべき画像情報を随時
選択して表示面9に出力する。
The processing / output unit 21 is provided with an association correcting unit 19
Based on the notification from, the CPU 11 identifies which image information on the display surface 9 the electric signal from the touch panel 11 corresponds to. Then, as a result of the identification, when it is recognized that the signal corresponds to the specific image information (the image information 10 in the present embodiment), the meaning of the electric signal is interpreted based on the image information, and the result of the interpretation is obtained. Is stored in the input information storage unit 25 as input information. For example, assuming that the image information 10 is a soft key related to the payout of the ordinary deposit, the operation information of the payout key of the ordinary deposit is stored in the input information storage unit 25 as the input information. processing/
The output unit 21 also selects image information to be displayed from a plurality of pieces of image information stored in the image information storage unit 27 and outputs the image information to the display surface 9 as needed.

【0033】上記構成によれば、視線位置推定部17が
センサ5、7からの検出信号に基づき、タッチパネル操
作者の視線位置を推定し、対応付け補正部19がその推
定結果に基づき、表示面9上の各位置を示す二次元座標
値データと、タッチパネル11の表面領域上の各位置を
示す二次元座標値データとの対応付けを補正する。その
ため、タッチパネル操作者の視線位置が標準的な視線位
置と相違する場合であっても、タッチパネル操作者が所
望するものとは別の画像情報の表示領域に対応する表面
領域で生成された電気信号が端末に入力されるという問
題が生じ難い。
According to the above configuration, the line-of-sight position estimating unit 17 estimates the line-of-sight position of the touch panel operator based on the detection signals from the sensors 5 and 7, and the association correcting unit 19 determines the display surface based on the estimation result. The two-dimensional coordinate value data indicating each position on the touch panel 9 and the two-dimensional coordinate value data indicating each position on the surface area of the touch panel 11 are corrected. Therefore, even when the gaze position of the touch panel operator is different from the standard gaze position, the electric signal generated in the surface area corresponding to the display area of the image information different from that desired by the touch panel operator Is less likely to be input to the terminal.

【0034】なお、本実施形態では、対応付け補正部1
9がタッチパネル11側の特定表面領域を別の表面領域
に変更することによって表示面9側の二次元座標値デー
タとタッチパネル11側の二次元座標値データとの間の
対応付けを補正することとした。しかし、表示面9上の
画像情報10の表示領域を、別の表示領域に変更するこ
とにより表示面9側の二次元座標値データとタッチパネ
ル11側の二次元座標値データとの間の対応付けを補正
することとしても差支えない。
In this embodiment, the association correction unit 1
9 corrects the association between the two-dimensional coordinate value data on the display surface 9 and the two-dimensional coordinate value data on the touch panel 11 by changing the specific surface area on the touch panel 11 to another surface area. did. However, by changing the display area of the image information 10 on the display surface 9 to another display region, the correspondence between the two-dimensional coordinate value data on the display surface 9 and the two-dimensional coordinate value data on the touch panel 11 is changed. May be corrected.

【0035】また、本実施形態では、信号処理部を構成
する各部を全て装置本体1に内蔵しているものとして説
明した。しかし、視線位置推定部17を除く各部(対応
付け補正部19〜画像情報記憶部27)を、複数台の端
末装置を集中管理するホストコンピュータ(図示しな
い)に設け、対応付け補正部19又は処理/出力部21
と視線位置推定部17との間の情報の授受をオンライン
で行うようにしても、上記と同様の効果を奏し得る。
Further, in the present embodiment, it has been described that all the units constituting the signal processing unit are built in the apparatus main body 1. However, the units (association correction unit 19 to image information storage unit 27) except for the line-of-sight position estimation unit 17 are provided in a host computer (not shown) that centrally manages a plurality of terminal devices, and the association correction unit 19 or processing / Output unit 21
The same effect as described above can be achieved even if information is exchanged between the camera and the gaze position estimating unit 17 online.

【0036】図3は、本発明の他の実施形態に係る端末
装置の全体構成を示す説明図である。
FIG. 3 is an explanatory diagram showing an overall configuration of a terminal device according to another embodiment of the present invention.

【0037】本実施形態では、装置本体31が、その表
示面9(タッチパネル11の表面)が正面を向くよう、
つまり、どのようなタッチパネル操作者13に対しても
常に表示面9が正対するよう、回転支持機構29及びア
クチュエータ35により図3で示す正逆両方向に回転自
在に支持されている点を主な特徴とする。その他各部の
構成については、図1で示した端末装置の各部の構成と
同様である。
In the present embodiment, the apparatus main body 31 is positioned such that its display surface 9 (the surface of the touch panel 11) faces the front.
That is, the main feature is that the touch panel 13 is rotatably supported by the rotation support mechanism 29 and the actuator 35 in both the forward and reverse directions as shown in FIG. And Other configurations of the respective units are the same as the configurations of the respective units of the terminal device illustrated in FIG.

【0038】図4は、図3の端末装置が内蔵する信号処
理部の構成を示す機能ブロック図である。
FIG. 4 is a functional block diagram showing a configuration of a signal processing unit incorporated in the terminal device of FIG.

【0039】本実施形態では、上記信号処理部に、図2
で示した対応付け補正部19に代えて視線位置推定部1
7からの推定結果に基づき、上記アクチュエータ35の
回転駆動量を求める回転角度演算部33を設けた点を主
な特徴とする。なお、対応付け補正部19がないため
に、タッチパネル11からの電気信号は処理/出力部2
1に直接与えられ、また、座標値データ記憶部23に記
憶されている上述した固定データの読出しは処理/出力
部21によって行われる。その他各部の構成について
は、図2で示した信号処理部の各部と同様である。
In the present embodiment, the above-mentioned signal processing unit
Gaze position estimating unit 1 in place of the association correcting unit 19 shown in FIG.
The main feature is that a rotation angle calculation unit 33 for obtaining the rotation drive amount of the actuator 35 is provided based on the estimation result from FIG. Since there is no association correction unit 19, the electric signal from the touch panel 11 is processed by the processing / output unit 2
1 is read out by the processing / output unit 21. The above-mentioned fixed data, which is directly supplied to the unit 1 and stored in the coordinate value data storage unit 23, is read out. Other configurations of each unit are the same as those of the signal processing unit shown in FIG.

【0040】図4において、回転角度演算部33は、視
線位置推定部17が推定したタッチパネル操作者13の
視線位置15に基づき、その視線位置15に対してタッ
チパネル11の表面(つまり、表示面9)のなす角度が
90度になるよう、装置本体31の回転角度を演算し、
その演算結果に基づき、アクチュエータ35の回転駆動
量を制御する。これにより、前記表示面9中の画像情報
10を表示している特定領域に予め対応付けられている
前記タッチパネル11の表面領域が、画像情報10を目
視するタッチパネル操作者13の視線15上に位置する
表面領域になる。
In FIG. 4, the rotation angle calculation unit 33 is based on the line-of-sight position 15 of the touch panel operator 13 estimated by the line-of-sight position estimation unit 17, and ) Is calculated to be 90 degrees, the rotation angle of the apparatus main body 31 is calculated,
The rotational drive amount of the actuator 35 is controlled based on the calculation result. Thereby, the surface area of the touch panel 11 previously associated with the specific area displaying the image information 10 on the display surface 9 is positioned on the line of sight 15 of the touch panel operator 13 viewing the image information 10. Surface area.

【0041】上記構成によれば、回転角度演算部33が
視線位置推定部17が推定したタッチパネル操作者13
の視線位置15に対してタッチパネル11の表面領域が
常に90度になるよう、アクチュエータ35を通じて装
置本体31の姿勢を制御することとした。そのため、タ
ッチパネル操作者の視線位置が標準的な視線位置と相違
する場合であっても、タッチパネル操作者が所望するも
のとは別の画像情報の表示領域に対応する表面領域で生
成された電気信号が端末に入力されるという問題が生じ
難い。
According to the above configuration, the rotation angle calculation section 33 estimates the touch panel operator 13
The attitude of the apparatus main body 31 is controlled through the actuator 35 so that the surface area of the touch panel 11 is always 90 degrees with respect to the line-of-sight position 15. Therefore, even when the gaze position of the touch panel operator is different from the standard gaze position, the electric signal generated in the surface area corresponding to the display area of the image information different from that desired by the touch panel operator Is less likely to be input to the terminal.

【0042】本実施形態では、信号処理部を構成する各
部を全て装置本体31に内蔵しているものとして説明し
た。しかし、上述した一実施形態におけるように、視線
位置推定部17及び回転角度演算部33を除く各部(処
理/出力部21〜画像情報記憶部27)を、ホストコン
ピュータ側に設け、処理/出力部21と視線位置推定部
17との間の情報の授受をオンラインで行うようにして
も、上記と同様の効果を奏し得る。
In the present embodiment, the description has been made assuming that all the components constituting the signal processing unit are incorporated in the apparatus main body 31. However, as in the above-described embodiment, the units (the processing / output unit 21 to the image information storage unit 27) except the line-of-sight position estimation unit 17 and the rotation angle calculation unit 33 are provided on the host computer side, and the processing / output unit The same effect as described above can be achieved even when information is exchanged between the apparatus 21 and the gaze position estimating unit 17 online.

【0043】上述した内容は、あくまで本発明の各実施
形態に関するものであって、本発明が上記内容のみに限
定されることを意味するものでないのは勿論である。例
えば、上記各実施形態では、タッチパネル操作者13の
頭部位置を検出するためのセンサ5、7に赤外線センサ
などの光学センサ、或いは超音波センサを用いることと
したが、これらに代えて固体撮像素子(CCD)を備え
る1台の撮像装置(ビデオカメラ)を用いて行うことと
しても良い。この場合、タッチパネル操作者13の視線
位置の推定は、ビデオカメラからの画像情報に所定の処
理を施すことにより求めたタッチパネル操作者13の眼
球位置と、ビデオカメラの自動焦点機能から求まるビデ
オカメラとタッチパネル操作者13の頭部位置との間の
距離とに基づいて行われることになる。
The contents described above relate to each embodiment of the present invention, and do not mean that the present invention is limited to only the contents described above. For example, in the above embodiments, optical sensors such as infrared sensors or ultrasonic sensors are used as the sensors 5 and 7 for detecting the position of the head of the touch panel operator 13, but solid-state imaging is used instead. This may be performed by using one imaging device (video camera) including a device (CCD). In this case, the estimation of the line-of-sight position of the touch panel operator 13 is performed based on the eyeball position of the touch panel operator 13 obtained by performing predetermined processing on the image information from the video camera, and the video camera obtained from the automatic focusing function of the video camera. This is performed based on the distance from the head position of the touch panel operator 13.

【0044】また、上記構成のビデオカメラを2台用い
てタッチパネル操作者13の頭部位置を検出することと
しても良い。この場合、各ビデオカメラから夫々出力さ
れる各画像情報に所定の処理を施すことにより求めた各
画像情報毎のタッチパネル操作者13の眼球位置と、ビ
デオカメラ間の距離データとに基づき、三角測量の手法
により上記眼球位置を特定した後に、タッチパネル操作
者13の視線位置を推定する方法も採用し得る。
The head position of the touch panel operator 13 may be detected by using two video cameras having the above configuration. In this case, triangulation is performed based on the eyeball position of the touch panel operator 13 for each piece of image information obtained by performing a predetermined process on each piece of image information output from each video camera and distance data between the video cameras. After the eyeball position is specified by the above method, a method of estimating the line of sight of the touch panel operator 13 may be adopted.

【0045】[0045]

【発明の効果】以上説明したように、本発明によれば、
表示面に対するタッチパネル操作者の視線の位置が標準
的な位置でないときでも、タッチパネル操作者の所望す
る情報を入力することが可能な情報入力装置を提供する
ことができる。
As described above, according to the present invention,
An information input device capable of inputting information desired by the touch panel operator even when the position of the line of sight of the touch panel operator with respect to the display surface is not a standard position can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る端末装置の全体構成
を示す説明図。
FIG. 1 is an explanatory diagram showing an overall configuration of a terminal device according to an embodiment of the present invention.

【図2】図1の端末装置が内蔵する信号処理部の構成を
示す機能ブロック図。
FIG. 2 is a functional block diagram illustrating a configuration of a signal processing unit built in the terminal device of FIG. 1;

【図3】本発明の他の実施形態に係る端末装置の全体構
成を示す説明図。
FIG. 3 is an explanatory diagram showing an overall configuration of a terminal device according to another embodiment of the present invention.

【図4】図3の端末装置が内蔵する信号処理部の構成を
示す機能ブロック図。
FIG. 4 is a functional block diagram showing a configuration of a signal processing unit built in the terminal device of FIG. 3;

【符号の説明】[Explanation of symbols]

1、31 端末装置本体(装置本体) 3 LCD表示部 5、7 センサ(光学センサ又は超音波センサ) 9 表示面 10 画像情報(アイコン) 11 タッチパネル 13 タッチパネル操作者 15 (タッチパネル操作者の)視線 17 視線位置推定部 19 対応付け補正部 21 入力情報処理/画像情報選択出力部(処理/出力
部) 23 座標値データ記憶部 25 入力情報記憶部 27 画像情報記憶部 29 回転支持機構 33 回転角度演算部 35 アクチュエータ
1, 31 terminal device main body (device main body) 3 LCD display unit 5, 7 sensor (optical sensor or ultrasonic sensor) 9 display surface 10 image information (icon) 11 touch panel 13 touch panel operator 15 eyes of touch panel operator 17 Gaze position estimating unit 19 Correlation correcting unit 21 Input information processing / image information selection / output unit (processing / output unit) 23 Coordinate value data storage unit 25 Input information storage unit 27 Image information storage unit 29 Rotation support mechanism 33 Rotation angle calculation unit 35 Actuator

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 画像情報を表示する表示部と、 前記表示部の表示面を覆う位置に設けられ、表示面に対
応する表面領域全体に亘って接触物を検知する機能を有
するタッチパネルと、 画像情報を表示している前記表示面中の特定領域に対応
する前記タッチパネルの表面領域が、画像情報を目視す
るタッチパネル操作者の視線上に位置する表面領域にな
るよう、前記特定領域と前記表面領域の間の対応付けを
調整する手段と、 を備える情報入力装置。
A display unit for displaying image information; a touch panel provided at a position covering a display surface of the display unit, the touch panel having a function of detecting a contact object over the entire surface area corresponding to the display surface; The specific area and the surface area such that a surface area of the touch panel corresponding to a specific area in the display surface displaying information is a surface area positioned on a line of sight of a touch panel operator who views image information. Means for adjusting the correspondence between the information input device and the information input device.
【請求項2】 請求項1記載の情報入力装置において、 前記対応付け調整手段が、前記タッチパネル操作者の頭
部位置の検知結果から推定されるタッチパネル操作者の
視線位置に基づいて前記調整を行うことを特徴とする情
報入力装置。
2. The information input device according to claim 1, wherein the association adjustment unit performs the adjustment based on a gaze position of the touch panel operator estimated from a detection result of a head position of the touch panel operator. An information input device, characterized in that:
【請求項3】 請求項1又は請求項2記載の情報入力装
置において、 前記調整が、前記タッチパネル操作者の視線上に位置す
る前記タッチパネルの表面領域を、前記表示面上の画像
情報の表示領域に対応する表面領域になるよう可変する
ことによって行われることを特徴とする情報入力装置。
3. The information input device according to claim 1, wherein the adjustment is performed by changing a surface area of the touch panel positioned on a line of sight of the touch panel operator into a display area of image information on the display surface. An information input apparatus characterized in that the information is input by changing the surface area so as to correspond to the surface area.
【請求項4】 請求項1又は請求項2記載の情報入力装
置において、 前記調整が、前記表示面上の画像情報の表示領域を、前
記タッチパネル操作者により接触された前記タッチパネ
ルの表面領域に対応する表示領域になるよう可変するこ
とによって行われることを特徴とする情報入力装置。
4. The information input device according to claim 1, wherein the adjustment corresponds to a display area of the image information on the display surface corresponding to a surface area of the touch panel touched by the touch panel operator. An information input device characterized in that the information input device is changed by changing the display area to be a display area.
【請求項5】 請求項3又は請求項4記載の情報入力装
置において、 前記調整が、予め記憶部に対応付けて記憶されている前
記表示部の表示面上の各位置を示す第1のデータ、及び
前記タッチパネルの表面領域上の各位置を示す第2のデ
ータを参照することによって行われることを特徴とする
情報入力装置。
5. The information input device according to claim 3, wherein the adjustment is stored in advance in a storage unit in association with a first data indicating each position on a display surface of the display unit. And an information input device which refers to second data indicating each position on the surface area of the touch panel.
【請求項6】 請求項1乃至請求項5のいずれか1項記
載の情報入力装置において、 前記タッチパネル操作者の頭部位置の検出が、光学セン
サ又は超音波センサを少なくとも2個以上用いて行われ
ることを特徴とする情報入力装置。
6. The information input device according to claim 1, wherein the head position of the touch panel operator is detected using at least two optical sensors or ultrasonic sensors. An information input device characterized by being input.
【請求項7】 請求項1乃至請求項5のいずれか1項記
載の情報入力装置において、 前記タッチパネル操作者の頭部位置の検出が、固体撮像
素子を備える1台の撮像装置を用いて行われるととも
に、 前記タッチパネル操作者の視線位置の推定が、前記撮像
装置からの画像情報に所定の処理を施すことにより求め
た前記タッチパネル操作者の眼球位置と、前記撮像装置
の自動焦点機能から求まる前記撮像装置と前記頭部位置
との間の距離とに基づいて行われることを特徴とする情
報入力装置。
7. The information input device according to claim 1, wherein the detection of the head position of the touch panel operator is performed using a single imaging device including a solid-state imaging device. Estimation of the line-of-sight position of the touch panel operator, the eyeball position of the touch panel operator obtained by performing a predetermined process on the image information from the imaging device, and the automatic focus function of the imaging device An information input device, which is performed based on a distance between an imaging device and the head position.
【請求項8】 請求項1乃至請求項5のいずれか1項記
載の情報入力装置において、 前記タッチパネル操作者の頭部位置の検出が、固体撮像
素子を備える2台の撮像装置を用いて行われるととも
に、 前記タッチパネル操作者の視線位置の推定が、前記各撮
像装置から夫々出力される各画像情報に所定の処理を施
すことにより求めた各画像情報毎の前記タッチパネル操
作者の眼球位置と、前記撮像装置間の距離とに基づき、
三角測量の手法により前記眼球位置を特定した後に行わ
れることを特徴とする情報入力装置。
8. The information input device according to claim 1, wherein the head position of the touch panel operator is detected by using two imaging devices including a solid-state imaging device. Estimation of the gaze position of the touch panel operator, the eyeball position of the touch panel operator for each image information obtained by performing a predetermined process on each image information output from each of the imaging devices, Based on the distance between the imaging devices,
An information input device, which is performed after the eyeball position is specified by a triangulation method.
【請求項9】 表示面が正面を向くよう変位自在に支持
される表示部と、 前記表示面を覆う位置に設けられ、表示面に対応する表
面領域全体に亘って接触物を検知する機能を有するタッ
チパネルと、 画像情報を表示している前記表示面中の特定領域に対応
する前記タッチパネルの表面領域が、画像情報を目視す
るタッチパネル操作者の視線上に位置する表面領域にな
るよう、前記視線に対する表示面の角度を調整する手段
と、 を備える情報入力装置。
9. A display unit which is displaceably supported so that a display surface faces frontward, and a function which is provided at a position covering the display surface and detects a contact object over an entire surface area corresponding to the display surface. A touch panel having: a surface area of the touch panel corresponding to a specific area in the display surface displaying image information, a surface area positioned on a line of sight of a touch panel operator viewing the image information; Means for adjusting the angle of the display surface with respect to the information input device.
【請求項10】 請求項9記載の情報入力装置におい
て、 前記角度調整手段が、前記タッチパネル操作者の頭部位
置の検知結果から推定される前記タッチパネル操作者の
視線位置に基づいて前記調整を行うことを特徴とする情
報入力装置。
10. The information input device according to claim 9, wherein the angle adjustment unit performs the adjustment based on a line-of-sight position of the touch panel operator estimated from a detection result of a head position of the touch panel operator. An information input device, characterized in that:
【請求項11】 請求項9又は請求項10記載の情報入
力装置において、 前記角度調整手段が、 前記推定されるタッチパネル操作者の視線に対する前記
タッチパネルの表面の角度が所定角度になるよう、前記
表示部の回転角度を演算する演算部と、 前記演算された回転角度に基づき、前記表示部を回転さ
せる回転駆動部と、 を備えることを特徴とする情報入力装置。
11. The information input device according to claim 9, wherein the angle adjustment unit displays the display so that an angle of the surface of the touch panel with respect to the estimated line of sight of the touch panel operator is a predetermined angle. An information input device comprising: a calculation unit that calculates a rotation angle of a unit; and a rotation drive unit that rotates the display unit based on the calculated rotation angle.
【請求項12】 請求項11記載の情報入力装置におい
て、 前記所定角度が、90度であることを特徴とする情報入
力装置。
12. The information input device according to claim 11, wherein the predetermined angle is 90 degrees.
【請求項13】 請求項9乃至請求項12のいずれか1
項記載の情報入力装置において、 前記タッチパネル操作者の頭部位置の検出が、光学セン
サ又は超音波センサを少なくとも2個以上用いて行われ
ることを特徴とする情報入力装置。
13. The method according to claim 9, wherein
3. The information input device according to claim 1, wherein the position of the head of the touch panel operator is detected using at least two optical sensors or ultrasonic sensors.
【請求項14】 請求項9乃至請求項12のいずれか1
項記載の情報入力装置において、 前記タッチパネル操作者の頭部位置の検出が、固体撮像
素子を備える1台の撮像装置を用いて行われるととも
に、 前記タッチパネル操作者の視線位置の推定が、前記撮像
装置からの画像情報に所定の処理を施すことにより求め
た前記タッチパネル操作者の眼球位置と、前記撮像装置
の自動焦点機能から求まる前記撮像装置と前記頭部位置
との間の距離とに基づいて行われることを特徴とする情
報入力装置。
14. The method according to claim 9, wherein
The information input device according to claim, wherein the detection of the head position of the touch panel operator is performed using a single imaging device including a solid-state imaging device, and the estimation of the line-of-sight position of the touch panel operator is performed using the imaging method. An eyeball position of the touch panel operator determined by performing a predetermined process on image information from the device, and a distance between the imaging device and the head position determined from an autofocus function of the imaging device. An information input device characterized by being performed.
【請求項15】 請求項9乃至請求項12のいずれか1
項記載の情報入力装置において、 前記タッチパネル操作者の頭部位置の検出が、固体撮像
素子を備える2台の撮像装置を用いて行われるととも
に、 前記タッチパネル操作者の視線位置の推定が、前記各撮
像装置から夫々出力される各画像情報に所定の処理を施
すことにより求めた各画像情報毎の前記タッチパネル操
作者の眼球位置と、前記撮像装置間の距離とに基づき、
三角測量の手法により前記眼球位置を特定した後に行わ
れることを特徴とする情報入力装置。
15. The method according to claim 9, wherein:
The information input device according to claim, wherein the detection of the head position of the touch panel operator is performed using two imaging devices including a solid-state imaging device, and the estimation of the line-of-sight position of the touch panel operator is performed by each of the above. Based on the eyeball position of the touch panel operator for each image information obtained by performing a predetermined process on each image information output from the imaging device, based on the distance between the imaging devices,
An information input device, which is performed after the eyeball position is specified by a triangulation method.
JP15888998A 1998-06-08 1998-06-08 Information input device Pending JPH11353118A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15888998A JPH11353118A (en) 1998-06-08 1998-06-08 Information input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15888998A JPH11353118A (en) 1998-06-08 1998-06-08 Information input device

Publications (1)

Publication Number Publication Date
JPH11353118A true JPH11353118A (en) 1999-12-24

Family

ID=15681604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15888998A Pending JPH11353118A (en) 1998-06-08 1998-06-08 Information input device

Country Status (1)

Country Link
JP (1) JPH11353118A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007207008A (en) * 2006-02-02 2007-08-16 Toshiba Tec Corp Display device with touch panel
JP2008290420A (en) * 2007-05-28 2008-12-04 Sharp Corp Operating device of electronic apparatus and image processing device having the operating device
JP2010108185A (en) * 2008-10-29 2010-05-13 Aisin Aw Co Ltd System, method, and program for controlling display
JP2011085981A (en) * 2009-10-13 2011-04-28 Hitachi Omron Terminal Solutions Corp Automatic transaction device
CN103809782A (en) * 2012-11-05 2014-05-21 宏碁股份有限公司 Compensation method and device for touch positions
WO2014147715A1 (en) * 2013-03-18 2014-09-25 株式会社 東芝 Information processing device, control method, and program
JP2015525918A (en) * 2012-06-25 2015-09-07 アマゾン・テクノロジーズ、インコーポレイテッド Using gaze determination and device input
JP2016092440A (en) * 2014-10-29 2016-05-23 京セラ株式会社 Mobile terminal and control method
JP2016224691A (en) * 2015-05-29 2016-12-28 富士通株式会社 Sight line calibration program, sight line calibration device, and sight line calibration method
CN107608514A (en) * 2017-09-20 2018-01-19 维沃移动通信有限公司 Information processing method and mobile terminal
JP2018185859A (en) * 2018-07-18 2018-11-22 京セラ株式会社 Portable terminal and control method
WO2022160933A1 (en) * 2021-01-26 2022-08-04 Huawei Technologies Co.,Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007207008A (en) * 2006-02-02 2007-08-16 Toshiba Tec Corp Display device with touch panel
JP2008290420A (en) * 2007-05-28 2008-12-04 Sharp Corp Operating device of electronic apparatus and image processing device having the operating device
JP2010108185A (en) * 2008-10-29 2010-05-13 Aisin Aw Co Ltd System, method, and program for controlling display
JP2011085981A (en) * 2009-10-13 2011-04-28 Hitachi Omron Terminal Solutions Corp Automatic transaction device
JP2015525918A (en) * 2012-06-25 2015-09-07 アマゾン・テクノロジーズ、インコーポレイテッド Using gaze determination and device input
CN103809782A (en) * 2012-11-05 2014-05-21 宏碁股份有限公司 Compensation method and device for touch positions
CN103809782B (en) * 2012-11-05 2016-11-23 宏碁股份有限公司 touch position compensation method and device
WO2014147715A1 (en) * 2013-03-18 2014-09-25 株式会社 東芝 Information processing device, control method, and program
JPWO2014147715A1 (en) * 2013-03-18 2017-02-16 株式会社東芝 Information processing apparatus, control method, and program
JP2016092440A (en) * 2014-10-29 2016-05-23 京セラ株式会社 Mobile terminal and control method
JP2016224691A (en) * 2015-05-29 2016-12-28 富士通株式会社 Sight line calibration program, sight line calibration device, and sight line calibration method
CN107608514A (en) * 2017-09-20 2018-01-19 维沃移动通信有限公司 Information processing method and mobile terminal
JP2018185859A (en) * 2018-07-18 2018-11-22 京セラ株式会社 Portable terminal and control method
WO2022160933A1 (en) * 2021-01-26 2022-08-04 Huawei Technologies Co.,Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions
US11474598B2 (en) 2021-01-26 2022-10-18 Huawei Technologies Co., Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions

Similar Documents

Publication Publication Date Title
US9798395B2 (en) Electronic control apparatus and method for responsively controlling media content displayed on portable electronic device
JP5263355B2 (en) Image display device and imaging device
US10203764B2 (en) Systems and methods for triggering actions based on touch-free gesture detection
CN101379455B (en) Input device and its method
US20180088775A1 (en) Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device
JP5981591B1 (en) Computer program and computer system for controlling object operations in an immersive virtual space
JP3990744B2 (en) Electronic device and control method thereof
JP5450791B2 (en) Stereoscopic display device, stereoscopic imaging device, dominant eye determination method, dominant eye determination program and recording medium used therefor
US8125444B2 (en) Unit, an assembly and a method for controlling in a dynamic egocentric interactive space
JP3567084B2 (en) Electronic book device
CN102457664A (en) Imaging apparatus
JPH11353118A (en) Information input device
JP4686708B2 (en) Pointing system and pointing method
WO2007000743A2 (en) In-zoom gesture control for display mirror
WO2018161564A1 (en) Gesture recognition system and method, and display device
JP6549066B2 (en) Computer program and computer system for controlling object operation in immersive virtual space
JPH11296304A (en) Screen display inputting device and parallax correcting method
CN113574592A (en) Electronic device, control method for electronic device, program, and storage medium
JP4577586B2 (en) Vehicle control device
JP2006302029A (en) Display device control program, display device control method and display device
JP3177340B2 (en) Image recognition device
US10967798B2 (en) Control device and method for image display
JP2007038859A (en) Control device for display apparatus
JP2014049023A (en) Input device
US11842119B2 (en) Display system that displays virtual object, display device and method of controlling same, and storage medium

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20040903