JP2015114682A - Touch panel device - Google Patents

Touch panel device Download PDF

Info

Publication number
JP2015114682A
JP2015114682A JP2013253840A JP2013253840A JP2015114682A JP 2015114682 A JP2015114682 A JP 2015114682A JP 2013253840 A JP2013253840 A JP 2013253840A JP 2013253840 A JP2013253840 A JP 2013253840A JP 2015114682 A JP2015114682 A JP 2015114682A
Authority
JP
Japan
Prior art keywords
operation surface
touch panel
input
position coordinates
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013253840A
Other languages
Japanese (ja)
Inventor
聡 杉坂
Satoshi Sugisaka
聡 杉坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kojima Industries Corp
Original Assignee
Kojima Press Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kojima Press Industry Co Ltd filed Critical Kojima Press Industry Co Ltd
Priority to JP2013253840A priority Critical patent/JP2015114682A/en
Publication of JP2015114682A publication Critical patent/JP2015114682A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a touch panel device that can correct the difference between images even when there are an unspecified number of input persons.SOLUTION: A calculation unit specifies an input person selecting position coordinates on an operation surface 17 from a plurality of persons in the vicinity of the operation surface 17 on the basis of an image photographed by an imaging unit 15, and corrects the correspondence between the position coordinates and calculation processing on the basis of the line of sight of the specified input person.

Description

本発明は、タッチパネル装置に関する。   The present invention relates to a touch panel device.

従来から、表示器(ディスプレイ)と入力器が一体化された、タッチパネルが知られている。例えば、操作用のアイコン画面等が表示される表示器に積層されるか、離間するようにして、透過型の入力器が配置される。入力器は、例えば、操作者の指が触れた位置座標を検知する透明電極を備えている。タッチパネルの記憶部では、表示器が表示するアイコン画像が示す処理と、所定の視線でアイコン画像を視認したときの、当該アイコン画像が透過する入力器上の位置座標とが予め対応付けられている。操作者がアイコン画像に対応する入力器上の所定位置を触れることで、そのアイコン画像に応じた処理が実行される。   2. Description of the Related Art Conventionally, a touch panel in which a display (display) and an input device are integrated is known. For example, a transmissive input device is arranged so as to be stacked on or separated from a display device on which an operation icon screen or the like is displayed. The input device includes, for example, a transparent electrode that detects position coordinates touched by an operator's finger. In the storage unit of the touch panel, the process indicated by the icon image displayed on the display device is associated with the position coordinates on the input device through which the icon image passes when the icon image is viewed with a predetermined line of sight. . When the operator touches a predetermined position on the input device corresponding to the icon image, processing corresponding to the icon image is executed.

画像を表示する表示器と、画像が透過される入力器の操作面(操作者が触れる面)とは、離間されて設けられている。表示器と入力器が間隔を空けて配置されている場合は、この間隔分離間される。表示器に入力器が積層されている場合は、入力器の厚み分、表示器と操作面とが離間される。この離間により、表示器を見る角度に応じて、操作者が表示器に表示された所定のアイコン画像に向ける視線と、入力器(操作面)上の交点、つまり、操作者に触れられる操作面上の位置座標が変化する。この結果、表示器(及びこれに表示されるアイコン画像)を見る角度に応じて、操作面上の画像と位置座標との対応関係が、予め記憶されていた対応関係に対してずれる。その結果、操作者が操作面に触れたときに、操作者が視認したアイコン画像が示す処理とは異なる処理が実行されるおそれがある。   The display device that displays the image and the operation surface (surface that the operator touches) of the input device through which the image is transmitted are provided apart from each other. When the display unit and the input unit are arranged with an interval, the interval is separated. When the input device is stacked on the display device, the display device and the operation surface are separated by the thickness of the input device. Due to this separation, according to the angle at which the display device is viewed, the line of sight of the operator toward the predetermined icon image displayed on the display device and the intersection on the input device (operation surface), that is, the operation surface that can be touched by the operator The upper position coordinate changes. As a result, the correspondence between the image on the operation surface and the position coordinates is deviated from the correspondence stored in advance according to the viewing angle of the display (and the icon image displayed thereon). As a result, when the operator touches the operation surface, a process different from the process indicated by the icon image visually recognized by the operator may be executed.

そこで、特許文献1では、小売店のレジスター等に用いられるPOS端末への入力に関して、予め入力者の身長情報を取得するとともに、この身長情報から、操作面に垂直に投影させたときの画面と、入力者から見える操作面上の画面とのずれ量を求めて、入力者が触れた操作面上の位置座標に当該ずれ量を反映させている。また、特許文献2では、操作面への押圧ベクトルに基づいてずれ量を求めて、位置補正を行っている。   Therefore, in Patent Document 1, regarding the input to the POS terminal used for the register of the retail store or the like, the height information of the input person is acquired in advance, and the screen when vertically projected on the operation surface from this height information The amount of deviation from the screen on the operation surface visible to the input person is obtained, and the amount of deviation is reflected in the position coordinates on the operation surface touched by the input person. Further, in Patent Document 2, the amount of deviation is obtained based on a pressure vector applied to the operation surface, and position correction is performed.

特開2007−207008号公報JP 2007-207008 A 特開2012−84049号公報JP 2012-84049 A

ところで、タッチパネルへの入力者が予め特定できている場合には、当該入力者の情報を予め反映させてずれ量を求めることが可能であるが、例えば車載タッチパネルなど、運転者や同乗者など入力者が不特定多数である場合に、上記のようなずれ補正は困難となる。そこで、本発明は、入力者が不特定多数である場合においても、ずれ補正が可能となるタッチパネル装置を提供することを目的とする。   By the way, when the input person to the touch panel can be specified in advance, it is possible to obtain the deviation amount by reflecting the information of the input person in advance. When there are an unspecified number of persons, it is difficult to correct the deviation as described above. Therefore, an object of the present invention is to provide a touch panel device capable of correcting deviation even when there are an unspecified number of input persons.

本発明は、タッチパネル装置に関する。当該タッチパネル装置は、画像を表示させる表示器と、前記表示器による画像を透過させるとともに、その面内から選択された位置座標を検知可能な操作面を備える入力器と、前記選択された位置座標に応じた演算処理が記憶された記憶部と、前記操作面周辺を撮像する撮像器と、前記撮像器による撮像画像に基づいて、前記操作面周辺の複数人の中から、前記位置座標を選択する入力者を特定するとともに、前記特定された入力者の視線に基づいて、前記位置座標と演算処理との対応関係を修正する演算部と、を備える。   The present invention relates to a touch panel device. The touch panel device includes a display device for displaying an image, an input device that transmits an image by the display device and includes an operation surface capable of detecting a position coordinate selected from within the surface, and the selected position coordinate. The position coordinates are selected from a plurality of people around the operation surface based on a storage unit storing arithmetic processing according to the image, an imager that captures the periphery of the operation surface, and an image captured by the imager And an arithmetic unit that corrects a correspondence relationship between the position coordinates and the arithmetic processing based on the identified line of sight of the input user.

また、上記発明において、前記演算部は、前記撮像画像に基づいて、前記操作面に最近接する入力手段の保持者を前記入力者として特定するとともに、前記入力手段の位置に基づいて、前記入力者による前記位置座標の選択前に、選択される前記位置座標を予測するとともに、前記入力者の視線に基づいて、予測された前記位置座標と演算処理との対応関係を修正することが好適である。   Further, in the above invention, the calculation unit specifies, as the input person, a holder of the input unit that is closest to the operation surface based on the captured image, and the input person based on the position of the input unit. It is preferable that the position coordinates to be selected are predicted before selecting the position coordinates according to, and the correspondence between the predicted position coordinates and the calculation process is corrected based on the line of sight of the input person. .

また、上記発明において、前記タッチパネル装置は、車両の前席正面に設けられ、前記記憶部には、運転席または助手席から前記操作面への視線角度が記憶され、前記演算部は、前記撮像器による撮像結果に基づいて、前記記憶された視線角度を用いて、前記位置座標と演算処理との対応関係を修正することが好適である。   In the above invention, the touch panel device is provided in front of a front seat of a vehicle, and the storage unit stores a line-of-sight angle from a driver seat or a passenger seat to the operation surface. It is preferable that the correspondence relationship between the position coordinates and the arithmetic processing is corrected using the stored line-of-sight angle based on the result of imaging by the instrument.

本発明によれば、入力者が不特定多数である場合においても、タッチパネルへの入力時のずれ補正が可能となる   ADVANTAGE OF THE INVENTION According to this invention, even when an input person is an unspecified number, the shift | offset | difference correction at the time of input to a touch panel is attained.

本実施形態に係るタッチパネル装置を例示する図である。It is a figure which illustrates the touch panel device concerning this embodiment. タッチパネル本体について説明する図である。It is a figure explaining a touch panel main body. 撮像器の撮像範囲について説明する図である。It is a figure explaining the imaging range of an imaging device. 操作面上の位置座標の修正について説明する図である。It is a figure explaining the correction of the position coordinate on an operation surface. 操作面上の位置座標の修正について説明する図である。It is a figure explaining the correction of the position coordinate on an operation surface. 演算部の制御フローを例示する図である。It is a figure which illustrates the control flow of a calculating part. ずれ角度βの求め方を説明する図である。It is a figure explaining how to obtain | require deviation | shift angle (beta).

図1に、本実施形態に係るタッチパネル装置10を例示する。なお、図1では、自動車の車室内における、前席正面部分が例示されている。タッチパネル装置10は、タッチパネル本体12、撮像器15、及び制御ユニット16を備える。   FIG. 1 illustrates a touch panel device 10 according to this embodiment. FIG. 1 illustrates the front seat front portion in the passenger compartment of the automobile. The touch panel device 10 includes a touch panel body 12, an imager 15, and a control unit 16.

タッチパネル本体12は、画像の表示及び操作面上の位置検出を行う。例えば、タッチパネル本体12は、車両の前席正面に設けられていてよく、この前席正面のうち、運転席と助手席の間の、センターコンソール18に設けられていてよい。   The touch panel body 12 performs image display and position detection on the operation surface. For example, the touch panel body 12 may be provided in front of the front seat of the vehicle, and may be provided in the center console 18 between the driver seat and the front passenger seat in the front of the front seat.

図2に、タッチパネル本体12の平面図を例示する。タッチパネル本体12は、表示器14及び入力器13を備える。   FIG. 2 illustrates a plan view of the touch panel body 12. The touch panel body 12 includes a display 14 and an input device 13.

表示器14は、所定の画像を表示させる表示手段である。表示器14は、例えば、オーディオシステムの操作ボタンを示すアイコン画像25や、地図情報を表示する。表示器14は、例えば、LEDが平面上に配列されたLEDディスプレイであってよい。表示器14は、観察者23から見て入力器13よりも後方に配置されていてよい。このような配置関係を採ることで、表示器14に表示された画像は、入力器13の操作面17を透過して観察者23に視認される。   The display device 14 is display means for displaying a predetermined image. The display device 14 displays, for example, an icon image 25 indicating operation buttons of the audio system and map information. The indicator 14 may be, for example, an LED display in which LEDs are arranged on a plane. The display device 14 may be arranged behind the input device 13 when viewed from the observer 23. By adopting such an arrangement relationship, the image displayed on the display device 14 is seen by the observer 23 through the operation surface 17 of the input device 13.

入力器13は、操作面17を備え、当該操作面17上にて選択された位置座標を検知可能な検知手段である。入力器13は、表示器14に表示された画像を透過可能な部材から構成されており、例えば操作面17となるガラスに積層された透明電極層を備えた、位置検知センサであってよい。位置検知センサは、抵抗膜式、表面弾性波式、静電容量式、光学式、及び電磁誘導式のいずれであってもよい。   The input device 13 includes an operation surface 17 and is a detection unit that can detect a position coordinate selected on the operation surface 17. The input device 13 is composed of a member that can transmit the image displayed on the display device 14, and may be a position detection sensor including a transparent electrode layer laminated on glass serving as the operation surface 17, for example. The position detection sensor may be any of a resistance film type, a surface acoustic wave type, a capacitance type, an optical type, and an electromagnetic induction type.

入力器13は、車室内の各部材と調和する意匠となるように形成されていてよい。例えば、センターコンソール18の各部材が曲面形状である場合には、入力器13は、曲面形状であってよい。   The input device 13 may be formed so as to have a design that harmonizes with each member in the vehicle interior. For example, when each member of the center console 18 has a curved surface shape, the input device 13 may have a curved surface shape.

また、入力器13は、入力者の指19やスタイラス21等の入力手段が操作面17を触れた位置座標を検出可能であってよい。また、操作面17に触れなくても、所定距離まで入力手段が操作面17に近接したときに、この近接位置に対応する位置座標を検出可能であってよい。   Further, the input device 13 may be able to detect the position coordinates where the input means such as the finger 19 of the input person or the stylus 21 touches the operation surface 17. Further, even if the operation surface 17 is not touched, the position coordinates corresponding to this proximity position may be detectable when the input unit has approached the operation surface 17 up to a predetermined distance.

表示器14と入力器13とは離間して配置される。例えば表示器14が平板形状であって、入力器13が曲面形状である場合に、表示器14と入力器13とは離間する箇所が生じる。この離間距離により、表示器14上の所定のアイコン画像25を見る角度によって、当該アイコン画像25に向ける視線と、操作面17との交点、つまり、操作者によって触れられる操作面17上の位置座標がずれる。   The display device 14 and the input device 13 are arranged apart from each other. For example, when the display device 14 has a flat plate shape and the input device 13 has a curved surface shape, the display device 14 and the input device 13 are separated from each other. Based on this separation distance, depending on the angle at which the predetermined icon image 25 on the display 14 is viewed, the intersection of the line of sight toward the icon image 25 and the operation surface 17, that is, the position coordinates on the operation surface 17 touched by the operator. Shifts.

図1に戻り、撮像器15は、タッチパネル本体12の周辺を撮像する。撮像器15は、CCDカメラやCMOSカメラ等のデジタルカメラであってよい。撮像器15は、タッチパネル本体12及び入力者が撮像可能な位置に配置されている。例えば、撮像器15は、車両の前席正面の、オーバーヘッドコンソール20に設けられていてよい。すなわち、タッチパネル本体12の鉛直方向上方に、撮像器15を設けてよい。   Returning to FIG. 1, the imager 15 images the periphery of the touch panel body 12. The image pickup device 15 may be a digital camera such as a CCD camera or a CMOS camera. The image pickup device 15 is arranged at a position where the touch panel body 12 and the input person can take an image. For example, the imager 15 may be provided in the overhead console 20 in front of the front seat of the vehicle. That is, the image pickup device 15 may be provided above the touch panel body 12 in the vertical direction.

図3には、上記のような配置を採った場合の、撮像器15の撮像範囲が例示されている。図3上段には、車両の側面図が例示されている。撮像器15の撮像範囲は、一点鎖線にて示されている。この撮像範囲に示されているように、オーバーヘッドコンソール20に搭載されることで、撮像器15は、タッチパネル本体12を含んで、それよりも車室後方の運転席24や助手席22まで撮像することが可能となる。   FIG. 3 illustrates an imaging range of the imaging device 15 when the above arrangement is adopted. In the upper part of FIG. 3, a side view of the vehicle is illustrated. The imaging range of the imaging device 15 is indicated by a one-dot chain line. As shown in this imaging range, by being mounted on the overhead console 20, the imaging device 15 includes the touch panel body 12 and images to the driver seat 24 and the passenger seat 22 behind the passenger compartment. It becomes possible.

撮像器15の撮像範囲は、図3中段のハッチング領域のような、タッチパネル本体12周辺の領域(以下、タッチパネル領域と呼ぶ)と、図3下段のハッチング領域のような、運転席24や助手席22を含む領域(以下、乗員領域と呼ぶ)とに分けることができる。後述するように、タッチパネル領域の撮像画像から、タッチパネル本体12への入力者が特定可能となる。また、乗員領域の撮像画像から、入力者の視線が特定可能となる。   The image pickup range of the image pickup device 15 includes an area around the touch panel body 12 (hereinafter referred to as a touch panel area) such as a hatched area in the middle of FIG. 22 (hereinafter referred to as the passenger area). As will be described later, an input person to the touch panel body 12 can be identified from the captured image in the touch panel area. Further, the line of sight of the input person can be specified from the captured image of the passenger area.

図1に戻り、制御ユニット16は、入力者によるタッチパネル本体12への入力に応じて、演算処理を行う。制御ユニット16は、演算部26及び記憶部28を備える。   Returning to FIG. 1, the control unit 16 performs arithmetic processing according to an input to the touch panel body 12 by an input person. The control unit 16 includes a calculation unit 26 and a storage unit 28.

記憶部28は、タッチパネル本体12の操作面17上にて選択された位置座標に応じた演算処理を記憶する。なお、表示器14が複数種類の画像を切り替え表示可能である場合、その表示内容別に、操作面17の位置座標と演算処理との対応関係が記憶部28に記憶されていてよい。記憶部28は、例えば、制御ユニット16に設けられたROMやRAM、EPROM、ハードディスク装置、フラッシュメモリ等の記憶回路であってよい。   The storage unit 28 stores calculation processing according to the position coordinates selected on the operation surface 17 of the touch panel body 12. When the display device 14 can switch and display a plurality of types of images, the correspondence between the position coordinates of the operation surface 17 and the arithmetic processing may be stored in the storage unit 28 for each display content. The storage unit 28 may be, for example, a storage circuit such as a ROM, a RAM, an EPROM, a hard disk device, or a flash memory provided in the control unit 16.

操作面17上の位置座標と、演算処理との対応関係は、例えば以下のようにして定められる。すなわち、表示器14から垂直に(表示器14の表示面31から垂直に)操作面17に画像を透過させたときの、操作面17上のアイコン画像の位置座標と、当該アイコン画像が示す演算処理とを対応付けて、これを記憶部28に記憶させる。   The correspondence between the position coordinates on the operation surface 17 and the arithmetic processing is determined as follows, for example. That is, when the image is transmitted through the operation surface 17 vertically from the display device 14 (perpendicular to the display surface 31 of the display device 14), the position coordinates of the icon image on the operation surface 17 and the calculation indicated by the icon image are displayed. The processing is associated with each other and stored in the storage unit 28.

演算部26は、タッチパネル本体12、撮像器15、及び記憶部28からの信号に基づく演算を行うとともに、演算結果をこれらの機器に送る。演算部26は、例えば制御ユニット16の基板上に実装された、集積回路であってよい。   The calculation unit 26 performs calculations based on signals from the touch panel body 12, the image pickup device 15, and the storage unit 28, and sends the calculation results to these devices. The computing unit 26 may be an integrated circuit mounted on the substrate of the control unit 16, for example.

演算部26は、まず、撮像器15による撮像画像に基づいて、操作面17周辺の複数人の中から、位置座標を選択する入力者を特定する。さらに、特定された入力者の視線に基づいて、記憶部28に記憶された、位置座標と演算処理との対応関係を修正する。   First, the computing unit 26 specifies an input person who selects position coordinates from among a plurality of people around the operation surface 17 based on the image captured by the imager 15. Further, the correspondence relationship between the position coordinates and the calculation process stored in the storage unit 28 is corrected based on the identified line of sight of the input user.

図4には、入力者の特定プロセスの模式図が示されている。演算部26は、撮像器15によって撮像された、タッチパネル領域の撮像画像を解析して、操作面17に最近接する入力手段(指19やスタイラス21)を特定する。例えば操作面17からの離間距離を入力手段ごとに求めて比較することで、操作面17に最近接する入力手段を特定する。さらに演算部26は、撮像器15によって撮像された、乗員領域の撮像画像を解析して、特定された入力手段の保持者30、すなわち入力者を特定する。   FIG. 4 shows a schematic diagram of the process of specifying the input person. The computing unit 26 analyzes the captured image of the touch panel area captured by the imager 15 and identifies the input means (finger 19 or stylus 21) closest to the operation surface 17. For example, the input unit closest to the operation surface 17 is specified by obtaining and comparing the distance from the operation surface 17 for each input unit. Further, the calculation unit 26 analyzes the captured image of the occupant area captured by the imager 15, and identifies the specified input means holder 30, that is, the input person.

次に、図5に示すように、演算部26は、特定された入力者の視線を求める。例えば入力者30の顔の画像処理を行って、両目を結ぶ中点を求めるとともに、この中点と、表示面31の中心を結ぶ線を、入力者30の視線とする。   Next, as illustrated in FIG. 5, the calculation unit 26 obtains the line of sight of the specified input person. For example, image processing of the face of the input person 30 is performed to obtain a midpoint connecting the eyes, and a line connecting the midpoint and the center of the display surface 31 is set as the line of sight of the input person 30.

演算部26は、特定された入力者の視線に基づいて、記憶部28に記憶された、操作面17の位置座標と演算処理との対応関係を修正する。修正は例えば以下のように行われる。演算部26は、入力者の視線と、表示器14の表示面31に対する垂線との成す角度(ずれ角度)αを求める。さらに操作面17の形状から、操作面17と垂線の交点P1と、操作面17と視線の交点P2との距離(ずれ量)Lを求める。例えば操作面17が楕円形状である場合に、楕円の周長を求める公式を用いて距離Lを求める。さらに演算部26は、入力者30によって選択された位置座標に距離Lを加えた(座標系によっては減算した)座標に対応する演算処理を記憶部28から参照して、当該演算処理を実行する。   The calculation unit 26 corrects the correspondence relationship between the position coordinates of the operation surface 17 and the calculation process stored in the storage unit 28 based on the identified line of sight of the input user. The correction is performed as follows, for example. The computing unit 26 obtains an angle (shift angle) α formed between the line of sight of the input person and a perpendicular to the display surface 31 of the display 14. Further, from the shape of the operation surface 17, a distance (deviation amount) L between the intersection P <b> 1 between the operation surface 17 and the perpendicular and the intersection P <b> 2 between the operation surface 17 and the line of sight is obtained. For example, when the operation surface 17 is elliptical, the distance L is obtained using a formula for obtaining the circumference of the ellipse. Further, the calculation unit 26 refers to the calculation process corresponding to the coordinate obtained by adding the distance L to the position coordinate selected by the input person 30 (subtracted depending on the coordinate system) from the storage unit 28 and executes the calculation process. .

なお、位置座標と演算処理の対応関係の修正を、入力手段が操作面17に触れた際に実行するなど、位置座標の選択がなされたことをトリガーにして実行すると、修正の演算処理に掛かる時間分、操作面17への接触と演算処理の実行との間にタイムラグが生じる。このことから、操作面17の位置座標の選択が行われる前に、選択される座標を予測して、この予測に基づいて、修正処理を先行させてもよい。   If the correction of the correspondence between the position coordinates and the calculation process is executed when the position coordinate is selected, such as when the input means touches the operation surface 17, the correction calculation process is performed. A time lag occurs between the contact with the operation surface 17 and the execution of the arithmetic processing for the time. Therefore, before the position coordinate of the operation surface 17 is selected, the selected coordinate may be predicted, and the correction process may be preceded based on this prediction.

上述したように、演算部26は、タッチパネル領域や乗員領域の撮像画像に基づいて、操作面17に最近接する入力手段と、その保持者(=入力者)を特定する。さらに演算部26は、入力手段の位置に基づいて、入力者が選択するであろう位置座標を予測、推定する。例えば、演算部26は、入力手段に最近接する操作面17の位置座標を推定する。具体的には、入力手段の長手方向軸と操作面17の交点を求めて、この交点の位置座標を取得する。   As described above, the calculation unit 26 specifies the input unit closest to the operation surface 17 and the holder (= input person) based on the captured images of the touch panel area and the passenger area. Further, the calculation unit 26 predicts and estimates position coordinates that the input person will select based on the position of the input means. For example, the calculation unit 26 estimates the position coordinates of the operation surface 17 closest to the input unit. Specifically, the intersection of the longitudinal axis of the input means and the operation surface 17 is obtained, and the position coordinates of this intersection are obtained.

さらに演算部26は、入力者の視線と、ずれ角度(補正角度)αを求め、操作面17上のずれ量Lを求める。さらに演算部26は、ずれ量Lに基づいて、推定(予測)された位置座標と演算処理の対応関係を修正する。   Further, the calculation unit 26 obtains the line of sight of the input person and the deviation angle (correction angle) α, and obtains the deviation amount L on the operation surface 17. Further, the calculation unit 26 corrects the correspondence relationship between the estimated (predicted) position coordinates and the calculation process based on the deviation amount L.

図6には、上述した演算部26の制御フローが例示されている。まず、演算部26は、撮像器15が撮像した、乗員領域の撮像画像から、乗員の有無を判定する(S10)。さらに乗員を認識すると、タッチパネル領域の撮像画像を解析する(S12)。この解析において操作面17の周辺に入力手段があることを判定した場合(S14)、乗員領域の撮像画像を用いて、入力手段の保持者(=入力者)を特定する(S16)。操作面17の周辺に入力手段がない場合、タッチパネル領域の監視を継続する。   FIG. 6 exemplifies the control flow of the arithmetic unit 26 described above. First, the computing unit 26 determines the presence or absence of an occupant from the captured image of the occupant area captured by the imager 15 (S10). When the occupant is further recognized, the captured image in the touch panel area is analyzed (S12). In this analysis, when it is determined that there is an input means around the operation surface 17 (S14), the holder (= input person) of the input means is specified using the captured image of the passenger area (S16). When there is no input means around the operation surface 17, the touch panel area is continuously monitored.

入力手段の保持者(=入力者)を特定した後、演算部26は、入力者の顔位置からずれ角度αを求める(S18)。次に、演算部26は、入力手段の位置や長手方向の向きなどから、選択される操作面17上の位置座標を推定するとともに、ずれ量Lを求める(S20)。操作面17に入力手段が触れるなど、位置座標の選択が行われると(S22)、ずれ量Lに基づいて、演算部26は、位置座標と演算処理の対応関係を修正する(S24)。さらに修正後の演算処理が実行される(S26)。   After identifying the holder of the input means (= input person), the calculation unit 26 obtains the shift angle α from the face position of the input person (S18). Next, the calculation unit 26 estimates the position coordinates on the operation surface 17 to be selected from the position of the input means, the longitudinal direction, and the like, and obtains the deviation amount L (S20). When the position coordinate is selected such as when the input means touches the operation surface 17 (S22), the calculation unit 26 corrects the correspondence between the position coordinate and the calculation process based on the deviation L (S24). Further, the corrected calculation process is executed (S26).

なお、上記の実施形態では、撮像器15による撮像画像が、解析可能である程度に鮮明であることを前提としているが、夜間など、撮像器15による撮像画像が不鮮明である場合に、解析が困難になることも考えられる。そこで、予め入力者の視線を記憶部28に記憶させるとともに、演算部26は、撮像器15による撮像結果に応じて、位置座標と演算処理との対応関係を、記憶された視線のデータを用いて修正するようにしてもよい。   In the above-described embodiment, it is assumed that the image captured by the image capturing device 15 is clear enough to be analyzed, but analysis is difficult when the image captured by the image capturing device 15 is unclear, such as at night. It is also possible to become. Accordingly, the line of sight of the input person is stored in the storage unit 28 in advance, and the calculation unit 26 uses the stored line-of-sight data for the correspondence between the position coordinates and the calculation process in accordance with the image pickup result by the image pickup device 15. May be corrected.

図7に示すように、表示器14の表示面31の中心から助手席(または運転席)シートの背面までの距離dと、シート幅cの中点c/2を用いて、下記数式(1)のように基準視線角度βを求める。求められたβを記憶部28に記憶させる。   As shown in FIG. 7, using the distance d from the center of the display surface 31 of the display 14 to the back surface of the passenger seat (or driver's seat) and the midpoint c / 2 of the seat width c, the following formula (1 ) To obtain the reference line-of-sight angle β. The obtained β is stored in the storage unit 28.

Figure 2015114682
Figure 2015114682

次に、演算部26は、撮像器15による撮像画像を解析する。このとき、撮像画像が不鮮明である場合、例えば、コントラスト(輝度値の最大値と最小値の比)が閾値未満である場合に、演算部26は、基準視線角度βと、入力者によって選択された操作面17上の位置座標とをもとにして、位置座標と演算処理との対応関係を修正する。   Next, the calculation unit 26 analyzes the image captured by the imager 15. At this time, when the captured image is unclear, for example, when the contrast (ratio between the maximum value and the minimum value of the luminance value) is less than the threshold value, the calculation unit 26 is selected by the reference gaze angle β and the input person. Based on the position coordinates on the operation surface 17, the correspondence between the position coordinates and the arithmetic processing is corrected.

10 タッチパネル装置、12 タッチパネル本体、13 入力器、14 表示器、15 撮像器、16 制御ユニット、17 操作面、26 演算部、28 記憶部。
DESCRIPTION OF SYMBOLS 10 Touch panel apparatus, 12 Touch panel main body, 13 Input device, 14 Display device, 15 Image pick-up device, 16 Control unit, 17 Operation surface, 26 Calculation part, 28 Storage part.

Claims (3)

画像を表示させる表示器と、
前記表示器による画像を透過させるとともに、その面内から選択された位置座標を検知可能な操作面を備える入力器と、
前記選択された位置座標に応じた演算処理が記憶された記憶部と、
前記操作面周辺を撮像する撮像器と、
前記撮像器による撮像画像に基づいて、前記操作面周辺の複数人の中から、前記位置座標を選択する入力者を特定するとともに、前記特定された入力者の視線に基づいて、前記位置座標と演算処理との対応関係を修正する演算部と、
を備えることを特徴とする、タッチパネル装置。
A display for displaying images;
An input device having an operation surface that transmits an image by the display device and that can detect a position coordinate selected from within the surface;
A storage unit storing arithmetic processing according to the selected position coordinates;
An imager for imaging the periphery of the operation surface;
Based on the image captured by the imager, the input person who selects the position coordinate is specified from among a plurality of persons around the operation surface, and the position coordinate is determined based on the line of sight of the specified input person. An arithmetic unit for correcting the correspondence with the arithmetic processing;
A touch panel device comprising:
請求項1に記載のタッチパネル装置であって、
前記演算部は、前記撮像画像に基づいて、前記操作面に最近接する入力手段の保持者を前記入力者として特定するとともに、前記入力手段の位置に基づいて、前記入力者による前記位置座標の選択前に、選択される前記位置座標を予測するとともに、前記入力者の視線に基づいて、予測された前記位置座標と演算処理との対応関係を修正することを特徴とする、タッチパネル装置。
The touch panel device according to claim 1,
The calculation unit specifies, as the input person, a holder of the input means that is closest to the operation surface based on the captured image, and selects the position coordinates by the input person based on the position of the input means. A touch panel device characterized by predicting the position coordinates to be selected before and correcting a correspondence relationship between the predicted position coordinates and calculation processing based on the line of sight of the input person.
請求項1または2に記載のタッチパネル装置であって、
前記タッチパネル装置は、車両の前席正面に設けられ、
前記記憶部には、運転席または助手席から前記操作面への視線角度が記憶され、
前記演算部は、前記撮像器による撮像結果に基づいて、前記記憶された視線角度を用いて、前記位置座標と演算処理との対応関係を修正することを特徴とする、タッチパネル装置。
The touch panel device according to claim 1 or 2,
The touch panel device is provided in front of the front seat of the vehicle,
The storage unit stores a line-of-sight angle from the driver seat or the passenger seat to the operation surface,
The said calculating part corrects the correspondence of the said position coordinate and a calculation process using the memorize | stored line-of-sight angle based on the imaging result by the said image pick-up device, The touch panel apparatus characterized by the above-mentioned.
JP2013253840A 2013-12-09 2013-12-09 Touch panel device Pending JP2015114682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013253840A JP2015114682A (en) 2013-12-09 2013-12-09 Touch panel device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013253840A JP2015114682A (en) 2013-12-09 2013-12-09 Touch panel device

Publications (1)

Publication Number Publication Date
JP2015114682A true JP2015114682A (en) 2015-06-22

Family

ID=53528480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013253840A Pending JP2015114682A (en) 2013-12-09 2013-12-09 Touch panel device

Country Status (1)

Country Link
JP (1) JP2015114682A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179709A1 (en) * 2016-04-15 2017-10-19 株式会社デンソー Information processing device and display system
JP2020091509A (en) * 2018-12-03 2020-06-11 ルネサスエレクトロニクス株式会社 Information input device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179709A1 (en) * 2016-04-15 2017-10-19 株式会社デンソー Information processing device and display system
JP2017191563A (en) * 2016-04-15 2017-10-19 株式会社デンソー Information processing device and display system
US10705650B2 (en) 2016-04-15 2020-07-07 Denso Corporation Information processing apparatus and display system
JP2020091509A (en) * 2018-12-03 2020-06-11 ルネサスエレクトロニクス株式会社 Information input device
JP7178888B2 (en) 2018-12-03 2022-11-28 ルネサスエレクトロニクス株式会社 Information input device

Similar Documents

Publication Publication Date Title
EP1604266B1 (en) Multi-view display
CN105189178B (en) Sight input unit
JP6056323B2 (en) Gaze detection device, computer program for gaze detection
US9696814B2 (en) Information processing device, gesture detection method, and gesture detection program
US8730164B2 (en) Gesture recognition apparatus and method of gesture recognition
US8482557B2 (en) Device and method for setting instructed position during three-dimensional display, as well as program
KR20100105293A (en) Handling device for vehicle
US20220198832A1 (en) Vehicle system with no-control operation
JP2014048680A (en) Information system
US20170235363A1 (en) Method and System for Calibrating an Eye Tracking System
JP6791108B2 (en) Face position detector
WO2011136213A1 (en) Display device
WO2014103217A1 (en) Operation device and operation detection method
JP2015095161A (en) Line-of-sight direction detection device
US20180052564A1 (en) Input control apparatus, input control method, and input control system
JP2012022646A (en) Visual line direction detector, visual line direction detection method and safe driving evaluation system
JP2008052536A (en) Touch panel type input device
JP2015114682A (en) Touch panel device
JP2013120447A (en) Display control system
JPWO2013175603A1 (en) Operation input device, operation input method, and operation input program
JP2007080187A (en) Operation input device
JP6169446B2 (en) Gaze detection device
JP6583113B2 (en) Information processing apparatus and display system
JP2015046111A (en) Viewpoint detection device and viewpoint detection method
JP2020087207A (en) Input device