JP6315443B2 - Input device, input detection method for multi-touch operation, and input detection program - Google Patents
Input device, input detection method for multi-touch operation, and input detection program Download PDFInfo
- Publication number
- JP6315443B2 JP6315443B2 JP2014002876A JP2014002876A JP6315443B2 JP 6315443 B2 JP6315443 B2 JP 6315443B2 JP 2014002876 A JP2014002876 A JP 2014002876A JP 2014002876 A JP2014002876 A JP 2014002876A JP 6315443 B2 JP6315443 B2 JP 6315443B2
- Authority
- JP
- Japan
- Prior art keywords
- contact
- detection
- range
- input
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Description
本発明は、複数の指によりタッチ操作可能なマルチタッチ入力機能を備えた入力装置に関し、特に、2点目以降のタッチ位置を予測する機能を備えたマルチタッチ操作の入力検出方法に関する。 The present invention relates to an input device having a multi-touch input function that can be touch-operated with a plurality of fingers, and more particularly, to an input detection method for a multi-touch operation having a function of predicting touch positions after the second point.
現在、パソコン、スマートフォン、タブレット端末、車載装置などの様々な電子装置において、タッチパネルが搭載され、そのタッチパネルへのタッチ操作(指等の接触または接近)により各種指示が入力される。タッチ操作は、ディスプレイに映し出される操作ボタンを直感的に認識することができるからITスキルを持たない一般の方々にも広く利用されている。タッチ操作には、例えば、任意の位置を押すタップ操作やダブルタップ操作、一定時間押し続けるロングタップ操作、押した状態で指を移動させるスライド操作やフリック操作、2本の指を近づけたり遠ざけたりするピンチ操作など様々な操作方法があり、スマートフォンや車載装置では、それらの操作方法を活用して操作性や利便性を向上させ、メニュー等の表示や各種設定など様々な操作入力を可能にしている。 Currently, various electronic devices such as a personal computer, a smartphone, a tablet terminal, and an in-vehicle device are equipped with a touch panel, and various instructions are input by a touch operation (contact or approach of a finger or the like) on the touch panel. The touch operation is widely used by ordinary people who do not have IT skills because the operation buttons displayed on the display can be intuitively recognized. Touch operations include, for example, a tap operation or a double tap operation that presses an arbitrary position, a long tap operation that keeps pressing for a certain period of time, a slide operation or a flick operation that moves a finger in the pressed state, or two fingers are moved closer or away. There are various operation methods such as pinch operation, and smartphones and in-vehicle devices utilize these operation methods to improve operability and convenience, enabling various operation inputs such as menu display and various settings. Yes.
例えば、特許文献1には、光学式タッチパネルのタッチ入力時の短縮を図ると共に高分解能座標値を得られるようにする光学式タッチパネルに関する技術が開示されている。この光学式タッチパネルには、光学素子の配置間隔以下の寸法で遮光物体の位置情報の識別可能な高分解能を可能にし、また、タッチ入力を可能にするという効果がある。 For example, Patent Document 1 discloses a technique related to an optical touch panel that is intended to shorten the time of touch input on the optical touch panel and to obtain a high resolution coordinate value. This optical touch panel has an effect of enabling a high resolution capable of identifying the position information of the light shielding object with a dimension equal to or smaller than the arrangement interval of the optical elements and enabling touch input.
また、特許文献2には、対象となるタッチ入力は全表示画面上に1つしかありえないということを利用して光遮断場所走査の効率向上を図る光透過型タッチ入力装置に関する技術が開示されている。単一の発光受光素子当りの、外乱光との判別に要する走査時間を小さくすることなく、しかも対象領域の光走査回数を上げることで、測定精度向上と移動物体の早期発見をともに可能ならしめるものである。 Further, Patent Document 2 discloses a technique related to a light-transmissive touch input device that improves the efficiency of light blocking location scanning by utilizing the fact that there can be only one target touch input on the entire display screen. Yes. By increasing the number of times of light scanning in the target area without reducing the scanning time required to discriminate from ambient light per single light emitting / receiving element, it is possible to improve both measurement accuracy and detect moving objects early. Is.
図10は、タッチ位置を特定するスキャン方法を説明する概略図である。タッチパネルにおいて、タッチ位置を特定するためのスキャンは、シーケンシャルに行われている。一般的には、図10(a)に示すように、まず、X軸方向へのスキャンが上側から下側へと順次行われる。そして、X軸方向へのスキャンが終了すると、図10(b)に示すように、Y軸方向へのスキャンが左側から右側へと順次行われる。このようなシーケンシャルスキャンでは、タッチパネル全体をスキャンする必要があり、ユーザーのタッチ位置を特定するのに一定時間を要する。 FIG. 10 is a schematic diagram illustrating a scanning method for specifying a touch position. In the touch panel, scanning for specifying a touch position is performed sequentially. In general, as shown in FIG. 10A, first, scanning in the X-axis direction is sequentially performed from the upper side to the lower side. When scanning in the X-axis direction is completed, scanning in the Y-axis direction is sequentially performed from the left side to the right side as shown in FIG. In such a sequential scan, it is necessary to scan the entire touch panel, and it takes a certain time to specify the touch position of the user.
近年、画面の大型化や精細化に伴い、1回のスキャンにかかる時間が増加する傾向にある。また、複数の指によるマルチタッチ入力では、スキャンが複数回繰り返されるため、スキャン時間が長くなり、タッチ操作に対する応答特性の低下が懸念されている。例えば、車載装置では、道路地図を拡大縮小する際、マルチタッチ入力を利用するピンチ操作を用いることがある。このような場面では、縮尺に応じた地図データをメモリから読み込むために時間がかかってしまうため、スキャン時間の短縮が特に望まれている。 In recent years, the time required for one scan tends to increase as the screen becomes larger and finer. Further, in multi-touch input with a plurality of fingers, scanning is repeated a plurality of times, so that the scanning time becomes long, and there is a concern that response characteristics with respect to a touch operation are deteriorated. For example, an in-vehicle device may use a pinch operation using multi-touch input when scaling a road map. In such a scene, since it takes time to read map data corresponding to the scale from the memory, it is particularly desired to shorten the scan time.
本発明は、このような従来の課題を解決するものであり、2点目以降のタッチ位置を予測して検出範囲を制御することで、スキャン時間の短縮を図ることができる入力装置を提供することを目的とする。 The present invention solves such a conventional problem, and provides an input device that can shorten the scan time by predicting the second and subsequent touch positions and controlling the detection range. For the purpose.
本発明に係る入力装置は、タッチパネル上への物体の接近または接触を検出する検出手段と、前記タッチパネルへの第1の接触の座標を検出する第1の接触検出手段と、前記第1の接触の接触態様を判別する判別手段と、前記第1の接触検出手段により検出された座標及び前記判別手段により判別された接触態様に基づき第2の接触の範囲を予測する予測手段と、前記予測手段の予測結果に基づき前記検出手段の検出範囲を制御する制御手段と
を有する。
An input device according to the present invention includes a detection unit that detects an approach or contact of an object on a touch panel, a first contact detection unit that detects coordinates of a first contact with the touch panel, and the first contact. Determining means for determining the contact mode, a predicting unit for predicting a second contact range based on the coordinates detected by the first contact detecting unit and the contact mode determined by the determining unit, and the predicting unit Control means for controlling the detection range of the detection means based on the prediction result.
好ましくは、前記予測手段は、前記判別手段により判別された手や指の種別に応じて第2の接触の範囲を予測する。前記予測手段は、前記判別手段により判別された手や指の種別と前記タッチパネル上における第1の接触の位置関係とに応じて、第2の接触の範囲を予測する。 Preferably, the predicting unit predicts the second contact range according to the type of the hand or finger determined by the determining unit. The prediction means predicts a second contact range according to the type of the hand or finger determined by the determination means and the positional relationship of the first contact on the touch panel.
好ましくは、前記制御手段は、前記検出手段による検出範囲を、前記第2の接触の範囲に制限する。前記予測手段は、予め用意された接触範囲予測テーブルに基づき第2の接触の範囲を予測し、前記接触範囲予測テーブルは、指および手の種別と第2の接触の範囲との関係を規定する。 Preferably, the control means limits a detection range by the detection means to the range of the second contact. The prediction means predicts a second contact range based on a contact range prediction table prepared in advance, and the contact range prediction table defines a relationship between the type of finger and hand and the second contact range. .
好ましくは、前記判別手段は、前記検出手段の静電容量変化に基づき物体の接触態様を判別する。前記判別手段は、タッチパネル周辺に設けられた物体の接近を検出する近接センサの出力に基づき物体の接触態様を判別する。前記判別手段は、近接センサの出力に基づき右手または左手を判別する。前記判別手段は、タッチパネル周辺を撮像する撮像カメラにより撮像された画像情報に基づき接触態様を判別する。 Preferably, the determination unit determines a contact mode of the object based on a change in capacitance of the detection unit. The discrimination means discriminates the contact mode of the object based on the output of the proximity sensor that detects the approach of the object provided around the touch panel. The discrimination means discriminates the right hand or the left hand based on the output of the proximity sensor. The discriminating unit discriminates a contact mode based on image information captured by an imaging camera that captures the periphery of the touch panel.
本発明のマルチタッチ操作の入力検出方法は、タッチパネルを備えた入力装置におけるマルチタッチ操作の入力検出方法であって、タッチパネル上への物体の接近または接触を検出する検出ステップと、前記タッチパネルへの第1の接触の座標を検出する第1の接触検出ステップと、前記第1の接触の接触態様を判別する判別ステップと、前記第1の接触検出ステップにより検出された座標及び前記判別ステップにより判別された接触態様に基づき第2の接触の範囲を予測する予測ステップと、前記予測ステップの予測結果に基づき前記検出ステップの検出範囲を制御する制御ステップとを有する。 An input detection method for a multi-touch operation according to the present invention is an input detection method for a multi-touch operation in an input device including a touch panel, and a detection step for detecting an approach or contact of an object on the touch panel; Discrimination based on the first contact detection step for detecting the coordinates of the first contact, the discrimination step for discriminating the contact mode of the first contact, the coordinates detected by the first contact detection step, and the discrimination step A prediction step of predicting a range of the second contact based on the contact mode performed, and a control step of controlling the detection range of the detection step based on the prediction result of the prediction step.
本発明のマルチタッチ操作の検出プログラムは、タッチパネルを備えた入力装置が実行するマルチタッチ操作の入力検出プログラムであって、タッチパネル上への物体の接近または接触を検出する検出ステップと、前記タッチパネルへの第1の接触の座標を検出する第1の接触検出ステップと、前記第1の接触の接触態様を判別する判別ステップと、前記第1の接触検出ステップにより検出された座標及び前記判別ステップにより判別された接触態様に基づき第2の接触の範囲を予測する予測ステップと、前記予測ステップの予測結果に基づき前記検出ステップの検出範囲を制御する制御ステップとを有する。 A multi-touch operation detection program according to the present invention is a multi-touch operation input detection program executed by an input device including a touch panel, the detection step of detecting the approach or contact of an object on the touch panel, and the touch panel A first contact detecting step for detecting the coordinates of the first contact, a determining step for determining the contact mode of the first contact, the coordinates detected by the first contact detecting step, and the determining step. A prediction step of predicting a second contact range based on the determined contact mode; and a control step of controlling the detection range of the detection step based on a prediction result of the prediction step.
本発明によれば、2点目以降のタッチ操作に係る接触範囲が予測され、タッチ位置を検出する検出範囲が制限されるため、スキャン時間を短縮することができ、タッチ操作に対する応答特性が向上する。 According to the present invention, since the contact range related to the touch operation after the second point is predicted and the detection range for detecting the touch position is limited, the scan time can be shortened, and the response characteristic to the touch operation is improved. To do.
本発明の実施の形態について図面を参照して詳細に説明する。本発明の入力装置は、入力インターフェースとしてタッチパネルを備え、例えば、ノート型PC、タブレット型PC、パーソナルコンピュータ、車載装置、ゲーム機器、施設ガイド用表示装置やその他タッチ入力可能なディスプレイ装置であることができる。好ましい態様として、タッチ入力の際、複数の指によりタッチ操作可能なマルチタッチ入力に対応するものであり、タッチ操作時の接する態様、あるいはタッチ操作直前の接近態様を検出可能な機能を有する。例えば、1点目のタッチ入力が行われた後、その接触態様に基づき、2点目のタッチ位置に係る接触範囲を予測することができる。 Embodiments of the present invention will be described in detail with reference to the drawings. The input device of the present invention includes a touch panel as an input interface, and may be, for example, a notebook PC, a tablet PC, a personal computer, an in-vehicle device, a game machine, a facility guide display device, or other display device capable of touch input. it can. As a preferable mode, in the case of touch input, it corresponds to multi-touch input that can be touch-operated with a plurality of fingers, and has a function that can detect a touching mode at the time of touch operation or an approach mode immediately before the touch operation. For example, after the touch input of the first point is performed, the contact range related to the touch position of the second point can be predicted based on the contact mode.
これにより、入力装置は、2点目のタッチ位置を検出する際に、その検出範囲を制限することができ、タッチ操作に対する応答特性を向上させる。例えば、車載装置の場合、道路地図を拡大に用いるピンチ操作に対し、スキャン時間を短縮することができ、車載装置は、縮尺に応じた道路地図の読み込みを即座に開始することができる。 Thereby, when the input device detects the second touch position, the input range can be limited, and the response characteristic to the touch operation is improved. For example, in the case of an in-vehicle device, the scan time can be shortened with respect to a pinch operation using a road map for enlargement, and the in-vehicle device can immediately start reading a road map according to the scale.
次に、本発明の実施例に係る入力装置の一例として車載装置について図面を参照して説明する。図1は、車載装置の構成例を示すブロック図である。車載装置10は、自車位置周辺の道路地図を表示したり、目的地までの誘導経路を案内するナビゲーション部20と、CD、DVD、ブルーレイディスク、ハードディスク装置などから得られるオーディオデータやビデオデータを再生するマルチメディア再生部40と、タッチパネルやスイッチなど、ユーザーからの指示を受け取る入力部60と、タッチパネル周辺において、物体の接近を検出可能な近接センサ80と、車内に取り付けられ、タッチパネル周辺を撮像する撮像カメラ100と、ナビゲーション画像、メディア再生画像など、入力インターフェースを含む表示画像をディスプレイに表示する表示制御部120と、目的地までの経路案内、道路交通情報や警告を音声により出力する音声出力部140と、プログラムやデータ等を記憶する記憶部160と、プログラム等を実行することで各部を制御する制御部180を含んで構成される。
Next, an in-vehicle device will be described with reference to the drawings as an example of an input device according to an embodiment of the present invention. FIG. 1 is a block diagram illustrating a configuration example of an in-vehicle device. The in-vehicle device 10 displays a road map around the vehicle position and guides a guidance route to the destination, and audio data and video data obtained from a CD, DVD, Blu-ray disc, hard disk device, etc.
入力部60は、入力インターフェースとしてディスプレイ上に重畳されたタッチパネルを含む。タッチパネルは、公知のように指等の物体が接触した位置、あるいはそこから離れた位置をXY座標データとして検出することができる。好ましい態様では、静電容量型のタッチパネルが用いられ、静電容量の変化に応じて接触及び接近する物体を検出することができる。
The
図2は、タッチパネルによるタッチ位置とその接触態様の検出方法を説明する図である。例えば、ユーザーがピンチ操作をしようと、図2(a)に示すように、タッチパネル62に手を接近させ、人差し指を接触させる。タッチパネル62は、接触した人差し指や接近する他の指などとの間に生じる静電容量を検出することができる。また、制御部180では、タッチパネルからの出力に基づき、パネル上の各位置に応じた静電容量の強度分布が作成される。
FIG. 2 is a diagram for explaining a method for detecting a touch position on the touch panel and its contact state. For example, when the user performs a pinch operation, as shown in FIG. 2A, a hand is brought close to the
図2(b)は、図2(a)に対応する静電容量の強度分布を模式的に示す分布図である。図2(b)は、制御部180により検出された静電容量の強度を3段階のレベルで表した例を示し、接触または接近する手や指の形状や位置など接触態様を反映したものである。図中の濃い部分が、静電容量が最も強いレベルを表している。例えば、A領域は、タッチパネル62に接触した人差し指の位置を示すものであり、高い静電容量が検出されるため、その中心の静電容量は「高レベル」である。一方、B領域は、タッチパネル62に近い親指の位置に対応するものであり、その静電容量は「中レベル」となる。また、C領域は、中指から小指の握り締めている部分に対応するものであり、タッチパネル62からやや離れているため、その静電容量は「低レベル」となる。このように静電容量の強度分布には、接触または接近する手や指の位置やタッチパネルとの距離の関数となるため、タッチ位置の検出やその接触態様の判別に用いることができる。また、制御部180は、タッチ操作がある直前、すなわちタッチ入力されるまでの静電容量の強度分布の一定期間内の時系列的な変化を監視することにより、手や指の接近方向、例えば、手や指がディスプレイの左側から接近されたか、あるいは右側から接近されたか等の情報を取得することができる。
FIG. 2B is a distribution diagram schematically showing a capacitance intensity distribution corresponding to FIG. FIG. 2B shows an example in which the strength of the capacitance detected by the
図3は、近接センサの配置の一例を示す概略図である。近接センサ80は、図3に示すように、ディスプレイ122の左右両側に配置され、運転席側、または助手席側、さらには上側か下側など、手や指などの物体が接近する接近方向を検出することができる。近接センサ80は、例えば、赤外線センサなどを用いることができ、赤外線センサは、赤外線を照射する発光素子と、照射された物体の反射光を受光する受光センサとを含んで構成される。近接センサ80の検出結果は、制御部180へ提供される。近接センサ80により検出される物体の接近方向に関する情報は、必須ではないが、タッチパネルによる接触態様の検出または判別が十分でないときなどの必要に応じて接触態様の判別に活用することができる。
FIG. 3 is a schematic diagram illustrating an example of the arrangement of proximity sensors. As shown in FIG. 3, the
図4は、撮像カメラの配置を示す概略図である。撮像カメラ100は、ディスプレイ122に接近する手や指を撮像するためのものであり、車内の所定の位置に取り付けられる。撮像カメラ100は、例えば、車内のルームミラー、ルームライト付近に設置され、ディスプレイ122に接近する手や指を撮像することができる。撮像カメラ100は、これ以外にも、ディスプレイ122の外縁部に一体的に取り付けられたり、車内の天井、座席、インスツルメンツを配したダッシュボードなどに取り付けるようにしてもよい。また、撮像カメラ100は、これに限らず、手指の形状や位置を3次元的に特定可能な他の3Dセンシング機器であってもよい。撮像カメラ100によって撮像された撮像データは、制御部180へ提供される。撮像カメラ100により取得される手指の形状や位置に関する情報は、必須ではないが、タッチパネルや近接センサによる接触態様の検出または判別が十分でないときなどの必要に応じて接触態様の判別に利用することができる。
FIG. 4 is a schematic diagram showing the arrangement of the imaging cameras. The
表示制御部120は、ナビゲーション画像、メディア再生画像など、入力インターフェースを含む表示画像をディスプレイに表示することができる。例えば、ナビゲーション機能が実行された場合、誘導経路等を示す道路地図が表示され、拡大/縮小や移動などのユーザー指示をタッチ操作により受け付けることができるナビゲーション画面を表示する。表示制御部120は、これ以外にも、メニュー画面や各種設定画面において、ユーザー入力可能な複数の操作ボタンを表示する。
The
記憶部160には、システム動作に必須のプログラム以外にも、ナビゲーションに必要な道路地図データや、メディア再生に必要な楽曲データなどを記憶することができる。また、記憶部160には、静電容量の強度分布に基づき手指の接触態様を判別するためのパターン情報も記憶される。
In addition to programs essential for system operation, the
制御部180は、好ましい態様では、ROM、RAMなどを含むマイクロコントローラあるいはマイクロプロセッサ等から構成され、ROMまたはRAMは、車載装置の各部の動作を制御するための種々のプログラムを格納することができる。さらに本実施例では、マルチタッチ入力に対するスキャン時間を短縮するための入力検出プログラムを含む。当該入力検出プログラムは、1点目の接触の接触態様に応じて、2点目の接触範囲を予測し、2点目の接触を検出する検出範囲を制限する。
In a preferred embodiment, the
次に、本実施例によるマルチタッチ操作に対するスキャン時間の短縮を図る入力検出プログラムの機能的な構成を図5に示す。マルチタッチ操作に対する入力検出プログラム200は、マルチタッチ入力に対応するユーザー入力画面をディスプレイに表示する画面表示手段202と、タッチパネル上への接触を検出する接触検出手段204と、接触検出手段204により1点目の接触が検出されたとき、ディスプレイに接触する手や指の接触態様を判別する接触態様判別手段206と、検出された1点目の接触と判別された接触態様に基づき2点目のタッチ位置に係る接触範囲を予測する接触範囲予測手段208と、予測された接触範囲に基づき接触検出手段204による検出範囲を制御する検出範囲制御手段210とを備える。
Next, FIG. 5 shows a functional configuration of the input detection program for reducing the scan time for the multi-touch operation according to the present embodiment. The input detection program 200 for the multi-touch operation includes a
画面表示手段202は、ナビゲーション画面、マルチメディア再生画面などにおいて、ユーザーの操作指示を受け付けるためのユーザー入力画面を表示する。例えば、ユーザー入力画面は、各機能が対応付けられており、目的地を選択する操作ボタンが表示されたり、拡大/縮小表示可能な道路地図が表示される。
The
接触検出手段204は、タッチパネルから出力された信号に基づき、接触した指などのタッチ位置を検出する。接触検出手段204は、通常、タッチパネル全体を検出範囲としてスキャンし、指が接触したタッチ位置のXY座標データを検出する。
The
接触態様判別手段206は、1点目の接触があったとき、ディスプレイに接近する手や指の接触態様を判別する。接触態様判別手段206は、接触検出手段204により1点目の接触が検出されたとき、タッチパネルの出力に基づき、図2(b)に示すような静電容量の強度分布を示す分布図を作成し、記憶部160にあるパターン情報と照合することで、1点目の接触が右手または左手の、どの指による接触であるかを特定することができる。接触態様判別手段206は、1点目の接触がある直前の分布図を必要に応じて用いることも可能であり、分布図の時間的な変化から手や指の接近方向を特定することができる。接触態様判別手段206は、これ以外にも、近接センサ80や撮像カメラ100等により得られる情報を補助的に用いることができ、1点目の接触による接触態様をより正確に判別することができる。
When there is a first contact, the contact
接触範囲予測手段208は、接触態様判別手段206により判別された接触態様に基づき、2点目の接触がある接触範囲を予測する。好ましくは、接触範囲予測手段208は、記憶部160等に記憶された接触範囲予測テーブルに従い、接触した1点目の手や指の種別やそのタッチ位置の座標に基づき、2点目のタッチ位置に係る接触範囲を予測する。
The contact
図6は、2点目の接触範囲を予測するために用いる接触範囲予測テーブルである。接触範囲予測テーブルには、判別される接触態様の手や指の種別に対して、1点目のタッチ位置を基点とする第1の接触範囲と、タッチパネル上における1点目のタッチ位置を基準にする第2の接触範囲とが規定されている。 FIG. 6 is a contact range prediction table used for predicting the contact range of the second point. The contact range prediction table is based on the first contact range based on the first touch position and the first touch position on the touch panel for the type of hand or finger of the contact mode to be identified. A second contact range is defined.
例えば、1点目のタッチが「右手」の「人指し指」で行われた場合、接触範囲予測テーブルに従うと、タッチ位置の「左側」が第1の接触範囲となる。また、その1点目のタッチ位置が、タッチパネル上において「右側」であれば、タッチ位置の「左側」が第2の接触範囲となる。接触範囲予測手段208は、接触範囲予測テーブルにより特定される第1の接触範囲と第2の接触範囲とが重複するエリアを、2点目の接触範囲として予測することができる。
For example, when the first touch is performed with the “index finger” of the “right hand”, according to the contact range prediction table, the “left side” of the touch position becomes the first contact range. If the first touch position is “right side” on the touch panel, the “left side” of the touch position becomes the second contact range. The contact
検出範囲制御手段210は、接触範囲予測手段208による予測結果に基づき、接触検出手段204によりX、Y方向のスキャンをする検出範囲を制御することができる。検出範囲制御手段210は、例えば、予測された接触範囲に検出範囲を制限することで、2点目のタッチ位置の検出に要するスキャン時間を短縮することができる。
The detection
図7は、本実施例のマルチタッチ操作に対する入力検出プログラムの動作を説明するフローチャートである。入力検出プログラム200は、画面表示手段202よってマルチタッチ入力に対応するユーザー入力画面が表示される際に起動される。まず、画面表示手段202は、例えば、道路地図を示すナビゲーション画面など、マルチタッチ入力に対応するユーザー入力画面を表示する(S100)。ユーザーは、道路地図を拡大するため、ピンチイン操作をしようとタッチパネルに指を接触させる。接触検出手段204は、タッチパネル全体をスキャンすることで、接触したユーザーの指を検出し、1点目のタッチ位置をXY座標データとして検出する(S102)。そして、1点目のタッチ位置を示す座標(X1,Y1)が接触態様判別手段206や接触態様判別手段208等に出力される。
FIG. 7 is a flowchart for explaining the operation of the input detection program for the multi-touch operation of this embodiment. The input detection program 200 is activated when the
接触態様判別手段206は、1点目の接触があったとき、タッチパネルの出力に基づき、図2(b)に示すような、タッチパネルの各位置に対応する静電容量の強度分布を示す分布図を作成する(S104)。当該分布図が作成されると、接触態様判別手段206は、記憶部160から接触態様を判別するためのパターン情報を読み込み、作成された分布図とパターンマッチングを行うことで、1点目のタッチ入力の手や指の種別を判別する(S106)。これにより、1点目の接触に係る手指が特定される。
When the first contact is made, the contact
接触検出手段204により1点目のタッチ位置が特定され、かつ、接触態様判別手段206により手指の種別が特定されると、接触範囲予測手段208は、図6に示す接触範囲予測テーブルに従い、2点目の接触範囲を予測する(S108)。
When the first touch position is specified by the
図8は、2点目の接触範囲の予測方法を説明する図である。タッチパネル62において、図8に示すように、右手の人差し指により1点目がタッチされたとき、接触範囲予測手段208は、接触範囲予測テーブルに従い、その指の種別により1点目のタッチ位置の座標(X1,Y1)の「左側」の一定範囲を、第1の接触エリアE1とする。一方、接触範囲予測手段208は、1点目がタッチパネル上の「上側」にあるため、1点目のタッチ位置(X1,Y1)の「下側」の一定範囲を、第2の接触エリアE2とする。そして、接触範囲予測手段208は、第1の接触エリアE1と第2の接触エリアE2とが重複するエリアを2点目の接触範囲E(図中、ハッチングで示す)として予測する。
FIG. 8 is a diagram illustrating a method for predicting the contact range of the second point. As shown in FIG. 8, on the
次に、検出範囲制御手段210は、予測された接触範囲Eに基づき、2点目のタッチ位置を検出する検出範囲を制限し(S110)、接触検出手段204は、制限された検出範囲内のみをX、Y方向のスキャンをすることで、2点目のタッチ位置を検出する(S112)。このように、2点の接触によるタッチ操作が検出されると、そのピンチ操作に応じて、道路地図を拡大する処理が実行される(S114)。 Next, the detection range control means 210 restricts the detection range for detecting the second touch position based on the predicted contact range E (S110), and the contact detection means 204 is only within the restricted detection range. The second touch position is detected by scanning in the X and Y directions (S112). As described above, when a touch operation by contact of two points is detected, a process of enlarging the road map is executed according to the pinch operation (S114).
本実施例によれば、マルチタッチ操作に対し、2点目のタッチ位置を検出する際に、その検出範囲を制限することができ、タッチ操作に対する応答特性を向上させることができる。これにより、車載装置は、道路地図を拡大縮小するピンチ操作に対し、スキャン時間を短縮することができ、縮尺に応じた道路地図を即座に読み込むことができる。 According to the present embodiment, when the second touch position is detected with respect to the multi-touch operation, the detection range can be limited, and response characteristics to the touch operation can be improved. Thereby, the in-vehicle device can shorten the scan time for the pinch operation for enlarging / reducing the road map, and can immediately read the road map corresponding to the scale.
上記実施例では、接触範囲予測手段は、第1の接触エリア(図8のE1)と第2の接触エリア(図8のE2)とが重複するエリアを接触範囲として予測したが、第1の接触エリアと第2の接触エリアのいずれか一方、あるいは両者を接触範囲として予測してもよい。なお、第1接触エリアと第2接触エリアの形状や大きさは、適宜設定することができる。また、検出範囲制御手段208は、ピンチ操作に対応するため、図9に示すように、1点目のタッチ位置と、予測された接触範囲Eの中央点とを結ぶ直線を長軸とする楕円形状に検出範囲E’を制限してもよい。
In the above embodiment, the contact range predicting means predicts an area where the first contact area (E1 in FIG. 8) and the second contact area (E2 in FIG. 8) overlap as the contact range. One or both of the contact area and the second contact area may be predicted as the contact range. The shape and size of the first contact area and the second contact area can be set as appropriate. Further, the detection
また、上記実施例では、接触態様判別手段206がタッチパネルの静電容量の分布図に従い指や手の接触態様を判別したが、これ以外にも、近接センサ80による検出結果を用いて接触態様を判別することも可能である。図3に示すように近接センサ80がディスプレイ122の周囲に設置されたとき、ディスプレイ122の左右のいずれの方向から指や手が接近するのかを判別することができる。例えば、ディスプレイ122の左側から指や手が接近されたとき、それは、右手が接近されたものと判別される。反対に、ディスプレイの右側から指や手が接近されたとき、それは、左手が接近されたものと判別される。タッチパネルだけからは、左右の手の判別が難しいとき、近接センサに基づく判別結果を利用することにより判別精度を高めることができる。
In the above-described embodiment, the contact
また、撮像カメラ100の撮像結果を利用して接触態様を判別することも可能である。撮像カメラ100の撮像データを画像処理することにより指や手を抽出し、公知のパターンマッチング法などを用いて、指や手の接近する方向の判別、右手と左手の判別、親指と人指し指の判別を行うことができる。撮像カメラ100の撮像結果は、タッチパネルおよび/または近接センサの検出結果と組み合わせ用いることも可能であるし、撮像カメラ100の撮像結果のみから接触態様を判別するようにしてもよい。
Further, it is possible to determine the contact mode using the imaging result of the
本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形・変更が可能である。 Although the preferred embodiments of the present invention have been described in detail, the present invention is not limited to specific embodiments, and various modifications and changes can be made within the scope of the gist of the invention described in the claims. Is possible.
10:車載装置 20:ナビゲーション部
40:マルチメディア再生部 60:入力部
80:近接センサ 100:撮像カメラ
120:表示制御部 140:音声出力部
160:記憶部 180:制御部
200:入力検出プログラム 202:画面表示手段
204:接触検出手段 206:接触態様判別手段
208:接触範囲予測手段 210:検出範囲制御手段
10: On-vehicle device 20: Navigation unit 40: Multimedia playback unit 60: Input unit 80: Proximity sensor 100: Imaging camera 120: Display control unit 140: Audio output unit 160: Storage unit 180: Control unit 200: Input detection program 202 : Screen display means 204: Contact detection means 206: Contact mode determination means 208: Contact range prediction means 210: Detection range control means
Claims (10)
タッチ入力可能なディスプレイ装置のタッチパネル上への物体の接近または接触を検出する検出手段と、
前記タッチパネルへの第1の接触の座標を検出する第1の接触検出手段と、
前記第1の接触の接触態様を判別する判別手段と、
前記第1の接触検出手段により検出された座標及び前記判別手段により判別された接触態様に基づき第2の接触の範囲を予測する予測手段と、
前記ディスプレイ装置の運転席側と助手席側の左右両側に設けられた近接センサと、
前記予測手段の予測結果に基づき前記検出手段の検出範囲を制御する制御手段とを有し、
前記予測手段は、左手か右手、および親指か親指以外の指の種別と、1点目の接触の座標を基点とする第1の接触の範囲と、1点目の接触の座標を基準にする第2の接触の範囲との関係を予め規定した接触範囲予測テーブルを参照し、前記判別手段により判別された前記第1の接触の接触態様および前記第1の接触検出手段により検出された第1の接触の座標とに基づき第2の接触の範囲を特定し、
前記判別手段は、前記近接センサの出力に基づき運転席側または助手席側から接近する方向を判別することで右手または左手を判別する、入力装置。 An input device for an in-vehicle device,
Detecting means for detecting an approach or contact of an object on a touch panel of a display device capable of touch input ;
First contact detection means for detecting coordinates of the first contact with the touch panel;
Determining means for determining a contact mode of the first contact;
Predicting means for predicting a second contact range based on the coordinates detected by the first contact detecting means and the contact mode determined by the determining means;
Proximity sensors provided on the left and right sides of the driver's seat and passenger's seat side of the display device,
Control means for controlling the detection range of the detection means based on the prediction result of the prediction means,
Said predicting means, left hand or right hand, and the type of the thumb or other than the thumb finger, and the reference to the first contact range that originates the coordinates of the contact of the first point, the coordinates of the contact of the first point With reference to a contact range prediction table that predetermines the relationship with the second contact range, the contact mode of the first contact determined by the determination unit and the first detected by the first contact detection unit identifying a second range of the contact based on the coordinates of the contact,
The input unit is configured to determine a right hand or a left hand by determining a direction approaching from a driver seat side or a passenger seat side based on an output of the proximity sensor .
タッチパネル上への物体の接近または接触を検出する検出ステップと、
前記タッチパネルへの第1の接触の座標を検出する第1の接触検出ステップと、
前記第1の接触の接触態様を判別する判別ステップと、
前記第1の接触検出ステップにより検出された座標及び前記判別ステップにより判別された接触態様に基づき第2の接触の範囲を予測する予測ステップと、
前記予測ステップの予測結果に基づき前記検出ステップの検出範囲を制御する制御ステップとを有し、
前記予測ステップは、左手か右手、および親指か親指以外の指の種別と、1点目の接触の座標を基点とする第1の接触の範囲、1点目の接触の座標を基準にする第2の接触の範囲との関係を予め規定した接触範囲予測テーブルを参照し、前記判別ステップにより判別された前記第1の接触の接触態様および前記第1の接触検出ステップにより検出された第1の接触の座標とに基づき第2の接触の範囲を特定し、
前記判別ステップは、前記ディスプレイ装置の運転席側と助手席側の左右両側に設けられた近接センサの出力に基づき運転席側または助手席側から接近する方向を判別することで右手または左手を判別する、マルチタッチ操作の入力検出方法。 An input detection method for multi-touch operation in an input device for an in- vehicle device provided with a touch panel of a display device capable of touch input ,
A detection step for detecting an approach or contact of an object on the touch panel;
A first contact detecting step of detecting coordinates of the first contact with the touch panel;
A determining step of determining a contact mode of the first contact;
A prediction step of predicting a second contact range based on the coordinates detected by the first contact detection step and the contact mode determined by the determination step;
A control step for controlling a detection range of the detection step based on a prediction result of the prediction step;
The predicting step includes a first contact range based on a left hand or right hand, a finger type other than the thumb or thumb, and a first contact coordinate, and a first contact coordinate. A contact range prediction table that predetermines a relationship with the second contact range, the first contact state determined by the determination step and the first contact detection step detected by the first contact detection step. Identify a second contact area based on the coordinates of the contact ;
The determining step determines a right hand or a left hand by determining a direction approaching from the driver seat side or the passenger seat side based on outputs of proximity sensors provided on both the left and right sides of the driver seat side and the passenger seat side of the display device. to, input method of detecting a multi-touch operation.
タッチパネル上への物体の接近または接触を検出する検出ステップと、
前記タッチパネルへの第1の接触の座標を検出する第1の接触検出ステップと、
前記第1の接触の接触態様を判別する判別ステップと、
前記第1の接触検出ステップにより検出された座標及び前記判別ステップにより判別された接触態様に基づき第2の接触の範囲を予測する予測ステップと、
前記予測ステップの予測結果に基づき前記検出ステップの検出範囲を制御する制御ステップとを有し、
前記予測ステップは、左手か右手、および親指か親指以外の指の種別と、1点目の接触の座標を基点とする第1の接触の範囲、1点目の接触の座標を基準にする第2の接触の範囲との関係を予め規定した接触範囲予測テーブルを参照し、前記判別ステップにより判別された前記第1の接触の接触態様および前記第1の接触検出ステップにより検出された第1の接触の座標とに基づき第2の接触の範囲を特定し、
前記判別ステップは、前記ディスプレイ装置の運転席側と助手席側の左右両側に設けられた近接センサの出力に基づき運転席側または助手席側から接近する方向を判別することで右手または左手を判別する、マルチタッチ操作の入力検出プログラム。 An input detection program for multi-touch operation executed by an input device for an in- vehicle device having a touch panel of a display device capable of touch input ,
A detection step for detecting an approach or contact of an object on the touch panel;
A first contact detecting step of detecting coordinates of the first contact with the touch panel;
A determining step of determining a contact mode of the first contact;
A prediction step of predicting a second contact range based on the coordinates detected by the first contact detection step and the contact mode determined by the determination step;
A control step for controlling a detection range of the detection step based on a prediction result of the prediction step;
The predicting step includes a first contact range based on a left hand or right hand, a finger type other than the thumb or thumb, and a first contact coordinate, and a first contact coordinate. A contact range prediction table that predetermines a relationship with the second contact range, the first contact state determined by the determination step and the first contact detection step detected by the first contact detection step. Identify a second contact area based on the coordinates of the contact ;
The determining step determines a right hand or a left hand by determining a direction approaching from the driver seat side or the passenger seat side based on outputs of proximity sensors provided on both the left and right sides of the driver seat side and the passenger seat side of the display device. to, multi-touch operation input detection program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014002876A JP6315443B2 (en) | 2014-01-10 | 2014-01-10 | Input device, input detection method for multi-touch operation, and input detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014002876A JP6315443B2 (en) | 2014-01-10 | 2014-01-10 | Input device, input detection method for multi-touch operation, and input detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015132906A JP2015132906A (en) | 2015-07-23 |
JP6315443B2 true JP6315443B2 (en) | 2018-04-25 |
Family
ID=53900069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014002876A Active JP6315443B2 (en) | 2014-01-10 | 2014-01-10 | Input device, input detection method for multi-touch operation, and input detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6315443B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6846285B2 (en) * | 2017-05-29 | 2021-03-24 | エルジー ディスプレイ カンパニー リミテッド | Position detection device and position detection method |
WO2023026567A1 (en) * | 2021-08-26 | 2023-03-02 | ソニーグループ株式会社 | Information processing device, information processing method, and computer program |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6323846B1 (en) * | 1998-01-26 | 2001-11-27 | University Of Delaware | Method and apparatus for integrating manual input |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
JP5257779B2 (en) * | 2008-03-19 | 2013-08-07 | 株式会社デンソー | Display method, display device, and operation input device |
JP2010250455A (en) * | 2009-04-14 | 2010-11-04 | Panasonic Corp | Portable terminal device and input device |
JP2012113485A (en) * | 2010-11-24 | 2012-06-14 | Sony Corp | Touch panel device and touch panel detection method |
WO2012117437A1 (en) * | 2011-02-28 | 2012-09-07 | 三菱電機株式会社 | Touch panel device |
JP5816834B2 (en) * | 2011-03-22 | 2015-11-18 | パナソニックIpマネジメント株式会社 | Input device and input method |
JP2013020333A (en) * | 2011-07-08 | 2013-01-31 | Panasonic Corp | Display input device |
JP5400931B2 (en) * | 2011-09-14 | 2014-01-29 | シャープ株式会社 | Touch panel controller, touch panel system, and operation method of touch panel system |
JP5904440B2 (en) * | 2012-04-20 | 2016-04-13 | シャープ株式会社 | Operation input device, operation input method and program |
-
2014
- 2014-01-10 JP JP2014002876A patent/JP6315443B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015132906A (en) | 2015-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230367455A1 (en) | Information processing apparatus for responding to finger and hand operation inputs | |
KR101136153B1 (en) | User input device, method for recognizing user finger prints, and method for recognizing user touches using a transparent sensor grid panel which is able to recognize finger prints or mult-touch | |
KR101770087B1 (en) | Multi-function display and operating system and method for controlling such a system having optimized graphical operating display | |
JP4900824B2 (en) | Input display device | |
KR101998941B1 (en) | User interface and method for adjusting a semantic scale of a tile | |
JP6144501B2 (en) | Display device and display method | |
JP2010067135A (en) | Information processor, information processing method and computer program | |
JP2010244132A (en) | User interface device with touch panel, method and program for controlling user interface | |
US10402080B2 (en) | Information processing apparatus recognizing instruction by touch input, control method thereof, and storage medium | |
JP6177660B2 (en) | Input device | |
JP2008065504A (en) | Touch panel control device and touch panel control method | |
WO2018061603A1 (en) | Gestural manipulation system, gestural manipulation method, and program | |
JPWO2019021418A1 (en) | Display control apparatus and display control method | |
JP5782821B2 (en) | Touch panel device and control method of touch panel device | |
JP6315443B2 (en) | Input device, input detection method for multi-touch operation, and input detection program | |
JP6034281B2 (en) | Object selection method, apparatus, and computer program | |
JP6265839B2 (en) | INPUT DISPLAY DEVICE, ELECTRONIC DEVICE, ICON DISPLAY METHOD, AND DISPLAY PROGRAM | |
KR101656753B1 (en) | System and method for controlling object motion based on touch | |
JP2012173997A (en) | Display device, display method and display program | |
KR101573287B1 (en) | Apparatus and method for pointing in displaying touch position electronic device | |
US11010045B2 (en) | Control apparatus, control method, and non-transitory computer readable medium | |
WO2017175666A1 (en) | In-vehicle information processing system | |
US20200150812A1 (en) | Information-processing device and information-processing program | |
JP2017187922A (en) | In-vehicle information processing system | |
US20150138102A1 (en) | Inputting mode switching method and system utilizing the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170627 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171003 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180320 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6315443 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |