JP2014120002A - Portable information terminal - Google Patents

Portable information terminal Download PDF

Info

Publication number
JP2014120002A
JP2014120002A JP2012275134A JP2012275134A JP2014120002A JP 2014120002 A JP2014120002 A JP 2014120002A JP 2012275134 A JP2012275134 A JP 2012275134A JP 2012275134 A JP2012275134 A JP 2012275134A JP 2014120002 A JP2014120002 A JP 2014120002A
Authority
JP
Japan
Prior art keywords
hover
touch panel
finger
information terminal
portable information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012275134A
Other languages
Japanese (ja)
Inventor
Katamasa Ikuno
容正 生野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012275134A priority Critical patent/JP2014120002A/en
Publication of JP2014120002A publication Critical patent/JP2014120002A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a portable information terminal that is improved in operability in operating a choice object on a screen.SOLUTION: A portable information terminal includes: object display means of displaying a choice object 3 on a touch panel 11; hovering state detection means of detecting a finger in a hovering state over the touch panel 11 on the basis of a sensor output of the touch panel 11; virtual operation line generation means of generating a virtual operation line 4 extending outward from the tip of the finger on the basis of the position of the tip of the finger in the hovering state and the direction of the finger; object selection means of selecting the choice object 3 as an execution object 5 on the basis of the position of the virtual operation line 4 on the touch panel 11; and focus means of displaying the execution object 5 in a focus state.

Description

本発明は、タッチパネルを備えた携帯情報端末に係り、さらに詳しくは、タッチパネルに選択オブジェクトを表示する携帯情報端末の改良に関する。   The present invention relates to a portable information terminal including a touch panel, and more particularly to an improvement of a portable information terminal that displays a selected object on a touch panel.

タッチパネルは、LCD(液晶ディスプレイ)などの表示装置と、タッチ操作の操作位置を検出するための位置入力装置により構成される。タッチパネルを備えた端末装置では、アイコン、ボタンスイッチ、メニュー項目などの選択オブジェクトが画面上に表示されていれば、所望の選択オブジェクトに対しタッチ操作を行うことにより、当該選択オブジェクトに予め割り当てられた機能を実行させることができる。   The touch panel includes a display device such as an LCD (liquid crystal display) and a position input device for detecting an operation position of a touch operation. In a terminal device equipped with a touch panel, if a selection object such as an icon, a button switch, or a menu item is displayed on the screen, a touch operation is performed on the desired selection object, and the selection object is assigned in advance. The function can be executed.

ところが、携帯電話機、PDA(Personal Digital Assistants)、タブレット端末といった従来の携帯情報端末では、片方の手で情報端末を保持しながら当該片方の手の指で画面上の選択オブジェクトを操作する場合に、操作しづらいケースがあるという問題があった。特に、画面が手のサイズに比べて大きい場合に、選択オブジェクトの表示位置によっては指が届かず、他方の手に持ち替えたり、他方の手の指で操作しなければならないという問題があった。   However, in a conventional portable information terminal such as a mobile phone, a PDA (Personal Digital Assistants), and a tablet terminal, when the selected object on the screen is operated with a finger of one hand while holding the information terminal with one hand, There was a problem that there were cases where it was difficult to operate. In particular, when the screen is larger than the size of the hand, there is a problem that the finger does not reach depending on the display position of the selected object, and it must be changed to the other hand or operated with the finger of the other hand.

なお、特許文献1には、指によるタッチ位置の近傍にポインタを表示し、指を画面に沿って動かすことにより、ポインタを移動させる技術が開示されている。この特許文献1に記載の端末装置によれば、ポインタが指によるタッチ位置から離れた位置に表示されるので、指を動かしてポインタを移動させることにより、表示間隔が狭くてタッチ操作しづらい選択オブジェクトであっても、正しく選択することができる。しかしながら、この特許文献1は、端末装置を保持する手の指が届きにくい位置に所望の選択オブジェクトが表示されている場合に、当該選択オブジェクトを選択するための操作を容易化するものではない。   Patent Document 1 discloses a technique for moving a pointer by displaying a pointer in the vicinity of a touch position by a finger and moving the finger along the screen. According to the terminal device described in Patent Document 1, since the pointer is displayed at a position away from the touch position by the finger, by moving the finger and moving the pointer, the display interval is narrow and the touch operation is difficult to select. Even objects can be selected correctly. However, Patent Document 1 does not facilitate an operation for selecting a selection object when a desired selection object is displayed at a position where a finger of a hand holding the terminal device is difficult to reach.

特開平6−51908号公報JP-A-6-51908

本発明は、上記事情に鑑みてなされたものであり、画面上の選択オブジェクトを操作する際の操作性を向上させた携帯情報端末を提供することを目的とする。特に、携帯情報端末を保持する手の指が届きにくい位置に表示された選択オブジェクトであっても、容易に選択することができる携帯情報端末を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a portable information terminal having improved operability when operating a selected object on a screen. In particular, it is an object of the present invention to provide a portable information terminal that can easily select even a selection object displayed at a position where a finger of a hand holding the portable information terminal is difficult to reach.

本発明による携帯情報端末は、タッチパネルに選択オブジェクトを表示するオブジェクト表示手段と、上記タッチパネルのセンサ出力に基づいて、上記タッチパネルの上方でホバー状態にある指を検出するホバー状態検出手段と、上記ホバー状態にある指の先端の位置及び当該指の向きに基づいて、指先から外側へ延びる仮想操作線を生成する仮想操作線生成手段と、上記仮想操作線の上記タッチパネル上の位置に基づいて、上記選択オブジェクトを実行オブジェクトとして選択するオブジェクト選択手段と、上記実行オブジェクトをフォーカス表示するフォーカス手段とを備えて構成される。   The portable information terminal according to the present invention includes an object display unit that displays a selected object on a touch panel, a hover state detection unit that detects a finger in a hover state above the touch panel based on a sensor output of the touch panel, and the hover Based on the position of the tip of the finger in the state and the orientation of the finger, virtual operation line generation means for generating a virtual operation line extending outward from the fingertip, and based on the position of the virtual operation line on the touch panel, An object selection unit that selects a selected object as an execution object and a focus unit that displays the execution object in focus are configured.

この様な構成によれば、タッチパネルの上方で指をホバー状態に保持することにより、指先から外側へ延びる仮想操作線のタッチパネル上の位置に基づいて、選択オブジェクトが実行オブジェクトとして選択される。つまり、選択オブジェクトの表示位置に応じて指先を所定の方向に向けつつホバー状態で保持すれば、画面上の選択オブジェクトにタッチ操作を行わなくても、所望の選択オブジェクトを実行オブジェクトとして選択することができる。   According to such a configuration, by holding the finger in the hover state above the touch panel, the selected object is selected as the execution object based on the position on the touch panel of the virtual operation line extending outward from the fingertip. In other words, if the fingertip is held in a predetermined direction according to the display position of the selected object and held in the hover state, the desired selected object can be selected as an execution object without performing a touch operation on the selected object on the screen. Can do.

本発明による携帯情報端末では、画面上の選択オブジェクトにタッチ操作を行わなくても、所望の選択オブジェクトを実行オブジェクトとして選択することができるので、画面上の選択オブジェクトを操作する際の操作性を向上させることができる。   In the portable information terminal according to the present invention, since a desired selection object can be selected as an execution object without performing a touch operation on the selection object on the screen, the operability when operating the selection object on the screen is improved. Can be improved.

本発明の実施の形態1による携帯情報端末1の一構成例を示した斜視図である。It is the perspective view which showed one structural example of the portable information terminal 1 by Embodiment 1 of this invention. 図1の携帯情報端末1におけるホバー操作時の動作の一例を示した図であり、左手で保持された薄型筐体10をトップ側から見た場合が示されている。It is the figure which showed an example of the operation | movement at the time of the hover operation in the portable information terminal 1 of FIG. 1, and the case where the thin housing | casing 10 hold | maintained with the left hand is seen from the top side is shown. 図1の携帯情報端末1におけるホバー操作時の動作の一例を示した図であり、タッチパネル11を上方から見た場合が示されている。It is the figure which showed an example of the operation | movement at the time of the hover operation in the portable information terminal 1 of FIG. 1, and the case where the touch panel 11 is seen from upper direction is shown. 図1の携帯情報端末1内の機能構成の一例を示したブロック図である。It is the block diagram which showed an example of the function structure in the portable information terminal 1 of FIG. 図4の携帯情報端末1におけるタッチパネルスキャン時の動作の一例を示したフローチャートである。5 is a flowchart showing an example of an operation at the time of touch panel scanning in the portable information terminal 1 of FIG. 4. 図4の携帯情報端末1におけるホバー操作処理の一例を示したフローチャートである。5 is a flowchart showing an example of a hover operation process in the portable information terminal 1 of FIG. 本発明の実施の形態2による携帯情報端末1の動作の一例を示した図であり、ホバー操作エリアBの距離範囲λを段階的にシフトさせる様子が示されている。It is the figure which showed an example of operation | movement of the portable information terminal 1 by Embodiment 2 of this invention, and shows a mode that the distance range (lambda) of the hover operation area B is shifted in steps.

実施の形態1.
<携帯情報端末1>
図1は、本発明の実施の形態1による携帯情報端末1の一構成例を示した斜視図である。この図では、タッチパネル11の表示画面における短手方向をx方向、長手方向をy方向、表示画面に垂直な方向をz方向としている。
Embodiment 1 FIG.
<Portable information terminal 1>
FIG. 1 is a perspective view showing a configuration example of a portable information terminal 1 according to Embodiment 1 of the present invention. In this figure, the lateral direction on the display screen of the touch panel 11 is the x direction, the longitudinal direction is the y direction, and the direction perpendicular to the display screen is the z direction.

携帯情報端末1は、片方の手で保持することができる程度のサイズからなる端末装置であり、薄型筐体10、タッチパネル11、受話用のスピーカ12、送話用のマイクロホン13及び操作キー14a〜14cを備えて構成されている。例えば、携帯情報端末1は、セルラー基地局を介して他の通信端末と通話を行うことができる携帯電話機である。   The portable information terminal 1 is a terminal device having a size that can be held by one hand, and includes a thin housing 10, a touch panel 11, a receiving speaker 12, a transmitting microphone 13, and operation keys 14a to 14a. 14c. For example, the mobile information terminal 1 is a mobile phone that can make a call with another communication terminal via a cellular base station.

薄型筐体10は、薄型で縦長の直方体形状からなる端末筐体である。タッチパネル11、スピーカ12、マイクロホン13及び操作キー14a〜14cは、薄型筐体10の前面に配置されている。また、スピーカ12は、薄型筐体10の長手方向の一方の端部に配置され、マイクロホン13及び操作キー14a〜14cは、他方の端部に配置されている。ここでは、薄型筐体10の長手方向における上記一方の端部をトップ部と呼び、上記他方の端部をボトム部と呼ぶ。   The thin casing 10 is a terminal casing having a thin and vertically long rectangular parallelepiped shape. The touch panel 11, the speaker 12, the microphone 13, and the operation keys 14 a to 14 c are disposed on the front surface of the thin casing 10. Moreover, the speaker 12 is arrange | positioned at one edge part of the longitudinal direction of the thin housing | casing 10, and the microphone 13 and operation key 14a-14c are arrange | positioned at the other edge part. Here, the one end portion in the longitudinal direction of the thin casing 10 is referred to as a top portion, and the other end portion is referred to as a bottom portion.

スピーカ12は、受話音を出力するための音声出力装置である。マイクロホン13は、送話音を入力するための音声入力装置である。操作キー14a〜14cは、各種機能が予め割り当てられ、ユーザの押下操作により、割り当てられている機能を実行するための物理キーである。例えば、操作キー14aは、前の画面に戻るためのリターンキーである。また、操作キー14bは、ホーム画面を表示するためのホームキーである。また、操作キー14cは、メニュー画面を表示するためのメニューキーである。   The speaker 12 is a sound output device for outputting a received sound. The microphone 13 is a voice input device for inputting a transmission sound. The operation keys 14a to 14c are physical keys to which various functions are assigned in advance and the assigned functions are executed by a user's pressing operation. For example, the operation key 14a is a return key for returning to the previous screen. The operation key 14b is a home key for displaying a home screen. The operation key 14c is a menu key for displaying a menu screen.

タッチパネル11は、縦長の矩形形状からなる表示画面を有し、表示画面に対するタッチ操作を検出する入出力装置である。表示画面内の2次元位置が、タッチ操作の操作位置として検出される。表示画面には、1又は2以上の選択オブジェクトが表示され、所望の選択オブジェクトに対しタッチ操作を行うことにより、当該選択オブジェクトに予め割り当てられた機能を実行させることができる。選択オブジェクトは、アイコン、ボタン型スイッチ、メニュー項目、ブラウザのリンク先アドレスなどの選択可能な表示オブジェクトであり、所定のシンボル、図形、文字、記号によって表される。   The touch panel 11 is an input / output device that has a display screen having a vertically long rectangular shape and detects a touch operation on the display screen. A two-dimensional position in the display screen is detected as an operation position of the touch operation. One or more selected objects are displayed on the display screen, and by performing a touch operation on the desired selected object, a function assigned in advance to the selected object can be executed. The selection object is a display object that can be selected, such as an icon, a button-type switch, a menu item, and a browser link destination address, and is represented by a predetermined symbol, figure, character, or symbol.

このタッチパネル11は、表示画面から離間した位置にある指を検出するのに用いられ、タッチパネル11のセンサ出力に基づいて、表示画面の上方でホバー(hover)状態にある指が検出される。ホバー状態は、表示画面からの高さ、すなわち、表示画面に対するz方向の位置が一定の範囲内で概ね静止している状態である。   The touch panel 11 is used to detect a finger at a position separated from the display screen, and a finger in a hover state is detected above the display screen based on the sensor output of the touch panel 11. The hover state is a state where the height from the display screen, that is, the position in the z direction with respect to the display screen is substantially stationary within a certain range.

この携帯情報端末1では、指先を所望の選択オブジェクトに向けつつ指をタッチパネル11の上方でホバー状態に保持することにより、タッチ操作を行わなくても当該選択オブジェクトを実行オブジェクトとして選択することができる。ここでは、指先から離れた位置に表示されている選択オブジェクトをホバー状態にある指を用いて選択することをホバー操作と呼ぶことにする。   In this portable information terminal 1, by holding the fingertip in a hover state above the touch panel 11 while pointing the fingertip toward a desired selection object, the selection object can be selected as an execution object without performing a touch operation. . Here, selecting a selection object displayed at a position away from the fingertip using a finger in a hover state is referred to as a hover operation.

上述したタッチパネル11は、LCDなどの表示装置からなるタッチパネルディスプレイと、タッチ操作やホバー状態にある指を検出するための位置入力装置からなるタッチパネルセンサにより構成される。例えば、タッチパネルセンサには、絶縁フィルム、電極層及び基板層からなり、x方向に延びる電極パターンとy方向に延びる電極パターンとで電極層が格子状にパターニングされた静電容量方式で投影型の検出素子が用いられる。   The touch panel 11 described above includes a touch panel display including a display device such as an LCD and a touch panel sensor including a position input device for detecting a finger in a touch operation or a hover state. For example, the touch panel sensor includes an insulating film, an electrode layer, and a substrate layer, and is a capacitive projection type electrode pattern in which an electrode pattern extending in the x direction and an electrode pattern extending in the y direction are patterned in a grid pattern. A detection element is used.

図2は、図1の携帯情報端末1におけるホバー操作時の動作の一例を示した図であり、左手で保持された薄型筐体10をトップ側から見た場合が示されている。この図には、左手の親指2を用いてホバー操作を行う場合が示されている。   FIG. 2 is a diagram illustrating an example of an operation at the time of a hover operation in the portable information terminal 1 of FIG. 1, and shows a case where the thin casing 10 held by the left hand is viewed from the top side. This figure shows a case where a hover operation is performed using the thumb 2 of the left hand.

タッチパネル11に対し、高さ方向(z方向)の一定の距離範囲からなる領域をホバー検知領域HRと呼ぶことにすれば、親指2の先端、すなわち、指先21をホバー検知領域HR内で一定時間静止させることにより、ホバー操作可能となる。具体的に説明すれば、ホバー操作の開始条件は、ホバー検知領域HR内において指先21が一定時間T1以上静止することである。   If a region having a certain distance range in the height direction (z direction) with respect to the touch panel 11 is referred to as a hover detection region HR, the tip of the thumb 2, that is, the fingertip 21 is kept within the hover detection region HR for a certain period of time. By hovering, the hover can be operated. Specifically, the start condition for the hover operation is that the fingertip 21 is stationary for a predetermined time T1 or more in the hover detection area HR.

この指先21の静止条件は、指先21の高さLz及びxy平面内における位置について、単位時間当たりの変化量が所定値を越えることなく一定時間T1が経過することであり、一定時間T1が経過すれば、ホバー操作可能となる。   The rest condition of the fingertip 21 is that a certain amount of time T1 elapses without the amount of change per unit time exceeding a predetermined value for the height Lz of the fingertip 21 and the position in the xy plane, and the certain time T1 has elapsed. Then, hover operation becomes possible.

タッチ検知領域TRは、ホバー検知領域HRよりもタッチパネル11側に形成され、一定の距離範囲からなる。指先21がタッチ検知領域TR内へ移動すれば、タッチ操作が行われたものとして、その操作位置(xy平面内の位置)に応じた入力処理が実行される。タッチ検知領域TRは、ホバー検知領域HRに比べて狭い。また、ホバー検知領域HRの距離範囲における上限は、タッチパネル11により指を検出することが可能な最大領域と同程度であるか、或いは、当該最大領域に比べて短い。   The touch detection area TR is formed closer to the touch panel 11 than the hover detection area HR, and consists of a certain distance range. If the fingertip 21 moves into the touch detection region TR, it is assumed that a touch operation has been performed, and input processing corresponding to the operation position (position in the xy plane) is executed. The touch detection area TR is narrower than the hover detection area HR. Moreover, the upper limit in the distance range of the hover detection area HR is approximately the same as the maximum area where the finger can be detected by the touch panel 11 or is shorter than the maximum area.

図3は、図1の携帯情報端末1におけるホバー操作時の動作の一例を示した図であり、タッチパネル11を上方から見た場合が示されている。図中の(a)には、24個の選択オブジェクト3が表示されたタッチパネル11が示され、(b)には、親指2によりタッチ操作が可能な領域からなるタッチ操作エリアAが示されている。   FIG. 3 is a diagram showing an example of an operation at the time of a hover operation in the portable information terminal 1 of FIG. 1, and shows a case where the touch panel 11 is viewed from above. In the figure, (a) shows a touch panel 11 on which 24 selection objects 3 are displayed, and (b) shows a touch operation area A consisting of an area where the thumb 2 can perform a touch operation. Yes.

例えば、選択オブジェクト3は、所定の機能を実行させるためのアイコン、或いは、所定のアプリケーションプログラムを起動させるためのボタン型スイッチ、或いは、各種設定を行うためのメニュー項目である。この例では、この種の選択オブジェクト3が、6行4列のマトリクス状に整列配置されている。   For example, the selection object 3 is an icon for executing a predetermined function, a button-type switch for starting a predetermined application program, or a menu item for performing various settings. In this example, the selection objects 3 of this type are arranged in a matrix of 6 rows and 4 columns.

タッチ操作エリアAは、左手で薄型筐体10を保持しつつ、左手の親指2の根元を中心として、指先21をxy平面内で回転させることにより、タッチ操作を行うことが可能なタッチパネル11上の領域からなる。タッチ操作エリアA内の選択オブジェクト3、例えば、「アイコン14」や「アイコン15」は、左手の親指2でタッチ操作を行うことができる。   The touch operation area A is on the touch panel 11 on which the touch operation can be performed by rotating the fingertip 21 in the xy plane around the base of the thumb 2 of the left hand while holding the thin casing 10 with the left hand. It consists of the area. The selected object 3 in the touch operation area A, for example, “icon 14” or “icon 15” can be touched with the thumb 2 of the left hand.

一方、タッチ操作エリアA外の選択オブジェクト3、例えば、「アイコン3」や「アイコン8」は、親指2が届きにくい位置に配置されており、左手の親指2で操作しようとすれば、薄型筐体10を右手に持ち替えたり、或いは、右手の指にて操作しなければならなかった。   On the other hand, the selected object 3 outside the touch operation area A, for example, “icon 3” or “icon 8” is arranged at a position where the thumb 2 is difficult to reach. The body 10 must be changed to the right hand or operated with the finger of the right hand.

この携帯情報端末1では、指先21を所望の選択オブジェクト3に向けつつ親指2をタッチパネル11の上方でホバー状態に保持することにより、タッチ操作エリアA外の任意の選択オブジェクト3を実行オブジェクトとして選択することができる。実行オブジェクトは、ホバー状態にある親指2の指先21から外側へ伸びる仮想操作線のタッチパネル11上の位置に基づいて、選択される。仮想操作線は、親指2の向きを示す仮想的な基準線であり、指先21のxy平面内における位置と、親指2のxy平面内における向きに基づいて生成される。   In this portable information terminal 1, an arbitrary selection object 3 outside the touch operation area A is selected as an execution object by holding the thumb 2 in a hover state above the touch panel 11 while pointing the fingertip 21 toward a desired selection object 3. can do. The execution object is selected based on the position on the touch panel 11 of the virtual operation line extending outward from the fingertip 21 of the thumb 2 in the hover state. The virtual operation line is a virtual reference line indicating the orientation of the thumb 2 and is generated based on the position of the fingertip 21 in the xy plane and the orientation of the thumb 2 in the xy plane.

図中の(c)には、ホバー操作エリアB内の「アイコン3」が実行オブジェクト5として選択された場合が示され、(d)には、「アイコン8」が実行オブジェクト5として選択された場合が示されている。ホバー操作エリアBは、仮想操作線4を中心とする一定の角度範囲θからなるタッチパネル11上の領域である。   (C) in the figure shows a case where “icon 3” in the hover operation area B is selected as the execution object 5, and (d) shows “icon 8” being selected as the execution object 5. The case is shown. The hover operation area B is an area on the touch panel 11 having a certain angle range θ centered on the virtual operation line 4.

この仮想操作線4は、xy平面に平行な直線からなる。また、ホバー操作エリアBは、指先21を中心とする扇形領域の一部からなる。例えば、角度範囲θは、30度程度からなる。実行オブジェクト5は、ホバー操作エリアB内の選択オブジェクト3の中から自動的に選択される。例えば、仮想操作線4に最も近い選択オブジェクト3が実行オブジェクト5として選択される。   The virtual operation line 4 is a straight line parallel to the xy plane. The hover operation area B is formed of a part of a sector area centered on the fingertip 21. For example, the angle range θ is about 30 degrees. The execution object 5 is automatically selected from the selection objects 3 in the hover operation area B. For example, the selection object 3 closest to the virtual operation line 4 is selected as the execution object 5.

選択オブジェクト3と仮想操作線4との距離は、選択オブジェクト3の中心から仮想操作線4に下ろした垂線の長さによって求められる。また、選択オブジェクト3がホバー操作エリアB内であるか否かは、選択オブジェクト3の中心がホバー操作エリアB内に位置するか否かによって判別される。   The distance between the selected object 3 and the virtual operation line 4 is obtained by the length of a perpendicular line that extends from the center of the selected object 3 to the virtual operation line 4. Whether or not the selected object 3 is in the hover operation area B is determined by whether or not the center of the selected object 3 is located in the hover operation area B.

図中の(c)では、ホバー操作エリアB内に中心がある3つの選択オブジェクト「アイコン3」、「アイコン4」、「アイコン7」のうち、仮想操作線4に最も近い選択オブジェクト「アイコン3」が実行オブジェクト5として選択されている。実行オブジェクト5として選択された選択オブジェクトは、フォーカス表示され、他の選択オブジェクト、すなわち、非実行オブジェクトと容易に識別することができる。例えば、実行オブジェクト5は、選択前とは表示色を異ならせ、或いは、輝度レベルを高輝度側へシフトさせることにより、ハイライト表示される。   In (c) in the figure, among the three selection objects “icon 3”, “icon 4”, and “icon 7” centered in the hover operation area B, the selection object “icon 3” closest to the virtual operation line 4 is displayed. "Is selected as the execution object 5. The selected object selected as the execution object 5 is displayed in focus and can be easily distinguished from other selection objects, that is, non-execution objects. For example, the execution object 5 is highlighted by changing the display color from before the selection or by shifting the luminance level to the high luminance side.

親指2をホバー状態に保持した後、親指2の根元を中心として指先21をxy平面内で回転させることにより、仮想操作線4やホバー操作エリアBを移動させることができる。図中の(d)では、ホバー操作エリアB内に中心がある選択オブジェクト「アイコン8」が実行オブジェクト5として選択されている。   After holding the thumb 2 in the hover state, the virtual operation line 4 and the hover operation area B can be moved by rotating the fingertip 21 around the root of the thumb 2 in the xy plane. In (d) in the figure, the selected object “icon 8” centered in the hover operation area B is selected as the execution object 5.

この携帯情報端末1では、ホバー操作によって選択オブジェクト3のいずれか一つが実行オブジェクト5として選択されたときから、指先21を一定時間T2静止させることにより、実行オブジェクト5をホバー操作エリアB内の他の選択オブジェクトに変更することができる。ホバー操作エリアB内の選択オブジェクト3の中から実行オブジェクト5を選択する際の優先順位は、選択オブジェクト3及び仮想操作線4間の距離の短い方が高い。   In this portable information terminal 1, when any one of the selected objects 3 is selected as the execution object 5 by the hover operation, the execution object 5 is moved to the other area in the hover operation area B by holding the fingertip 21 for a predetermined time T2. Can be changed to the selected object. The priority when selecting the execution object 5 from the selection objects 3 in the hover operation area B is higher when the distance between the selection object 3 and the virtual operation line 4 is shorter.

図中の(c)の場合、優先順位は、「アイコン3」、「アイコン7」、「アイコン4」の順であり、指先21を静止させ続ければ、一定時間T2が経過するごとに、これらの選択オブジェクト3が順に実行オブジェクト5として選択される。   In the case of (c) in the figure, the priority order is “icon 3”, “icon 7”, “icon 4”. If the fingertip 21 is kept stationary, these are displayed every time a certain time T2 elapses. Are selected as execution objects 5 in order.

この様に、指先21をxy平面内で回転させ、或いは、一定時間T2静止させることにより、タッチ操作エリアA外の任意の選択オブジェクト3を実行オブジェクト5として選択することができる。実行オブジェクト5が選択されている状態でタッチ操作を行えば、当該実行オブジェクト5に割り当てられた機能を実行させることができる。   As described above, the arbitrary selection object 3 outside the touch operation area A can be selected as the execution object 5 by rotating the fingertip 21 in the xy plane or keeping the fingertip 21 stationary for a predetermined time T2. If a touch operation is performed while the execution object 5 is selected, a function assigned to the execution object 5 can be executed.

図4は、図1の携帯情報端末1内の機能構成の一例を示したブロック図である。この携帯情報端末1は、タッチパネルセンサ11a、タッチパネルディスプレイ11b、オブジェクト表示部101、タッチ操作検出部102、割当機能実行部103、ホバー状態検出部104、仮想操作線生成部105、オブジェクト選択部106及びフォーカス部107により構成される。図1〜図3のタッチパネル11は、タッチパネルセンサ11a及びタッチパネルディスプレイ11bにより構成される。   FIG. 4 is a block diagram showing an example of a functional configuration in the portable information terminal 1 of FIG. The portable information terminal 1 includes a touch panel sensor 11a, a touch panel display 11b, an object display unit 101, a touch operation detection unit 102, an allocation function execution unit 103, a hover state detection unit 104, a virtual operation line generation unit 105, an object selection unit 106, The focus unit 107 is configured. The touch panel 11 of FIGS. 1 to 3 includes a touch panel sensor 11a and a touch panel display 11b.

オブジェクト表示部101は、1又は2以上の選択オブジェクト3を画面上に表示するための表示データを生成し、タッチパネルディスプレイ11bへ出力する。タッチ操作検出部102は、タッチパネルセンサ11aの出力に基づいて、タッチ操作の操作位置を検出し、その検出結果を割当機能実行部103へ出力する。割当機能実行部103は、タッチ操作が検出されれば、当該タッチ操作の操作位置に基づいて、割当機能を実行する。   The object display unit 101 generates display data for displaying one or more selected objects 3 on the screen and outputs the display data to the touch panel display 11b. The touch operation detection unit 102 detects the operation position of the touch operation based on the output of the touch panel sensor 11a, and outputs the detection result to the allocation function execution unit 103. When a touch operation is detected, the allocation function execution unit 103 executes the allocation function based on the operation position of the touch operation.

ホバー状態検出部104は、タッチパネルセンサ11aの出力に基づいて、タッチパネル11の上方でホバー状態にある指を検出する。具体的には、指先21のタッチパネル11からの高さLzがホバー検知領域HR内にあり、かつ、高さLz及び指先21のxy平面内における位置について、単位時間当たりの変化量が所定値を越えることなく一定時間T1が経過した場合に、ホバー状態にあると判断する。   The hover state detection unit 104 detects a finger in a hover state above the touch panel 11 based on the output of the touch panel sensor 11a. Specifically, the height Lz of the fingertip 21 from the touch panel 11 is within the hover detection region HR, and the amount of change per unit time is a predetermined value for the height Lz and the position of the fingertip 21 in the xy plane. If the predetermined time T1 has passed without exceeding, it is determined that the vehicle is in the hover state.

仮想操作線生成部105は、ホバー状態にある指の指先21の位置及び当該指の向きに基づいて、指先21から外側へ延びる仮想操作線4を生成する。仮想操作線4には、指先21から指の向きに延伸する直線形状からなるものの他に、折れ線や曲線を用いても良い。また、指の向きに対して所定の角度φで延伸する直線を仮想操作線4として用いても良い。   The virtual operation line generation unit 105 generates a virtual operation line 4 extending outward from the fingertip 21 based on the position of the fingertip 21 and the orientation of the finger in the hover state. The virtual operation line 4 may be a broken line or a curved line in addition to a linear shape extending from the fingertip 21 toward the finger. A straight line extending at a predetermined angle φ with respect to the direction of the finger may be used as the virtual operation line 4.

オブジェクト選択部106は、仮想操作線4のタッチパネル11上の位置に基づいて、選択オブジェクト3のいずれか一つを実行オブジェクト5として選択する。具体的には、仮想操作線4を中心とする一定の角度範囲θからなる領域をホバー操作エリアBとし、ホバー操作エリアB内の選択オブジェクト3のうち、仮想操作線4に最も近い選択オブジェクトを実行オブジェクト5として選択する。ホバー操作エリアBは、指先21を中心とする扇形領域からなるものの他に、指先21から離れた所定の点を基準点とし、この基準点を中心とする扇形領域からなるものを用いても良い。フォーカス部107は、実行オブジェクト5をフォーカス表示するための表示データを生成し、タッチパネルディスプレイ11bへ出力する。   The object selection unit 106 selects any one of the selection objects 3 as the execution object 5 based on the position of the virtual operation line 4 on the touch panel 11. Specifically, an area composed of a certain angle range θ centered on the virtual operation line 4 is defined as a hover operation area B, and a selection object closest to the virtual operation line 4 among the selection objects 3 in the hover operation area B is selected. Select as execution object 5. In addition to the fan-shaped area centered on the fingertip 21, the hover operation area B may include a fan-shaped area centered on this reference point with a predetermined point away from the fingertip 21 as a reference point. . The focus unit 107 generates display data for displaying the execution object 5 in focus and outputs the display data to the touch panel display 11b.

オブジェクト選択部106は、ホバー状態にある指の位置が一定レベル以上変化することなく一定時間T2が経過した場合に、実行オブジェクト5をホバー操作エリアB内の他の選択オブジェクトに変更する。また、オブジェクト選択部106は、指先21の高さLzがホバー検知領域HRよりも高くなれば、実行オブジェクト5の選択状態を解除する。割当機能実行部103は、実行オブジェクト5が選択されている状態で、タッチ操作が検出されれば、当該タッチ操作の操作位置にかかわらず、実行オブジェクト5に割り当てられた機能を実行する。   The object selection unit 106 changes the execution object 5 to another selected object in the hover operation area B when the fixed time T2 has passed without the finger position in the hover state changing more than a certain level. Further, the object selection unit 106 cancels the selection state of the execution object 5 when the height Lz of the fingertip 21 becomes higher than the hover detection area HR. If a touch operation is detected while the execution object 5 is selected, the assigned function execution unit 103 executes the function assigned to the execution object 5 regardless of the operation position of the touch operation.

ホバー操作エリアBを規定する角度範囲θは、固定値であっても良いし、ユーザが任意に指定することができる可変値であっても良い。また、ホバー状態を規定する時間T1及びT2は、固定値であっても良いし、ユーザが任意に指定することができる可変値であっても良い。   The angle range θ that defines the hover operation area B may be a fixed value or a variable value that can be arbitrarily designated by the user. In addition, the times T1 and T2 for defining the hover state may be fixed values or variable values that can be arbitrarily specified by the user.

図5のステップS101〜S108は、図4の携帯情報端末1におけるタッチパネルスキャン時の動作の一例を示したフローチャートである。まず、タッチ操作検出部102及びホバー状態検出部104は、タッチパネルセンサ11aにおける電極ごとの静電容量をチェックし(ステップS101)、静電容量の変化量から指がホバー検知領域HR内に接近したことを検知すれば、指先21の高さLz及び指先21のxy平面内における位置を計算する(ステップS102,S103)。   Steps S101 to S108 in FIG. 5 are flowcharts showing an example of an operation at the time of touch panel scanning in the portable information terminal 1 in FIG. First, the touch operation detection unit 102 and the hover state detection unit 104 check the capacitance of each electrode in the touch panel sensor 11a (step S101), and the finger approaches the hover detection region HR from the amount of change in capacitance. If this is detected, the height Lz of the fingertip 21 and the position of the fingertip 21 in the xy plane are calculated (steps S102 and S103).

ホバー状態検出部104は、指先21の高さLzがホバー検知領域HR内にあり、かつ、高さLz及び指先21のxy平面内の位置について、単位時間当たりの変化量が所定値を越えることなく一定時間T1が経過した場合に、ホバー状態にあると判断し、仮想操作線生成部105、オブジェクト選択部106及びフォーカス部107によりホバー操作処理が実行される(ステップS104,S105)。   In the hover state detection unit 104, the height Lz of the fingertip 21 is within the hover detection area HR, and the amount of change per unit time exceeds a predetermined value for the height Lz and the position of the fingertip 21 in the xy plane. If the predetermined time T1 elapses, it is determined that the camera is in the hover state, and the virtual operation line generation unit 105, the object selection unit 106, and the focus unit 107 perform hover operation processing (steps S104 and S105).

一方、タッチ操作検出部102は、指先21の高さLzがタッチ検知領域TR内にあれば、タッチ操作が行われたと判断し、タッチ操作の操作位置を示す位置情報を割当機能実行部103へ出力する。割当機能実行部103は、タッチ操作の操作位置に応じた入力処理を実行する(ステップS104,S106,S107)。   On the other hand, if the height Lz of the fingertip 21 is within the touch detection region TR, the touch operation detection unit 102 determines that the touch operation has been performed, and sends position information indicating the operation position of the touch operation to the assignment function execution unit 103. Output. The allocation function execution unit 103 executes input processing according to the operation position of the touch operation (steps S104, S106, S107).

ステップS101からステップS107までの処理手順は、指先21がホバー検知領域HRから離脱するまで一定時間T3ごとに繰り返され、指先21がホバー検知領域HRから上方へ離脱すれば、この処理は終了する(ステップS108)。   The processing procedure from step S101 to step S107 is repeated at regular time intervals T3 until the fingertip 21 leaves the hover detection area HR, and this process ends when the fingertip 21 leaves the hover detection area HR upward ( Step S108).

図6のステップS201〜S212は、図4の携帯情報端末1におけるホバー操作処理の一例を示したフローチャートである。この処理手順では、アイコン及び実行アイコンが、それぞれ選択オブジェクト3及び実行オブジェクト5である。まず、仮想操作線生成部105は、指先21の位置及び指2の向きを判別し、仮想操作線4を生成する(ステップS201,S202)。   Steps S201 to S212 in FIG. 6 are flowcharts illustrating an example of hover operation processing in the portable information terminal 1 in FIG. In this processing procedure, the icon and the execution icon are the selection object 3 and the execution object 5, respectively. First, the virtual operation line generation unit 105 determines the position of the fingertip 21 and the orientation of the finger 2 and generates the virtual operation line 4 (steps S201 and S202).

次に、オブジェクト選択部106は、仮想操作線4を中心とする一定の角度範囲θからなる領域をホバー操作エリアBとし、このホバー操作エリアB内のアイコンを操作対象アイコンとして選択する(ステップS203)。オブジェクト選択部106は、操作対象アイコンについて、仮想操作線4までの距離を演算し、距離が最も短い操作対象アイコンを実行アイコンとして選択する(ステップS204,S205)。フォーカス部107は、実行アイコンが選択されれば、当該実行アイコンをフォーカス表示する(ステップS206)。   Next, the object selection unit 106 selects a region having a certain angle range θ centered on the virtual operation line 4 as a hover operation area B, and selects an icon in the hover operation area B as an operation target icon (step S203). ). The object selection unit 106 calculates the distance to the virtual operation line 4 for the operation target icon, and selects the operation target icon with the shortest distance as the execution icon (steps S204 and S205). When the execution icon is selected, the focus unit 107 displays the execution icon in focus (step S206).

次に、実行アイコンが選択された後、指先21が移動することなく一定時間T2が経過すれば、実行アイコンがホバー操作エリアB内の他のアイコンに変更され、ステップS206以降の処理手順が繰り返される(ステップS207,S208)。一方、一定時間T2が経過するまでに指先21がxy平面内で移動すれば、ステップS201以降の処理手順が繰り返される(ステップS207,S209)。   Next, after the execution icon is selected, if the predetermined time T2 elapses without the fingertip 21 moving, the execution icon is changed to another icon in the hover operation area B, and the processing procedure after step S206 is repeated. (Steps S207 and S208). On the other hand, if the fingertip 21 moves in the xy plane before the predetermined time T2 elapses, the processing procedure after step S201 is repeated (steps S207 and S209).

また、割当機能実行部103は、一定時間T2が経過するまでにタッチ操作が行われれば、実行アイコンに対応する割当機能を実行する(ステップS207,S209〜S211)。ステップS207以降の処理手順は、指先21がホバー検知領域HRから離脱するまで繰り返され、指先21がホバー検知領域HRから上方へ離脱すれば、実行オブジェクト5の選択状態を解除してこの処理は終了する(ステップS212)。   Moreover, the allocation function execution part 103 will perform the allocation function corresponding to an execution icon, if a touch operation is performed before fixed time T2 passes (step S207, S209-S211). The processing procedure after step S207 is repeated until the fingertip 21 is released from the hover detection area HR. When the fingertip 21 is released upward from the hover detection area HR, the selected state of the execution object 5 is canceled and the process is completed. (Step S212).

本実施の形態によれば、タッチパネル11の上方で指をホバー状態に保持することにより、指先21から外側へ延びる仮想操作線4のタッチパネル11上の位置に基づいて、選択オブジェクト3のいずれか一つが実行オブジェクト5として選択される。つまり、選択オブジェクト3の表示位置に応じて指先21を所定の方向に向けつつホバー状態で保持すれば、画面上の選択オブジェクト3にタッチ操作を行わなくても、所望の選択オブジェクト3を実行オブジェクト5として選択することができる。   According to the present embodiment, by holding the finger in the hover state above the touch panel 11, any one of the selection objects 3 is selected based on the position on the touch panel 11 of the virtual operation line 4 extending outward from the fingertip 21. Is selected as the execution object 5. That is, if the fingertip 21 is held in a hover state according to the display position of the selection object 3, the desired selection object 3 can be executed as an execution object without touching the selection object 3 on the screen. 5 can be selected.

実施の形態2.
実施の形態1では、仮想操作線4を中心とする一定の角度範囲θからなる領域をホバー操作エリアBとし、このホバー操作エリアB内の選択オブジェクト3から実行オブジェクト5が選択される場合の例について説明した。これに対し、本実施の形態では、仮想操作線4を中心とする一定の角度範囲θからなり、かつ、指先21から一定の距離範囲λからなる領域をホバー操作エリアBとし、指先21の高さLzに応じて距離範囲λを段階的にシフトさせる場合について説明する。
Embodiment 2. FIG.
In the first embodiment, an example of a case where an area composed of a certain angle range θ centered on the virtual operation line 4 is defined as a hover operation area B, and the execution object 5 is selected from the selection objects 3 in the hover operation area B. Explained. On the other hand, in the present embodiment, an area consisting of a certain angle range θ centered on the virtual operation line 4 and a certain distance range λ from the fingertip 21 is defined as a hover operation area B, and the height of the fingertip 21 is increased. A case where the distance range λ is shifted stepwise according to the length Lz will be described.

図7は、本発明の実施の形態2による携帯情報端末1の動作の一例を示した図であり、ホバー操作エリアBの距離範囲λが、指先21の高さLzに応じて段階的にシフトさせる様子が示されている。図中の(A1)には、左手で保持された薄型筐体10をトップ側から見た場合が示され、(A2)及び(A3)には、タッチパネル11を上方から見た場合が示されている。また、(A2)と(A3)とでは、ホバー状態にある親指2のxy平面内における位置及び向きが異なっている。   FIG. 7 is a diagram showing an example of the operation of the portable information terminal 1 according to the second embodiment of the present invention, where the distance range λ of the hover operation area B is shifted stepwise according to the height Lz of the fingertip 21. It shows how to make it happen. (A1) in the figure shows a case where the thin casing 10 held by the left hand is viewed from the top side, and (A2) and (A3) show a case where the touch panel 11 is viewed from above. ing. In (A2) and (A3), the position and orientation of the thumb 2 in the hover state in the xy plane are different.

(A2)及び(A3)に示されているホバー操作エリアB1は、仮想操作線4を中心とする一定の角度範囲θからなり、かつ、指先21から一定の距離範囲λからなる領域である。距離範囲λは、0<λ≦D1である。このホバー操作エリアB1は、指先21を中心とする扇形領域からなる。   The hover operation area B1 shown in (A2) and (A3) is a region that is composed of a certain angle range θ centered on the virtual operation line 4 and a certain distance range λ from the fingertip 21. The distance range λ is 0 <λ ≦ D1. The hover operation area B1 is composed of a sector area centered on the fingertip 21.

選択オブジェクト3がホバー操作エリアB1内であるか否かは、選択オブジェクト3を表すシンボルがホバー操作エリアB1と重複しているか否かによって判別される。つまり、選択オブジェクト3の外形が少しでもホバー操作エリアB1と重なっていれば、当該選択オブジェクト3は、ホバー操作エリアB1内に位置するものと判別される。或いは、選択オブジェクト3の一部、例えば、選択オブジェクト3の中心がホバー操作エリアB1に重なっていれば、当該選択オブジェクト3は、ホバー操作エリアB1内に位置するものと判別されるとしても良い。以下では、選択オブジェクト3の外形が少しでもホバー操作エリアB1に重なっていれば、当該選択オブジェクト3はホバー操作エリアB1内に位置するものと判別する場合を例にとって選択オブジェクト3の選択方法を示す。   Whether or not the selected object 3 is in the hover operation area B1 is determined by whether or not the symbol representing the selected object 3 overlaps with the hover operation area B1. That is, if the outer shape of the selected object 3 slightly overlaps the hover operation area B1, it is determined that the selected object 3 is located in the hover operation area B1. Alternatively, if a part of the selected object 3, for example, the center of the selected object 3 overlaps the hover operation area B1, the selected object 3 may be determined to be located in the hover operation area B1. In the following, a method for selecting the selected object 3 will be described by taking as an example a case where it is determined that the selected object 3 is located in the hover operation area B1 if the outer shape of the selected object 3 slightly overlaps the hover operation area B1. .

この様なホバー操作エリアB1内の選択オブジェクト3のうち、仮想操作線4に最も近い選択オブジェクト3が実行オブジェクト5として選択される。(A2)の場合、ホバー操作エリアB1内の3つの選択オブジェクト「アイコン6」、「アイコン7」、「アイコン10」のうち、「アイコン10」が実行オブジェクト5として選択されている。また、(A3)の場合には、ホバー操作エリアB1内の3つの選択オブジェクト「アイコン11」、「アイコン12」、「アイコン15」のうち、「アイコン12」が実行オブジェクト5として選択されている。   Of the selected objects 3 in such a hover operation area B1, the selected object 3 closest to the virtual operation line 4 is selected as the execution object 5. In the case of (A2), “icon 10” is selected as the execution object 5 among the three selected objects “icon 6”, “icon 7”, and “icon 10” in the hover operation area B1. In the case of (A3), among the three selection objects “icon 11”, “icon 12”, and “icon 15” in the hover operation area B1, “icon 12” is selected as the execution object 5. .

図中の(A4)には、(A1)の状態から指先21を距離Lzgだけ上昇させた場合が示され、(A5)及び(A6)には、(A4)の状態でホバー操作を行っている様子が示されている。また、(A5)と(A6)とでは、ホバー状態にある親指2のxy平面内における位置及び向きが異なっている。   (A4) in the figure shows a case where the fingertip 21 is lifted by a distance Lzg from the state (A1). In (A5) and (A6), the hover operation is performed in the state (A4). The situation is shown. In (A5) and (A6), the position and orientation of the thumb 2 in the hover state in the xy plane are different.

(A5)及び(A6)に示されているホバー操作エリアB2は、仮想操作線4を中心とする一定の角度範囲θからなり、かつ、指先21から一定の距離範囲λからなる領域である。距離範囲λは、D1<λ≦D1×2である。このホバー操作エリアB2は、指先21を中心とする扇形領域の一部であり、円弧形状の帯状領域からなる。つまり、ホバー状態にある親指2の高さLzを一定値Lz1以上上昇させることにより、ホバー操作エリアBの距離範囲λは、距離D1だけ外側へシフトする。   The hover operation area B2 shown in (A5) and (A6) is an area that is composed of a certain angle range θ centered on the virtual operation line 4 and a certain distance range λ from the fingertip 21. The distance range λ is D1 <λ ≦ D1 × 2. The hover operation area B2 is a part of a fan-shaped area centered on the fingertip 21, and is composed of an arc-shaped belt-shaped area. That is, by raising the height Lz of the thumb 2 in the hover state by a certain value Lz1 or more, the distance range λ of the hover operation area B is shifted outward by the distance D1.

(A5)の場合、ホバー操作エリアB2内の4つの選択オブジェクト「アイコン3」、「アイコン4」、「アイコン6」、「アイコン7」のうち、「アイコン3」が実行オブジェクト5として選択されている。また、(A6)の場合には、ホバー操作エリアB2内の2つの選択オブジェクト「アイコン8」、「アイコン12」のうち、「アイコン12」が実行オブジェクト5として選択されている。   In the case of (A5), among the four selected objects “icon 3”, “icon 4”, “icon 6”, and “icon 7” in the hover operation area B2, “icon 3” is selected as the execution object 5. Yes. In the case of (A6), “icon 12” is selected as the execution object 5 among the two selection objects “icon 8” and “icon 12” in the hover operation area B2.

さらに、(A4)の状態から指先21を距離Lz1以上上昇させれば、ホバー操作エリアBの距離範囲λは、距離D1だけ外側へシフトし、D1×2<λ≦D1×3になる。この様に、ホバー状態にある親指2の高さLzを一定値Lz1上昇させるごとに、ホバー操作エリアBの距離範囲λは、距離D1だけ外側へシフトする。   Furthermore, if the fingertip 21 is raised by the distance Lz1 or more from the state (A4), the distance range λ of the hover operation area B is shifted outward by the distance D1, and D1 × 2 <λ ≦ D1 × 3. Thus, every time the height Lz of the thumb 2 in the hover state is increased by a certain value Lz1, the distance range λ of the hover operation area B is shifted outward by the distance D1.

また、ホバー状態にある親指2の高さLzを下降させる場合は、ホバー状態にある親指2を上昇させる場合と同様に、高さLzを一定値Lz1下降させるごとに、ホバー操作エリアBの距離範囲λは、距離D1だけ内側へシフトする。具体的には、実行オブジェクト5の割当機能を実行するためのタッチ操作と識別するために、高さLzが一定時間T4内にLz1以上降下した場合は、タッチ操作である判断する。一方、高さLzがLz1だけ降下するのに要した時間がT4を上回っていれば、ホバー操作エリアBの距離範囲λをD1だけ内側へシフトする。   Further, when the height Lz of the thumb 2 in the hover state is lowered, the distance of the hover operation area B every time the height Lz is lowered by the constant value Lz1 as in the case of raising the thumb 2 in the hover state. The range λ is shifted inward by a distance D1. Specifically, in order to distinguish it from a touch operation for executing the assignment function of the execution object 5, when the height Lz drops by Lz1 or more within a predetermined time T4, it is determined that the operation is a touch operation. On the other hand, if the time required for the height Lz to drop by Lz1 exceeds T4, the distance range λ of the hover operation area B is shifted inward by D1.

本実施の形態によれば、ホバー状態にある指の高さLzを一定値Lz1以上変化させることにより、ホバー操作エリアBを外側へシフトさせ、或いは、内側へシフトさせて所望の選択オブジェクト3を実行オブジェクト5として選択することができる。   According to the present embodiment, by changing the height Lz of the finger in the hover state by a certain value Lz1 or more, the hover operation area B is shifted to the outside, or the inside is shifted to the desired selection object 3. The execution object 5 can be selected.

なお、実施の形態1及び2では、選択オブジェクト3及び仮想操作線4間の距離に基づいて実行オブジェクト5が選択される場合の例について説明したが、本発明は、ホバー操作エリアB内の選択オブジェクト3の中から実行オブジェクト5を選択する方法をこれに限定するものではない。例えば、ホバー状態にある指の指先21と選択オブジェクト3との距離に基づいて、実行オブジェクト5を選択するような構成であっても良い。   In the first and second embodiments, the example in which the execution object 5 is selected based on the distance between the selection object 3 and the virtual operation line 4 has been described. However, the present invention is not limited to the selection in the hover operation area B. The method for selecting the execution object 5 from the objects 3 is not limited to this. For example, the configuration may be such that the execution object 5 is selected based on the distance between the fingertip 21 of the finger in the hover state and the selection object 3.

具体的に説明すれば、ホバー操作エリアB内の選択オブジェクト3のうち、指先21に最も近い選択オブジェクトを実行オブジェクト5として選択する。指先21と選択オブジェクト3との距離は、指先21と選択オブジェクト3の中心とを結ぶ線分の長さによって求められる。   More specifically, the selection object closest to the fingertip 21 among the selection objects 3 in the hover operation area B is selected as the execution object 5. The distance between the fingertip 21 and the selected object 3 is obtained by the length of the line segment connecting the fingertip 21 and the center of the selected object 3.

また、ホバー操作エリアB内の選択オブジェクト3の中から実行オブジェクト5を選択する際の優先順位は、指先21及び選択オブジェクト3間の距離の短い方が高い。図3の(c)を用いて説明すれば、優先順位は、「アイコン7」、「アイコン3」、「アイコン4」の順であり、指先21を静止させ続ければ、一定時間T2が経過するごとに、これらの選択オブジェクト3が順に実行オブジェクト5として選択される。   The priority when selecting the execution object 5 from the selection objects 3 in the hover operation area B is higher when the distance between the fingertip 21 and the selection object 3 is shorter. If it demonstrates using (c) of FIG. 3, a priority will be the order of "icon 7", "icon 3", and "icon 4", and if the fingertip 21 is kept still, the fixed time T2 will pass. Each time, these selected objects 3 are selected as execution objects 5 in order.

また、図7の(A5)を用いて説明すれば、優先順位は、「アイコン6」、「アイコン7」、「アイコン3」、「アイコン4」の順であり、指先21を静止させ続ければ、一定時間T2が経過するごとに、これらの選択オブジェクト3が順に実行オブジェクト5として選択される。   Further, using (A5) in FIG. 7, the priority order is “icon 6”, “icon 7”, “icon 3”, “icon 4”, and the fingertip 21 is kept stationary. Each time the predetermined time T2 elapses, these selected objects 3 are sequentially selected as the execution object 5.

また、実施の形態1及び2では、仮想操作線4に基づいて実行オブジェクト5が選択される場合の例について説明したが、仮想操作線4やホバー操作エリアB,B1,B2を画面上に表示するような構成であっても良い。例えば、仮想操作線4は、点線又は破線からなるガイド線を用いて表示し、ホバー操作エリアB,B1,B2は、その境界線を実線を用いて表示する。また、ホバー操作エリアB,B1,B2内の表示色をエリア外の表示色と異ならせても良い。   In the first and second embodiments, the example in which the execution object 5 is selected based on the virtual operation line 4 has been described. However, the virtual operation line 4 and the hover operation areas B, B1, and B2 are displayed on the screen. Such a configuration may be adopted. For example, the virtual operation line 4 is displayed using a guide line consisting of a dotted line or a broken line, and the hover operation areas B, B1, B2 display the boundary line using a solid line. Further, the display colors in the hover operation areas B, B1, and B2 may be different from the display colors outside the area.

また、実施の形態1及び2では、タッチ操作を行うことによって実行オブジェクト5に割り当てられた機能が実行される場合の例について説明したが、本発明は、実行オブジェクト5に割り当てられた機能を実行させる方法をこれに限定するものではない。例えば、ホバー状態にある親指2の高さLzを一定値Lz2以上下降させることにより、実行オブジェクト5に割り当てられた機能が実行されるような構成であっても良い。   In Embodiments 1 and 2, the example in which the function assigned to the execution object 5 is executed by performing a touch operation has been described. However, the present invention executes the function assigned to the execution object 5. However, this is not a limitation. For example, the function assigned to the execution object 5 may be executed by lowering the height Lz of the thumb 2 in the hover state by a certain value Lz2 or more.

また、実施の形態1及び2では、静電容量方式で投影型の検出素子からなるタッチパネル11を用いてホバー状態にある指が検出される場合の例について説明したが、本発明は、タッチパネル11の構成をこれに限定するものではない。例えば、赤外線などの光からなる検出光を指に向けて投光し、指による反射光を受光することにより、ホバー状態にある指を検出する光学式のタッチパネルを用いても良い。   In the first and second embodiments, an example has been described in which a finger in a hover state is detected using the touch panel 11 including a projection type detection element by a capacitance method. However, the configuration is not limited to this. For example, an optical touch panel that detects a finger in a hover state by projecting detection light including light such as infrared rays toward the finger and receiving reflected light from the finger may be used.

また、実施の形態1及び2では、2以上の選択オブジェクト3がタッチパネル11に表示され、これらの選択オブジェクト3のいずれか一つがホバー操作によって実行オブジェクト5として選択される場合の例について説明した。しかし、本発明は、1つの選択オブジェクト3がタッチパネル11に表示されている場合に、当該選択オブジェクト3を実行オブジェクト5として選択するものにも適用することができる。   In Embodiments 1 and 2, an example in which two or more selection objects 3 are displayed on the touch panel 11 and any one of these selection objects 3 is selected as an execution object 5 by a hover operation has been described. However, the present invention can also be applied to a case where one selected object 3 is displayed on the touch panel 11 and the selected object 3 is selected as the execution object 5.

また、実施の形態1及び2では、ホバー検知領域HR内において指先21が一定時間T1以上静止状態にあることが検知されれば、ホバー操作可能になる場合の例について説明したが、本発明はホバー操作の開始条件をこれに限定するものではない。例えば、指先21がホバー検知領域HR内に一定時間T0以上滞在していることが検知されれば、静止状態にあるか否かにかかわらずホバー操作可能になるような構成であっても良い。   Further, in the first and second embodiments, an example has been described in which the hover operation can be performed if it is detected that the fingertip 21 is stationary for a certain time T1 or more in the hover detection region HR. The start condition of the hover operation is not limited to this. For example, if it is detected that the fingertip 21 stays in the hover detection area HR for a certain time T0 or more, the configuration may be such that the hover operation is possible regardless of whether or not the fingertip 21 is in a stationary state.

本発明の実施の形態による携帯情報端末の構成と対応する作用効果とを以下に整理してまとめる。
第1の本発明による携帯情報端末は、タッチパネル11に選択オブジェクト3を表示するオブジェクト表示部101と、タッチパネル11のセンサ出力に基づいて、タッチパネル11の上方でホバー状態にある指を検出するホバー状態検出部104と、ホバー状態にある指の先端の位置及び当該指の向きに基づいて、指先21から外側へ延びる仮想操作線4を生成する仮想操作線生成部105と、仮想操作線4のタッチパネル11上の位置に基づいて、選択オブジェクト3を実行オブジェクト5として選択するオブジェクト選択部106と、実行オブジェクト5をフォーカス表示するフォーカス部107とを備えて構成される。
The configuration of the portable information terminal according to the embodiment of the present invention and the corresponding operational effects are organized and summarized below.
The portable information terminal according to the first aspect of the present invention includes an object display unit 101 that displays the selected object 3 on the touch panel 11 and a hover state that detects a finger in a hover state above the touch panel 11 based on the sensor output of the touch panel 11. Based on the detection unit 104, the position of the tip of the finger in the hover state and the orientation of the finger, the virtual operation line generation unit 105 that generates the virtual operation line 4 extending outward from the fingertip 21, and the touch panel of the virtual operation line 4 11 includes an object selection unit 106 that selects the selected object 3 as the execution object 5 and a focus unit 107 that displays the execution object 5 in focus.

この様な構成によれば、選択オブジェクト3の表示位置に応じて指先21を所定の方向に向けつつホバー状態で保持すれば、画面上の選択オブジェクト3にタッチ操作を行わなくても、所望の選択オブジェクトを実行オブジェクト5として選択することができる。   According to such a configuration, if the fingertip 21 is held in the hover state in a predetermined direction according to the display position of the selected object 3, a desired operation can be performed without performing a touch operation on the selected object 3 on the screen. The selected object can be selected as the execution object 5.

第2の本発明による携帯情報端末は、上記構成に加え、オブジェクト選択部106が、仮想操作線4を中心とする一定の角度範囲θからなる領域をホバー操作エリアBとし、ホバー操作エリアB内の選択オブジェクト3のうち、仮想操作線4に最も近い選択オブジェクトを実行オブジェクト5として選択するように構成される。この様な構成によれば、指先21を所望の選択オブジェクトに向けるだけで、当該選択オブジェクトを実行オブジェクト5として選択することができる。   In the portable information terminal according to the second aspect of the present invention, in addition to the above-described configuration, the object selection unit 106 defines a region including a certain angle range θ centered on the virtual operation line 4 as the hover operation area B, and the hover operation area B Among the selected objects 3, the selected object closest to the virtual operation line 4 is selected as the execution object 5. According to such a configuration, the selected object can be selected as the execution object 5 simply by pointing the fingertip 21 toward the desired selected object.

第3の本発明による携帯情報端末は、上記構成に加え、オブジェクト選択部106が、仮想操作線4を中心とする一定の角度範囲θからなる領域をホバー操作エリアBとし、ホバー操作エリアB内の選択オブジェクト3のうち、指先21に最も近い選択オブジェクトを実行オブジェクト5として選択するように構成される。この様な構成によれば、表示位置が指先21に近い選択オブジェクトを容易に選択することができる。   In the mobile information terminal according to the third aspect of the present invention, in addition to the above-described configuration, the object selection unit 106 defines a region including a certain angle range θ centered on the virtual operation line 4 as the hover operation area B, and the hover operation area B Among the selected objects 3, the selected object closest to the fingertip 21 is selected as the execution object 5. According to such a configuration, a selection object whose display position is close to the fingertip 21 can be easily selected.

第4の本発明による携帯情報端末は、上記構成に加え、オブジェクト選択部106が、ホバー状態にある指の位置が一定レベル以上変化することなく一定時間T2が経過した場合に、実行オブジェクト5をホバー操作エリアB内の他の選択オブジェクト3に変更するように構成される。この様な構成によれば、ホバー操作エリアB内の任意の選択オブジェクト3を実行オブジェクト5として選択することができる。   In addition to the above-described configuration, the portable information terminal according to the fourth aspect of the present invention is configured so that the object selection unit 106 displays the execution object 5 when a certain time T2 has elapsed without the finger position in the hover state changing more than a certain level. It is configured to change to another selected object 3 in the hover operation area B. According to such a configuration, an arbitrary selection object 3 in the hover operation area B can be selected as the execution object 5.

第5の本発明による携帯情報端末は、上記構成に加え、ホバー状態検出部104が、ホバー状態にある指のタッチパネル11からの高さLzを検出し、オブジェクト選択部106が、仮想操作線4を中心とする一定の角度範囲θからなり、かつ、指先21から一定の距離範囲λからなる領域をホバー操作エリアBとし、ホバー状態にある指の高さLzが一定レベル以上変化した場合に、当該高さLzの変化量に基づいて、ホバー操作エリアBの距離範囲λを外側へシフトさせ、或いは、内側へシフトさせるように構成される。この様な構成によれば、ホバー状態にある指の高さLzを一定値Lz1以上変化させることにより、ホバー操作エリアBを外側へシフトさせ、或いは、内側へシフトさせて所望の選択オブジェクト3を実行オブジェクト5として選択することができる。   In the portable information terminal according to the fifth aspect of the present invention, in addition to the above configuration, the hover state detection unit 104 detects the height Lz of the finger in the hover state from the touch panel 11, and the object selection unit 106 includes the virtual operation line 4. When the height Lz of the finger in the hover state changes by a certain level or more, an area consisting of a constant angle range θ centered on the center of the fingertip 21 and a constant distance range λ from the fingertip 21 is defined as a hover operation area B. Based on the amount of change in the height Lz, the distance range λ of the hover operation area B is shifted outward or inward. According to such a configuration, by changing the height Lz of the finger in the hover state by a certain value Lz1 or more, the hover operation area B is shifted to the outside or the inside is shifted to the desired selection object 3. The execution object 5 can be selected.

1 携帯情報端末
10 薄型筐体
101 オブジェクト表示部
102 タッチ操作検出部
103 割当機能実行部
104 ホバー状態検出部
105 仮想操作線生成部
106 オブジェクト選択部
107 フォーカス部
11 タッチパネル
11a タッチパネルセンサ
11b タッチパネルディスプレイ
2 親指
21 指先
3 選択オブジェクト
4 仮想操作線
5 実行オブジェクト
A タッチ操作エリア
B,B1,B2 ホバー操作エリア
DESCRIPTION OF SYMBOLS 1 Portable information terminal 10 Thin housing 101 Object display part 102 Touch operation detection part 103 Assignment function execution part 104 Hover state detection part 105 Virtual operation line generation part 106 Object selection part 107 Focus part 11 Touch panel 11a Touch panel sensor 11b Touch panel display 2 Thumb 21 fingertip 3 selected object 4 virtual operation line 5 execution object A touch operation area B, B1, B2 hover operation area

Claims (5)

タッチパネルに選択オブジェクトを表示するオブジェクト表示手段と、
上記タッチパネルのセンサ出力に基づいて、上記タッチパネルの上方でホバー状態にある指を検出するホバー状態検出手段と、
上記ホバー状態にある指の先端の位置及び当該指の向きに基づいて、指先から外側へ延びる仮想操作線を生成する仮想操作線生成手段と、
上記仮想操作線の上記タッチパネル上の位置に基づいて、上記選択オブジェクトを実行オブジェクトとして選択するオブジェクト選択手段と、
上記実行オブジェクトをフォーカス表示するフォーカス手段とを備えたことを特徴とする携帯情報端末。
Object display means for displaying the selected object on the touch panel;
Hover state detecting means for detecting a finger in a hover state above the touch panel based on the sensor output of the touch panel;
Virtual operation line generating means for generating a virtual operation line extending outward from the fingertip based on the position of the tip of the finger in the hover state and the orientation of the finger;
Object selection means for selecting the selected object as an execution object based on the position of the virtual operation line on the touch panel;
A portable information terminal comprising focus means for displaying the execution object in focus.
上記オブジェクト選択手段は、上記仮想操作線を中心とする一定の角度範囲からなる領域をホバー操作エリアとし、上記ホバー操作エリア内の選択オブジェクトのうち、上記仮想操作線に最も近い選択オブジェクトを上記実行オブジェクトとして選択することを特徴とする請求項1に記載の携帯情報端末。   The object selection means sets a region having a certain angle range centered on the virtual operation line as a hover operation area, and executes the selected object closest to the virtual operation line among the selected objects in the hover operation area. 2. The portable information terminal according to claim 1, wherein the portable information terminal is selected as an object. 上記オブジェクト選択手段は、上記仮想操作線を中心とする一定の角度範囲からなる領域をホバー操作エリアとし、上記ホバー操作エリア内の選択オブジェクトのうち、上記指先に最も近い選択オブジェクトを上記実行オブジェクトとして選択することを特徴とする請求項1に記載の携帯情報端末。   The object selection means uses a region having a certain angle range centered on the virtual operation line as a hover operation area, and among the selection objects in the hover operation area, a selection object closest to the fingertip as the execution object. The portable information terminal according to claim 1, wherein the portable information terminal is selected. 上記オブジェクト選択手段は、上記ホバー状態にある指の位置が一定レベル以上変化することなく一定時間が経過した場合に、上記実行オブジェクトを上記ホバー操作エリア内の他の選択オブジェクトに変更することを特徴とする請求項2又は3に記載の携帯情報端末。   The object selecting means changes the execution object to another selected object in the hover operation area when a certain time elapses without the position of the finger in the hover state changing more than a certain level. The portable information terminal according to claim 2 or 3. 上記ホバー状態検出手段は、上記ホバー状態にある指の上記タッチパネルからの高さを検出し、
上記オブジェクト選択手段は、上記仮想操作線を中心とする一定の角度範囲からなり、かつ、上記指先から一定の距離範囲からなる領域を上記ホバー操作エリアとし、上記ホバー状態にある指の高さが一定レベル以上変化した場合に、当該高さの変化量に基づいて、上記ホバー操作エリアの上記距離範囲を外側へシフトさせ、或いは、内側へシフトさせることを特徴とする請求項2〜4のいずれかに記載の携帯情報端末。
The hover state detection means detects the height of the finger in the hover state from the touch panel,
The object selecting means has an area consisting of a certain angle range centered on the virtual operation line and a certain distance range from the fingertip as the hover operation area, and the height of the finger in the hover state is The distance range of the hover operation area is shifted to the outside or shifted to the inside based on the amount of change in the height when the level changes by a certain level or more. The portable information terminal described in Crab.
JP2012275134A 2012-12-17 2012-12-17 Portable information terminal Pending JP2014120002A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012275134A JP2014120002A (en) 2012-12-17 2012-12-17 Portable information terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012275134A JP2014120002A (en) 2012-12-17 2012-12-17 Portable information terminal

Publications (1)

Publication Number Publication Date
JP2014120002A true JP2014120002A (en) 2014-06-30

Family

ID=51174780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012275134A Pending JP2014120002A (en) 2012-12-17 2012-12-17 Portable information terminal

Country Status (1)

Country Link
JP (1) JP2014120002A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110032296A (en) * 2019-04-10 2019-07-19 网易(杭州)网络有限公司 Determination method, apparatus, terminal and the storage medium of virtual objects in terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110032296A (en) * 2019-04-10 2019-07-19 网易(杭州)网络有限公司 Determination method, apparatus, terminal and the storage medium of virtual objects in terminal
CN110032296B (en) * 2019-04-10 2022-06-03 网易(杭州)网络有限公司 Method and device for determining virtual object in terminal, terminal and storage medium

Similar Documents

Publication Publication Date Title
JP5922480B2 (en) Portable device having display function, program, and control method of portable device having display function
EP2508972B1 (en) Portable electronic device and method of controlling same
JP5784712B2 (en) Portable electronic device and method for controlling the same
JP6029453B2 (en) Portable terminal, cursor display control program, cursor display control method, cursor generation control program, cursor generation control method, icon display program, and icon display method
EP2431853A2 (en) Character input device
JP5814821B2 (en) Portable terminal device, program, and screen control method
US20150253925A1 (en) Display control device, display control method and program
JPWO2012049942A1 (en) Mobile terminal device and display method of touch panel in mobile terminal device
JP5713180B2 (en) Touch panel device that operates as if the detection area is smaller than the display area of the display.
WO2014208691A1 (en) Portable device and method for controlling portable device
TW200928916A (en) Method for operating software input panel
JP2014099214A (en) Touch screen
JP5986456B2 (en) Mobile terminal device, program, and password input method
JP6183820B2 (en) Terminal and terminal control method
JP2014182429A (en) Information processor, information processing method and information processing program
KR100807737B1 (en) Mobile terminal with touch screen and method for executing function thereof
JP2014120002A (en) Portable information terminal
KR101678213B1 (en) An apparatus for user interface by detecting increase or decrease of touch area and method thereof
JP2014153956A (en) Electronic apparatus
JP2014006748A (en) Electronic apparatus, apparatus, and method
JP6046562B2 (en) Mobile device, control method and program for mobile device
JP5855481B2 (en) Information processing apparatus, control method thereof, and control program thereof
JP2012238128A (en) Information device having back-face input function, back-face input method, and program
JP2015055965A (en) Portable information terminal, electronic device control method and electronic device control program
JP6321387B2 (en) Portable device, method for detecting touch position of portable device, and program