JP5471137B2 - Display device, display method, and program - Google Patents

Display device, display method, and program Download PDF

Info

Publication number
JP5471137B2
JP5471137B2 JP2009182581A JP2009182581A JP5471137B2 JP 5471137 B2 JP5471137 B2 JP 5471137B2 JP 2009182581 A JP2009182581 A JP 2009182581A JP 2009182581 A JP2009182581 A JP 2009182581A JP 5471137 B2 JP5471137 B2 JP 5471137B2
Authority
JP
Japan
Prior art keywords
state
change
proximity
display
operation command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009182581A
Other languages
Japanese (ja)
Other versions
JP2011034502A (en
Inventor
悠介 宮沢
文規 本間
辰志 梨子田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009182581A priority Critical patent/JP5471137B2/en
Priority to CN201010243866.7A priority patent/CN101996036B/en
Priority to US12/845,948 priority patent/US8922497B2/en
Publication of JP2011034502A publication Critical patent/JP2011034502A/en
Application granted granted Critical
Publication of JP5471137B2 publication Critical patent/JP5471137B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、表示装置、表示方法及びプログラムに関する。より詳しくは、本発明は、表示画面においてユーザが行う操作をデバイスにより検出し、これに応じて表示画面の表示を制御する表示装置、表示方法及びプログラムに関する。   The present invention relates to a display device, a display method, and a program. More specifically, the present invention relates to a display device, a display method, and a program for detecting an operation performed by a user on a display screen by a device and controlling display of the display screen according to the detected operation.

近年、透過型タッチパネルを搭載するモバイルデバイスが増加している。このようなデバイスの多くは、できる限り大きなディスプレイを搭載し、そのディスプレイに設けられたタッチパネルによる直観的な操作が可能なようにユーザインターフェースの技術も重要視されている。しかしながら、ディスプレイに表示されたボタンをユーザの指で操作する場合、操作ミスを減らすためにボタンを一定の大きさ以上に表する必要がある。このため、ディスプレイのサイズに自ずと限界があるモバイルデバイスでは、多くのGUI(Graphical User Interface)ボタンを表示することは難しい。   In recent years, mobile devices equipped with a transmissive touch panel are increasing. Many of these devices are equipped with a display as large as possible, and user interface technology is also regarded as important so that an intuitive operation can be performed using a touch panel provided on the display. However, when a button displayed on the display is operated with a user's finger, it is necessary to represent the button to a certain size or more in order to reduce operation mistakes. For this reason, it is difficult to display many GUI (Graphical User Interface) buttons in a mobile device that has a limit in display size.

これに対して、指の接触位置及び圧力を検出できるデバイスを用いることにより、ユーザが一つのボタンを押した場合であっても、その押下力に応じて異なる複数のコマンドを割り振る技術が提案されている(たとえば、特許文献1参照。)。この技術では、操作のバリエーションが拡がる可能性がある。   On the other hand, by using a device that can detect the contact position and pressure of a finger, even when the user presses one button, a technique for allocating a plurality of different commands according to the pressing force is proposed. (For example, refer to Patent Document 1). With this technology, there is a possibility that the variation of operation will be expanded.

また、指の接近を感知すると、ユーザが操作対象としているボタンがハイライト表示される技術も提案されている(たとえば、特許文献2参照。)。この技術では、ユーザがどのボタンを押そうとしているのかを確認できるため、誤操作が軽減される可能性がある。   In addition, a technique has been proposed in which a button that is operated by a user is highlighted when a finger approach is detected (see, for example, Patent Document 2). With this technology, since it is possible to confirm which button the user is trying to press, there is a possibility that erroneous operations are reduced.

特開2006−251927号公報JP 2006-251927 A 特開2009−75656号公報JP 2009-75656 A

しかし、特許文献1では、ユーザがボタンを押す際、自ら圧力を調節しなければならず、ユーザにとって操作負荷が高い。また、押下力を感知する必要があるためデバイスの構造が複雑になる。   However, in Patent Document 1, when the user presses the button, the pressure must be adjusted by himself, and the operation load is high for the user. In addition, since it is necessary to sense the pressing force, the structure of the device is complicated.

また、特許文献2では、近接状態と接触状態とで異なるインタラクションを付加することにより異なる表示制御を可能することができるが、近接状態と接触状態とを明確に区別してユーザが画面操作をすることは難しく、操作ミスが増える可能性がある。また、この技術をモバイルデバイスに応用しようとすると、前述のようにモバイルデバイスではディスプレイのサイズに限りがあるため、これに応じてGUIボタンのサイズ等も小さくしなければならない。これに加えてノイズも大きいため、近接状態の検知及び接触状態の検知を同一ボタンに対する異なるインタラクションのトリガとすることは難しい。   In Patent Document 2, different display control can be performed by adding different interactions between the proximity state and the contact state. However, the user can clearly distinguish between the proximity state and the contact state and perform a screen operation. Is difficult and may increase operational errors. Further, if this technology is applied to a mobile device, the size of the display on the mobile device is limited as described above, and accordingly the size of the GUI button must be reduced accordingly. In addition to this, since noise is large, it is difficult to use proximity detection and contact detection as triggers for different interactions with the same button.

上記問題に鑑み、本発明は、表示画面においてユーザが行う操作に対して画面への接触及び非接触の判別に加え、ユーザが行う操作の状態変化に応じて表示画面の表示を変える表示装置、表示方法及びプログラムを提供する。   In view of the above problems, the present invention provides a display device that changes display of a display screen in accordance with a change in state of an operation performed by the user, in addition to determining whether the user performs an operation performed on the display screen. A display method and program are provided.

上記課題を解決するために、本発明のある態様によれば、表示画面と、前記表示画面においてユーザが行う操作を検出するデバイスと、前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する状態判別部と、前記状態判別部により判別された状態に従い、ユーザが行う操作の状態変化を識別する状態変化識別部と、ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記状態変化識別部により識別された状態変化に応じて操作コマンドを設定する操作コマンド設定部と、を有する表示装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, a display screen, a device that detects an operation performed by a user on the display screen, and the display screen based on a user operation detected by the device are displayed. A state discriminating unit that discriminates one of a contact state, a proximity state, and a remote state, a state change identifying unit that identifies a state change of an operation performed by the user according to the state discriminated by the state discriminating unit, and a user An operation command setting unit configured to set an operation command according to a state change identified by the state change identification unit when setting an operation command for controlling display of the display screen with respect to an operation performed by A display device is provided.

これによれば、ユーザが行った操作に対して表示画面の表示を制御するための操作コマンドを設定する際、前記状態変化識別部により識別された状態変化に応じて操作コマンドが設定される。これにより、画面操作のバリエーションを増やしたり、操作性を向上させたりすることができる。   According to this, when setting the operation command for controlling the display on the display screen for the operation performed by the user, the operation command is set according to the state change identified by the state change identifying unit. Thereby, the variation of screen operation can be increased or operativity can be improved.

前記操作コマンド設定部により設定された操作コマンドに従い前記表示画面の表示を変える画面制御部を更に有していてもよい。   You may further have a screen control part which changes the display of the said display screen according to the operation command set by the said operation command setting part.

前記状態変化識別部は、前記状態判別部の判別結果に基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別し、前記操作コマンド設定部は、前記状態変化識別部により識別された状態変化に応じて異なる操作コマンドを設定してもよい。   The state change identifying unit identifies, based on the determination result of the state determining unit, whether the operation performed by the user on the display screen has changed from the contact state, the proximity state, or the far state, and The operation command setting unit may set a different operation command according to the state change identified by the state change identification unit.

前記状態判別部による前回の判別結果を記憶する記憶部を更に有し、前記状態変化識別部は、前記記憶部に記憶された前回の判別結果と前記状態判別部による今回の判別結果とに基づき、前記表示画面に対する接触状態から遠方状態への状態変化又は前記表示画面に対する接触状態から近接状態への状態変化を識別し、前記操作コマンド設定部は、前記状態変化識別部により識別された状態変化に応じて異なる操作コマンドを設定してもよい。   A storage unit that stores a previous determination result by the state determination unit; and the state change identification unit is based on the previous determination result stored in the storage unit and the current determination result by the state determination unit. The state change from the contact state to the distant state with respect to the display screen or the state change from the contact state to the close state to the display screen is identified, the operation command setting unit is the state change identified by the state change identification unit Different operation commands may be set according to the operation.

前記状態変化識別部により識別された状態変化が接触状態から遠方状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を前記画面制御部に促してもよい。   When the state change identified by the state change identification unit is a state change from a contact state to a far state, the operation command setting unit may prompt the screen control unit to execute the set operation command.

前記状態変化識別部により識別された状態変化が接触状態から近接状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を見合わせるように前記画面制御部に促してもよい。   When the state change identified by the state change identifying unit is a state change from the contact state to the proximity state, the operation command setting unit prompts the screen control unit to postpone execution of the set operation command. Also good.

上記課題を解決するために、本発明の他の態様によれば、示画面においてユーザが行う操作をデバイスに検出させるステップと、前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別するステップと、前記判別された状態に従い、ユーザが行う操作の状態変化を識別するステップと、ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定するステップと、を含む表示方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a step of causing a device to detect an operation performed by a user on a display screen, and a contact with the display screen based on a user operation detected by the device. Determining a state of a state, a proximity state, and a distant state; identifying a change in state of an operation performed by a user according to the determined state; and And setting an operation command according to the identified state change when setting an operation command for controlling display.

上記課題を解決するために、本発明の他の態様によれば、表示画面においてユーザが行う操作をデバイスに検出させる処理と、前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する処理と、前記判別された状態に従い、ユーザが行う操作の状態変化を識別する処理と、ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定する処理と、をコンピュータに実行させるプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a process for causing a device to detect an operation performed by a user on a display screen, and a contact with the display screen based on a user operation detected by the device. A process for determining a state, a proximity state, and a distant state, a process for identifying a change in state of an operation performed by the user according to the determined state, and a display screen for the operation performed by the user. When setting an operation command for controlling display, a program for causing a computer to execute a process of setting an operation command according to the identified state change is provided.

以上説明したように本発明によれば、表示画面においてユーザが行う操作に対して画面への接触及び非接触の判別に加え、ユーザが行う操作の状態変化に応じて表示画面の表示を変えることができる。   As described above, according to the present invention, the display screen display is changed according to the change in the state of the operation performed by the user, in addition to the determination of the contact and non-contact with the operation performed by the user on the display screen. Can do.

本発明の第1及び第2実施形態に係るモバイル機器を示した図である。It is the figure which showed the mobile device which concerns on 1st and 2nd embodiment of this invention. 第1及び第2実施形態に係るモバイル機器による指の状態検出を説明するための図である。It is a figure for demonstrating the detection of the state of the finger | toe by the mobile device which concerns on 1st and 2nd embodiment. 第1及び第2実施形態に係るモバイル機器の機能構成図である。It is a functional block diagram of the mobile apparatus which concerns on 1st and 2nd embodiment. 第1実施形態に係るモバイル機器にて実行される操作コマンド判定処理(メインルーチン)を示したフローチャートである。It is the flowchart which showed the operation command determination process (main routine) performed with the mobile device which concerns on 1st Embodiment. 第1実施形態に係るモバイル機器にて実行される状態識別処理(サブルーチン)を示したフローチャートである。It is the flowchart which showed the state identification process (subroutine) performed with the mobile device which concerns on 1st Embodiment. 図4の操作コマンド判定処理にて判定されたシングルタップと指の状態変化との関係を説明するための図である。FIG. 5 is a diagram for explaining a relationship between a single tap determined by the operation command determination process of FIG. 4 and a finger state change. 図4の操作コマンド判定処理にて判定されたダブルタップと指の状態変化との関係を説明するための図である。FIG. 5 is a diagram for describing a relationship between a double tap determined by the operation command determination process of FIG. 4 and a finger state change. 第1実施形態に係るモバイル機器にて割り当てられる他の操作コマンドを説明するための図である。It is a figure for demonstrating the other operation command allocated with the mobile device which concerns on 1st Embodiment. 第2実施形態に係るモバイル機器にて実行される操作コマンド判定処理(メインルーチン)を示したフローチャートである。It is the flowchart which showed the operation command determination process (main routine) performed with the mobile device which concerns on 2nd Embodiment. 図9の操作コマンド判定処理にて判定されたドラッグ・アンド・ドロップと指の状態変化との関係を説明するための図である。It is a figure for demonstrating the relationship between the drag and drop determined by the operation command determination process of FIG. 9, and the state change of a finger | toe. 変形例に係るモバイル機器の一例を示した図である。It is the figure which showed an example of the mobile device which concerns on a modification.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、以下で説明する本発明の各実施形態に係る表示装置が適用されるモバイル機器は、主に携帯電話、携帯音楽プレーヤ、携帯情報端末(PDA:Personal Digital Assistant)等の携帯型端末であることが好ましい。ただし、本発明に係る表示装置は、ノート型PC(Personal Computer)や据え置き型のPC等の情報処理装置に用いることもできる。   Note that mobile devices to which the display devices according to the embodiments of the present invention described below are applied are mainly portable terminals such as mobile phones, portable music players, and personal digital assistants (PDAs). It is preferable. However, the display device according to the present invention can also be used in an information processing apparatus such as a notebook PC (Personal Computer) or a stationary PC.

以下では次の順序で説明する。
<第1実施形態>
[1−1.モバイル機器のハードウエア構成]
[1−2.モバイル機器の機能構成]
[1−3.モバイル機器の動作:操作コマンド判定処理]
(シングルタップ又はダブルタップの割り当て)
(タップ又はウィークタップの割り当て)
<第2実施形態>
[2−1.モバイル機器の機能構成]
[2−2.モバイル機器の動作:操作コマンド判定処理]
(ドラッグ・アンド・ドロップの実行と実行見合わせ)
<変形例>
Below, it demonstrates in the following order.
<First Embodiment>
[1-1. Hardware configuration of mobile device]
[1-2. Functional configuration of mobile device]
[1-3. Operation of mobile device: Operation command determination processing]
(Single tap or double tap assignment)
(Assignment of tap or week tap)
Second Embodiment
[2-1. Functional configuration of mobile device]
[2-2. Operation of mobile device: Operation command determination processing]
(Drag and drop execution and execution delay)
<Modification>

<第1実施形態>
[1−1.モバイル機器のハードウエア構成]
まず、第1実施形態に係るモバイル機器のハードウエア構成について、図1を参照しながら説明する。本実施形態に係るモバイル機器10は、ディスプレイ12上にユーザの指の位置を検出できるセンサを搭載した透過型のタッチパネルを有するデバイスである。モバイル機器10は、図示しないネットワークを介して様々なコンテンツを受信し、ディスプレイ12に表示することができる。
<First Embodiment>
[1-1. Hardware configuration of mobile device]
First, the hardware configuration of the mobile device according to the first embodiment will be described with reference to FIG. The mobile device 10 according to the present embodiment is a device having a transmissive touch panel on which a sensor capable of detecting the position of a user's finger is mounted on a display 12. The mobile device 10 can receive various contents via a network (not shown) and display them on the display 12.

ディスプレイ12としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機エレクトロルミネッセンスディスプレイ(有機EL、OELD:Organic Electroluminescence Display)等を用いることができる。   As the display 12, for example, a liquid crystal display (LCD: Liquid Crystal Display), an organic electroluminescence display (organic EL, OELD: Organic Electroluminescence Display), or the like can be used.

ディスプレイ12にはタッチパネル14が設けられている。タッチパネル14は、ディスプレイ12上に表示された各種のGUIボタン16に対してユーザが行った画面操作を検出する。タッチパネル14は、ディスプレイ12に対してx方向及びy方向の指の位置を検出するとともに、Z方向の指の状態を検出する。図2に示したように、タッチパネル14は、ディスプレイ12上の指の接触状態及び近接状態を透過型で計測できるようになっている。   A touch panel 14 is provided on the display 12. The touch panel 14 detects screen operations performed by the user with respect to various GUI buttons 16 displayed on the display 12. The touch panel 14 detects the position of the finger in the x direction and the y direction with respect to the display 12 and detects the state of the finger in the Z direction. As shown in FIG. 2, the touch panel 14 can measure the contact state and proximity state of the finger on the display 12 in a transmissive manner.

たとえば、指からディスプレイ12の表面までの距離Tが予め定められた閾値Thより大きい場合、タッチパネル14は何も検知しない。このとき、指はディスプレイ12に対して遠方状態にあると判別される。   For example, when the distance T from the finger to the surface of the display 12 is larger than a predetermined threshold Th, the touch panel 14 does not detect anything. At this time, it is determined that the finger is far from the display 12.

また、指からディスプレイ12の表面までの距離Tが予め定められた閾値Thより小さく、距離Tが0でない場合、タッチパネル14は指が近接領域に存在すると検出する。このとき、指はディスプレイ12に対して近接状態にあると判別される。   In addition, when the distance T from the finger to the surface of the display 12 is smaller than a predetermined threshold Th and the distance T is not 0, the touch panel 14 detects that the finger exists in the proximity region. At this time, it is determined that the finger is in proximity to the display 12.

また、指からディスプレイ12の表面までの距離Tが0である場合、タッチパネル14は指がディスプレイ12に接触していると検出する。このとき、指はディスプレイ12に対して接触状態にあると判別される。   Further, when the distance T from the finger to the surface of the display 12 is 0, the touch panel 14 detects that the finger is in contact with the display 12. At this time, it is determined that the finger is in contact with the display 12.

なお、本実施形態で搭載されるタッチパネル14及び次に説明する第2実施形態や変形例で搭載されるタッチパネルは、透過型であれば、静電式であってもよく光学式であってもよい。また、タッチパネル14は、ディスプレイ12に設けられ、ディスプレイ12においてユーザが行った画面操作を検出するデバイスに相当する。   Note that the touch panel 14 mounted in the present embodiment and the touch panel mounted in the second embodiment and modification described below may be electrostatic or optical as long as they are transmissive. Good. The touch panel 14 corresponds to a device that is provided on the display 12 and detects a screen operation performed by the user on the display 12.

モバイル機器10には、図1に示したCPU32、RAM34、不揮発性メモリ36を有するマイクロプロセッサ30が埋め込まれている。各種メモリには、タッチパネル14により検出された画面操作に関する情報が一時的に記憶される。CPU32は、後述する操作コマンド判定処理を制御する。なお、以下のハードウエア構成は、モバイル機器に搭載された表示装置のハードウエア構成ということもできる。   In the mobile device 10, the microprocessor 30 having the CPU 32, the RAM 34, and the nonvolatile memory 36 shown in FIG. 1 is embedded. Information relating to the screen operation detected by the touch panel 14 is temporarily stored in the various memories. The CPU 32 controls an operation command determination process described later. The following hardware configuration can also be referred to as a hardware configuration of a display device mounted on a mobile device.

[1−2.モバイル機器の機能構成]
第1実施形態に係るモバイル機器10は、図3に示した機能ブロックにより示される機能構成を有している。すなわち、本実施形態に係るモバイル機器10は、状態判別部20、記憶部22、状態変化識別部24、操作コマンド設定部26及び画面制御部28を有している。
[1-2. Functional configuration of mobile device]
The mobile device 10 according to the first embodiment has a functional configuration indicated by the functional blocks shown in FIG. That is, the mobile device 10 according to the present embodiment includes a state determination unit 20, a storage unit 22, a state change identification unit 24, an operation command setting unit 26, and a screen control unit 28.

状態判別部20は、タッチパネル14により検出されたユーザの操作に基づき、指の操作状態がディスプレイ12への接触状態、近接状態及び遠方状態のいずれの状態かを判別する。   Based on the user operation detected by the touch panel 14, the state determination unit 20 determines whether the operation state of the finger is a contact state with the display 12, a proximity state, or a far state.

記憶部22は、状態判別部20による判別結果を記憶する。具体的には、記憶部22は、毎回の判別結果が接触状態、近接状態及び遠方状態のいずれの状態であるかを記憶する。以下の説明では、前回のユーザの操作状態をP(t−1)で示し、今回のユーザの操作状態をP(t)で示す。   The storage unit 22 stores the determination result by the state determination unit 20. Specifically, the storage unit 22 stores whether each determination result is in a contact state, a proximity state, or a far state. In the following description, the previous user operation state is indicated by P (t−1), and the current user operation state is indicated by P (t).

状態変化識別部24は、状態判別部20により判別された状態に従い、ユーザが行う操作の状態変化を識別する。具体的には、状態変化識別部24は、状態判別部20の判別結果に基づき、ディスプレイ12においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別する。状態変化識別部24は、記憶部22に記憶された前回の判別結果と状態判別部20による今回の判別結果とに基づき、ディスプレイ12に対する接触状態から遠方状態への状態変化又はディスプレイ12に対する接触状態から近接状態への状態変化を識別する。   The state change identifying unit 24 identifies the state change of the operation performed by the user according to the state determined by the state determining unit 20. Specifically, the state change identifying unit 24 determines whether the operation performed by the user on the display 12 has changed from the contact state, the proximity state, or the far state based on the determination result of the state determination unit 20. Identify. Based on the previous determination result stored in the storage unit 22 and the current determination result by the state determination unit 20, the state change identification unit 24 changes the state of the display 12 from the contact state to the far state or the contact state of the display 12. Identifies state changes from to proximity.

操作コマンド設定部26は、ユーザが行った操作に対してディスプレイ12の表示を制御するための操作コマンドを設定する。その際、操作コマンド設定部26は、状態変化識別部24により識別された状態変化に応じて操作コマンドを設定する。   The operation command setting unit 26 sets an operation command for controlling the display on the display 12 for an operation performed by the user. At that time, the operation command setting unit 26 sets an operation command according to the state change identified by the state change identifying unit 24.

画面制御部28は、操作コマンド設定部26により設定された操作コマンドに従い、状態変化識別部24により識別された状態変化に応じてディスプレイ12の表示を変える。   The screen control unit 28 changes the display on the display 12 according to the state change identified by the state change identifying unit 24 in accordance with the operation command set by the operation command setting unit 26.

以上に説明した、モバイル機器10の各機能構成部への指令は、専用の制御デバイスあるいはプログラムを実行するCPU32により実行される。次に説明する操作コマンド判定処理を実行するためのプログラムは、RAM34や不揮発性メモリ36に予め記憶されている。CPU32は、これらのメモリから各プログラムを読み出し実行することにより、状態判別部20、記憶部22、状態変化識別部24、操作コマンド設定部26及び画面制御部28の各機能を実行する。   The command to each functional component of the mobile device 10 described above is executed by the CPU 32 that executes a dedicated control device or program. A program for executing the operation command determination process described below is stored in advance in the RAM 34 and the nonvolatile memory 36. The CPU 32 executes each function of the state determination unit 20, the storage unit 22, the state change identification unit 24, the operation command setting unit 26, and the screen control unit 28 by reading and executing each program from these memories.

[1−3.モバイル機器の動作]
次に、本実施形態に係るモバイル機器10の操作コマンド判定処理について図4を参照しながら説明する。図4は、本実施形態に係るモバイル機器10により実行される操作コマンド判定処理を示したフローチャートである。以下の動作は、本実施形態に係るモバイル機器10に搭載された表示装置の動作ということもできる。
[1-3. Operation of mobile device]
Next, operation command determination processing of the mobile device 10 according to the present embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing an operation command determination process executed by the mobile device 10 according to the present embodiment. The following operations can also be referred to as operations of the display device mounted on the mobile device 10 according to the present embodiment.

ステップS400より、操作コマンド判定処理が開始されると、ステップS405にて状態判別部20は、状態判別処理のルーチン(図5)を実行する。状態判別処理は、図5のステップS500から処理が開始される。状態判別部20は、ステップS505にてタッチパネル14により検出されたユーザの操作に基づき、ディスプレイ12に対してユーザの指が非接触状態であって近接状態にあるかを判別する。前述したように、ディスプレイ12から指までの距離Pが所与の閾値Thより大きい場合、指は図2の遠方状態であると判別される。この場合、ステップS510に進んで、状態判別部20は、今回の操作状態P(t)を遠方状態と判別し、ステップS595から図4のステップS410に戻る。   When the operation command determination process is started from step S400, the state determination unit 20 executes a state determination process routine (FIG. 5) in step S405. The state determination process starts from step S500 in FIG. The state determination unit 20 determines whether the user's finger is in a non-contact state and in a proximity state with respect to the display 12 based on the user operation detected by the touch panel 14 in step S505. As described above, when the distance P from the display 12 to the finger is larger than the given threshold Th, it is determined that the finger is in the remote state of FIG. In this case, the process proceeds to step S510, where the state determination unit 20 determines that the current operation state P (t) is the far state, and returns from step S595 to step S410 in FIG.

一方、ステップS505でYESと判定されると、ステップS515に進み、状態判別部20は、指がディスプレイ12に接触した状態かを判別する。前述したように、ディスプレイ12から指までの距離Pが0に等しければ指の位置は図2の接触状態と判別される。この場合、ステップS520に進んで、状態判別部20は、今回の操作状態P(t)を接触状態と判別し、ステップS595から図4のステップS410に戻る。   On the other hand, if “YES” is determined in the step S505, the process proceeds to a step S515, and the state determining unit 20 determines whether the finger is in contact with the display 12. As described above, if the distance P from the display 12 to the finger is equal to 0, the position of the finger is determined as the contact state in FIG. In this case, the process proceeds to step S520, where the state determination unit 20 determines that the current operation state P (t) is a contact state, and returns from step S595 to step S410 in FIG.

一方、ステップS515でNOと判定されると、ステップS525に進み、状態判別部20は、今回の操作状態P(t)を近接状態と判別し、ステップS595から図4のステップS410に戻る。   On the other hand, if NO is determined in step S515, the process proceeds to step S525, in which the state determination unit 20 determines that the current operation state P (t) is the proximity state, and returns from step S595 to step S410 in FIG.

ステップS410では、記憶部22が、今回判別された操作状態P(t)を記憶する。次に、ステップS415に進んで、状態変化識別部24は、指の状態が接触状態から近接状態に状態変化したかを識別する。具体的には、状態変化識別部24は、記憶部22に記憶されている前回判別された操作状態P(t−1)が接触状態で、かつ今回判別された操作状態P(t)が近接状態であるかを判断する。   In step S410, the storage unit 22 stores the operation state P (t) determined this time. Next, proceeding to step S415, the state change identifying unit 24 identifies whether the state of the finger has changed from the contact state to the proximity state. Specifically, the state change identification unit 24 is in the state where the previously determined operation state P (t−1) stored in the storage unit 22 is in the contact state and the operation state P (t) determined this time is close. Determine if it is in a state.

状態変化が接触状態→近接状態である場合、ステップS420に進んで再度、図5の状態判別処理を実行し、ステップS425に進む。ステップS425にて、状態変化識別部24は、指の状態が近接状態から遠方状態に状態変化したかを識別する。具体的には、状態変化識別部24は、記憶部22に記憶されている前回判別された操作状態P(t−1)が近接状態で、かつ今回判別された操作状態P(t)が遠方状態であるかを判断する。   If the state change is from the contact state to the proximity state, the process proceeds to step S420, the state determination process of FIG. 5 is executed again, and the process proceeds to step S425. In step S425, the state change identifying unit 24 identifies whether the state of the finger has changed from the close state to the far state. Specifically, the state change identifying unit 24 indicates that the previously determined operation state P (t−1) stored in the storage unit 22 is in the proximity state, and the operation state P (t) determined this time is far. Determine if it is in a state.

識別の結果、接触状態→近接状態(S415)に状態変化した後、更に近接状態→遠方状態(S425)に状態変化した場合、ステップS430に進む。操作コマンド設定部26は、ステップS430にてシングルタップと判定し、シングルタップに予め割り当てられている画面操作の操作コマンドを設定する。   As a result of the identification, if the state changes from the contact state to the proximity state (S415) and then changes from the proximity state to the far state (S425), the process proceeds to step S430. The operation command setting unit 26 determines that it is a single tap in step S430, and sets a screen operation operation command that is assigned in advance to the single tap.

識別の結果、接触状態→近接状態(S415)に状態変化した後、近接状態→遠方状態(S425)には状態変化しない場合、ステップS435に進む。操作コマンド設定部26は、ステップS435にてダブルタップと判定し、ダブルタップに予め割り当てられている画面操作の操作コマンドを設定する。   As a result of the identification, if the state does not change from the proximity state to the distant state (S425) after the state change from the contact state to the proximity state (S415), the process proceeds to step S435. The operation command setting unit 26 determines that the operation is a double tap in step S435, and sets an operation command for a screen operation that is assigned in advance to the double tap.

なお、ステップS415にて、状態変化識別部24が接触状態から近接状態に状態変化していないと識別した場合、ステップS440に進んで、操作コマンド設定部26は、ディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。   In step S415, when the state change identifying unit 24 identifies that the state has not changed from the contact state to the proximity state, the process proceeds to step S440, where the operation command setting unit 26 operates the operation command for changing the display on the display 12. The current state is maintained without setting.

(シングルタップ又はダブルタップの割り当て)
以上に説明した操作コマンド判定処理の具体例として、図6及び図7を参照しながら状態変化の相違により操作コマンドとしてシングルタップ又はダブルタップを割り当てる例を説明する。
(Single tap or double tap assignment)
As a specific example of the operation command determination process described above, an example in which a single tap or a double tap is assigned as an operation command according to a difference in state change will be described with reference to FIGS. 6 and 7.

(シングルタップ)
図6に示したように、ディスプレイ12に対する指の操作が遠方状態→近接状態→接触状態→近接状態→遠方状態・・・を複数回繰り返す場合、最初の状態変化(遠方状態→近接状態)では、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
(Single tap)
As shown in FIG. 6, when the finger operation on the display 12 repeats a distant state → proximity state → contact state → proximity state → distant state... Multiple times, the first state change (distant state → proximity state) The state change identifying unit 24 determines NO in step S415, and proceeds to step S440. The operation command setting unit 26 maintains the current state without setting an operation command for changing the display on the display 12 in step S440.

図6に示した次の状態変化(近接状態→接触状態)でも、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。   Even in the next state change (proximity state → contact state) shown in FIG. 6, the state change identifying unit 24 determines NO in step S415 and proceeds to step S440. The operation command setting unit 26 maintains the current state without setting an operation command for changing the display on the display 12 in step S440.

図6に示した次の状態変化(接触状態→近接状態)では、状態変化識別部24は、ステップS415にてYESと判定し、ステップS420にて再度、図5の状態判別処理を実行する。図6に示した次の状態は遠方状態である。そこで、ステップS425にて、状態変化識別部24は、状態変化が近接状態→遠方状態であると識別し、ステップS430に進む。操作コマンド設定部26は、シングルタップと判定し、シングルタップに予め割り当てられている画面操作の操作コマンドを設定する。複数回のシングルタップに対しては、以上の動作を繰り返すことにより、シングルタップに予め割り当てられている画面操作の操作コマンドを繰り返し設定する。   In the next state change (contact state → proximity state) shown in FIG. 6, the state change identifying unit 24 determines YES in step S415, and executes the state determination process of FIG. 5 again in step S420. The next state shown in FIG. 6 is a distant state. Therefore, in step S425, the state change identifying unit 24 identifies that the state change is in the proximity state → the far state, and proceeds to step S430. The operation command setting unit 26 determines that the operation is a single tap, and sets an operation command for a screen operation assigned in advance to the single tap. For multiple single taps, the above operation is repeated to repeatedly set operation commands for screen operations previously assigned to the single tap.

たとえば、図6のGUIボタン16に対してシングルタップに予め割り当てられた画面操作が次の楽曲選定である場合、操作コマンド設定部26は、次の楽曲を選定する操作コマンドを設定する。画面制御部28は、操作コマンド設定部26により設定された操作コマンドに従い、ディスプレイ12上に選定された次の楽曲名を表示する。複数回のシングルタップに対しては、以上の動作を繰り返すことにより、楽曲名が楽曲順に次々とディスプレイ12上に表示される。   For example, when the screen operation previously assigned to the single tap on the GUI button 16 in FIG. 6 is the next music selection, the operation command setting unit 26 sets an operation command for selecting the next music. The screen control unit 28 displays the next song name selected on the display 12 in accordance with the operation command set by the operation command setting unit 26. By repeating the above operation for a plurality of single taps, music names are displayed on the display 12 one after another in the order of music.

(ダブルタップ)
図7に示したように、ディスプレイ12に対する指の操作が遠方状態→近接状態→接触状態→近接状態→接触状態→近接状態→遠方状態・・・の場合、最初の状態変化(遠方状態→近接状態)では、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
(Double tap)
As shown in FIG. 7, when the operation of the finger on the display 12 is a distant state → proximity state → contact state → proximity state → contact state → proximity state → distant state, the first state change (far state → proximity state) In the state), the state change identifying unit 24 determines NO in step S415 and proceeds to step S440. The operation command setting unit 26 maintains the current state without setting an operation command for changing the display on the display 12 in step S440.

図7に示した次の状態変化(近接状態→接触状態)でも、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。   Even in the next state change (proximity state → contact state) shown in FIG. 7, the state change identification unit 24 determines NO in Step S415 and proceeds to Step S440. The operation command setting unit 26 maintains the current state without setting an operation command for changing the display on the display 12 in step S440.

図7に示した次の状態変化(接触状態→近接状態)では、状態変化識別部24は、ステップS415にてYESと判定し、再度、図5の状態判別処理を実行する。図7に示した次の状態は接触状態である。そこで、ステップS425にて、状態変化識別部24は、状態変化が近接状態→接触状態であると識別し、ステップS435に進む。操作コマンド設定部26は、ダブルタップと判定し、ダブルタップに予め割り当てられている画面操作の操作コマンドを設定する。   In the next state change (contact state → proximity state) shown in FIG. 7, the state change identifying unit 24 determines YES in step S415, and executes the state determination process of FIG. 5 again. The next state shown in FIG. 7 is a contact state. Therefore, in step S425, the state change identifying unit 24 identifies that the state change is the proximity state → the contact state, and proceeds to step S435. The operation command setting unit 26 determines that the operation is a double tap, and sets an operation command for a screen operation assigned in advance to the double tap.

たとえば、図7のGUIボタン16に対してダブルタップに予め割り当てられた画面操作が次のアルバム選定である場合、操作コマンド設定部26は、次のアルバムを選定する操作コマンドを設定する。画面制御部28は、操作コマンド設定部26により設定された操作コマンドに従い、ディスプレイ12上に選定された次のアルバム名を表示する。   For example, when the screen operation previously assigned to the double tap for the GUI button 16 in FIG. 7 is the next album selection, the operation command setting unit 26 sets an operation command for selecting the next album. The screen control unit 28 displays the next album name selected on the display 12 in accordance with the operation command set by the operation command setting unit 26.

なお、画面制御部28は、GUIボタン16を一度押すと、図7に示したように、指が近接領域を出るまでGUIボタン16の表情が変わるように画面を制御してもよい。たとえば、画面制御部28は、指がダブルタップの操作中、GUIボタン16の色を赤等の目立つ色に変えてもよい。   Note that the screen control unit 28 may control the screen so that when the GUI button 16 is pressed once, the facial expression of the GUI button 16 changes until the finger leaves the proximity area, as shown in FIG. For example, the screen control unit 28 may change the color of the GUI button 16 to a conspicuous color such as red while the finger is performing a double tap operation.

以上に説明したように、本実施形態に係るモバイル機器10によれば、タッチパネル14により検出された接触状態に従い表示画面の表示を制御する際、近接状態から次に遷移する状態変化に応じて設定する操作コマンドを変えることができる。その結果、設定された操作コマンドに従い、状態変化に応じてディスプレイ12上の表示を変えることができる。これにより、ユーザにとって負荷の高い操作を減らして操作性を向上させながら、たとえば一つのGUIボタンに複数の操作コマンドを与える等、画面操作のバリエーションを増やすことができる。   As described above, according to the mobile device 10 according to the present embodiment, when the display screen display is controlled according to the contact state detected by the touch panel 14, the setting is made according to the state change next to the proximity state. You can change the operation command. As a result, it is possible to change the display on the display 12 in accordance with the state change in accordance with the set operation command. This can increase variations in screen operations, such as giving a plurality of operation commands to one GUI button, for example, while reducing operability and increasing operability for the user.

また、本実施形態に係るモバイル機器10によれば、高速操作が可能なユーザインターフェースを提供することができる。たとえば、従来のダブルタップは、時間方向の接触状態の変化を見ることで識別されていた。そのため、識別には一定の時間を要し、かつシングルタップを短い時間で複数回入力することはできなかった。しかしながら、本実施形態に係るモバイル機器10によれば、状態変化だけでダブルタップを識別するため、ダブルタップの識別に時間のファクターを必要としない。これにより、本実施形態では、従来のように識別のために必ず一定の時間を要することはなく、ダブルタップ及びシングルタップを短い時間で高速入力することができる。   Further, according to the mobile device 10 according to the present embodiment, a user interface capable of high-speed operation can be provided. For example, a conventional double tap has been identified by observing a change in contact state in the time direction. Therefore, it takes a certain time for identification, and a single tap cannot be input a plurality of times in a short time. However, according to the mobile device 10 according to the present embodiment, since the double tap is identified only by the state change, a time factor is not required for identifying the double tap. Thereby, in this embodiment, a fixed time is not necessarily required for identification as in the prior art, and a double tap and a single tap can be input at high speed in a short time.

(タップ又はウィークタップの割り当て)
画面操作のバリエーションを増やす他の例として、図8を参照しながら状態変化の相違により操作コマンドとしてタップ又はウィークタップを割り当てる例を説明する。
(Assignment of tap or week tap)
As another example of increasing variations in screen operation, an example in which a tap or a weak tap is assigned as an operation command according to a difference in state change will be described with reference to FIG.

(タップ)
この例では、図4の操作コマンド判定処理のステップS405〜ステップS425を実行してステップS430に進むと、操作コマンド設定部26は、ユーザの画面操作を通常のタップと判定する。操作コマンド設定部26は、タップに応じた操作コマンドとしてページ単位でのスクロールを設定する。画面制御部28は、設定された操作コマンドに応じて図8の右下に示したように、指のタップ操作に対応した画面のページ単位でのスクロールを実行する。
(Tap)
In this example, when step S405 to step S425 of the operation command determination process of FIG. 4 are executed and the process proceeds to step S430, the operation command setting unit 26 determines that the user's screen operation is a normal tap. The operation command setting unit 26 sets scrolling in units of pages as an operation command corresponding to the tap. The screen control unit 28 executes scrolling in units of pages of the screen corresponding to the finger tap operation, as shown in the lower right of FIG. 8 according to the set operation command.

(ウィークタップ)
一方、図4の操作コマンド判定処理のステップS405〜ステップS425を実行してステップS435に進むと、操作コマンド設定部26は、ユーザの画面操作をウィークタップと判定する。操作コマンド設定部26は、ウィークタップに応じた操作コマンドとして行単位でのスクロールを設定する。画面制御部28は、設定された操作コマンドに応じて図8の左下に示したように、指のウィークタップ操作に対応した画面の行単位でのスクロールを実行する。これにより、ユーザは大まかな位置合わせをタップで行い、細かな調整をウィークタップで行うことができる。
(Week tap)
On the other hand, when step S405 to step S425 of the operation command determination process of FIG. 4 are executed and the process proceeds to step S435, the operation command setting unit 26 determines that the user's screen operation is a weak tap. The operation command setting unit 26 sets scrolling in units of lines as an operation command corresponding to the weak tap. As shown in the lower left of FIG. 8, the screen control unit 28 performs screen-by-line scrolling corresponding to the finger tap operation of the finger in accordance with the set operation command. Thereby, the user can perform rough alignment with a tap, and can perform fine adjustment with a weak tap.

なお、本実施形態では、タップした座標は接触状態でのみ定義されるため、近接状態での位置の誤差はここでは問題にならない。また、多段階で近接状態を計測できるデバイスでは、2種類より多くのタップを定義することも可能である。   In the present embodiment, since the tapped coordinates are defined only in the contact state, the position error in the proximity state is not a problem here. In addition, in a device that can measure the proximity state in multiple stages, it is possible to define more than two types of taps.

以上のように、本実施形態に係るモバイル機器10によれば、状態変化識別部24は、ディスプレイ12に対する接触状態から遠方状態への状態変化(接触状態から近接状態を経て遠方状態に遷移)又はディスプレイ12に対する接触状態から近接状態への状態変化(接触状態から近接状態まで遷移し、近接状態から遠方状態へは遷移しない)を識別する。そして、操作コマンド設定部26は、状態変化識別部24により識別された状態変化に応じて異なる操作コマンドを設定する。このように、本実施形態では、接触状態及び近接状態に別々に操作コマンドを割り当てるのではなく、接触状態後の状態変化に応じて別々に操作コマンドを割り当てる。よって、接触状態及び近接状態を区別してユーザが画面操作をする際の操作の難しさと操作ミスの発生を回避して、ユーザの操作性を向上させながら、画面操作のバリエーションを増やすことができる。   As described above, according to the mobile device 10 according to the present embodiment, the state change identification unit 24 changes the state of the display 12 from the contact state to the distant state (transition from the contact state to the distant state through the proximity state) or A state change from the contact state to the proximity state with respect to the display 12 (transition from the contact state to the proximity state and not from the proximity state to the far state) is identified. Then, the operation command setting unit 26 sets a different operation command according to the state change identified by the state change identification unit 24. As described above, in this embodiment, the operation commands are not separately assigned to the contact state and the proximity state, but are separately assigned according to the state change after the contact state. Therefore, it is possible to increase the variation of the screen operation while improving the operability for the user by avoiding the difficulty of the operation when the user performs the screen operation by distinguishing the contact state and the proximity state and the occurrence of an operation error.

<第2実施形態>
次に、第2実施形態に係るモバイル機器10について説明する。本実施形態に係るモバイル機器10のハードウエア構成は第1実施形態に係るモバイル機器10と同様であるためここでは説明を省略する。
Second Embodiment
Next, the mobile device 10 according to the second embodiment will be described. Since the hardware configuration of the mobile device 10 according to the present embodiment is the same as that of the mobile device 10 according to the first embodiment, the description thereof is omitted here.

[2−1.モバイル機器の機能構成]
第2実施形態に係るモバイル機器10は、図3に示した機能ブロックにより示される機能構成を有している。すなわち、本実施形態に係るモバイル機器10は、第1実施形態と同様に状態判別部20、記憶部22、状態変化識別部24、操作コマンド設定部26及び画面制御部28を有している。状態判別部20、記憶部22及び状態変化識別部24の機能は第1実施形態の場合と同様であるためここでは説明を省略する。また、本実施形態においても、モバイル機器10の各機能は、CPU32が、RAM34や不揮発メモリ36から各プログラムを読み出して実行することにより実現される。
[2-1. Functional configuration of mobile device]
The mobile device 10 according to the second embodiment has a functional configuration indicated by the functional blocks shown in FIG. That is, the mobile device 10 according to the present embodiment includes a state determination unit 20, a storage unit 22, a state change identification unit 24, an operation command setting unit 26, and a screen control unit 28, as in the first embodiment. Since the functions of the state determination unit 20, the storage unit 22, and the state change identification unit 24 are the same as those in the first embodiment, the description thereof is omitted here. Also in this embodiment, each function of the mobile device 10 is realized by the CPU 32 reading out and executing each program from the RAM 34 and the nonvolatile memory 36.

操作コマンド設定部26は、状態変化識別部24により識別された状態変化が接触状態から遠方状態への状態変化(接触状態から近接状態を経て遠方状態に遷移)である場合、設定された操作コマンドの実行を画面制御部28に促す。画面制御部28は、これに応じて、操作コマンドに従いディスプレイ12の表示を制御する。   The operation command setting unit 26 sets the operation command when the state change identified by the state change identification unit 24 is a state change from the contact state to the far state (transition from the contact state to the far state through the proximity state). Is executed to the screen control unit 28. In response to this, the screen control unit 28 controls display on the display 12 in accordance with the operation command.

操作コマンド設定部26は、状態変化識別部24により識別された状態変化が接触状態から近接状態への状態変化(接触状態から近接状態まで遷移し、近接状態から遠方状態へは遷移しない)である場合、設定された操作コマンドの実行を見合わせるように画面制御部28に促す。画面制御部28は、これに応じて操作コマンドの実行を見合わせ、現在のディスプレイ12の表示状態を維持する。   In the operation command setting unit 26, the state change identified by the state change identifying unit 24 is a state change from the contact state to the proximity state (transition from the contact state to the proximity state and not from the proximity state to the far state). In this case, the screen control unit 28 is prompted to postpone execution of the set operation command. In response to this, the screen control unit 28 cancels the execution of the operation command and maintains the current display state of the display 12.

[2−2.モバイル機器の動作:操作コマンド判定処理]
次に、本実施形態に係るモバイル機器10の操作コマンド判定処理について図9を参照しながら説明する。図9は、本実施形態に係るモバイル機器10により実行される操作コマンド判定処理を示したフローチャートである。以下では、ドラッグ・アンド・ドロップの実行とその実行を見合わせを例に挙げて操作コマンド判定処理を説明する。なお、以下の動作は、本実施形態に係るモバイル機器10に搭載された表示装置の動作ということもできる。
[2-2. Operation of mobile device: Operation command determination processing]
Next, operation command determination processing of the mobile device 10 according to the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing an operation command determination process executed by the mobile device 10 according to the present embodiment. In the following, the operation command determination process will be described by taking the execution of drag and drop and the execution as an example. Note that the following operations can also be referred to as operations of the display device mounted on the mobile device 10 according to the present embodiment.

(ドラッグ・アンド・ドロップの実行と実行見合わせ)
ステップS900より、操作コマンド判定処理が開始されると、ステップS405にて状態判別部20は、状態判別処理のルーチン(図5)を実行する。状態判別処理は、第1実施形態にて説明したのでここでは省略する。ステップS405の状態判別処理において今回判別された操作状態P(t)は、ステップS410にて記憶部22に記憶される。
(Drag and drop execution and execution delay)
When the operation command determination process is started from step S900, the state determination unit 20 executes a state determination process routine (FIG. 5) in step S405. Since the state determination process has been described in the first embodiment, it is omitted here. The operation state P (t) determined this time in the state determination process in step S405 is stored in the storage unit 22 in step S410.

次に、ステップS415に進んで、状態変化識別部24は、指の状態が接触状態から近接状態に状態変化したかを識別する。状態変化が接触状態→近接状態である場合、ステップS420に進んで再度、図5の状態判別処理を実行し、ステップS425に進む。ステップS425にて、状態変化識別部24は、指の状態が近接状態から遠方状態に状態変化したかを識別する。識別の結果、接触状態→近接状態(S415)に状態変化した後、更に近接状態→遠方状態(S425)に状態変化した場合、ステップS905に進んで、操作コマンド設定部26は、指が接触した画像をドラッグ・アンド・ドロップする操作コマンドを設定する。   Next, proceeding to step S415, the state change identifying unit 24 identifies whether the state of the finger has changed from the contact state to the proximity state. If the state change is from the contact state to the proximity state, the process proceeds to step S420, the state determination process of FIG. 5 is executed again, and the process proceeds to step S425. In step S425, the state change identifying unit 24 identifies whether the state of the finger has changed from the close state to the far state. As a result of the identification, if the state changes from the contact state to the proximity state (S415) and then further changes from the proximity state to the far state (S425), the process proceeds to step S905, where the operation command setting unit 26 touches the finger. Set the operation command to drag and drop the image.

一方、識別の結果、接触状態→近接状態(S415)に状態変化した後、近接状態→遠方状態(S425)には状態変化しない場合、ステップS910に進んで、操作コマンド設定部26は、指が接触した画像のドラッグ・アンド・ドロップ操作の実行を見合わせる。つまり、指が接触した画像はドラッグ・アンド・ドロップされず、現状の状態が維持される。   On the other hand, as a result of the identification, if the state changes from the contact state to the proximity state (S415) and then does not change from the proximity state to the far state (S425), the process proceeds to step S910, and the operation command setting unit 26 Refrain from performing drag and drop operations on touched images. That is, the image touched by the finger is not dragged and dropped, and the current state is maintained.

なお、ステップS415にて、状態変化識別部24が接触状態から近接状態に状態変化していないと識別した場合、ステップS440に進んで、操作コマンド設定部26は、ディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。   In step S415, when the state change identifying unit 24 identifies that the state has not changed from the contact state to the proximity state, the process proceeds to step S440, where the operation command setting unit 26 operates the operation command for changing the display on the display 12. The current state is maintained without setting.

本実施形態に係る操作コマンド判定処理によれば、図9の下段に示したように、接触状態→近接状態に状態変化した後、近接状態→遠方状態に状態変化しない場合、指が接触した画像をドラッグ・アンド・ドロップしない。このように、本実施形態に係る操作コマンド判定処理では、ユーザが誤って指をディスプレイ12から離した場合、ドラッグしたデータのドロップ操作が実行されないようにする。   According to the operation command determination processing according to the present embodiment, as shown in the lower part of FIG. 9, after the state changes from the contact state to the proximity state, if the state does not change from the proximity state to the far state, the image touched by the finger Do not drag and drop. As described above, in the operation command determination process according to the present embodiment, when the user accidentally lifts his / her finger from the display 12, the drop operation of the dragged data is not executed.

一方、本実施形態に係る操作コマンド判定処理によれば、接触状態→近接状態に状態変化した後、近接状態→遠方状態に状態変化した場合、指が接触した画像をドラッグ・アンド・ドロップする。このように、本実施形態に係る操作コマンド判定処理では、ユーザが近接領域以上指をディスプレイ12から離した場合、指の動作が誤動作ではないと判断して、ドラッグ・アンド・ドロップ操作が実行される。   On the other hand, according to the operation command determination process according to the present embodiment, when the state changes from the contact state to the close state and then changes from the close state to the far state, the image touched by the finger is dragged and dropped. As described above, in the operation command determination process according to the present embodiment, when the user lifts the finger away from the display 12 over the proximity region, it is determined that the finger operation is not a malfunction and the drag-and-drop operation is performed. The

従来、図10の上段に示したように、ユーザが意図しなくても操作中に指が少しでもディスプレイ12から離れると、ドラッグ・アンド・ドロップ操作が実行され、操作ミスとなっていた。しかしながら、本実施形態では、図10の下段に示したように、操作中に指が少しだけディスプレイ12から離れた状態ではドロップさせず、近接状態から遠方状態への状態変化をドロップのタイミングとみなすことにより、従来起きていた操作ミスを補償し、ユーザの操作性を向上させることができる。   Conventionally, as shown in the upper part of FIG. 10, even if the user does not intend, if a finger is released from the display 12 even during operation, a drag-and-drop operation is performed, resulting in an operation error. However, in this embodiment, as shown in the lower part of FIG. 10, the state is not dropped when the finger is slightly separated from the display 12 during the operation, and the state change from the close state to the far state is regarded as the drop timing. Thus, it is possible to compensate for an operation error that has occurred in the past and improve the operability of the user.

<変形例>
最後に、以上に説明した各実施形態の表示装置を搭載する携帯型機器の変形例として図11のモバイル機器50について簡単に説明する。モバイル機器50は、上部ディスプレイ52Uと下部ディスプレイ52Dの2画面を有している。上部ディスプレイ52U、下部ディスプレイ52Dにはタッチパネル58U、58Dが搭載されている。モバイル機器50は、中央のヒンジ機構59により折り畳み可能であり、携帯に便利な構成となっている。
<Modification>
Finally, a mobile device 50 in FIG. 11 will be briefly described as a modification of the portable device in which the display device of each embodiment described above is mounted. The mobile device 50 has two screens, an upper display 52U and a lower display 52D. Touch panels 58U and 58D are mounted on the upper display 52U and the lower display 52D. The mobile device 50 can be folded by a central hinge mechanism 59 and has a configuration convenient for carrying.

本変形例に係るモバイル機器50に搭載された表示装置によっても、デバイスにより検出されたGUIボタン16に対する指の接触状態に従い表示画面の表示を制御する際、識別された状態変化に応じてディスプレイの表示を変えることができる。これにより、操作性を向上させながら、画面操作のバリエーションを増やすことができる。   Even when the display device mounted on the mobile device 50 according to the present modification controls display of the display screen according to the contact state of the finger with respect to the GUI button 16 detected by the device, the display device is controlled according to the identified state change. The display can be changed. Thereby, the variation of screen operation can be increased, improving operability.

以上に説明した各実施形態によれば、接触状態及び非接触状態の識別だけでなく、指の状態変化を識別することにより、ダブルタップと複数のシングルタップとを判別したり、2種類のタップを判別したり、ドラッグ・アンド・ドロップ操作の補助を行ったりすることができる。これにより、ユーザにとって負荷の高い操作を減らし、操作性の高いユーザインターフェースを提供することができる。   According to each embodiment described above, it is possible to discriminate between a double tap and a plurality of single taps by identifying not only a contact state and a non-contact state but also a change in the state of a finger, or two types of taps. Or assisting the drag-and-drop operation. As a result, it is possible to provide a user interface with high operability by reducing operations with high load on the user.

上記実施形態において、各部の動作は互いに関連しており、互いの関連を考慮しながら、一連の動作及び一連の処理として置き換えることができる。これにより、表示装置の実施形態を、表示方法の実施形態及び表示装置が有する機能をコンピュータに実現させるためのプログラムの実施形態とすることができる。   In the above embodiment, the operations of the respective units are related to each other, and can be replaced as a series of operations and a series of processes in consideration of the mutual relations. Thereby, the embodiment of the display device can be the embodiment of the display method and the embodiment of the program for causing the computer to realize the functions of the display device.

これにより、ディスプレイ12においてユーザが行う操作をタッチパネル14に検出させるステップと、タッチパネル14により検出されたユーザの操作に基づきディスプレイ12への接触状態、近接状態及び遠方状態のいずれの状態かを判別するステップと、前記判別された状態に従い、ユーザが行う操作の状態変化を識別するステップと、ユーザが行った操作に対してディスプレイ12の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定するステップと、を含む表示方法を提供することができる。   As a result, the touch panel 14 detects an operation performed by the user on the display 12, and the contact state, the proximity state, or the far state is determined based on the user operation detected by the touch panel 14. Identifying the state change of the operation performed by the user according to the determined state, and setting the operation command for controlling the display of the display 12 for the operation performed by the user. And a step of setting an operation command in response to a change in state.

また、これにより、ディスプレイ12においてユーザが行う操作をタッチパネル14に検出させる処理と、タッチパネル14により検出されたユーザの操作に基づきディスプレイ12への接触状態、近接状態及び遠方状態のいずれの状態かを判別する処理と、前記判別された状態に従い、ユーザが行う操作の状態変化を識別する処理と、ユーザが行った操作に対してディスプレイ12の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定する処理と、をコンピュータに実行させるプログラムを提供することができる。   In addition, this allows the touch panel 14 to detect the operation performed by the user on the display 12 and whether the state is a contact state, a proximity state, or a remote state based on the user operation detected by the touch panel 14. When setting a process for determining, a process for identifying a change in state of an operation performed by the user according to the determined state, and an operation command for controlling the display on the display 12 for the operation performed by the user, It is possible to provide a program for causing a computer to execute processing for setting an operation command in accordance with the identified state change.

尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能である。   In this specification, the steps described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. Including processing to be performed. Even in the steps processed in time series, the order can be appropriately changed depending on circumstances.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されないことは言うまでもない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described in detail, referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

たとえば、一つのGUIボタンに複数の操作コマンドを与える例としては、上記各実施形態で説明した例に限られない。一つのGUIボタンに複数の操作コマンドを与える他の例としては、一つのGUIボタンにコンテンツの選択とインデックス送りの操作コマンドを設定する場合等が挙げられる。   For example, an example in which a plurality of operation commands are given to one GUI button is not limited to the examples described in the above embodiments. As another example in which a plurality of operation commands are given to one GUI button, there is a case of setting content selection and index sending operation commands to one GUI button.

また、状態変化を文字入力の操作コマンドに応用することもできる。たとえば、「Thank you」と文字入力する場合、ユーザは、「Thank」と文字入力した後、指を近接状態から遠方状態に状態変化させる。近接状態から遠方状態への状態変化には、予めブランク入力が操作コマンドとして割り当てられている。これにより、「Thank」と「you」との間のブランクが入力される。これに続いて、ユーザは「you」と文字入力する。このようにして、指の状態変化を文字入力に応用してもよい。   The state change can also be applied to a character input operation command. For example, when inputting “Thank you”, the user changes the state of the finger from the close state to the far state after inputting “Thank”. A blank input is assigned in advance as an operation command to the state change from the close state to the far state. Thus, a blank between “Thank” and “you” is input. Subsequently, the user inputs “you”. In this way, the finger state change may be applied to character input.

本発明に係るユーザの画面操作を検出するデバイスの接触センサとしては、例えばマトリクススイッチ・抵抗膜方式のスイッチ・表面弾性波方式のスイッチなどを有するタッチセンサ・タッチパネル・タッチスクリーン・タッチパッドなどが挙げられる。   Examples of the contact sensor of the device for detecting the user's screen operation according to the present invention include a touch sensor, a touch panel, a touch screen, a touch pad, and the like having a matrix switch, a resistive film type switch, a surface acoustic wave type switch, and the like. It is done.

本発明に係るモバイル機器に搭載されるタッチパネルは、ディスプレイ12への押し込み(押下)を検出できる機能を有していればより好ましい。これにより、タッチパネル14は遠方状態、近接状態、接触状態、押下状態の4つの状態変化を検出することができ、これらの状態変化を組み合わせることによってさらに操作のバリエーションを増やすことができる。   It is more preferable that the touch panel mounted on the mobile device according to the present invention has a function capable of detecting depression (pressing) on the display 12. Thereby, the touch panel 14 can detect four state changes of a distant state, a proximity state, a contact state, and a pressed state, and it is possible to further increase operation variations by combining these state changes.

10、50 モバイル機器
12 ディスプレイ
14 タッチパネル
16 ボタン
20 状態判別部
22 記憶部
24 状態変化識別部
26 操作コマンド設定部
28 画面制御部
DESCRIPTION OF SYMBOLS 10, 50 Mobile device 12 Display 14 Touch panel 16 Button 20 State determination part 22 Storage part 24 State change identification part 26 Operation command setting part 28 Screen control part

Claims (6)

表示画面と、
前記表示画面においてユーザが行う操作を検出するデバイスと、
前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する状態判別部と、
前記状態判別部による前回の判別結果を記憶する記憶部と、
前記記憶部に記憶された前回の判別結果と前記状態判別部による今回の判別結果とに基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別する状態変化識別部と、
前記状態変化が接触状態から近接状態への状態変化である場合に、さらに前記状態判別部は、状態を判別し、判別結果に基づき、前記状態変化識別部は、近接状態から遠方状態への状態変化又は近接状態から遠方状態への状態変化以外の状態変化を識別し、識別された状態変化に応じて異なる操作コマンドを設定する操作コマンド設定部と、を備える表示装置。
A display screen;
A device for detecting an operation performed by a user on the display screen;
A state discriminating unit for discriminating whether the state is a contact state, a proximity state, or a far state to the display screen based on a user operation detected by the device;
A storage unit for storing a previous determination result by the state determination unit;
Based on the previous determination result stored in the storage unit and the current determination result by the state determination unit, the operation performed by the user on the display screen is changed from the contact state, the proximity state, and the far state to any state. A state change identifying unit for identifying whether the state has changed;
When the state change is a state change from the contact state to the proximity state, the state determination unit further determines the state, and based on the determination result, the state change identification unit determines whether the state change from the proximity state to the far state. A display device comprising: an operation command setting unit that identifies a change or a state change other than a state change from a proximity state to a far state, and sets a different operation command according to the identified state change.
前記操作コマンド設定部により設定された操作コマンドに従い前記表示画面の表示を変える画面制御部を更に備える請求項1に記載の表示装置。   The display device according to claim 1, further comprising a screen control unit that changes display of the display screen in accordance with an operation command set by the operation command setting unit. 前記状態変化識別部により識別された状態変化が接触状態から遠方状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を前記画面制御部に促す請求項2に記載の表示装置。   The operation command setting unit prompts the screen control unit to execute the set operation command when the state change identified by the state change identification unit is a state change from a contact state to a distant state. The display device described. 前記状態変化識別部により識別された状態変化が接触状態から近接状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を見合わせるように前記画面制御部に促す請求項2に記載の表示装置。   When the state change identified by the state change identification unit is a state change from a contact state to a proximity state, the operation command setting unit prompts the screen control unit to cancel execution of the set operation command. Item 3. The display device according to Item 2. 表示画面においてユーザが行う操作をデバイスに検出させるステップと、
前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別するステップと、
前記判別された状態を記憶するステップと、
前記記憶するステップで記憶された前回の判別結果と前記いずれの状態かを判別するステップによる今回の判別結果とに基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別するステップと、
前記状態変化が接触状態から近接状態への状態変化である場合に、さらに状態を判別し、判別結果に基づき、近接状態から遠方状態への状態変化又は近接状態から遠方状態への状態変化以外の状態変化を識別し、識別された状態変化に応じて異なる操作コマンドを設定するステップと、を含む表示方法。
Causing the device to detect an operation performed by the user on the display screen;
Determining a state of contact with the display screen based on a user operation detected by the device, a proximity state, and a distant state;
Storing the determined state;
Based on the previous determination result stored in the storing step and the current determination result in the step of determining which state, the operation performed by the user on the display screen is a contact state, a proximity state, and a remote state Identifying from which to which state has changed ,
When the state change is a state change from the contact state to the proximity state, the state is further determined, and based on the determination result, other than the state change from the proximity state to the far state or the state change from the proximity state to the far state Identifying a state change and setting different operation commands according to the identified state change.
表示画面においてユーザが行う操作をデバイスに検出させる処理と、
前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する処理と、
前記判別された状態を記憶する処理と、
前記記憶する処理で記憶された前回の判別結果と前記いずれの状態かを判別する処理による今回の判別結果とに基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別する処理と、
前記状態変化が接触状態から近接状態への状態変化である場合に、さらに前記いずれの状態かを判別する処理で、状態を判別し、判別結果に基づき、前記いずれからいずれかへ状態変化したかを識別する処理で、近接状態から遠方状態への状態変化又は近接状態から遠方状態への状態変化以外の状態変化を識別し、識別された状態変化に応じて異なる操作コマンドを設定する処理と、をコンピュータに実行させるプログラム。

A process for causing the device to detect an operation performed by the user on the display screen;
A process of determining whether the state is a contact state, a proximity state, or a far state to the display screen based on a user operation detected by the device;
Processing for storing the determined state;
Based on the previous determination result stored in the storing process and the current determination result by the process for determining which state, the operation performed by the user on the display screen is in the contact state, the proximity state, and the remote state A process for identifying from which state the state has changed , and
In the case where the state change is a state change from a contact state to a proximity state, in the process of further determining which state, the state is determined, and based on the determination result, whether the state has changed from any Identifying a state change other than the state change from the proximity state to the far state or the state change from the near state to the far state, and setting different operation commands according to the identified state change, A program that causes a computer to execute.

JP2009182581A 2009-08-05 2009-08-05 Display device, display method, and program Expired - Fee Related JP5471137B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009182581A JP5471137B2 (en) 2009-08-05 2009-08-05 Display device, display method, and program
CN201010243866.7A CN101996036B (en) 2009-08-05 2010-07-29 Display device and display packing
US12/845,948 US8922497B2 (en) 2009-08-05 2010-07-29 Display apparatus, display method and program for detecting an operation performed on a display screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009182581A JP5471137B2 (en) 2009-08-05 2009-08-05 Display device, display method, and program

Publications (2)

Publication Number Publication Date
JP2011034502A JP2011034502A (en) 2011-02-17
JP5471137B2 true JP5471137B2 (en) 2014-04-16

Family

ID=43534460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009182581A Expired - Fee Related JP5471137B2 (en) 2009-08-05 2009-08-05 Display device, display method, and program

Country Status (3)

Country Link
US (1) US8922497B2 (en)
JP (1) JP5471137B2 (en)
CN (1) CN101996036B (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7770126B2 (en) 2006-02-10 2010-08-03 Microsoft Corporation Assisting user interface element use
JP5282661B2 (en) * 2009-05-26 2013-09-04 ソニー株式会社 Information processing apparatus, information processing method, and program
JP5343876B2 (en) * 2010-01-28 2013-11-13 富士通株式会社 Electronic device, electronic device control method, and computer program
KR101710657B1 (en) * 2010-08-05 2017-02-28 삼성디스플레이 주식회사 Display device and driving method thereof
CN103109258B (en) * 2010-09-22 2017-05-24 日本电气株式会社 Information display device, display method, and terminal device
JP5649169B2 (en) 2010-11-22 2015-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method, apparatus and computer program for moving object by drag operation on touch panel
US20120139845A1 (en) * 2010-12-03 2012-06-07 Research In Motion Limited Soft key with main function and logically related sub-functions for touch screen device
US20120161791A1 (en) * 2010-12-28 2012-06-28 Synaptics Incorporated Methods and apparatus for determining input objects associated with proximity events
JP5650583B2 (en) * 2011-05-11 2015-01-07 京セラ株式会社 Electronics
US9658715B2 (en) 2011-10-20 2017-05-23 Microsoft Technology Licensing, Llc Display mapping modes for multi-pointer indirect input devices
US9274642B2 (en) 2011-10-20 2016-03-01 Microsoft Technology Licensing, Llc Acceleration-based interaction for multi-pointer indirect input devices
US8933896B2 (en) * 2011-10-25 2015-01-13 Microsoft Corporation Pressure-based interaction for indirect touch input devices
US9389679B2 (en) 2011-11-30 2016-07-12 Microsoft Technology Licensing, Llc Application programming interface for a multi-pointer indirect touch input device
JP2013117784A (en) * 2011-12-01 2013-06-13 Panasonic Corp Input device, information terminal, input control method, and input control program
US10872454B2 (en) * 2012-01-06 2020-12-22 Microsoft Technology Licensing, Llc Panning animations
EP3179347A1 (en) * 2012-02-20 2017-06-14 NEC Corporation Touch panel input device and control method of the touch panel input device
JP5984722B2 (en) 2013-03-22 2016-09-06 シャープ株式会社 Information processing device
JP6271881B2 (en) 2013-06-26 2018-01-31 キヤノン株式会社 Information processing apparatus, control method therefor, program, and recording medium
JP6245938B2 (en) * 2013-10-25 2017-12-13 キヤノン株式会社 Information processing apparatus and control method thereof, computer program, and storage medium
JP6452456B2 (en) * 2015-01-09 2019-01-16 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium
JP6807532B2 (en) * 2017-09-04 2021-01-06 株式会社コナミデジタルエンタテインメント Programs, control methods, controls, and systems
US10825003B2 (en) * 2018-11-26 2020-11-03 Capital One Services, Llc Method and system for large transfer authentication
CN110069159A (en) * 2019-03-13 2019-07-30 平安普惠企业管理有限公司 Equipment touches delay solution method, device, computer equipment and storage medium
JP7191395B2 (en) * 2020-10-30 2022-12-19 株式会社コナミデジタルエンタテインメント GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105671A (en) * 1998-05-11 2000-04-11 Ricoh Co Ltd Coordinate input and detecting device, and electronic blackboard system
JP3608967B2 (en) * 1999-01-12 2005-01-12 株式会社フジクラ Automotive input device
JP3905670B2 (en) * 1999-09-10 2007-04-18 株式会社リコー Coordinate input detection apparatus, information storage medium, and coordinate input detection method
JP2003005912A (en) * 2001-06-20 2003-01-10 Hitachi Ltd Display device with touch panel and display method
US20050110756A1 (en) * 2003-11-21 2005-05-26 Hall Bernard J. Device and method for controlling symbols displayed on a display device
JP2005202611A (en) * 2004-01-15 2005-07-28 Kyocera Mita Corp Display control device
JP2005301668A (en) * 2004-04-12 2005-10-27 Seiko Epson Corp Information processor and information processing program
EP1596271A1 (en) * 2004-05-11 2005-11-16 Hitachi Europe S.r.l. Method for displaying information and information display system
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7800594B2 (en) * 2005-02-03 2010-09-21 Toshiba Matsushita Display Technology Co., Ltd. Display device including function to input information from screen by light
JP4622590B2 (en) 2005-03-08 2011-02-02 ソニー株式会社 Input device, touch panel and electronic device
JP2006285370A (en) * 2005-03-31 2006-10-19 Mitsubishi Fuso Truck & Bus Corp Hand pattern switch device and hand pattern operation method
JP4765473B2 (en) * 2005-08-15 2011-09-07 ソニー株式会社 Display device and input / output panel control device
US20080098331A1 (en) * 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
JP4770662B2 (en) * 2006-09-19 2011-09-14 フリュー株式会社 Photo sticker creation apparatus and method, and program
CN101308417A (en) * 2007-05-15 2008-11-19 宏达国际电子股份有限公司 Electronic device and its software user interface operation method
JP4849412B2 (en) * 2007-05-15 2012-01-11 三菱電機株式会社 Information input display device
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
JP4900824B2 (en) 2007-09-18 2012-03-21 トヨタ自動車株式会社 Input display device
JP2009116769A (en) * 2007-11-09 2009-05-28 Sony Corp Input device, control method for input device and program
KR101486345B1 (en) * 2008-03-21 2015-01-26 엘지전자 주식회사 Mobile terminal and screen displaying method thereof
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US8525802B2 (en) * 2008-03-31 2013-09-03 Lg Electronics Inc. Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
EP2131272A3 (en) * 2008-06-02 2014-05-07 LG Electronics Inc. Mobile communication terminal having proximity sensor and display controlling method therein

Also Published As

Publication number Publication date
JP2011034502A (en) 2011-02-17
CN101996036B (en) 2016-08-03
CN101996036A (en) 2011-03-30
US8922497B2 (en) 2014-12-30
US20110032198A1 (en) 2011-02-10

Similar Documents

Publication Publication Date Title
JP5471137B2 (en) Display device, display method, and program
US10444989B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
CN106095215B (en) The manipulation of touch input cursor
CN106155549B (en) The manipulation of touch input cursor
US10768804B2 (en) Gesture language for a device with multiple touch surfaces
CN102129311B (en) Messaging device, method of operation input and operation loading routine
US7358956B2 (en) Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US7256770B2 (en) Method for displaying information responsive to sensing a physical presence proximate to a computer input device
JP5734546B2 (en) Object display device
KR100831721B1 (en) Apparatus and method for displaying of mobile terminal
JP4577428B2 (en) Display device, display method, and program
RU2623885C2 (en) Formula entry for limited display device
US20110283212A1 (en) User Interface
CN107024965A (en) Information processing system and information processing method
JP2011022842A (en) Display apparatus, display method, and program
KR101591586B1 (en) Data processing apparatus which detects gesture operation
WO2022143198A1 (en) Processing method for application interface, and related device
WO2022143579A1 (en) Feedback method and related device
WO2022143620A1 (en) Virtual keyboard processing method and related device
JP2014041516A (en) Data processing apparatus and program
CN106775192A (en) Mobile terminal and its one-handed performance method
US20160350273A1 (en) Data processing method
US20190302952A1 (en) Mobile device, computer input system and computer readable storage medium
Petrie et al. Older people’s use of tablets and smartphones: A review of research
WO2022143607A1 (en) Application interface processing method and related device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R151 Written notification of patent or utility model registration

Ref document number: 5471137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees