JP5471137B2 - Display device, display method, and program - Google Patents
Display device, display method, and program Download PDFInfo
- Publication number
- JP5471137B2 JP5471137B2 JP2009182581A JP2009182581A JP5471137B2 JP 5471137 B2 JP5471137 B2 JP 5471137B2 JP 2009182581 A JP2009182581 A JP 2009182581A JP 2009182581 A JP2009182581 A JP 2009182581A JP 5471137 B2 JP5471137 B2 JP 5471137B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- change
- proximity
- display
- operation command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、表示装置、表示方法及びプログラムに関する。より詳しくは、本発明は、表示画面においてユーザが行う操作をデバイスにより検出し、これに応じて表示画面の表示を制御する表示装置、表示方法及びプログラムに関する。 The present invention relates to a display device, a display method, and a program. More specifically, the present invention relates to a display device, a display method, and a program for detecting an operation performed by a user on a display screen by a device and controlling display of the display screen according to the detected operation.
近年、透過型タッチパネルを搭載するモバイルデバイスが増加している。このようなデバイスの多くは、できる限り大きなディスプレイを搭載し、そのディスプレイに設けられたタッチパネルによる直観的な操作が可能なようにユーザインターフェースの技術も重要視されている。しかしながら、ディスプレイに表示されたボタンをユーザの指で操作する場合、操作ミスを減らすためにボタンを一定の大きさ以上に表する必要がある。このため、ディスプレイのサイズに自ずと限界があるモバイルデバイスでは、多くのGUI(Graphical User Interface)ボタンを表示することは難しい。 In recent years, mobile devices equipped with a transmissive touch panel are increasing. Many of these devices are equipped with a display as large as possible, and user interface technology is also regarded as important so that an intuitive operation can be performed using a touch panel provided on the display. However, when a button displayed on the display is operated with a user's finger, it is necessary to represent the button to a certain size or more in order to reduce operation mistakes. For this reason, it is difficult to display many GUI (Graphical User Interface) buttons in a mobile device that has a limit in display size.
これに対して、指の接触位置及び圧力を検出できるデバイスを用いることにより、ユーザが一つのボタンを押した場合であっても、その押下力に応じて異なる複数のコマンドを割り振る技術が提案されている(たとえば、特許文献1参照。)。この技術では、操作のバリエーションが拡がる可能性がある。 On the other hand, by using a device that can detect the contact position and pressure of a finger, even when the user presses one button, a technique for allocating a plurality of different commands according to the pressing force is proposed. (For example, refer to Patent Document 1). With this technology, there is a possibility that the variation of operation will be expanded.
また、指の接近を感知すると、ユーザが操作対象としているボタンがハイライト表示される技術も提案されている(たとえば、特許文献2参照。)。この技術では、ユーザがどのボタンを押そうとしているのかを確認できるため、誤操作が軽減される可能性がある。 In addition, a technique has been proposed in which a button that is operated by a user is highlighted when a finger approach is detected (see, for example, Patent Document 2). With this technology, since it is possible to confirm which button the user is trying to press, there is a possibility that erroneous operations are reduced.
しかし、特許文献1では、ユーザがボタンを押す際、自ら圧力を調節しなければならず、ユーザにとって操作負荷が高い。また、押下力を感知する必要があるためデバイスの構造が複雑になる。 However, in Patent Document 1, when the user presses the button, the pressure must be adjusted by himself, and the operation load is high for the user. In addition, since it is necessary to sense the pressing force, the structure of the device is complicated.
また、特許文献2では、近接状態と接触状態とで異なるインタラクションを付加することにより異なる表示制御を可能することができるが、近接状態と接触状態とを明確に区別してユーザが画面操作をすることは難しく、操作ミスが増える可能性がある。また、この技術をモバイルデバイスに応用しようとすると、前述のようにモバイルデバイスではディスプレイのサイズに限りがあるため、これに応じてGUIボタンのサイズ等も小さくしなければならない。これに加えてノイズも大きいため、近接状態の検知及び接触状態の検知を同一ボタンに対する異なるインタラクションのトリガとすることは難しい。 In Patent Document 2, different display control can be performed by adding different interactions between the proximity state and the contact state. However, the user can clearly distinguish between the proximity state and the contact state and perform a screen operation. Is difficult and may increase operational errors. Further, if this technology is applied to a mobile device, the size of the display on the mobile device is limited as described above, and accordingly the size of the GUI button must be reduced accordingly. In addition to this, since noise is large, it is difficult to use proximity detection and contact detection as triggers for different interactions with the same button.
上記問題に鑑み、本発明は、表示画面においてユーザが行う操作に対して画面への接触及び非接触の判別に加え、ユーザが行う操作の状態変化に応じて表示画面の表示を変える表示装置、表示方法及びプログラムを提供する。 In view of the above problems, the present invention provides a display device that changes display of a display screen in accordance with a change in state of an operation performed by the user, in addition to determining whether the user performs an operation performed on the display screen. A display method and program are provided.
上記課題を解決するために、本発明のある態様によれば、表示画面と、前記表示画面においてユーザが行う操作を検出するデバイスと、前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する状態判別部と、前記状態判別部により判別された状態に従い、ユーザが行う操作の状態変化を識別する状態変化識別部と、ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記状態変化識別部により識別された状態変化に応じて操作コマンドを設定する操作コマンド設定部と、を有する表示装置が提供される。 In order to solve the above problems, according to an aspect of the present invention, a display screen, a device that detects an operation performed by a user on the display screen, and the display screen based on a user operation detected by the device are displayed. A state discriminating unit that discriminates one of a contact state, a proximity state, and a remote state, a state change identifying unit that identifies a state change of an operation performed by the user according to the state discriminated by the state discriminating unit, and a user An operation command setting unit configured to set an operation command according to a state change identified by the state change identification unit when setting an operation command for controlling display of the display screen with respect to an operation performed by A display device is provided.
これによれば、ユーザが行った操作に対して表示画面の表示を制御するための操作コマンドを設定する際、前記状態変化識別部により識別された状態変化に応じて操作コマンドが設定される。これにより、画面操作のバリエーションを増やしたり、操作性を向上させたりすることができる。 According to this, when setting the operation command for controlling the display on the display screen for the operation performed by the user, the operation command is set according to the state change identified by the state change identifying unit. Thereby, the variation of screen operation can be increased or operativity can be improved.
前記操作コマンド設定部により設定された操作コマンドに従い前記表示画面の表示を変える画面制御部を更に有していてもよい。 You may further have a screen control part which changes the display of the said display screen according to the operation command set by the said operation command setting part.
前記状態変化識別部は、前記状態判別部の判別結果に基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別し、前記操作コマンド設定部は、前記状態変化識別部により識別された状態変化に応じて異なる操作コマンドを設定してもよい。 The state change identifying unit identifies, based on the determination result of the state determining unit, whether the operation performed by the user on the display screen has changed from the contact state, the proximity state, or the far state, and The operation command setting unit may set a different operation command according to the state change identified by the state change identification unit.
前記状態判別部による前回の判別結果を記憶する記憶部を更に有し、前記状態変化識別部は、前記記憶部に記憶された前回の判別結果と前記状態判別部による今回の判別結果とに基づき、前記表示画面に対する接触状態から遠方状態への状態変化又は前記表示画面に対する接触状態から近接状態への状態変化を識別し、前記操作コマンド設定部は、前記状態変化識別部により識別された状態変化に応じて異なる操作コマンドを設定してもよい。 A storage unit that stores a previous determination result by the state determination unit; and the state change identification unit is based on the previous determination result stored in the storage unit and the current determination result by the state determination unit. The state change from the contact state to the distant state with respect to the display screen or the state change from the contact state to the close state to the display screen is identified, the operation command setting unit is the state change identified by the state change identification unit Different operation commands may be set according to the operation.
前記状態変化識別部により識別された状態変化が接触状態から遠方状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を前記画面制御部に促してもよい。 When the state change identified by the state change identification unit is a state change from a contact state to a far state, the operation command setting unit may prompt the screen control unit to execute the set operation command.
前記状態変化識別部により識別された状態変化が接触状態から近接状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を見合わせるように前記画面制御部に促してもよい。 When the state change identified by the state change identifying unit is a state change from the contact state to the proximity state, the operation command setting unit prompts the screen control unit to postpone execution of the set operation command. Also good.
上記課題を解決するために、本発明の他の態様によれば、示画面においてユーザが行う操作をデバイスに検出させるステップと、前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別するステップと、前記判別された状態に従い、ユーザが行う操作の状態変化を識別するステップと、ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定するステップと、を含む表示方法が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a step of causing a device to detect an operation performed by a user on a display screen, and a contact with the display screen based on a user operation detected by the device. Determining a state of a state, a proximity state, and a distant state; identifying a change in state of an operation performed by a user according to the determined state; and And setting an operation command according to the identified state change when setting an operation command for controlling display.
上記課題を解決するために、本発明の他の態様によれば、表示画面においてユーザが行う操作をデバイスに検出させる処理と、前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する処理と、前記判別された状態に従い、ユーザが行う操作の状態変化を識別する処理と、ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定する処理と、をコンピュータに実行させるプログラムが提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a process for causing a device to detect an operation performed by a user on a display screen, and a contact with the display screen based on a user operation detected by the device. A process for determining a state, a proximity state, and a distant state, a process for identifying a change in state of an operation performed by the user according to the determined state, and a display screen for the operation performed by the user. When setting an operation command for controlling display, a program for causing a computer to execute a process of setting an operation command according to the identified state change is provided.
以上説明したように本発明によれば、表示画面においてユーザが行う操作に対して画面への接触及び非接触の判別に加え、ユーザが行う操作の状態変化に応じて表示画面の表示を変えることができる。 As described above, according to the present invention, the display screen display is changed according to the change in the state of the operation performed by the user, in addition to the determination of the contact and non-contact with the operation performed by the user on the display screen. Can do.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
なお、以下で説明する本発明の各実施形態に係る表示装置が適用されるモバイル機器は、主に携帯電話、携帯音楽プレーヤ、携帯情報端末(PDA:Personal Digital Assistant)等の携帯型端末であることが好ましい。ただし、本発明に係る表示装置は、ノート型PC(Personal Computer)や据え置き型のPC等の情報処理装置に用いることもできる。 Note that mobile devices to which the display devices according to the embodiments of the present invention described below are applied are mainly portable terminals such as mobile phones, portable music players, and personal digital assistants (PDAs). It is preferable. However, the display device according to the present invention can also be used in an information processing apparatus such as a notebook PC (Personal Computer) or a stationary PC.
以下では次の順序で説明する。
<第1実施形態>
[1−1.モバイル機器のハードウエア構成]
[1−2.モバイル機器の機能構成]
[1−3.モバイル機器の動作:操作コマンド判定処理]
(シングルタップ又はダブルタップの割り当て)
(タップ又はウィークタップの割り当て)
<第2実施形態>
[2−1.モバイル機器の機能構成]
[2−2.モバイル機器の動作:操作コマンド判定処理]
(ドラッグ・アンド・ドロップの実行と実行見合わせ)
<変形例>
Below, it demonstrates in the following order.
<First Embodiment>
[1-1. Hardware configuration of mobile device]
[1-2. Functional configuration of mobile device]
[1-3. Operation of mobile device: Operation command determination processing]
(Single tap or double tap assignment)
(Assignment of tap or week tap)
Second Embodiment
[2-1. Functional configuration of mobile device]
[2-2. Operation of mobile device: Operation command determination processing]
(Drag and drop execution and execution delay)
<Modification>
<第1実施形態>
[1−1.モバイル機器のハードウエア構成]
まず、第1実施形態に係るモバイル機器のハードウエア構成について、図1を参照しながら説明する。本実施形態に係るモバイル機器10は、ディスプレイ12上にユーザの指の位置を検出できるセンサを搭載した透過型のタッチパネルを有するデバイスである。モバイル機器10は、図示しないネットワークを介して様々なコンテンツを受信し、ディスプレイ12に表示することができる。
<First Embodiment>
[1-1. Hardware configuration of mobile device]
First, the hardware configuration of the mobile device according to the first embodiment will be described with reference to FIG. The
ディスプレイ12としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機エレクトロルミネッセンスディスプレイ(有機EL、OELD:Organic Electroluminescence Display)等を用いることができる。
As the
ディスプレイ12にはタッチパネル14が設けられている。タッチパネル14は、ディスプレイ12上に表示された各種のGUIボタン16に対してユーザが行った画面操作を検出する。タッチパネル14は、ディスプレイ12に対してx方向及びy方向の指の位置を検出するとともに、Z方向の指の状態を検出する。図2に示したように、タッチパネル14は、ディスプレイ12上の指の接触状態及び近接状態を透過型で計測できるようになっている。
A
たとえば、指からディスプレイ12の表面までの距離Tが予め定められた閾値Thより大きい場合、タッチパネル14は何も検知しない。このとき、指はディスプレイ12に対して遠方状態にあると判別される。
For example, when the distance T from the finger to the surface of the
また、指からディスプレイ12の表面までの距離Tが予め定められた閾値Thより小さく、距離Tが0でない場合、タッチパネル14は指が近接領域に存在すると検出する。このとき、指はディスプレイ12に対して近接状態にあると判別される。
In addition, when the distance T from the finger to the surface of the
また、指からディスプレイ12の表面までの距離Tが0である場合、タッチパネル14は指がディスプレイ12に接触していると検出する。このとき、指はディスプレイ12に対して接触状態にあると判別される。
Further, when the distance T from the finger to the surface of the
なお、本実施形態で搭載されるタッチパネル14及び次に説明する第2実施形態や変形例で搭載されるタッチパネルは、透過型であれば、静電式であってもよく光学式であってもよい。また、タッチパネル14は、ディスプレイ12に設けられ、ディスプレイ12においてユーザが行った画面操作を検出するデバイスに相当する。
Note that the
モバイル機器10には、図1に示したCPU32、RAM34、不揮発性メモリ36を有するマイクロプロセッサ30が埋め込まれている。各種メモリには、タッチパネル14により検出された画面操作に関する情報が一時的に記憶される。CPU32は、後述する操作コマンド判定処理を制御する。なお、以下のハードウエア構成は、モバイル機器に搭載された表示装置のハードウエア構成ということもできる。
In the
[1−2.モバイル機器の機能構成]
第1実施形態に係るモバイル機器10は、図3に示した機能ブロックにより示される機能構成を有している。すなわち、本実施形態に係るモバイル機器10は、状態判別部20、記憶部22、状態変化識別部24、操作コマンド設定部26及び画面制御部28を有している。
[1-2. Functional configuration of mobile device]
The
状態判別部20は、タッチパネル14により検出されたユーザの操作に基づき、指の操作状態がディスプレイ12への接触状態、近接状態及び遠方状態のいずれの状態かを判別する。
Based on the user operation detected by the
記憶部22は、状態判別部20による判別結果を記憶する。具体的には、記憶部22は、毎回の判別結果が接触状態、近接状態及び遠方状態のいずれの状態であるかを記憶する。以下の説明では、前回のユーザの操作状態をP(t−1)で示し、今回のユーザの操作状態をP(t)で示す。
The
状態変化識別部24は、状態判別部20により判別された状態に従い、ユーザが行う操作の状態変化を識別する。具体的には、状態変化識別部24は、状態判別部20の判別結果に基づき、ディスプレイ12においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別する。状態変化識別部24は、記憶部22に記憶された前回の判別結果と状態判別部20による今回の判別結果とに基づき、ディスプレイ12に対する接触状態から遠方状態への状態変化又はディスプレイ12に対する接触状態から近接状態への状態変化を識別する。
The state
操作コマンド設定部26は、ユーザが行った操作に対してディスプレイ12の表示を制御するための操作コマンドを設定する。その際、操作コマンド設定部26は、状態変化識別部24により識別された状態変化に応じて操作コマンドを設定する。
The operation
画面制御部28は、操作コマンド設定部26により設定された操作コマンドに従い、状態変化識別部24により識別された状態変化に応じてディスプレイ12の表示を変える。
The
以上に説明した、モバイル機器10の各機能構成部への指令は、専用の制御デバイスあるいはプログラムを実行するCPU32により実行される。次に説明する操作コマンド判定処理を実行するためのプログラムは、RAM34や不揮発性メモリ36に予め記憶されている。CPU32は、これらのメモリから各プログラムを読み出し実行することにより、状態判別部20、記憶部22、状態変化識別部24、操作コマンド設定部26及び画面制御部28の各機能を実行する。
The command to each functional component of the
[1−3.モバイル機器の動作]
次に、本実施形態に係るモバイル機器10の操作コマンド判定処理について図4を参照しながら説明する。図4は、本実施形態に係るモバイル機器10により実行される操作コマンド判定処理を示したフローチャートである。以下の動作は、本実施形態に係るモバイル機器10に搭載された表示装置の動作ということもできる。
[1-3. Operation of mobile device]
Next, operation command determination processing of the
ステップS400より、操作コマンド判定処理が開始されると、ステップS405にて状態判別部20は、状態判別処理のルーチン(図5)を実行する。状態判別処理は、図5のステップS500から処理が開始される。状態判別部20は、ステップS505にてタッチパネル14により検出されたユーザの操作に基づき、ディスプレイ12に対してユーザの指が非接触状態であって近接状態にあるかを判別する。前述したように、ディスプレイ12から指までの距離Pが所与の閾値Thより大きい場合、指は図2の遠方状態であると判別される。この場合、ステップS510に進んで、状態判別部20は、今回の操作状態P(t)を遠方状態と判別し、ステップS595から図4のステップS410に戻る。
When the operation command determination process is started from step S400, the
一方、ステップS505でYESと判定されると、ステップS515に進み、状態判別部20は、指がディスプレイ12に接触した状態かを判別する。前述したように、ディスプレイ12から指までの距離Pが0に等しければ指の位置は図2の接触状態と判別される。この場合、ステップS520に進んで、状態判別部20は、今回の操作状態P(t)を接触状態と判別し、ステップS595から図4のステップS410に戻る。
On the other hand, if “YES” is determined in the step S505, the process proceeds to a step S515, and the
一方、ステップS515でNOと判定されると、ステップS525に進み、状態判別部20は、今回の操作状態P(t)を近接状態と判別し、ステップS595から図4のステップS410に戻る。
On the other hand, if NO is determined in step S515, the process proceeds to step S525, in which the
ステップS410では、記憶部22が、今回判別された操作状態P(t)を記憶する。次に、ステップS415に進んで、状態変化識別部24は、指の状態が接触状態から近接状態に状態変化したかを識別する。具体的には、状態変化識別部24は、記憶部22に記憶されている前回判別された操作状態P(t−1)が接触状態で、かつ今回判別された操作状態P(t)が近接状態であるかを判断する。
In step S410, the
状態変化が接触状態→近接状態である場合、ステップS420に進んで再度、図5の状態判別処理を実行し、ステップS425に進む。ステップS425にて、状態変化識別部24は、指の状態が近接状態から遠方状態に状態変化したかを識別する。具体的には、状態変化識別部24は、記憶部22に記憶されている前回判別された操作状態P(t−1)が近接状態で、かつ今回判別された操作状態P(t)が遠方状態であるかを判断する。
If the state change is from the contact state to the proximity state, the process proceeds to step S420, the state determination process of FIG. 5 is executed again, and the process proceeds to step S425. In step S425, the state
識別の結果、接触状態→近接状態(S415)に状態変化した後、更に近接状態→遠方状態(S425)に状態変化した場合、ステップS430に進む。操作コマンド設定部26は、ステップS430にてシングルタップと判定し、シングルタップに予め割り当てられている画面操作の操作コマンドを設定する。
As a result of the identification, if the state changes from the contact state to the proximity state (S415) and then changes from the proximity state to the far state (S425), the process proceeds to step S430. The operation
識別の結果、接触状態→近接状態(S415)に状態変化した後、近接状態→遠方状態(S425)には状態変化しない場合、ステップS435に進む。操作コマンド設定部26は、ステップS435にてダブルタップと判定し、ダブルタップに予め割り当てられている画面操作の操作コマンドを設定する。
As a result of the identification, if the state does not change from the proximity state to the distant state (S425) after the state change from the contact state to the proximity state (S415), the process proceeds to step S435. The operation
なお、ステップS415にて、状態変化識別部24が接触状態から近接状態に状態変化していないと識別した場合、ステップS440に進んで、操作コマンド設定部26は、ディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
In step S415, when the state
(シングルタップ又はダブルタップの割り当て)
以上に説明した操作コマンド判定処理の具体例として、図6及び図7を参照しながら状態変化の相違により操作コマンドとしてシングルタップ又はダブルタップを割り当てる例を説明する。
(Single tap or double tap assignment)
As a specific example of the operation command determination process described above, an example in which a single tap or a double tap is assigned as an operation command according to a difference in state change will be described with reference to FIGS. 6 and 7.
(シングルタップ)
図6に示したように、ディスプレイ12に対する指の操作が遠方状態→近接状態→接触状態→近接状態→遠方状態・・・を複数回繰り返す場合、最初の状態変化(遠方状態→近接状態)では、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
(Single tap)
As shown in FIG. 6, when the finger operation on the
図6に示した次の状態変化(近接状態→接触状態)でも、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
Even in the next state change (proximity state → contact state) shown in FIG. 6, the state
図6に示した次の状態変化(接触状態→近接状態)では、状態変化識別部24は、ステップS415にてYESと判定し、ステップS420にて再度、図5の状態判別処理を実行する。図6に示した次の状態は遠方状態である。そこで、ステップS425にて、状態変化識別部24は、状態変化が近接状態→遠方状態であると識別し、ステップS430に進む。操作コマンド設定部26は、シングルタップと判定し、シングルタップに予め割り当てられている画面操作の操作コマンドを設定する。複数回のシングルタップに対しては、以上の動作を繰り返すことにより、シングルタップに予め割り当てられている画面操作の操作コマンドを繰り返し設定する。
In the next state change (contact state → proximity state) shown in FIG. 6, the state
たとえば、図6のGUIボタン16に対してシングルタップに予め割り当てられた画面操作が次の楽曲選定である場合、操作コマンド設定部26は、次の楽曲を選定する操作コマンドを設定する。画面制御部28は、操作コマンド設定部26により設定された操作コマンドに従い、ディスプレイ12上に選定された次の楽曲名を表示する。複数回のシングルタップに対しては、以上の動作を繰り返すことにより、楽曲名が楽曲順に次々とディスプレイ12上に表示される。
For example, when the screen operation previously assigned to the single tap on the
(ダブルタップ)
図7に示したように、ディスプレイ12に対する指の操作が遠方状態→近接状態→接触状態→近接状態→接触状態→近接状態→遠方状態・・・の場合、最初の状態変化(遠方状態→近接状態)では、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
(Double tap)
As shown in FIG. 7, when the operation of the finger on the
図7に示した次の状態変化(近接状態→接触状態)でも、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
Even in the next state change (proximity state → contact state) shown in FIG. 7, the state
図7に示した次の状態変化(接触状態→近接状態)では、状態変化識別部24は、ステップS415にてYESと判定し、再度、図5の状態判別処理を実行する。図7に示した次の状態は接触状態である。そこで、ステップS425にて、状態変化識別部24は、状態変化が近接状態→接触状態であると識別し、ステップS435に進む。操作コマンド設定部26は、ダブルタップと判定し、ダブルタップに予め割り当てられている画面操作の操作コマンドを設定する。
In the next state change (contact state → proximity state) shown in FIG. 7, the state
たとえば、図7のGUIボタン16に対してダブルタップに予め割り当てられた画面操作が次のアルバム選定である場合、操作コマンド設定部26は、次のアルバムを選定する操作コマンドを設定する。画面制御部28は、操作コマンド設定部26により設定された操作コマンドに従い、ディスプレイ12上に選定された次のアルバム名を表示する。
For example, when the screen operation previously assigned to the double tap for the
なお、画面制御部28は、GUIボタン16を一度押すと、図7に示したように、指が近接領域を出るまでGUIボタン16の表情が変わるように画面を制御してもよい。たとえば、画面制御部28は、指がダブルタップの操作中、GUIボタン16の色を赤等の目立つ色に変えてもよい。
Note that the
以上に説明したように、本実施形態に係るモバイル機器10によれば、タッチパネル14により検出された接触状態に従い表示画面の表示を制御する際、近接状態から次に遷移する状態変化に応じて設定する操作コマンドを変えることができる。その結果、設定された操作コマンドに従い、状態変化に応じてディスプレイ12上の表示を変えることができる。これにより、ユーザにとって負荷の高い操作を減らして操作性を向上させながら、たとえば一つのGUIボタンに複数の操作コマンドを与える等、画面操作のバリエーションを増やすことができる。
As described above, according to the
また、本実施形態に係るモバイル機器10によれば、高速操作が可能なユーザインターフェースを提供することができる。たとえば、従来のダブルタップは、時間方向の接触状態の変化を見ることで識別されていた。そのため、識別には一定の時間を要し、かつシングルタップを短い時間で複数回入力することはできなかった。しかしながら、本実施形態に係るモバイル機器10によれば、状態変化だけでダブルタップを識別するため、ダブルタップの識別に時間のファクターを必要としない。これにより、本実施形態では、従来のように識別のために必ず一定の時間を要することはなく、ダブルタップ及びシングルタップを短い時間で高速入力することができる。
Further, according to the
(タップ又はウィークタップの割り当て)
画面操作のバリエーションを増やす他の例として、図8を参照しながら状態変化の相違により操作コマンドとしてタップ又はウィークタップを割り当てる例を説明する。
(Assignment of tap or week tap)
As another example of increasing variations in screen operation, an example in which a tap or a weak tap is assigned as an operation command according to a difference in state change will be described with reference to FIG.
(タップ)
この例では、図4の操作コマンド判定処理のステップS405〜ステップS425を実行してステップS430に進むと、操作コマンド設定部26は、ユーザの画面操作を通常のタップと判定する。操作コマンド設定部26は、タップに応じた操作コマンドとしてページ単位でのスクロールを設定する。画面制御部28は、設定された操作コマンドに応じて図8の右下に示したように、指のタップ操作に対応した画面のページ単位でのスクロールを実行する。
(Tap)
In this example, when step S405 to step S425 of the operation command determination process of FIG. 4 are executed and the process proceeds to step S430, the operation
(ウィークタップ)
一方、図4の操作コマンド判定処理のステップS405〜ステップS425を実行してステップS435に進むと、操作コマンド設定部26は、ユーザの画面操作をウィークタップと判定する。操作コマンド設定部26は、ウィークタップに応じた操作コマンドとして行単位でのスクロールを設定する。画面制御部28は、設定された操作コマンドに応じて図8の左下に示したように、指のウィークタップ操作に対応した画面の行単位でのスクロールを実行する。これにより、ユーザは大まかな位置合わせをタップで行い、細かな調整をウィークタップで行うことができる。
(Week tap)
On the other hand, when step S405 to step S425 of the operation command determination process of FIG. 4 are executed and the process proceeds to step S435, the operation
なお、本実施形態では、タップした座標は接触状態でのみ定義されるため、近接状態での位置の誤差はここでは問題にならない。また、多段階で近接状態を計測できるデバイスでは、2種類より多くのタップを定義することも可能である。 In the present embodiment, since the tapped coordinates are defined only in the contact state, the position error in the proximity state is not a problem here. In addition, in a device that can measure the proximity state in multiple stages, it is possible to define more than two types of taps.
以上のように、本実施形態に係るモバイル機器10によれば、状態変化識別部24は、ディスプレイ12に対する接触状態から遠方状態への状態変化(接触状態から近接状態を経て遠方状態に遷移)又はディスプレイ12に対する接触状態から近接状態への状態変化(接触状態から近接状態まで遷移し、近接状態から遠方状態へは遷移しない)を識別する。そして、操作コマンド設定部26は、状態変化識別部24により識別された状態変化に応じて異なる操作コマンドを設定する。このように、本実施形態では、接触状態及び近接状態に別々に操作コマンドを割り当てるのではなく、接触状態後の状態変化に応じて別々に操作コマンドを割り当てる。よって、接触状態及び近接状態を区別してユーザが画面操作をする際の操作の難しさと操作ミスの発生を回避して、ユーザの操作性を向上させながら、画面操作のバリエーションを増やすことができる。
As described above, according to the
<第2実施形態>
次に、第2実施形態に係るモバイル機器10について説明する。本実施形態に係るモバイル機器10のハードウエア構成は第1実施形態に係るモバイル機器10と同様であるためここでは説明を省略する。
Second Embodiment
Next, the
[2−1.モバイル機器の機能構成]
第2実施形態に係るモバイル機器10は、図3に示した機能ブロックにより示される機能構成を有している。すなわち、本実施形態に係るモバイル機器10は、第1実施形態と同様に状態判別部20、記憶部22、状態変化識別部24、操作コマンド設定部26及び画面制御部28を有している。状態判別部20、記憶部22及び状態変化識別部24の機能は第1実施形態の場合と同様であるためここでは説明を省略する。また、本実施形態においても、モバイル機器10の各機能は、CPU32が、RAM34や不揮発メモリ36から各プログラムを読み出して実行することにより実現される。
[2-1. Functional configuration of mobile device]
The
操作コマンド設定部26は、状態変化識別部24により識別された状態変化が接触状態から遠方状態への状態変化(接触状態から近接状態を経て遠方状態に遷移)である場合、設定された操作コマンドの実行を画面制御部28に促す。画面制御部28は、これに応じて、操作コマンドに従いディスプレイ12の表示を制御する。
The operation
操作コマンド設定部26は、状態変化識別部24により識別された状態変化が接触状態から近接状態への状態変化(接触状態から近接状態まで遷移し、近接状態から遠方状態へは遷移しない)である場合、設定された操作コマンドの実行を見合わせるように画面制御部28に促す。画面制御部28は、これに応じて操作コマンドの実行を見合わせ、現在のディスプレイ12の表示状態を維持する。
In the operation
[2−2.モバイル機器の動作:操作コマンド判定処理]
次に、本実施形態に係るモバイル機器10の操作コマンド判定処理について図9を参照しながら説明する。図9は、本実施形態に係るモバイル機器10により実行される操作コマンド判定処理を示したフローチャートである。以下では、ドラッグ・アンド・ドロップの実行とその実行を見合わせを例に挙げて操作コマンド判定処理を説明する。なお、以下の動作は、本実施形態に係るモバイル機器10に搭載された表示装置の動作ということもできる。
[2-2. Operation of mobile device: Operation command determination processing]
Next, operation command determination processing of the
(ドラッグ・アンド・ドロップの実行と実行見合わせ)
ステップS900より、操作コマンド判定処理が開始されると、ステップS405にて状態判別部20は、状態判別処理のルーチン(図5)を実行する。状態判別処理は、第1実施形態にて説明したのでここでは省略する。ステップS405の状態判別処理において今回判別された操作状態P(t)は、ステップS410にて記憶部22に記憶される。
(Drag and drop execution and execution delay)
When the operation command determination process is started from step S900, the
次に、ステップS415に進んで、状態変化識別部24は、指の状態が接触状態から近接状態に状態変化したかを識別する。状態変化が接触状態→近接状態である場合、ステップS420に進んで再度、図5の状態判別処理を実行し、ステップS425に進む。ステップS425にて、状態変化識別部24は、指の状態が近接状態から遠方状態に状態変化したかを識別する。識別の結果、接触状態→近接状態(S415)に状態変化した後、更に近接状態→遠方状態(S425)に状態変化した場合、ステップS905に進んで、操作コマンド設定部26は、指が接触した画像をドラッグ・アンド・ドロップする操作コマンドを設定する。
Next, proceeding to step S415, the state
一方、識別の結果、接触状態→近接状態(S415)に状態変化した後、近接状態→遠方状態(S425)には状態変化しない場合、ステップS910に進んで、操作コマンド設定部26は、指が接触した画像のドラッグ・アンド・ドロップ操作の実行を見合わせる。つまり、指が接触した画像はドラッグ・アンド・ドロップされず、現状の状態が維持される。
On the other hand, as a result of the identification, if the state changes from the contact state to the proximity state (S415) and then does not change from the proximity state to the far state (S425), the process proceeds to step S910, and the operation
なお、ステップS415にて、状態変化識別部24が接触状態から近接状態に状態変化していないと識別した場合、ステップS440に進んで、操作コマンド設定部26は、ディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
In step S415, when the state
本実施形態に係る操作コマンド判定処理によれば、図9の下段に示したように、接触状態→近接状態に状態変化した後、近接状態→遠方状態に状態変化しない場合、指が接触した画像をドラッグ・アンド・ドロップしない。このように、本実施形態に係る操作コマンド判定処理では、ユーザが誤って指をディスプレイ12から離した場合、ドラッグしたデータのドロップ操作が実行されないようにする。
According to the operation command determination processing according to the present embodiment, as shown in the lower part of FIG. 9, after the state changes from the contact state to the proximity state, if the state does not change from the proximity state to the far state, the image touched by the finger Do not drag and drop. As described above, in the operation command determination process according to the present embodiment, when the user accidentally lifts his / her finger from the
一方、本実施形態に係る操作コマンド判定処理によれば、接触状態→近接状態に状態変化した後、近接状態→遠方状態に状態変化した場合、指が接触した画像をドラッグ・アンド・ドロップする。このように、本実施形態に係る操作コマンド判定処理では、ユーザが近接領域以上指をディスプレイ12から離した場合、指の動作が誤動作ではないと判断して、ドラッグ・アンド・ドロップ操作が実行される。
On the other hand, according to the operation command determination process according to the present embodiment, when the state changes from the contact state to the close state and then changes from the close state to the far state, the image touched by the finger is dragged and dropped. As described above, in the operation command determination process according to the present embodiment, when the user lifts the finger away from the
従来、図10の上段に示したように、ユーザが意図しなくても操作中に指が少しでもディスプレイ12から離れると、ドラッグ・アンド・ドロップ操作が実行され、操作ミスとなっていた。しかしながら、本実施形態では、図10の下段に示したように、操作中に指が少しだけディスプレイ12から離れた状態ではドロップさせず、近接状態から遠方状態への状態変化をドロップのタイミングとみなすことにより、従来起きていた操作ミスを補償し、ユーザの操作性を向上させることができる。
Conventionally, as shown in the upper part of FIG. 10, even if the user does not intend, if a finger is released from the
<変形例>
最後に、以上に説明した各実施形態の表示装置を搭載する携帯型機器の変形例として図11のモバイル機器50について簡単に説明する。モバイル機器50は、上部ディスプレイ52Uと下部ディスプレイ52Dの2画面を有している。上部ディスプレイ52U、下部ディスプレイ52Dにはタッチパネル58U、58Dが搭載されている。モバイル機器50は、中央のヒンジ機構59により折り畳み可能であり、携帯に便利な構成となっている。
<Modification>
Finally, a
本変形例に係るモバイル機器50に搭載された表示装置によっても、デバイスにより検出されたGUIボタン16に対する指の接触状態に従い表示画面の表示を制御する際、識別された状態変化に応じてディスプレイの表示を変えることができる。これにより、操作性を向上させながら、画面操作のバリエーションを増やすことができる。
Even when the display device mounted on the
以上に説明した各実施形態によれば、接触状態及び非接触状態の識別だけでなく、指の状態変化を識別することにより、ダブルタップと複数のシングルタップとを判別したり、2種類のタップを判別したり、ドラッグ・アンド・ドロップ操作の補助を行ったりすることができる。これにより、ユーザにとって負荷の高い操作を減らし、操作性の高いユーザインターフェースを提供することができる。 According to each embodiment described above, it is possible to discriminate between a double tap and a plurality of single taps by identifying not only a contact state and a non-contact state but also a change in the state of a finger, or two types of taps. Or assisting the drag-and-drop operation. As a result, it is possible to provide a user interface with high operability by reducing operations with high load on the user.
上記実施形態において、各部の動作は互いに関連しており、互いの関連を考慮しながら、一連の動作及び一連の処理として置き換えることができる。これにより、表示装置の実施形態を、表示方法の実施形態及び表示装置が有する機能をコンピュータに実現させるためのプログラムの実施形態とすることができる。 In the above embodiment, the operations of the respective units are related to each other, and can be replaced as a series of operations and a series of processes in consideration of the mutual relations. Thereby, the embodiment of the display device can be the embodiment of the display method and the embodiment of the program for causing the computer to realize the functions of the display device.
これにより、ディスプレイ12においてユーザが行う操作をタッチパネル14に検出させるステップと、タッチパネル14により検出されたユーザの操作に基づきディスプレイ12への接触状態、近接状態及び遠方状態のいずれの状態かを判別するステップと、前記判別された状態に従い、ユーザが行う操作の状態変化を識別するステップと、ユーザが行った操作に対してディスプレイ12の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定するステップと、を含む表示方法を提供することができる。
As a result, the
また、これにより、ディスプレイ12においてユーザが行う操作をタッチパネル14に検出させる処理と、タッチパネル14により検出されたユーザの操作に基づきディスプレイ12への接触状態、近接状態及び遠方状態のいずれの状態かを判別する処理と、前記判別された状態に従い、ユーザが行う操作の状態変化を識別する処理と、ユーザが行った操作に対してディスプレイ12の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定する処理と、をコンピュータに実行させるプログラムを提供することができる。
In addition, this allows the
尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能である。 In this specification, the steps described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. Including processing to be performed. Even in the steps processed in time series, the order can be appropriately changed depending on circumstances.
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されないことは言うまでもない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described in detail, referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
たとえば、一つのGUIボタンに複数の操作コマンドを与える例としては、上記各実施形態で説明した例に限られない。一つのGUIボタンに複数の操作コマンドを与える他の例としては、一つのGUIボタンにコンテンツの選択とインデックス送りの操作コマンドを設定する場合等が挙げられる。 For example, an example in which a plurality of operation commands are given to one GUI button is not limited to the examples described in the above embodiments. As another example in which a plurality of operation commands are given to one GUI button, there is a case of setting content selection and index sending operation commands to one GUI button.
また、状態変化を文字入力の操作コマンドに応用することもできる。たとえば、「Thank you」と文字入力する場合、ユーザは、「Thank」と文字入力した後、指を近接状態から遠方状態に状態変化させる。近接状態から遠方状態への状態変化には、予めブランク入力が操作コマンドとして割り当てられている。これにより、「Thank」と「you」との間のブランクが入力される。これに続いて、ユーザは「you」と文字入力する。このようにして、指の状態変化を文字入力に応用してもよい。 The state change can also be applied to a character input operation command. For example, when inputting “Thank you”, the user changes the state of the finger from the close state to the far state after inputting “Thank”. A blank input is assigned in advance as an operation command to the state change from the close state to the far state. Thus, a blank between “Thank” and “you” is input. Subsequently, the user inputs “you”. In this way, the finger state change may be applied to character input.
本発明に係るユーザの画面操作を検出するデバイスの接触センサとしては、例えばマトリクススイッチ・抵抗膜方式のスイッチ・表面弾性波方式のスイッチなどを有するタッチセンサ・タッチパネル・タッチスクリーン・タッチパッドなどが挙げられる。 Examples of the contact sensor of the device for detecting the user's screen operation according to the present invention include a touch sensor, a touch panel, a touch screen, a touch pad, and the like having a matrix switch, a resistive film type switch, a surface acoustic wave type switch, and the like. It is done.
本発明に係るモバイル機器に搭載されるタッチパネルは、ディスプレイ12への押し込み(押下)を検出できる機能を有していればより好ましい。これにより、タッチパネル14は遠方状態、近接状態、接触状態、押下状態の4つの状態変化を検出することができ、これらの状態変化を組み合わせることによってさらに操作のバリエーションを増やすことができる。
It is more preferable that the touch panel mounted on the mobile device according to the present invention has a function capable of detecting depression (pressing) on the
10、50 モバイル機器
12 ディスプレイ
14 タッチパネル
16 ボタン
20 状態判別部
22 記憶部
24 状態変化識別部
26 操作コマンド設定部
28 画面制御部
DESCRIPTION OF
Claims (6)
前記表示画面においてユーザが行う操作を検出するデバイスと、
前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する状態判別部と、
前記状態判別部による前回の判別結果を記憶する記憶部と、
前記記憶部に記憶された前回の判別結果と前記状態判別部による今回の判別結果とに基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別する状態変化識別部と、
前記状態変化が接触状態から近接状態への状態変化である場合に、さらに前記状態判別部は、状態を判別し、判別結果に基づき、前記状態変化識別部は、近接状態から遠方状態への状態変化又は近接状態から遠方状態への状態変化以外の状態変化を識別し、識別された状態変化に応じて異なる操作コマンドを設定する操作コマンド設定部と、を備える表示装置。 A display screen;
A device for detecting an operation performed by a user on the display screen;
A state discriminating unit for discriminating whether the state is a contact state, a proximity state, or a far state to the display screen based on a user operation detected by the device;
A storage unit for storing a previous determination result by the state determination unit;
Based on the previous determination result stored in the storage unit and the current determination result by the state determination unit, the operation performed by the user on the display screen is changed from the contact state, the proximity state, and the far state to any state. A state change identifying unit for identifying whether the state has changed;
When the state change is a state change from the contact state to the proximity state, the state determination unit further determines the state, and based on the determination result, the state change identification unit determines whether the state change from the proximity state to the far state. A display device comprising: an operation command setting unit that identifies a change or a state change other than a state change from a proximity state to a far state, and sets a different operation command according to the identified state change.
前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別するステップと、
前記判別された状態を記憶するステップと、
前記記憶するステップで記憶された前回の判別結果と前記いずれの状態かを判別するステップによる今回の判別結果とに基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別するステップと、
前記状態変化が接触状態から近接状態への状態変化である場合に、さらに状態を判別し、判別結果に基づき、近接状態から遠方状態への状態変化又は近接状態から遠方状態への状態変化以外の状態変化を識別し、識別された状態変化に応じて異なる操作コマンドを設定するステップと、を含む表示方法。 Causing the device to detect an operation performed by the user on the display screen;
Determining a state of contact with the display screen based on a user operation detected by the device, a proximity state, and a distant state;
Storing the determined state;
Based on the previous determination result stored in the storing step and the current determination result in the step of determining which state, the operation performed by the user on the display screen is a contact state, a proximity state, and a remote state Identifying from which to which state has changed ,
When the state change is a state change from the contact state to the proximity state, the state is further determined, and based on the determination result, other than the state change from the proximity state to the far state or the state change from the proximity state to the far state Identifying a state change and setting different operation commands according to the identified state change.
前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する処理と、
前記判別された状態を記憶する処理と、
前記記憶する処理で記憶された前回の判別結果と前記いずれの状態かを判別する処理による今回の判別結果とに基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別する処理と、
前記状態変化が接触状態から近接状態への状態変化である場合に、さらに前記いずれの状態かを判別する処理で、状態を判別し、判別結果に基づき、前記いずれからいずれかへ状態変化したかを識別する処理で、近接状態から遠方状態への状態変化又は近接状態から遠方状態への状態変化以外の状態変化を識別し、識別された状態変化に応じて異なる操作コマンドを設定する処理と、をコンピュータに実行させるプログラム。
A process for causing the device to detect an operation performed by the user on the display screen;
A process of determining whether the state is a contact state, a proximity state, or a far state to the display screen based on a user operation detected by the device;
Processing for storing the determined state;
Based on the previous determination result stored in the storing process and the current determination result by the process for determining which state, the operation performed by the user on the display screen is in the contact state, the proximity state, and the remote state A process for identifying from which state the state has changed , and
In the case where the state change is a state change from a contact state to a proximity state, in the process of further determining which state, the state is determined, and based on the determination result, whether the state has changed from any Identifying a state change other than the state change from the proximity state to the far state or the state change from the near state to the far state, and setting different operation commands according to the identified state change, A program that causes a computer to execute.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009182581A JP5471137B2 (en) | 2009-08-05 | 2009-08-05 | Display device, display method, and program |
CN201010243866.7A CN101996036B (en) | 2009-08-05 | 2010-07-29 | Display device and display packing |
US12/845,948 US8922497B2 (en) | 2009-08-05 | 2010-07-29 | Display apparatus, display method and program for detecting an operation performed on a display screen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009182581A JP5471137B2 (en) | 2009-08-05 | 2009-08-05 | Display device, display method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011034502A JP2011034502A (en) | 2011-02-17 |
JP5471137B2 true JP5471137B2 (en) | 2014-04-16 |
Family
ID=43534460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009182581A Expired - Fee Related JP5471137B2 (en) | 2009-08-05 | 2009-08-05 | Display device, display method, and program |
Country Status (3)
Country | Link |
---|---|
US (1) | US8922497B2 (en) |
JP (1) | JP5471137B2 (en) |
CN (1) | CN101996036B (en) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7770126B2 (en) | 2006-02-10 | 2010-08-03 | Microsoft Corporation | Assisting user interface element use |
JP5282661B2 (en) * | 2009-05-26 | 2013-09-04 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP5343876B2 (en) * | 2010-01-28 | 2013-11-13 | 富士通株式会社 | Electronic device, electronic device control method, and computer program |
KR101710657B1 (en) * | 2010-08-05 | 2017-02-28 | 삼성디스플레이 주식회사 | Display device and driving method thereof |
CN103109258B (en) * | 2010-09-22 | 2017-05-24 | 日本电气株式会社 | Information display device, display method, and terminal device |
JP5649169B2 (en) | 2010-11-22 | 2015-01-07 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method, apparatus and computer program for moving object by drag operation on touch panel |
US20120139845A1 (en) * | 2010-12-03 | 2012-06-07 | Research In Motion Limited | Soft key with main function and logically related sub-functions for touch screen device |
US20120161791A1 (en) * | 2010-12-28 | 2012-06-28 | Synaptics Incorporated | Methods and apparatus for determining input objects associated with proximity events |
JP5650583B2 (en) * | 2011-05-11 | 2015-01-07 | 京セラ株式会社 | Electronics |
US9658715B2 (en) | 2011-10-20 | 2017-05-23 | Microsoft Technology Licensing, Llc | Display mapping modes for multi-pointer indirect input devices |
US9274642B2 (en) | 2011-10-20 | 2016-03-01 | Microsoft Technology Licensing, Llc | Acceleration-based interaction for multi-pointer indirect input devices |
US8933896B2 (en) * | 2011-10-25 | 2015-01-13 | Microsoft Corporation | Pressure-based interaction for indirect touch input devices |
US9389679B2 (en) | 2011-11-30 | 2016-07-12 | Microsoft Technology Licensing, Llc | Application programming interface for a multi-pointer indirect touch input device |
JP2013117784A (en) * | 2011-12-01 | 2013-06-13 | Panasonic Corp | Input device, information terminal, input control method, and input control program |
US10872454B2 (en) * | 2012-01-06 | 2020-12-22 | Microsoft Technology Licensing, Llc | Panning animations |
EP3179347A1 (en) * | 2012-02-20 | 2017-06-14 | NEC Corporation | Touch panel input device and control method of the touch panel input device |
JP5984722B2 (en) | 2013-03-22 | 2016-09-06 | シャープ株式会社 | Information processing device |
JP6271881B2 (en) | 2013-06-26 | 2018-01-31 | キヤノン株式会社 | Information processing apparatus, control method therefor, program, and recording medium |
JP6245938B2 (en) * | 2013-10-25 | 2017-12-13 | キヤノン株式会社 | Information processing apparatus and control method thereof, computer program, and storage medium |
JP6452456B2 (en) * | 2015-01-09 | 2019-01-16 | キヤノン株式会社 | Information processing apparatus, control method therefor, program, and storage medium |
JP6807532B2 (en) * | 2017-09-04 | 2021-01-06 | 株式会社コナミデジタルエンタテインメント | Programs, control methods, controls, and systems |
US10825003B2 (en) * | 2018-11-26 | 2020-11-03 | Capital One Services, Llc | Method and system for large transfer authentication |
CN110069159A (en) * | 2019-03-13 | 2019-07-30 | 平安普惠企业管理有限公司 | Equipment touches delay solution method, device, computer equipment and storage medium |
JP7191395B2 (en) * | 2020-10-30 | 2022-12-19 | 株式会社コナミデジタルエンタテインメント | GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000105671A (en) * | 1998-05-11 | 2000-04-11 | Ricoh Co Ltd | Coordinate input and detecting device, and electronic blackboard system |
JP3608967B2 (en) * | 1999-01-12 | 2005-01-12 | 株式会社フジクラ | Automotive input device |
JP3905670B2 (en) * | 1999-09-10 | 2007-04-18 | 株式会社リコー | Coordinate input detection apparatus, information storage medium, and coordinate input detection method |
JP2003005912A (en) * | 2001-06-20 | 2003-01-10 | Hitachi Ltd | Display device with touch panel and display method |
US20050110756A1 (en) * | 2003-11-21 | 2005-05-26 | Hall Bernard J. | Device and method for controlling symbols displayed on a display device |
JP2005202611A (en) * | 2004-01-15 | 2005-07-28 | Kyocera Mita Corp | Display control device |
JP2005301668A (en) * | 2004-04-12 | 2005-10-27 | Seiko Epson Corp | Information processor and information processing program |
EP1596271A1 (en) * | 2004-05-11 | 2005-11-16 | Hitachi Europe S.r.l. | Method for displaying information and information display system |
US7653883B2 (en) * | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US8381135B2 (en) * | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7800594B2 (en) * | 2005-02-03 | 2010-09-21 | Toshiba Matsushita Display Technology Co., Ltd. | Display device including function to input information from screen by light |
JP4622590B2 (en) | 2005-03-08 | 2011-02-02 | ソニー株式会社 | Input device, touch panel and electronic device |
JP2006285370A (en) * | 2005-03-31 | 2006-10-19 | Mitsubishi Fuso Truck & Bus Corp | Hand pattern switch device and hand pattern operation method |
JP4765473B2 (en) * | 2005-08-15 | 2011-09-07 | ソニー株式会社 | Display device and input / output panel control device |
US20080098331A1 (en) * | 2005-09-16 | 2008-04-24 | Gregory Novick | Portable Multifunction Device with Soft Keyboards |
JP4770662B2 (en) * | 2006-09-19 | 2011-09-14 | フリュー株式会社 | Photo sticker creation apparatus and method, and program |
CN101308417A (en) * | 2007-05-15 | 2008-11-19 | 宏达国际电子股份有限公司 | Electronic device and its software user interface operation method |
JP4849412B2 (en) * | 2007-05-15 | 2012-01-11 | 三菱電機株式会社 | Information input display device |
US8432365B2 (en) * | 2007-08-30 | 2013-04-30 | Lg Electronics Inc. | Apparatus and method for providing feedback for three-dimensional touchscreen |
JP4900824B2 (en) | 2007-09-18 | 2012-03-21 | トヨタ自動車株式会社 | Input display device |
JP2009116769A (en) * | 2007-11-09 | 2009-05-28 | Sony Corp | Input device, control method for input device and program |
KR101486345B1 (en) * | 2008-03-21 | 2015-01-26 | 엘지전자 주식회사 | Mobile terminal and screen displaying method thereof |
US8723811B2 (en) * | 2008-03-21 | 2014-05-13 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
US8525802B2 (en) * | 2008-03-31 | 2013-09-03 | Lg Electronics Inc. | Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same |
US8576181B2 (en) * | 2008-05-20 | 2013-11-05 | Lg Electronics Inc. | Mobile terminal using proximity touch and wallpaper controlling method thereof |
EP2131272A3 (en) * | 2008-06-02 | 2014-05-07 | LG Electronics Inc. | Mobile communication terminal having proximity sensor and display controlling method therein |
-
2009
- 2009-08-05 JP JP2009182581A patent/JP5471137B2/en not_active Expired - Fee Related
-
2010
- 2010-07-29 CN CN201010243866.7A patent/CN101996036B/en not_active Expired - Fee Related
- 2010-07-29 US US12/845,948 patent/US8922497B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011034502A (en) | 2011-02-17 |
CN101996036B (en) | 2016-08-03 |
CN101996036A (en) | 2011-03-30 |
US8922497B2 (en) | 2014-12-30 |
US20110032198A1 (en) | 2011-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5471137B2 (en) | Display device, display method, and program | |
US10444989B2 (en) | Information processing apparatus, and input control method and program of information processing apparatus | |
CN106095215B (en) | The manipulation of touch input cursor | |
CN106155549B (en) | The manipulation of touch input cursor | |
US10768804B2 (en) | Gesture language for a device with multiple touch surfaces | |
CN102129311B (en) | Messaging device, method of operation input and operation loading routine | |
US7358956B2 (en) | Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device | |
US7256770B2 (en) | Method for displaying information responsive to sensing a physical presence proximate to a computer input device | |
JP5734546B2 (en) | Object display device | |
KR100831721B1 (en) | Apparatus and method for displaying of mobile terminal | |
JP4577428B2 (en) | Display device, display method, and program | |
RU2623885C2 (en) | Formula entry for limited display device | |
US20110283212A1 (en) | User Interface | |
CN107024965A (en) | Information processing system and information processing method | |
JP2011022842A (en) | Display apparatus, display method, and program | |
KR101591586B1 (en) | Data processing apparatus which detects gesture operation | |
WO2022143198A1 (en) | Processing method for application interface, and related device | |
WO2022143579A1 (en) | Feedback method and related device | |
WO2022143620A1 (en) | Virtual keyboard processing method and related device | |
JP2014041516A (en) | Data processing apparatus and program | |
CN106775192A (en) | Mobile terminal and its one-handed performance method | |
US20160350273A1 (en) | Data processing method | |
US20190302952A1 (en) | Mobile device, computer input system and computer readable storage medium | |
Petrie et al. | Older people’s use of tablets and smartphones: A review of research | |
WO2022143607A1 (en) | Application interface processing method and related device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120627 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5471137 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |