JP2011034502A - 表示装置、表示方法及びプログラム - Google Patents

表示装置、表示方法及びプログラム Download PDF

Info

Publication number
JP2011034502A
JP2011034502A JP2009182581A JP2009182581A JP2011034502A JP 2011034502 A JP2011034502 A JP 2011034502A JP 2009182581 A JP2009182581 A JP 2009182581A JP 2009182581 A JP2009182581 A JP 2009182581A JP 2011034502 A JP2011034502 A JP 2011034502A
Authority
JP
Japan
Prior art keywords
state
display
operation command
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009182581A
Other languages
English (en)
Other versions
JP5471137B2 (ja
Inventor
Yusuke Miyazawa
悠介 宮沢
Fumitada Honma
文規 本間
Tatsushi Nashida
辰志 梨子田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009182581A priority Critical patent/JP5471137B2/ja
Priority to US12/845,948 priority patent/US8922497B2/en
Priority to CN201010243866.7A priority patent/CN101996036B/zh
Publication of JP2011034502A publication Critical patent/JP2011034502A/ja
Application granted granted Critical
Publication of JP5471137B2 publication Critical patent/JP5471137B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

【課題】表示画面においてユーザが行う操作に対して画面への接触及び非接触の判別に加え、近接状態からの状態変化に応じて表示画面の表示を制御する表示装置、表示方法及びプログラムを提供する。
【解決手段】モバイル機器10は、タッチパネルにより検出されたユーザの操作に基づき、ディスプレイへの接触状態、近接状態及び遠方状態のいずれの状態かを判別する状態判別部20と、状態判別部20により判別された状態に従い、ユーザが行う操作の状態変化を識別する状態変化識別部24と、ユーザが行った操作に対してディスプレイの表示を制御するための操作コマンドを設定する際、状態変化識別部24により識別された状態変化に応じて操作コマンドを設定する操作コマンド設定部26を有する。
【選択図】図3

Description

本発明は、表示装置、表示方法及びプログラムに関する。より詳しくは、本発明は、表示画面においてユーザが行う操作をデバイスにより検出し、これに応じて表示画面の表示を制御する表示装置、表示方法及びプログラムに関する。
近年、透過型タッチパネルを搭載するモバイルデバイスが増加している。このようなデバイスの多くは、できる限り大きなディスプレイを搭載し、そのディスプレイに設けられたタッチパネルによる直観的な操作が可能なようにユーザインターフェースの技術も重要視されている。しかしながら、ディスプレイに表示されたボタンをユーザの指で操作する場合、操作ミスを減らすためにボタンを一定の大きさ以上に表する必要がある。このため、ディスプレイのサイズに自ずと限界があるモバイルデバイスでは、多くのGUI(Graphical User Interface)ボタンを表示することは難しい。
これに対して、指の接触位置及び圧力を検出できるデバイスを用いることにより、ユーザが一つのボタンを押した場合であっても、その押下力に応じて異なる複数のコマンドを割り振る技術が提案されている(たとえば、特許文献1参照。)。この技術では、操作のバリエーションが拡がる可能性がある。
また、指の接近を感知すると、ユーザが操作対象としているボタンがハイライト表示される技術も提案されている(たとえば、特許文献2参照。)。この技術では、ユーザがどのボタンを押そうとしているのかを確認できるため、誤操作が軽減される可能性がある。
特開2006−251927号公報 特開2009−75656号公報
しかし、特許文献1では、ユーザがボタンを押す際、自ら圧力を調節しなければならず、ユーザにとって操作負荷が高い。また、押下力を感知する必要があるためデバイスの構造が複雑になる。
また、特許文献2では、近接状態と接触状態とで異なるインタラクションを付加することにより異なる表示制御を可能することができるが、近接状態と接触状態とを明確に区別してユーザが画面操作をすることは難しく、操作ミスが増える可能性がある。また、この技術をモバイルデバイスに応用しようとすると、前述のようにモバイルデバイスではディスプレイのサイズに限りがあるため、これに応じてGUIボタンのサイズ等も小さくしなければならない。これに加えてノイズも大きいため、近接状態の検知及び接触状態の検知を同一ボタンに対する異なるインタラクションのトリガとすることは難しい。
上記問題に鑑み、本発明は、表示画面においてユーザが行う操作に対して画面への接触及び非接触の判別に加え、ユーザが行う操作の状態変化に応じて表示画面の表示を変える表示装置、表示方法及びプログラムを提供する。
上記課題を解決するために、本発明のある態様によれば、表示画面と、前記表示画面においてユーザが行う操作を検出するデバイスと、前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する状態判別部と、前記状態判別部により判別された状態に従い、ユーザが行う操作の状態変化を識別する状態変化識別部と、ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記状態変化識別部により識別された状態変化に応じて操作コマンドを設定する操作コマンド設定部と、を有する表示装置が提供される。
これによれば、ユーザが行った操作に対して表示画面の表示を制御するための操作コマンドを設定する際、前記状態変化識別部により識別された状態変化に応じて操作コマンドが設定される。これにより、画面操作のバリエーションを増やしたり、操作性を向上させたりすることができる。
前記操作コマンド設定部により設定された操作コマンドに従い前記表示画面の表示を変える画面制御部を更に有していてもよい。
前記状態変化識別部は、前記状態判別部の判別結果に基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別し、前記操作コマンド設定部は、前記状態変化識別部により識別された状態変化に応じて異なる操作コマンドを設定してもよい。
前記状態判別部による前回の判別結果を記憶する記憶部を更に有し、前記状態変化識別部は、前記記憶部に記憶された前回の判別結果と前記状態判別部による今回の判別結果とに基づき、前記表示画面に対する接触状態から遠方状態への状態変化又は前記表示画面に対する接触状態から近接状態への状態変化を識別し、前記操作コマンド設定部は、前記状態変化識別部により識別された状態変化に応じて異なる操作コマンドを設定してもよい。
前記状態変化識別部により識別された状態変化が接触状態から遠方状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を前記画面制御部に促してもよい。
前記状態変化識別部により識別された状態変化が接触状態から近接状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を見合わせるように前記画面制御部に促してもよい。
上記課題を解決するために、本発明の他の態様によれば、示画面においてユーザが行う操作をデバイスに検出させるステップと、前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別するステップと、前記判別された状態に従い、ユーザが行う操作の状態変化を識別するステップと、ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定するステップと、を含む表示方法が提供される。
上記課題を解決するために、本発明の他の態様によれば、表示画面においてユーザが行う操作をデバイスに検出させる処理と、前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する処理と、前記判別された状態に従い、ユーザが行う操作の状態変化を識別する処理と、ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定する処理と、をコンピュータに実行させるプログラムが提供される。
以上説明したように本発明によれば、表示画面においてユーザが行う操作に対して画面への接触及び非接触の判別に加え、ユーザが行う操作の状態変化に応じて表示画面の表示を変えることができる。
本発明の第1及び第2実施形態に係るモバイル機器を示した図である。 第1及び第2実施形態に係るモバイル機器による指の状態検出を説明するための図である。 第1及び第2実施形態に係るモバイル機器の機能構成図である。 第1実施形態に係るモバイル機器にて実行される操作コマンド判定処理(メインルーチン)を示したフローチャートである。 第1実施形態に係るモバイル機器にて実行される状態識別処理(サブルーチン)を示したフローチャートである。 図4の操作コマンド判定処理にて判定されたシングルタップと指の状態変化との関係を説明するための図である。 図4の操作コマンド判定処理にて判定されたダブルタップと指の状態変化との関係を説明するための図である。 第1実施形態に係るモバイル機器にて割り当てられる他の操作コマンドを説明するための図である。 第2実施形態に係るモバイル機器にて実行される操作コマンド判定処理(メインルーチン)を示したフローチャートである。 図9の操作コマンド判定処理にて判定されたドラッグ・アンド・ドロップと指の状態変化との関係を説明するための図である。 変形例に係るモバイル機器の一例を示した図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、以下で説明する本発明の各実施形態に係る表示装置が適用されるモバイル機器は、主に携帯電話、携帯音楽プレーヤ、携帯情報端末(PDA:Personal Digital Assistant)等の携帯型端末であることが好ましい。ただし、本発明に係る表示装置は、ノート型PC(Personal Computer)や据え置き型のPC等の情報処理装置に用いることもできる。
以下では次の順序で説明する。
<第1実施形態>
[1−1.モバイル機器のハードウエア構成]
[1−2.モバイル機器の機能構成]
[1−3.モバイル機器の動作:操作コマンド判定処理]
(シングルタップ又はダブルタップの割り当て)
(タップ又はウィークタップの割り当て)
<第2実施形態>
[2−1.モバイル機器の機能構成]
[2−2.モバイル機器の動作:操作コマンド判定処理]
(ドラッグ・アンド・ドロップの実行と実行見合わせ)
<変形例>
<第1実施形態>
[1−1.モバイル機器のハードウエア構成]
まず、第1実施形態に係るモバイル機器のハードウエア構成について、図1を参照しながら説明する。本実施形態に係るモバイル機器10は、ディスプレイ12上にユーザの指の位置を検出できるセンサを搭載した透過型のタッチパネルを有するデバイスである。モバイル機器10は、図示しないネットワークを介して様々なコンテンツを受信し、ディスプレイ12に表示することができる。
ディスプレイ12としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機エレクトロルミネッセンスディスプレイ(有機EL、OELD:Organic Electroluminescence Display)等を用いることができる。
ディスプレイ12にはタッチパネル14が設けられている。タッチパネル14は、ディスプレイ12上に表示された各種のGUIボタン16に対してユーザが行った画面操作を検出する。タッチパネル14は、ディスプレイ12に対してx方向及びy方向の指の位置を検出するとともに、Z方向の指の状態を検出する。図2に示したように、タッチパネル14は、ディスプレイ12上の指の接触状態及び近接状態を透過型で計測できるようになっている。
たとえば、指からディスプレイ12の表面までの距離Tが予め定められた閾値Thより大きい場合、タッチパネル14は何も検知しない。このとき、指はディスプレイ12に対して遠方状態にあると判別される。
また、指からディスプレイ12の表面までの距離Tが予め定められた閾値Thより小さく、距離Tが0でない場合、タッチパネル14は指が近接領域に存在すると検出する。このとき、指はディスプレイ12に対して近接状態にあると判別される。
また、指からディスプレイ12の表面までの距離Tが0である場合、タッチパネル14は指がディスプレイ12に接触していると検出する。このとき、指はディスプレイ12に対して接触状態にあると判別される。
なお、本実施形態で搭載されるタッチパネル14及び次に説明する第2実施形態や変形例で搭載されるタッチパネルは、透過型であれば、静電式であってもよく光学式であってもよい。また、タッチパネル14は、ディスプレイ12に設けられ、ディスプレイ12においてユーザが行った画面操作を検出するデバイスに相当する。
モバイル機器10には、図1に示したCPU32、RAM34、不揮発性メモリ36を有するマイクロプロセッサ30が埋め込まれている。各種メモリには、タッチパネル14により検出された画面操作に関する情報が一時的に記憶される。CPU32は、後述する操作コマンド判定処理を制御する。なお、以下のハードウエア構成は、モバイル機器に搭載された表示装置のハードウエア構成ということもできる。
[1−2.モバイル機器の機能構成]
第1実施形態に係るモバイル機器10は、図3に示した機能ブロックにより示される機能構成を有している。すなわち、本実施形態に係るモバイル機器10は、状態判別部20、記憶部22、状態変化識別部24、操作コマンド設定部26及び画面制御部28を有している。
状態判別部20は、タッチパネル14により検出されたユーザの操作に基づき、指の操作状態がディスプレイ12への接触状態、近接状態及び遠方状態のいずれの状態かを判別する。
記憶部22は、状態判別部20による判別結果を記憶する。具体的には、記憶部22は、毎回の判別結果が接触状態、近接状態及び遠方状態のいずれの状態であるかを記憶する。以下の説明では、前回のユーザの操作状態をP(t−1)で示し、今回のユーザの操作状態をP(t)で示す。
状態変化識別部24は、状態判別部20により判別された状態に従い、ユーザが行う操作の状態変化を識別する。具体的には、状態変化識別部24は、状態判別部20の判別結果に基づき、ディスプレイ12においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別する。状態変化識別部24は、記憶部22に記憶された前回の判別結果と状態判別部20による今回の判別結果とに基づき、ディスプレイ12に対する接触状態から遠方状態への状態変化又はディスプレイ12に対する接触状態から近接状態への状態変化を識別する。
操作コマンド設定部26は、ユーザが行った操作に対してディスプレイ12の表示を制御するための操作コマンドを設定する。その際、操作コマンド設定部26は、状態変化識別部24により識別された状態変化に応じて操作コマンドを設定する。
画面制御部28は、操作コマンド設定部26により設定された操作コマンドに従い、状態変化識別部24により識別された状態変化に応じてディスプレイ12の表示を変える。
以上に説明した、モバイル機器10の各機能構成部への指令は、専用の制御デバイスあるいはプログラムを実行するCPU32により実行される。次に説明する操作コマンド判定処理を実行するためのプログラムは、RAM34や不揮発性メモリ36に予め記憶されている。CPU32は、これらのメモリから各プログラムを読み出し実行することにより、状態判別部20、記憶部22、状態変化識別部24、操作コマンド設定部26及び画面制御部28の各機能を実行する。
[1−3.モバイル機器の動作]
次に、本実施形態に係るモバイル機器10の操作コマンド判定処理について図4を参照しながら説明する。図4は、本実施形態に係るモバイル機器10により実行される操作コマンド判定処理を示したフローチャートである。以下の動作は、本実施形態に係るモバイル機器10に搭載された表示装置の動作ということもできる。
ステップS400より、操作コマンド判定処理が開始されると、ステップS405にて状態判別部20は、状態判別処理のルーチン(図5)を実行する。状態判別処理は、図5のステップS500から処理が開始される。状態判別部20は、ステップS505にてタッチパネル14により検出されたユーザの操作に基づき、ディスプレイ12に対してユーザの指が非接触状態であって近接状態にあるかを判別する。前述したように、ディスプレイ12から指までの距離Pが所与の閾値Thより大きい場合、指は図2の遠方状態であると判別される。この場合、ステップS510に進んで、状態判別部20は、今回の操作状態P(t)を遠方状態と判別し、ステップS595から図4のステップS410に戻る。
一方、ステップS505でYESと判定されると、ステップS515に進み、状態判別部20は、指がディスプレイ12に接触した状態かを判別する。前述したように、ディスプレイ12から指までの距離Pが0に等しければ指の位置は図2の接触状態と判別される。この場合、ステップS520に進んで、状態判別部20は、今回の操作状態P(t)を接触状態と判別し、ステップS595から図4のステップS410に戻る。
一方、ステップS515でNOと判定されると、ステップS525に進み、状態判別部20は、今回の操作状態P(t)を近接状態と判別し、ステップS595から図4のステップS410に戻る。
ステップS410では、記憶部22が、今回判別された操作状態P(t)を記憶する。次に、ステップS415に進んで、状態変化識別部24は、指の状態が接触状態から近接状態に状態変化したかを識別する。具体的には、状態変化識別部24は、記憶部22に記憶されている前回判別された操作状態P(t−1)が接触状態で、かつ今回判別された操作状態P(t)が近接状態であるかを判断する。
状態変化が接触状態→近接状態である場合、ステップS420に進んで再度、図5の状態判別処理を実行し、ステップS425に進む。ステップS425にて、状態変化識別部24は、指の状態が近接状態から遠方状態に状態変化したかを識別する。具体的には、状態変化識別部24は、記憶部22に記憶されている前回判別された操作状態P(t−1)が近接状態で、かつ今回判別された操作状態P(t)が遠方状態であるかを判断する。
識別の結果、接触状態→近接状態(S415)に状態変化した後、更に近接状態→遠方状態(S425)に状態変化した場合、ステップS430に進む。操作コマンド設定部26は、ステップS430にてシングルタップと判定し、シングルタップに予め割り当てられている画面操作の操作コマンドを設定する。
識別の結果、接触状態→近接状態(S415)に状態変化した後、近接状態→遠方状態(S425)には状態変化しない場合、ステップS435に進む。操作コマンド設定部26は、ステップS435にてダブルタップと判定し、ダブルタップに予め割り当てられている画面操作の操作コマンドを設定する。
なお、ステップS415にて、状態変化識別部24が接触状態から近接状態に状態変化していないと識別した場合、ステップS440に進んで、操作コマンド設定部26は、ディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
(シングルタップ又はダブルタップの割り当て)
以上に説明した操作コマンド判定処理の具体例として、図6及び図7を参照しながら状態変化の相違により操作コマンドとしてシングルタップ又はダブルタップを割り当てる例を説明する。
(シングルタップ)
図6に示したように、ディスプレイ12に対する指の操作が遠方状態→近接状態→接触状態→近接状態→遠方状態・・・を複数回繰り返す場合、最初の状態変化(遠方状態→近接状態)では、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
図6に示した次の状態変化(近接状態→接触状態)でも、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
図6に示した次の状態変化(接触状態→近接状態)では、状態変化識別部24は、ステップS415にてYESと判定し、ステップS420にて再度、図5の状態判別処理を実行する。図6に示した次の状態は遠方状態である。そこで、ステップS425にて、状態変化識別部24は、状態変化が近接状態→遠方状態であると識別し、ステップS430に進む。操作コマンド設定部26は、シングルタップと判定し、シングルタップに予め割り当てられている画面操作の操作コマンドを設定する。複数回のシングルタップに対しては、以上の動作を繰り返すことにより、シングルタップに予め割り当てられている画面操作の操作コマンドを繰り返し設定する。
たとえば、図6のGUIボタン16に対してシングルタップに予め割り当てられた画面操作が次の楽曲選定である場合、操作コマンド設定部26は、次の楽曲を選定する操作コマンドを設定する。画面制御部28は、操作コマンド設定部26により設定された操作コマンドに従い、ディスプレイ12上に選定された次の楽曲名を表示する。複数回のシングルタップに対しては、以上の動作を繰り返すことにより、楽曲名が楽曲順に次々とディスプレイ12上に表示される。
(ダブルタップ)
図7に示したように、ディスプレイ12に対する指の操作が遠方状態→近接状態→接触状態→近接状態→接触状態→近接状態→遠方状態・・・の場合、最初の状態変化(遠方状態→近接状態)では、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
図7に示した次の状態変化(近接状態→接触状態)でも、状態変化識別部24は、ステップS415にてNOと判定しステップS440に進む。操作コマンド設定部26は、ステップS440にてディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
図7に示した次の状態変化(接触状態→近接状態)では、状態変化識別部24は、ステップS415にてYESと判定し、再度、図5の状態判別処理を実行する。図7に示した次の状態は接触状態である。そこで、ステップS425にて、状態変化識別部24は、状態変化が近接状態→接触状態であると識別し、ステップS435に進む。操作コマンド設定部26は、ダブルタップと判定し、ダブルタップに予め割り当てられている画面操作の操作コマンドを設定する。
たとえば、図7のGUIボタン16に対してダブルタップに予め割り当てられた画面操作が次のアルバム選定である場合、操作コマンド設定部26は、次のアルバムを選定する操作コマンドを設定する。画面制御部28は、操作コマンド設定部26により設定された操作コマンドに従い、ディスプレイ12上に選定された次のアルバム名を表示する。
なお、画面制御部28は、GUIボタン16を一度押すと、図7に示したように、指が近接領域を出るまでGUIボタン16の表情が変わるように画面を制御してもよい。たとえば、画面制御部28は、指がダブルタップの操作中、GUIボタン16の色を赤等の目立つ色に変えてもよい。
以上に説明したように、本実施形態に係るモバイル機器10によれば、タッチパネル14により検出された接触状態に従い表示画面の表示を制御する際、近接状態から次に遷移する状態変化に応じて設定する操作コマンドを変えることができる。その結果、設定された操作コマンドに従い、状態変化に応じてディスプレイ12上の表示を変えることができる。これにより、ユーザにとって負荷の高い操作を減らして操作性を向上させながら、たとえば一つのGUIボタンに複数の操作コマンドを与える等、画面操作のバリエーションを増やすことができる。
また、本実施形態に係るモバイル機器10によれば、高速操作が可能なユーザインターフェースを提供することができる。たとえば、従来のダブルタップは、時間方向の接触状態の変化を見ることで識別されていた。そのため、識別には一定の時間を要し、かつシングルタップを短い時間で複数回入力することはできなかった。しかしながら、本実施形態に係るモバイル機器10によれば、状態変化だけでダブルタップを識別するため、ダブルタップの識別に時間のファクターを必要としない。これにより、本実施形態では、従来のように識別のために必ず一定の時間を要することはなく、ダブルタップ及びシングルタップを短い時間で高速入力することができる。
(タップ又はウィークタップの割り当て)
画面操作のバリエーションを増やす他の例として、図8を参照しながら状態変化の相違により操作コマンドとしてタップ又はウィークタップを割り当てる例を説明する。
(タップ)
この例では、図4の操作コマンド判定処理のステップS405〜ステップS425を実行してステップS430に進むと、操作コマンド設定部26は、ユーザの画面操作を通常のタップと判定する。操作コマンド設定部26は、タップに応じた操作コマンドとしてページ単位でのスクロールを設定する。画面制御部28は、設定された操作コマンドに応じて図8の右下に示したように、指のタップ操作に対応した画面のページ単位でのスクロールを実行する。
(ウィークタップ)
一方、図4の操作コマンド判定処理のステップS405〜ステップS425を実行してステップS435に進むと、操作コマンド設定部26は、ユーザの画面操作をウィークタップと判定する。操作コマンド設定部26は、ウィークタップに応じた操作コマンドとして行単位でのスクロールを設定する。画面制御部28は、設定された操作コマンドに応じて図8の左下に示したように、指のウィークタップ操作に対応した画面の行単位でのスクロールを実行する。これにより、ユーザは大まかな位置合わせをタップで行い、細かな調整をウィークタップで行うことができる。
なお、本実施形態では、タップした座標は接触状態でのみ定義されるため、近接状態での位置の誤差はここでは問題にならない。また、多段階で近接状態を計測できるデバイスでは、2種類より多くのタップを定義することも可能である。
以上のように、本実施形態に係るモバイル機器10によれば、状態変化識別部24は、ディスプレイ12に対する接触状態から遠方状態への状態変化(接触状態から近接状態を経て遠方状態に遷移)又はディスプレイ12に対する接触状態から近接状態への状態変化(接触状態から近接状態まで遷移し、近接状態から遠方状態へは遷移しない)を識別する。そして、操作コマンド設定部26は、状態変化識別部24により識別された状態変化に応じて異なる操作コマンドを設定する。このように、本実施形態では、接触状態及び近接状態に別々に操作コマンドを割り当てるのではなく、接触状態後の状態変化に応じて別々に操作コマンドを割り当てる。よって、接触状態及び近接状態を区別してユーザが画面操作をする際の操作の難しさと操作ミスの発生を回避して、ユーザの操作性を向上させながら、画面操作のバリエーションを増やすことができる。
<第2実施形態>
次に、第2実施形態に係るモバイル機器10について説明する。本実施形態に係るモバイル機器10のハードウエア構成は第1実施形態に係るモバイル機器10と同様であるためここでは説明を省略する。
[2−1.モバイル機器の機能構成]
第2実施形態に係るモバイル機器10は、図3に示した機能ブロックにより示される機能構成を有している。すなわち、本実施形態に係るモバイル機器10は、第1実施形態と同様に状態判別部20、記憶部22、状態変化識別部24、操作コマンド設定部26及び画面制御部28を有している。状態判別部20、記憶部22及び状態変化識別部24の機能は第1実施形態の場合と同様であるためここでは説明を省略する。また、本実施形態においても、モバイル機器10の各機能は、CPU32が、RAM34や不揮発メモリ36から各プログラムを読み出して実行することにより実現される。
操作コマンド設定部26は、状態変化識別部24により識別された状態変化が接触状態から遠方状態への状態変化(接触状態から近接状態を経て遠方状態に遷移)である場合、設定された操作コマンドの実行を画面制御部28に促す。画面制御部28は、これに応じて、操作コマンドに従いディスプレイ12の表示を制御する。
操作コマンド設定部26は、状態変化識別部24により識別された状態変化が接触状態から近接状態への状態変化(接触状態から近接状態まで遷移し、近接状態から遠方状態へは遷移しない)である場合、設定された操作コマンドの実行を見合わせるように画面制御部28に促す。画面制御部28は、これに応じて操作コマンドの実行を見合わせ、現在のディスプレイ12の表示状態を維持する。
[2−2.モバイル機器の動作:操作コマンド判定処理]
次に、本実施形態に係るモバイル機器10の操作コマンド判定処理について図9を参照しながら説明する。図9は、本実施形態に係るモバイル機器10により実行される操作コマンド判定処理を示したフローチャートである。以下では、ドラッグ・アンド・ドロップの実行とその実行を見合わせを例に挙げて操作コマンド判定処理を説明する。なお、以下の動作は、本実施形態に係るモバイル機器10に搭載された表示装置の動作ということもできる。
(ドラッグ・アンド・ドロップの実行と実行見合わせ)
ステップS900より、操作コマンド判定処理が開始されると、ステップS405にて状態判別部20は、状態判別処理のルーチン(図5)を実行する。状態判別処理は、第1実施形態にて説明したのでここでは省略する。ステップS405の状態判別処理において今回判別された操作状態P(t)は、ステップS410にて記憶部22に記憶される。
次に、ステップS415に進んで、状態変化識別部24は、指の状態が接触状態から近接状態に状態変化したかを識別する。状態変化が接触状態→近接状態である場合、ステップS420に進んで再度、図5の状態判別処理を実行し、ステップS425に進む。ステップS425にて、状態変化識別部24は、指の状態が近接状態から遠方状態に状態変化したかを識別する。識別の結果、接触状態→近接状態(S415)に状態変化した後、更に近接状態→遠方状態(S425)に状態変化した場合、ステップS905に進んで、操作コマンド設定部26は、指が接触した画像をドラッグ・アンド・ドロップする操作コマンドを設定する。
一方、識別の結果、接触状態→近接状態(S415)に状態変化した後、近接状態→遠方状態(S425)には状態変化しない場合、ステップS910に進んで、操作コマンド設定部26は、指が接触した画像のドラッグ・アンド・ドロップ操作の実行を見合わせる。つまり、指が接触した画像はドラッグ・アンド・ドロップされず、現状の状態が維持される。
なお、ステップS415にて、状態変化識別部24が接触状態から近接状態に状態変化していないと識別した場合、ステップS440に進んで、操作コマンド設定部26は、ディスプレイ12の表示を変える操作コマンドを設定せず現状の状態を維持する。
本実施形態に係る操作コマンド判定処理によれば、図9の下段に示したように、接触状態→近接状態に状態変化した後、近接状態→遠方状態に状態変化しない場合、指が接触した画像をドラッグ・アンド・ドロップしない。このように、本実施形態に係る操作コマンド判定処理では、ユーザが誤って指をディスプレイ12から離した場合、ドラッグしたデータのドロップ操作が実行されないようにする。
一方、本実施形態に係る操作コマンド判定処理によれば、接触状態→近接状態に状態変化した後、近接状態→遠方状態に状態変化した場合、指が接触した画像をドラッグ・アンド・ドロップする。このように、本実施形態に係る操作コマンド判定処理では、ユーザが近接領域以上指をディスプレイ12から離した場合、指の動作が誤動作ではないと判断して、ドラッグ・アンド・ドロップ操作が実行される。
従来、図10の上段に示したように、ユーザが意図しなくても操作中に指が少しでもディスプレイ12から離れると、ドラッグ・アンド・ドロップ操作が実行され、操作ミスとなっていた。しかしながら、本実施形態では、図10の下段に示したように、操作中に指が少しだけディスプレイ12から離れた状態ではドロップさせず、近接状態から遠方状態への状態変化をドロップのタイミングとみなすことにより、従来起きていた操作ミスを補償し、ユーザの操作性を向上させることができる。
<変形例>
最後に、以上に説明した各実施形態の表示装置を搭載する携帯型機器の変形例として図11のモバイル機器50について簡単に説明する。モバイル機器50は、上部ディスプレイ52Uと下部ディスプレイ52Dの2画面を有している。上部ディスプレイ52U、下部ディスプレイ52Dにはタッチパネル58U、58Dが搭載されている。モバイル機器50は、中央のヒンジ機構59により折り畳み可能であり、携帯に便利な構成となっている。
本変形例に係るモバイル機器50に搭載された表示装置によっても、デバイスにより検出されたGUIボタン16に対する指の接触状態に従い表示画面の表示を制御する際、識別された状態変化に応じてディスプレイの表示を変えることができる。これにより、操作性を向上させながら、画面操作のバリエーションを増やすことができる。
以上に説明した各実施形態によれば、接触状態及び非接触状態の識別だけでなく、指の状態変化を識別することにより、ダブルタップと複数のシングルタップとを判別したり、2種類のタップを判別したり、ドラッグ・アンド・ドロップ操作の補助を行ったりすることができる。これにより、ユーザにとって負荷の高い操作を減らし、操作性の高いユーザインターフェースを提供することができる。
上記実施形態において、各部の動作は互いに関連しており、互いの関連を考慮しながら、一連の動作及び一連の処理として置き換えることができる。これにより、表示装置の実施形態を、表示方法の実施形態及び表示装置が有する機能をコンピュータに実現させるためのプログラムの実施形態とすることができる。
これにより、ディスプレイ12においてユーザが行う操作をタッチパネル14に検出させるステップと、タッチパネル14により検出されたユーザの操作に基づきディスプレイ12への接触状態、近接状態及び遠方状態のいずれの状態かを判別するステップと、前記判別された状態に従い、ユーザが行う操作の状態変化を識別するステップと、ユーザが行った操作に対してディスプレイ12の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定するステップと、を含む表示方法を提供することができる。
また、これにより、ディスプレイ12においてユーザが行う操作をタッチパネル14に検出させる処理と、タッチパネル14により検出されたユーザの操作に基づきディスプレイ12への接触状態、近接状態及び遠方状態のいずれの状態かを判別する処理と、前記判別された状態に従い、ユーザが行う操作の状態変化を識別する処理と、ユーザが行った操作に対してディスプレイ12の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定する処理と、をコンピュータに実行させるプログラムを提供することができる。
尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能である。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されないことは言うまでもない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても当然に本発明の技術的範囲に属するものと了解される。
たとえば、一つのGUIボタンに複数の操作コマンドを与える例としては、上記各実施形態で説明した例に限られない。一つのGUIボタンに複数の操作コマンドを与える他の例としては、一つのGUIボタンにコンテンツの選択とインデックス送りの操作コマンドを設定する場合等が挙げられる。
また、状態変化を文字入力の操作コマンドに応用することもできる。たとえば、「Thank you」と文字入力する場合、ユーザは、「Thank」と文字入力した後、指を近接状態から遠方状態に状態変化させる。近接状態から遠方状態への状態変化には、予めブランク入力が操作コマンドとして割り当てられている。これにより、「Thank」と「you」との間のブランクが入力される。これに続いて、ユーザは「you」と文字入力する。このようにして、指の状態変化を文字入力に応用してもよい。
本発明に係るユーザの画面操作を検出するデバイスの接触センサとしては、例えばマトリクススイッチ・抵抗膜方式のスイッチ・表面弾性波方式のスイッチなどを有するタッチセンサ・タッチパネル・タッチスクリーン・タッチパッドなどが挙げられる。
本発明に係るモバイル機器に搭載されるタッチパネルは、ディスプレイ12への押し込み(押下)を検出できる機能を有していればより好ましい。これにより、タッチパネル14は遠方状態、近接状態、接触状態、押下状態の4つの状態変化を検出することができ、これらの状態変化を組み合わせることによってさらに操作のバリエーションを増やすことができる。
10、50 モバイル機器
12 ディスプレイ
14 タッチパネル
16 ボタン
20 状態判別部
22 記憶部
24 状態変化識別部
26 操作コマンド設定部
28 画面制御部

Claims (8)

  1. 表示画面と、
    前記表示画面においてユーザが行う操作を検出するデバイスと、
    前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する状態判別部と、
    前記状態判別部により判別された状態に従い、ユーザが行う操作の状態変化を識別する状態変化識別部と、
    ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記状態変化識別部により識別された状態変化に応じて操作コマンドを設定する操作コマンド設定部と、を備える表示装置。
  2. 前記操作コマンド設定部により設定された操作コマンドに従い前記表示画面の表示を変える画面制御部を更に備える請求項1に記載の表示装置。
  3. 前記状態変化識別部は、前記状態判別部の判別結果に基づき、前記表示画面においてユーザにより行われた操作が接触状態、近接状態及び遠方状態のいずれからいずれへ状態変化したかを識別し、
    前記操作コマンド設定部は、前記状態変化識別部により識別された状態変化に応じて異なる操作コマンドを設定する請求項1に記載の表示装置。
  4. 前記状態判別部による前回の判別結果を記憶する記憶部を更に備え、
    前記状態変化識別部は、前記記憶部に記憶された前回の判別結果と前記状態判別部による今回の判別結果とに基づき、前記表示画面に対する接触状態から遠方状態への状態変化又は前記表示画面に対する接触状態から近接状態への状態変化を識別し、
    前記操作コマンド設定部は、前記状態変化識別部により識別された状態変化に応じて異なる操作コマンドを設定する請求項3に記載の表示装置。
  5. 前記状態変化識別部により識別された状態変化が接触状態から遠方状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を前記画面制御部に促す請求項2に記載の表示装置。
  6. 前記状態変化識別部により識別された状態変化が接触状態から近接状態への状態変化である場合、前記操作コマンド設定部は、設定された操作コマンドの実行を見合わせるように前記画面制御部に促す請求項2に記載の表示装置。
    画面制御部
  7. 表示画面においてユーザが行う操作をデバイスに検出させるステップと、
    前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別するステップと、
    前記判別された状態に従い、ユーザが行う操作の状態変化を識別するステップと、
    ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定するステップと、を含む表示方法。
  8. 表示画面においてユーザが行う操作をデバイスに検出させる処理と、
    前記デバイスにより検出されたユーザの操作に基づき前記表示画面への接触状態、近接状態及び遠方状態のいずれの状態かを判別する処理と、
    前記判別された状態に従い、ユーザが行う操作の状態変化を識別する処理と、
    ユーザが行った操作に対して前記表示画面の表示を制御するための操作コマンドを設定する際、前記識別された状態変化に応じて操作コマンドを設定する処理と、をコンピュータに実行させるプログラム。
JP2009182581A 2009-08-05 2009-08-05 表示装置、表示方法及びプログラム Expired - Fee Related JP5471137B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009182581A JP5471137B2 (ja) 2009-08-05 2009-08-05 表示装置、表示方法及びプログラム
US12/845,948 US8922497B2 (en) 2009-08-05 2010-07-29 Display apparatus, display method and program for detecting an operation performed on a display screen
CN201010243866.7A CN101996036B (zh) 2009-08-05 2010-07-29 显示设备和显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009182581A JP5471137B2 (ja) 2009-08-05 2009-08-05 表示装置、表示方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011034502A true JP2011034502A (ja) 2011-02-17
JP5471137B2 JP5471137B2 (ja) 2014-04-16

Family

ID=43534460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009182581A Expired - Fee Related JP5471137B2 (ja) 2009-08-05 2009-08-05 表示装置、表示方法及びプログラム

Country Status (3)

Country Link
US (1) US8922497B2 (ja)
JP (1) JP5471137B2 (ja)
CN (1) CN101996036B (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011154647A (ja) * 2010-01-28 2011-08-11 Fujitsu Ltd 電子機器、電子機器の制御方法及びコンピュータプログラム
JP2012238177A (ja) * 2011-05-11 2012-12-06 Kyocera Corp 電子機器
WO2013080425A1 (ja) * 2011-12-01 2013-06-06 パナソニック株式会社 入力装置、情報端末、入力制御方法、および入力制御プログラム
JP2015007946A (ja) * 2013-06-26 2015-01-15 キヤノン株式会社 情報処理装置およびその制御方法、プログラム、記録媒体
JP2015504219A (ja) * 2012-01-06 2015-02-05 マイクロソフト コーポレーション パン・アニメーション
JP2015084173A (ja) * 2013-10-25 2015-04-30 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
JPWO2013125103A1 (ja) * 2012-02-20 2015-07-30 Necカシオモバイルコミュニケーションズ株式会社 タッチパネル入力装置及びその制御方法
JP5861638B2 (ja) * 2010-09-22 2016-02-16 日本電気株式会社 表示装置および表示方法ならびにそのプログラム、端末装置
JP2016128970A (ja) * 2015-01-09 2016-07-14 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
US9524053B2 (en) 2013-03-22 2016-12-20 Sharp Kabushiki Kaisha Information processing device
JP2018008092A (ja) * 2017-09-04 2018-01-18 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
JP2021037311A (ja) * 2020-10-30 2021-03-11 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7770126B2 (en) 2006-02-10 2010-08-03 Microsoft Corporation Assisting user interface element use
JP5282661B2 (ja) * 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101710657B1 (ko) * 2010-08-05 2017-02-28 삼성디스플레이 주식회사 표시장치 및 이의 구동 방법
JP5649169B2 (ja) 2010-11-22 2015-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム
US20120139845A1 (en) * 2010-12-03 2012-06-07 Research In Motion Limited Soft key with main function and logically related sub-functions for touch screen device
US20120161791A1 (en) * 2010-12-28 2012-06-28 Synaptics Incorporated Methods and apparatus for determining input objects associated with proximity events
US9274642B2 (en) 2011-10-20 2016-03-01 Microsoft Technology Licensing, Llc Acceleration-based interaction for multi-pointer indirect input devices
US9658715B2 (en) 2011-10-20 2017-05-23 Microsoft Technology Licensing, Llc Display mapping modes for multi-pointer indirect input devices
US8933896B2 (en) * 2011-10-25 2015-01-13 Microsoft Corporation Pressure-based interaction for indirect touch input devices
US9389679B2 (en) 2011-11-30 2016-07-12 Microsoft Technology Licensing, Llc Application programming interface for a multi-pointer indirect touch input device
US10825003B2 (en) * 2018-11-26 2020-11-03 Capital One Services, Llc Method and system for large transfer authentication
CN110069159A (zh) * 2019-03-13 2019-07-30 平安普惠企业管理有限公司 设备触摸延时解决方法、装置、计算机设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301668A (ja) * 2004-04-12 2005-10-27 Seiko Epson Corp 情報処理装置および情報処理プログラム
JP2005327262A (ja) * 2004-05-11 2005-11-24 Hitachi Ltd 情報表示方法及び情報表示システム
JP2006285370A (ja) * 2005-03-31 2006-10-19 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置及びハンドパターン操作方法
JP2007052497A (ja) * 2005-08-15 2007-03-01 Sony Corp 表示装置
JP2008078810A (ja) * 2006-09-19 2008-04-03 Furyu Kk 写真シール作成装置および方法、並びにプログラム
JP2008287323A (ja) * 2007-05-15 2008-11-27 Mitsubishi Electric Corp 情報入力表示装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105671A (ja) * 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP3608967B2 (ja) * 1999-01-12 2005-01-12 株式会社フジクラ 自動車用入力装置
JP3905670B2 (ja) * 1999-09-10 2007-04-18 株式会社リコー 座標入力検出装置、情報記憶媒体及び座標入力検出方法
JP2003005912A (ja) * 2001-06-20 2003-01-10 Hitachi Ltd タッチパネル付きディスプレイ装置及び表示方法
US20050110756A1 (en) * 2003-11-21 2005-05-26 Hall Bernard J. Device and method for controlling symbols displayed on a display device
JP2005202611A (ja) * 2004-01-15 2005-07-28 Kyocera Mita Corp 表示制御装置
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US7800594B2 (en) * 2005-02-03 2010-09-21 Toshiba Matsushita Display Technology Co., Ltd. Display device including function to input information from screen by light
JP4622590B2 (ja) 2005-03-08 2011-02-02 ソニー株式会社 入力装置、タッチパネル及び電子機器
US20080098331A1 (en) * 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
CN101308417A (zh) * 2007-05-15 2008-11-19 宏达国际电子股份有限公司 电子装置与其软件的使用者界面操作方法
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
JP4900824B2 (ja) * 2007-09-18 2012-03-21 トヨタ自動車株式会社 入力表示装置
JP2009116769A (ja) * 2007-11-09 2009-05-28 Sony Corp 入力装置、入力装置の制御方法、及びプログラム
KR101486345B1 (ko) * 2008-03-21 2015-01-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US8525802B2 (en) * 2008-03-31 2013-09-03 Lg Electronics Inc. Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
EP2131272A3 (en) * 2008-06-02 2014-05-07 LG Electronics Inc. Mobile communication terminal having proximity sensor and display controlling method therein

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301668A (ja) * 2004-04-12 2005-10-27 Seiko Epson Corp 情報処理装置および情報処理プログラム
JP2005327262A (ja) * 2004-05-11 2005-11-24 Hitachi Ltd 情報表示方法及び情報表示システム
JP2006285370A (ja) * 2005-03-31 2006-10-19 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置及びハンドパターン操作方法
JP2007052497A (ja) * 2005-08-15 2007-03-01 Sony Corp 表示装置
JP2008078810A (ja) * 2006-09-19 2008-04-03 Furyu Kk 写真シール作成装置および方法、並びにプログラム
JP2008287323A (ja) * 2007-05-15 2008-11-27 Mitsubishi Electric Corp 情報入力表示装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011154647A (ja) * 2010-01-28 2011-08-11 Fujitsu Ltd 電子機器、電子機器の制御方法及びコンピュータプログラム
JP5861638B2 (ja) * 2010-09-22 2016-02-16 日本電気株式会社 表示装置および表示方法ならびにそのプログラム、端末装置
JP2012238177A (ja) * 2011-05-11 2012-12-06 Kyocera Corp 電子機器
WO2013080425A1 (ja) * 2011-12-01 2013-06-06 パナソニック株式会社 入力装置、情報端末、入力制御方法、および入力制御プログラム
US10872454B2 (en) 2012-01-06 2020-12-22 Microsoft Technology Licensing, Llc Panning animations
JP2015504219A (ja) * 2012-01-06 2015-02-05 マイクロソフト コーポレーション パン・アニメーション
JPWO2013125103A1 (ja) * 2012-02-20 2015-07-30 Necカシオモバイルコミュニケーションズ株式会社 タッチパネル入力装置及びその制御方法
US9524053B2 (en) 2013-03-22 2016-12-20 Sharp Kabushiki Kaisha Information processing device
US9529527B2 (en) 2013-06-26 2016-12-27 Canon Kabushiki Kaisha Information processing apparatus and control method, and recording medium
JP2015007946A (ja) * 2013-06-26 2015-01-15 キヤノン株式会社 情報処理装置およびその制御方法、プログラム、記録媒体
JP2015084173A (ja) * 2013-10-25 2015-04-30 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
JP2016128970A (ja) * 2015-01-09 2016-07-14 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
JP2018008092A (ja) * 2017-09-04 2018-01-18 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
JP2021037311A (ja) * 2020-10-30 2021-03-11 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
JP7191395B2 (ja) 2020-10-30 2022-12-19 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム

Also Published As

Publication number Publication date
US8922497B2 (en) 2014-12-30
CN101996036A (zh) 2011-03-30
CN101996036B (zh) 2016-08-03
US20110032198A1 (en) 2011-02-10
JP5471137B2 (ja) 2014-04-16

Similar Documents

Publication Publication Date Title
JP5471137B2 (ja) 表示装置、表示方法及びプログラム
CN106095215B (zh) 触摸输入光标操控
US10831337B2 (en) Device, method, and graphical user interface for a radial menu system
CN106155549B (zh) 触摸输入光标操控
US20190146667A1 (en) Information processing apparatus, and input control method and program of information processing apparatus
CN102129311B (zh) 信息处理设备、操作输入方法和操作输入程序
US7358956B2 (en) Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
JP4577428B2 (ja) 表示装置、表示方法及びプログラム
US7256770B2 (en) Method for displaying information responsive to sensing a physical presence proximate to a computer input device
KR100831721B1 (ko) 휴대단말기의 디스플레이 장치 및 방법
RU2623885C2 (ru) Запись формулы для ограниченного устройства отображения
WO2013169843A1 (en) Device, method, and graphical user interface for manipulating framed graphical objects
US11126327B2 (en) Interactive data visualization user interface with gesture-based data field selection
CN107024965A (zh) 信息处理系统和信息处理方法
JP2011022842A (ja) 表示装置、表示方法及びプログラム
CN103780789B (zh) 设定值输入装置、图像形成装置以及设定值输入方法
WO2022143198A1 (zh) 一种应用界面的处理方法以及相关设备
WO2022143620A1 (zh) 一种虚拟键盘的处理方法以及相关设备
CN106775192A (zh) 移动终端及其单手操作方法
US20160350273A1 (en) Data processing method
WO2022143579A1 (zh) 一种反馈方法以及相关设备
US20190302952A1 (en) Mobile device, computer input system and computer readable storage medium
AU2021204190B2 (en) Interactive data visualization user interface with gesture-based data field selection
WO2022143607A1 (zh) 一种应用界面的处理方法以及相关设备
US20220066630A1 (en) Electronic device and touch method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R151 Written notification of patent or utility model registration

Ref document number: 5471137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees