JP7421230B2 - 強化されたタッチセンシング選択 - Google Patents

強化されたタッチセンシング選択 Download PDF

Info

Publication number
JP7421230B2
JP7421230B2 JP2021528007A JP2021528007A JP7421230B2 JP 7421230 B2 JP7421230 B2 JP 7421230B2 JP 2021528007 A JP2021528007 A JP 2021528007A JP 2021528007 A JP2021528007 A JP 2021528007A JP 7421230 B2 JP7421230 B2 JP 7421230B2
Authority
JP
Japan
Prior art keywords
touch
selectable
objects
command
highlighted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021528007A
Other languages
English (en)
Other versions
JP2021533511A (ja
Inventor
アミール テイムリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Patmos Unipessoal Lda
Original Assignee
Patmos Unipessoal Lda
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Patmos Unipessoal Lda filed Critical Patmos Unipessoal Lda
Publication of JP2021533511A publication Critical patent/JP2021533511A/ja
Application granted granted Critical
Publication of JP7421230B2 publication Critical patent/JP7421230B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Description

本発明は、方法、電子デバイス、電子ハンドヘルドデバイス及びコンピュータプログラム製品に関するものであり、とりわけ、電子デバイスのタッチディスプレイ上に表示されるオブジェクトのタッチセンシング選択に関するものである。
従来技術では、
例えばソフトウェアアプリケーション(以下「アプリ」という)を表すプログラムアイコン又は記号等のオブジェクトの選択、入力フィールドの選択、又は、電子デバイスのタッチディスプレイ上に表示される何らかの選択可能なオブジェクトの選択は、タッチディスプレイ上において当該オブジェクトが表示される表示位置にあるタッチコマンドによって行われる。
スマートフォンの中には、特定のユーザコマンドの後に選択のために、タッチディスプレイの上部領域に表示されているアプリを当該タッチディスプレイの下部領域に移動させて、ユーザの指に接近させる機能を提供するものがある。このアプローチは、それまでタッチディスプレイの下部領域に表示されていた他のアプリを隠して表示しないステップに繋がるものであり、このステップの結果、隠されたアプリはタッチディスプレイの下部領域に移動する期間中は選択不可となる。この隠されたアプリを選択するためには、移動コマンドを再度実行し、当該隠されたアプリを元の位置に移動して表示することにより、選択可能な状態に戻さなければならない。
本発明の課題は、タッチディスプレイ上に表示されるオブジェクトのタッチセンシング選択に関連する上記の機能制限に係る問題を解決することである。本発明はこの関連問題を、タッチディスプレイ上に表示されているオブジェクトの強化されたタッチセンシング選択のための方法、電子デバイス、電子ハンドヘルドデバイス及びコンピュータプログラム製品によって解決する。本発明は特に、タッチディスプレイ上に表示されるオブジェクトの選択のための代替的なタッチセンシング選択方法を提供することを目的とする。さらに本発明は、本発明の電子ハンドヘルドデバイスのタッチディスプレイ上に表示されるオブジェクトを選択する代替的な選択能力を備えたタッチディスプレイを有する電子ハンドヘルドデバイスを提供することも目的とする。本発明はまた、タッチディスプレイ上に表示されるオブジェクトのタッチセンシング選択を実現するための追加の要素としてのコンピュータプログラム製品であって、独立したコンピュータプログラム製品として、又はコンピュータのオペレーティングシステムと協働する追加のソフトウェア要素として実現できるコンピュータプログラム製品を提供することも目的とする。
本発明の第1の主要な側面は、タッチディスプレイを備えたタッチセンシング型の電子ハンドヘルドデバイス上で選択を行うための方法を提供するものであり、a)少なくとも1つの選択可能なオブジェクトをタッチディスプレイ上に表示するステップと、ここで、前記少なくとも1つの選択可能なオブジェクトは、タッチディスプレイ上の少なくとも1つの選択可能なオブジェクトの位置にあるタッチコマンドにより選択可能であり、b)少なくとも1つの選択可能なオブジェクトのうち1つを強調する強調モードを開始するための第1のタッチコマンドを、ハンドヘルドデバイスのタッチセンシング領域から受け取って、強調された選択可能なオブジェクトを表示するステップと、ただし、第1のタッチコマンドの位置は、強調された選択可能なオブジェクトの位置とは異なり、c)強調された選択可能なオブジェクトを選択し、又は他の選択可能なオブジェクトにジャンプして、強調された選択可能なオブジェクトとは別の選択可能なオブジェクトを強調するための第2のタッチコマンドを、ハンドヘルドデバイスのタッチセンシング領域から受け取って、当該強調された別の選択可能なオブジェクトを表示し、第3のタッチコマンドを受け取った後に当該強調された別の選択可能なオブジェクトを選択するステップと、を有する。なお代替形態として、タッチセンシング領域上又はタッチディスプレイ上における第2のタッチコマンドの位置及び/又は第3のタッチコマンドの位置は、強調されたオブジェクトの位置及び/又は強調された別の選択可能なオブジェクトの位置とは異なることができる。
本発明の上記の第1の主要な側面では、選択可能なオブジェクトはタッチディスプレイ上に表示される。ここで「オブジェクト」との用語単独又は「選択可能なオブジェクト」との文言は、プログラムアイコン、アプリアイコン、入力ボックス、入力フィールド、行で表示される情報、列で表示される情報、Eメール、リンク又はリファレンスをいうものとする。オブジェクトは、電子デバイス上で現在実行中のアプリケーションに依存してタッチコマンドにより選択できる、いかなる種類の表示情報とすることができる。よって、ウェブページを表示する場合のオブジェクトは、当該ウェブページ上に表示される選択可能なハイパーリンクとすることができ、あるいは、Eメール編集ソフトウェアの場合にはオブジェクトは、行ごと等の特定の順序で表示されるEメールとすることができ、各Eメールは各選択されたEメールの内容を表示するために選択することができる。
本発明の上記の第1の主要な側面では、第1のタッチコマンドを受け取った後に強調モードが開始される。この強調モードは、選択可能なオブジェクトのうち1つを強調し、この1つの選択可能なオブジェクトの強調を表示するモードである。すなわち、強調された選択可能なオブジェクトは、第2のタッチコマンドを実行した後に選択できる状態となる。さらに留意すべき点として、第1のタッチコマンドの位置は、強調された選択可能なオブジェクトの位置とは異なり、従来技術とは対照的に、第1のタッチコマンドは、選択可能なオブジェクトが表示される位置と同一位置では実行されず、これに代わる代替位置として別の位置が提供される。また、従来技術と対照的な点として、選択可能なオブジェクトは選択が行われる前に強調され、強調を行わずに直ちに選択されることはない。本発明では上述のようにして、1つの選択可能なオブジェクトがまず強調され、その後に第2のステップで選択を行うことができる。強調された選択可能なオブジェクトの選択は、予め定められた特定の期間にわたって待機した後に行えるようにすることもでき、かかる場合、強調のための第1のタッチコマンドは既に、待機フェーズを有する種類のタッチコマンドとしての第2のタッチコマンドを含むこととなり、待機フェーズが終了した場合、強調されたオブジェクトは自動的に選択される。
本発明の上記の第1の主要な側面ではさらに、第2のタッチコマンドは他の選択可能なオブジェクトにジャンプして、先に強調された選択可能なオブジェクトとは別の選択可能なオブジェクトを強調するためにも使用される。具体的には、複数の選択可能なオブジェクトを備えている場合、強調対象の別の選択可能なオブジェクトにジャンプし、又は換言すると別の選択可能なオブジェクトに移動して、次のステップにおいてこの別の選択可能なオブジェクトの選択を行う。上記の「ジャンプ」とは、タッチディスプレイ上に表示されている選択可能なオブジェクトであって使用可能なオブジェクトのうち1つを強調するために、第2の選択可能なオブジェクト、第3の選択可能なオブジェクト等に離散的にジャンプすることをいうものとする。さらに、選択可能なオブジェクトの強調を双方向で行えるようにするため、先に強調されたオブジェクトのうちいずれかにジャンプするよう構成するともできる。
また本発明は、例えば第1のタッチコマンド、第2のタッチコマンド及び第3のタッチコマンド等の上記のタッチコマンドに複数の異なる種類のタッチコマンドを使用すること、又は、強調のために選択可能なオブジェクトをジャンプし、及び強調された選択可能なオブジェクトを選択するために、専用の異なる種類のタッチコマンドを設けることを予定していることに留意すべきである。例えば、強調モードを開始するために第1のタッチ・アンド・ホールドコマンドを用いることができ、強調のために別の選択可能なオブジェクトにジャンプするため、ホールドを継続しながらタッチセンシング領域上でのさらなる移動を行うことができ、所望のタッチコマンドを強調した後、例えば強調された選択可能なオブジェクトを選択するための第2のタッチコマンド等、他のタッチコマンドとしてタップを用いることができ、又は代替的に、所定の期間にわたるホールドを用いることができる。本願でいう「タッチコマンド」との用語は一般に、タッチセンシングコマンドの上位概念と解することとし、これは、タッチセンシング領域における少なくとも1つのタッチの組み合わせを含むことができ、少なくとも1つのタッチコマンドのうちいずれかは、特定の持続時間を有することができ、また、少なくとも1つのタッチコマンドのうちいずれかは、タッチセンシング領域上での少なくとも1つの特定の方向におけるスライド/スワイプ/変位によって実行できるものであり、タッチコマンドは少なくとも1本の指を用いて、タッチコマンドのために当該指を用いるのと同時に又は時間差で実行することができる。また留意すべき点として、本願でいう「タッチセンシング領域」との用語は、電子デバイス上のタッチディスプレイ及び当該タッチディスプレイの周囲のタッチセンシング面の両方をいうものとする。よって、第1のタッチコマンドの実行について、電子デバイス上のタッチディスプレイ上にて実行する実施形態と、タッチディスプレイの周囲のタッチセンシング面上にて実行する実施形態との少なくとも2つの異なる実施形態が存在することとなる。
本発明の上記の第1の主要な側面では、選択可能なオブジェクトをタッチディスプレイ上における当該選択可能なオブジェクトの表示位置にてタッチする必要なく、当該選択可能なオブジェクトの表示位置とは別の位置をタッチして、少なくとも1つの選択可能なオブジェクトを強調するため、又は強調対象の他の選択可能なオブジェクトに移動して、強調された当該オブジェクトのうち1つを選択するために、タッチセンシング領域でタッチコマンドを用いることができる。本発明はこのようにして、タッチコマンドが実行される位置であってオブジェクトがある位置ではない位置においてオブジェクトを選択できるという有利な効果を奏する。かかる構成によって有利な選択方法を提供することができ、表示されているオブジェクトのタッチディスプレイ上における位置如何にかかわらず当該オブジェクトを選択することができ、とりわけ、ユーザの指から遠距離にあるオブジェクトを選択することができるようになると共に、これら全てのオブジェクトが選択可能な状態に維持される。
これとは対照的に従来技術では、タッチコマンドは表示されているオブジェクトと同一位置で実行しなければならず、こうするためにはユーザは選択のために当該選択可能なオブジェクトそのものまで遥々移動しなければならないため、本発明では選択のための選択軌道が短縮し、デバイスとインタラクションを行うために必要な時間が短縮する。
また、従来技術の移動アプローチについては、本発明は、移動のために選択可能なオブジェクトが隠れることがないため、選択可能なオブジェクトが全て選択可能な状態に維持されるという有利な効果を奏する。
さらに本発明は、ユーザの動きの軌道を短縮するという有利な効果も奏する。というのも、スマートフォンやタブレットPC等のタッチディスプレイを備えたデバイスはサイズが大きくなり、ユーザがタッチコマンドを実行し、オブジェクトを選択してデバイスとインタラクションを行うためにタッチディスプレイの端から端まで長い距離を行ったり来たりしなければならなくなるからである。
他の1つの有利な効果として、本発明は、片手だけでデバイスを持ちながら全ての選択可能なオブジェクトを選択することができ、デバイスを持つその片手の指でアクション可能な領域から選択可能なオブジェクトが遠距離にある場合に、タッチディスプレイ上でタッチコマンドを実行するためにもう片方の手を用いる必要がないため、ハンドヘルドデバイスをより便利に使用することを可能にする。
本発明のさらに他の1つの有利な効果は、特に、表示される選択可能なオブジェクトの数が多い場合、選択のためのタッチコマンドを実行するときに選択可能なオブジェクトをより正確に選択できることであり、従来技術では、選択可能なオブジェクトのうち1つの位置におけるタッチコマンドは、選択可能なオブジェクトの数が多く互いに非常に近接した位置にあるため、意図しない誤った選択を行う確率が高くなる。
本発明の他の有利な一側面では、他のタッチコマンドを実行するために十分なスペースを提供してタッチセンシング領域内又はタッチディスプレイ内に留まるため、選択可能なオブジェクトのうちどれを最初に強調するかの決定は、第1のタッチコマンドの位置に依存する。この有利な側面に基づくと、強調モードを開始するための第1のタッチコマンドを実行した後は第1の選択可能なオブジェクトは強調されることとなり、どのオブジェクトを強調すべきかの決定は、タッチセンシング領域又はタッチディスプレイのどの位置で第1のタッチコマンドが実行されたかに依存することとなる。第1のタッチコマンドの位置を考慮することにより、タッチセンシング領域及びタッチディスプレイの境界が自動的に考慮され、強調対象の他の選択可能なオブジェクトにジャンプするためのスライド部分を有するタッチコマンドの実行も中断なく行うことができる。というのもタッチセンシング領域又はタッチディスプレイには、ジャンプ及び強調のために指の移動を行うために十分なスペースが残るからである。例えば、第1のタッチコマンドの位置がタッチセンシング領域又はタッチディスプレイの右側境界である場合、タッチディスプレイの右側境界に位置を有する選択可能なオブジェクトが強調され、又は、第1のタッチコマンドの位置がタッチセンシング領域又はタッチディスプレイの右下の角部にある場合、この右下の角部に位置を有する選択可能なオブジェクトが強調される。
本発明の他の一側面では、ハンドヘルドデバイスのタッチセンシング領域は当該デバイスのタッチディスプレイであるか、又は当該タッチディスプレイの周囲のタッチセンシング面である。このように、これら2つの可能なタッチセンシング部分は本発明の対象となる。
他の一側面では、少なくとも1つの選択可能なオブジェクトは前記タッチディスプレイ上に表示される複数のオブジェクトから決定され、この決定は、第1のタッチコマンドの位置と前記複数の各オブジェクトとの間の距離及び/又はタッチセンシング型の電子ハンドヘルドデバイスの現在使用中の向きに基づく。本側面では、特定のオブジェクトから選択してこれらを選択可能にし、本発明の強調を行うことができる。具体的には、表示されるオブジェクトのうちいずれかを選択可能なオブジェクトから除外することができ、選択可能なオブジェクトは、その特定の表示位置におけるタッチコマンドによって選択可能な状態に維持される。これにより、強調可能である選択可能なオブジェクトの数を削減することができ、よりシンプルな表示を可能にしてユーザの混乱を回避できるという利点が奏される。
本発明の他の一側面では、第1のタッチコマンド、第2のタッチコマンド又は第3のタッチコマンドは、シングルタッチコマンド、ショートタッチコマンド、タップ、ダブルタップ、水平方向若しくは垂直方向スクロール、スワイプ、タッチ・アンド・ホールド、タッチディスプレイ上でのフリック又は押下、ジェスチャのうち少なくとも1つ又はこれらの組み合わせであり、少なくとも1本の指及び/又は少なくとも2本の指の組み合わせによって実行できるものである。一般に「タッチコマンド」とは、特定の動作の開始に対応するコマンドをいう。すなわち、本発明ではタッチコマンドの任意の可能な組み合わせを用いることができる。
さらに本発明の他の一側面では、上記の強調は、幾何学的形状、色及び/若しくはパターンを有する区別性のグラフィック要素及び/若しくは接続要素を用いて、並びに/又は参照要素を用いて、並びに/又はサイズ変更を用いて、どのオブジェクトが選択可能であるか及び/又は選択可能なオブジェクトのうちどれが強調されているかを示すことにより行われる。一般に、どの選択可能なオブジェクトが強調されているかを可視化するために使用できる全ての視覚的要素は、本発明における強調と解されるものとする。
本発明の他の有利な一側面では、前記タッチコマンドのうち少なくとも1つは、少なくとも一部が垂直方向推移、水平方向推移、カーブ推移、円形推移及び/又は対角線上推移を有する経路に沿って行われる。かかる構成により種々の種類のタッチコマンドが設けられることとなり、これらのタッチコマンドは上記の推移のうちいずれかを有する種々の種類の経路を有することができ、これにより、タッチディスプレイ上における選択可能なオブジェクトの分布に依存して、又はタッチセンシング領域の位置に依存して、区別できる経路を設けることができる。代替的又は追加的に、ユーザによって予め定義できる事前定義経路又は現在の経路についてユーザに通知するため、上記の経路をタッチディスプレイ上で可視化することもできる。これにより、有利な本側面では、どの種類の経路が設けられているかを示すためにグラフィック要素を用いて経路を可視化することができる。
本発明の他の有利な一側面では、経路の可視化は、選択可能なオブジェクトの強調及び選択の精度を増加するため、選択可能なオブジェクトの少なくとも1つのグループに拡大ビューを与えるものである。かかる構成により、拡大ビューによって、選択可能なオブジェクトからサブグループを構成し、このサブグループの要素のみをジャンプすることができる。このサブグループの選択可能なオブジェクトの数は少なくなっているので、与えられた経路に沿って選択を行うことがユーザにとってより容易となる。というのも、サブグループの他のオブジェクトへの単なるジャンプは、グループの拡大ビューによる感度の低下により、より低精度のタッチコマンドによって行えるからである。
本発明の他の有利な一側面では、少なくとも1つの選択可能なオブジェクトはプログラムアイコン、アプリアイコン、入力ボックス、入力フィールド、行で表示される情報、列で表示される情報、Eメール、リンク又はリファレンスである。既に述べたように、タッチディスプレイ上にてタッチコマンドにより選択可能な全てのオブジェクトは、選択可能なオブジェクトとすることができる。
本発明の他の有利な一側面では、強調モードは、選択可能なオブジェクトの第1のサブグループについて開始され、第1のタッチコマンドと選択可能なオブジェクトの第1のサブグループとの距離は、第1のタッチコマンドと選択可能なオブジェクトの第2のサブグループとの距離より大きい。かかる構成により、第1のタッチコマンドにより近い第2のサブグループの選択可能なオブジェクトから近距離に既に指があり、そのまま第2のサブグループの選択可能なオブジェクトにタッチコマンドによって直接選択できるので、第2のサブグループは強調モードでは使用されない。かかる構成によって複雑率が低下し、ユーザの混乱が回避される。
本発明の他の有利な一側面では、タッチディスプレイを備えたタッチセンシング型の電子ハンドヘルドデバイスであって上記のいずれか側面の方法の1つを実施するために構成された電子ハンドヘルドデバイスを提供する。
タッチセンシングデバイス又はタッチセンシング型のハンドヘルドデバイスは好適には、デジタルメモリユニット、CPU、無線通信ユニット、グラフィックプロセッサユニット(GPU)、音響トランスデューサユニット、タッチディスプレイを含む筐体と、当該デバイスのためのオペレーティングシステムとしてのソフトウェアと、を備えている。一代替形態として、タッチセンシングデバイス又はタッチセンシング型のハンドヘルドデバイスはさらに、タッチディスプレイとは別のタッチセンシング領域も備えることができ、この別のタッチセンシング領域は好適には、タッチディスプレイの周囲の位置に配置される。他の一代替形態として、タッチセンシングデバイス又はタッチセンシング型のハンドヘルドデバイスは、例えばホームボタン及び/又はサイドボタン等の少なくとも1つのボタンを備えることができる。
本発明の電子ハンドヘルドデバイスは、スマートフォン、タブレットPC、マルチメディアプレーヤ、ウェアラブルデバイス、スマートウォッチ又はノートブックとすることができる。
本発明の他の有利な一側面では、コンピュータにより実行されたときに本願で記載されているいずれか1つの側面の方法をコンピュータに実行させる命令を備えたコンピュータ可読記憶媒体を提供する。かかる構成により、本発明のコンピュータ製品はオペレーティングシステムの一部とすることができ、又は、本発明のいずれか1つの側面に従って動作するために電子デバイスにロードできるソフトウェアとしての追加パーツとすることができる。
以下、図面を参照して本発明の好適な実施形態について説明する。これらの好適な実施形態は限定列挙ではない。
従来技術の電子デバイスのタッチディスプレイ上におけるオブジェクトの選択を示す図である。 本発明の第1の実施形態の電子デバイスのタッチディスプレイ上に表示されるオブジェクトの選択を示す図である。 本発明の第2の実施形態の電子デバイスのタッチディスプレイ上に表示されるオブジェクトの選択を示す図である。 本発明の第3の実施形態の電子デバイスのタッチディスプレイ上に表示されるオブジェクトの選択を示す図である。 本発明の第4の実施形態の電子デバイスのタッチディスプレイ上に表示されるオブジェクトの選択を示す図である。 本発明の第5の実施形態の電子デバイスのタッチディスプレイ上に表示されるオブジェクトの選択を示す図である。
図1は、従来技術の電子デバイス1のタッチディスプレイ2上における選択可能なオブジェクト3の選択を示す図である。図1は、第1のステップS1.1及び第2のステップS1.2の2つのステップを示している。ステップS1.1及びS1.2では、タッチディスプレイ2は複数の選択可能なオブジェクト3を表示する。これらの選択可能なオブジェクト3には、「a」、「b」、「c」、「d」、「e」、「f」、「g」、「h」(以下「a~h」という)の文字と、「w」、「x」、「y」、「z」(以下「w~z」という)の文字とが付されている。従来技術の選択は、黒星4によって示されているタッチセンシングコマンド4によって行われ、選択可能なオブジェクト「g」の選択は、ステップS1.2に示されているように当該選択可能なオブジェクト「g」の位置にあるタッチセンシングコマンド4を実行することにより行われる。このようにして、どの選択可能なオブジェクト「a~h」及び「w~z」も、当該選択可能なオブジェクト「a~h」及び「w~z」のうちいずれか1つの選択可能なオブジェクトの位置にあるタッチセンシングコマンド4によって選択することができる。よって従来技術では、所望の選択可能なオブジェクトの位置にあるタッチコマンドによって、いずれかの選択可能なオブジェクトの選択を行わなければならないと判断される。
図2は、本発明の第1の実施形態のタッチディスプレイ2上における選択可能なオブジェクト3の選択を示す図であり、これらの選択可能なオブジェクト3にも「a~h」及び「w~z」の文字が付されている。図2は、S2.1,S2.2及びS2.3の3つのステップを示している。第1のステップS2.1は、電子デバイス1のタッチディスプレイ2上に複数の選択可能なオブジェクト「a~h」及び「w~z」が表示されている様子を示しており、各選択可能なオブジェクト「a~h」及び「w~z」は、従来技術から公知のように、当該選択可能なオブジェクト「a~h」及び「w~z」の表示位置で実行されるタッチコマンドによって選択可能となっている。ここで本発明では、ステップS2.2において、円により示されたタッチセンシング領域5において第1のタッチコマンド4を実行した後、強調モードが開始される。このタッチセンシング領域5はタッチディスプレイ2の下に配置されており、選択可能なオブジェクト「a~h」及び「w~z」の位置とは異なる位置であると共に、タッチディスプレイ2とも異なる位置にある。強調モードの開始後、最初に、選択可能なオブジェクトのうち1つが強調され、図2のステップS2.2では、文字「a」が付されている選択可能なオブジェクトが強調され、さらに他のタッチコマンドが実行されたときに選択可能となる。このようにして、強調モードが開始されて選択可能なオブジェクト「a」が強調された後、第2のタッチコマンドを実行することによってこの強調されたオブジェクト「a」を選択することができる。上述の第2のタッチコマンド4は、本願明細書に規定されている複数のタッチコマンドのうちの1つであり、又は、所定の期間での待機期間とすることもできる。この待機期間は、当該待機期間が経過すると、強調されたオブジェクト「a」が選択され、例えばアプリケーション「a」が開始されるというものである(不図示)。強調されたオブジェクト「a」の選択を行う態様に代わる一代替態様として、図2のステップS2.3に示されているように、選択可能なオブジェクト「a」の強調後に第2のタッチコマンド4を用いて、選択可能なオブジェクト「b~h」又は「w~z」のうち別の1つにジャンプして強調する。本実施形態では、ステップS2.3にて示されているように選択可能なオブジェクト「b」が強調される。強調されたオブジェクト「a」を選択するための上記の第2のタッチコマンド4と、別の選択可能なオブジェクト「b」にジャンプするための第2のタッチコマンド4とは、これら2つを区別するために異なる種類であることが明らかである。また分かりやすくするため、図2では矢印「m」により示されている移動が、ステップS2.2における指の位置からステップS2.3における当該指の別の位置への当該指の移動を示している。ここで、移動又はスワイプはあくまで別の選択可能なオブジェクトを強調するための選択肢であり、可能なコマンドを限定するものと解釈すべきではないことに留意すべきである。別の選択可能なオブジェクトの強調は、本願で記載されている任意の可能なタッチコマンド、例えばタッチセンシング領域におけるタップ、タッチ・アンド・ホールド、及びスライド等によって行うことができる。図2に示されているように、他の選択可能なオブジェクトすなわち選択可能なオブジェクト「b」にジャンプしてこの選択可能なオブジェクト「b」を強調した後、例えば第3のタッチコマンド等の他のコマンドを受信すると当該オブジェクト「b」を選択することができるが、上述のオブジェクト「b」の選択及びアプリケーション「b」の開始は、図2には示されていない。図2に基づく他の実施形態であってここでは示されていない実施形態として、強調モードは、選択可能なオブジェクト「a~h」及び「w~z」のうち1つのサブグループについてのみ開始され、すなわちサブグループ「a~h」について開始され、「w~z」については開始されない。というのもオブジェクト「w~z」は、ステップS2.2の強調モードを開始するための第1のタッチコマンド4の位置に近いからである。選択可能なオブジェクトのサブグループについて強調モードを開始するこの代替的な実施形態は、強調モードを開始するための第1のタッチコマンドと選択可能なオブジェクトのサブグループとの間の距離に依存し、強調モードは、第1のタッチコマンドの位置までの距離が大きいサブグループについて開始される。上記の有利な側面は、本願に記載されている本発明のどの実施形態にも、例えば以下の各図に示されている実施形態に適用することができる。
図3は、本発明の第2の実施形態のタッチディスプレイ2上における選択可能なオブジェクト3の選択を示す図であり、これらの選択可能なオブジェクト3にも「a~h」及び「w~z」が付されている。図3の実施形態は図2に示されている第2の実施形態に相当し、両図の相違点は、図3ではタッチコマンド4はタッチディスプレイ2上で実行され、図2のようにタッチディスプレイ2の周囲のタッチセンシング面上では実行されないことである。図3では、ステップS3.1において選択可能なオブジェクト「a~h」及び「w~z」がタッチディスプレイ2上に表示され、ステップS3.2においてタッチディスプレイ2上で第1のタッチコマンド4を実行すると強調モードが開始され、最初に1つの選択可能なオブジェクト「a」が強調され、タッチディスプレイ2上で第2のタッチコマンド4を実行するとこの選択可能なオブジェクト「a」を選択することができる。これに代えて、ステップS3.3において第2のタッチコマンド4を用いて別の選択可能なオブジェクト「b」にジャンプし、この選択可能なオブジェクト「b」を強調することができる。オブジェクト「b」は、例えば第3のタッチコマンド等の他のコマンドを受信すると選択することができるが、オブジェクト「b」の上記の選択及びアプリケーション「b」の開始は図3には示されていない。同図でも、強調されたオブジェクト「a」を選択するための上記の第2のタッチコマンド4と、別の選択可能なオブジェクト「b」にジャンプするための第2のタッチコマンド4とは、これら2つを区別するために異なる種類であることが明らかである。
図4は、本発明の第3の実施形態のタッチディスプレイ2上における選択可能なオブジェクト3の選択を示す図であり、これらの選択可能なオブジェクト3にも文字「a~h」が付されている。図4では3つのステップS4.2,S4.3及びS4.4が示されている。図2のステップS2.2や図3のステップS3.1と同様の強調モードを開始する前の初期状態は示されていない。すなわち、電子デバイス1のタッチディスプレイ2上に複数の選択可能なオブジェクト「a~h」及び「w~z」が表示されており、各選択可能なオブジェクト「a~h」及び「w~z」は従来技術から公知のように、選択可能なオブジェクト「a~h」及び「w~z」の表示位置で実行されるタッチコマンドによって選択可能となっている。図4では、ステップS4.2において、円により示されたタッチセンシング領域5において第1のタッチコマンド4を実行した後、強調モードが開始される。このタッチセンシング領域5はタッチディスプレイ2の下に配置されており、選択可能なオブジェクト「a~h」及び「w~z」の位置とは異なる位置であると共に、タッチディスプレイ2とも異なる位置にある。強調モードの開始後、最初にこの選択可能なオブジェクト「g」が強調されていることと、第2のタッチコマンド4を実行すると選択可能なオブジェクト「g」が選択可能であることとを示すために、選択可能なオブジェクト「g」を強調するため、破線8のグラフィック要素8が表示される。上述の第2のタッチコマンド4は、本願明細書に規定されている複数のタッチコマンドのうちの1つであり、又は、所定の期間での待機期間とすることもできる。この待機期間は、当該待機期間が経過すると、強調されたオブジェクト「g」が選択され、例えばアプリケーション「g」が開始されるというものである(不図示)。ステップS4.2において、タッチコマンドと、強調されたオブジェクト「g」に向かう移動とを組み合わせて実行することにより(不図示)、最初に強調されたオブジェクト「g」を選択することができる。強調されたオブジェクト「g」の選択を行う態様に代わる一代替態様として、図4のステップS4.2に示されているように、選択可能なオブジェクト「g」の強調後に第2のタッチコマンド4を用いて、選択可能なオブジェクト「a~f」又は「h」のうち別の1つにジャンプして強調する。本実施形態では、ステップS4.3にて示されているように選択可能なオブジェクト「h」が強調される。同図でも、強調されたオブジェクト「g」を選択するための上記の第2のタッチコマンド4と、別の選択可能なオブジェクト「h」にジャンプするための第2のタッチコマンド4とは、これら2つを区別するために異なる種類であることが明らかである。より分かりやすくするため、図4のステップS4.3では、矢印「m」により示されている左から右への移動が、ステップS4.2における指の位置からステップS4.3における当該指の別の位置への当該指の移動を示している。図4に示されているように、他の選択可能なオブジェクトすなわち選択可能なオブジェクト「h」にジャンプしてこの選択可能なオブジェクト「h」を強調した後、例えば第3のタッチコマンド4等の他のコマンドを受信すると当該オブジェクト「h」を選択することができる。ステップS4.4では、タッチコマンドと、強調されたオブジェクト「h」に向かう移動とを組み合わせて用いることにより第3のタッチコマンド4が実行されるが、オブジェクト「h」を開いてアプリケーション「h」を開始することは、図4では示されていない。
図4及び図3に基づいて、本発明の代替的な一実施形態は、図4に示されているタッチコマンドを図3に示されているようにタッチディスプレイ2上で実行するというものであり、図4について記載したようにグラフィック要素8がタッチディスプレイ2上に表示され、破線8として提示されるグラフィック要素8の開始位置はタッチディスプレイ2上における第1のタッチコマンド4の位置である。換言すると、本実施形態の破線8はタッチディスプレイ2上における第1のタッチコマンド4の位置と、強調されるオブジェクト「g」との間である。
図5は、本発明の第4の実施形態のタッチディスプレイ2上における選択可能なオブジェクト3の選択を示す図であり、これらの選択可能なオブジェクト3にも文字「a~h」が付されている。図5の実施形態は上記の図4の実施形態と類似しているが、図5では選択について幾つかの要素が追加されている。ステップS5.2では、図4と同様に強調モードを開始した後、ここでは破線である追加のグラフィック要素が、オブジェクト「g」を強調する破線とは異なる態様で描画されている。このようにして、強調モードのために使用可能である他の選択可能なオブジェクト「a~f」及び「h」が表示される。このようにしてさらに、他の強調可能なオブジェクトへのジャンプを左か右かどちらの方向に行えるかも示される。図4の実施形態と同様に、ステップS5.3において別のオブジェクトすなわち「h」を強調することができる。より詳しい説明については、上記の図4の記載を参照することができる。
図5及び図3に基づいて、本発明の代替的な一実施形態は、図5に示されているタッチコマンドを図3に示されているようにタッチディスプレイ2上で実行するというものであり、図5について記載したようにグラフィック要素8と追加要素とが選択のために設けられており、これらはタッチディスプレイ2上に表示され、強調のためのグラフィック要素8の位置及び強調可能なオブジェクトを表示するための追加要素の位置は、タッチディスプレイ2上における第1のタッチコマンド4の位置と各オブジェクト「a~h」との間である。換言すると、本実施形態は図5の実施形態と類似しており、その相違点は、太い破線であるグラフィック要素8の始点と、細い破線である追加要素とは、タッチディスプレイ2上の1つの位置にシフトしており、それに対して太い破線及び細い破線の終点は、ステップS5.2及びS5.3と同様、対応するオブジェクト「a~h」に繋がったままであることである。
図6は、本発明の第5の実施形態のタッチディスプレイ2上における選択可能なオブジェクト3の選択を示す図であり、これらの選択可能なオブジェクト3にも文字「a~e」が付されている。図6では、図2のS2.1,S2.2及びS2.3に相当する3つのステップS6.1,S6.2及びS6.3が示されている。図2の実施形態と図6の実施形態との相違点は、図6では選択可能なオブジェクト「a~e」はタッチディスプレイ2上のアプリケーションアイコンではなく入力フィールドであることであり、これらの入力フィールドは、複数の行を表す点線として示されているテキストの複数の行に分散している。例えば、文字「a」が付されている第1の入力フィールドは第1行にあり、文字「e」が付されている最後の入力フィールドは第14行にある。ステップS6.1において、選択可能なオブジェクト「a~e」がタッチディスプレイ2上に表示され、円形のタッチセンシング領域上で、又は代替的な一実施形態ではタッチディスプレイ2上で(不図示)第1のタッチコマンド4を実行すると、最初に1つの選択可能なオブジェクト「b」が強調され、上記の択一的実施形態のうち1つの実施形態の第2のタッチコマンド4を実行すると、最初に強調されたオブジェクト「b」を選択することができ、選択後に開始を行うことができる(不図示)。図2における他の選択可能なオブジェクトへのジャンプと同様、図6のステップS6.3における他の選択可能なオブジェクト「a」又は「c~e」へのジャンプは、第2のタッチコマンド4後に実行することができ、ステップS6.3において示されているようにオブジェクト「d」を強調することができる。図6では、オブジェクト「b」からジャンプしてオブジェクト「c」を経てオブジェクト「d」に到達するまでに2回ジャンプが行われること、すなわち第2のタッチコマンドは2回実行しなければならないことが明らかである。

Claims (11)

  1. タッチディスプレイ(2)を備えたタッチセンシング型の電子ハンドヘルドデバイス(1)上で選択を行うための方法であって、
    a)択可能なオブジェクト(3)の第1のサブグループと、選択可能なオブジェクト(3)の第2のサブグループと、を前記タッチディスプレイ(2)上に表示するステップと、ここで、前記択可能なオブジェクト(3)は、前記タッチディスプレイ(2)上の前記択可能なオブジェクト(3)の位置にあるタッチコマンド(4)により選択可能であり、
    b)前記第1のサブグループの前記択可能なオブジェクト(3)のうち1つを強調する強調モードを開始するための第1のタッチコマンド(4)を、前記ハンドヘルドデバイス(1)のタッチセンシング領域(2,5)から受け取って、強調された前記選択可能なオブジェクト(6)を表示するステップと、ただし、前記第1のタッチコマンド(4)の位置は、強調された前記選択可能なオブジェクト(6)の位置とは異なり、
    c)強調された前記選択可能なオブジェクト(6)を選択し、又は前記第1のサブグループの他の選択可能なオブジェクト(3)にジャンプして、前記第1のサブグループにおける強調された前記選択可能なオブジェクト(6)とは別の選択可能なオブジェクト(7)を強調するための第2のタッチコマンド(4)を、前記ハンドヘルドデバイス(1)の前記タッチセンシング領域(2,5)から受け取って、前記第1のサブグループにおける当該強調された別の選択可能なオブジェクト(7)を表示し、第3のタッチコマンド(4)を受け取った後に前記第1のサブグループにおける強調された当該別の選択可能なオブジェクト(7)を選択するステップと、
    を有し、ここで、前記第2のサブグループの前記選択可能なオブジェクトは、前記強調モードにおいて強調されず、前記第2のサブグループの前記選択可能なオブジェクトはタッチコマンドによって直接選択可能であり、
    前記第1のタッチコマンドと前記選択可能なオブジェクトの前記第1のサブグループとの距離は、前記第1のタッチコマンドと前記選択可能なオブジェクトの第2のサブグループとの距離より大きい
    ことを特徴とする方法。
  2. 前記ハンドヘルドデバイスの(1)の前記タッチセンシング領域(2,5)は前記タッチディスプレイ(2)であるか、又は当該タッチディスプレイ(2)の周囲のタッチセンシング面である、
    請求項1載の方法。
  3. 前記第1のタッチコマンド、前記第2のタッチコマンド又は前記第3のタッチコマンドは、シングルタッチコマンド、ショートタッチコマンド、タップ、ダブルタップ、水平方向若しくは垂直方向スクロール、スワイプ、タッチ・アンド・ホールド、前記タッチディスプレイ上でのフリック又は押下、ジェスチャのうち少なくとも1つ又はこれらの組み合わせであり、少なくとも1本の指及び/又は少なくとも2本の指の組み合わせによって実行できるものである、
    請求項1又は2記載の方法。
  4. 前記強調は、幾何学的形状、色及び/若しくはパターンを有する区別性のグラフィック要素及び/若しくは接続要素を用いて、並びに/又は参照要素を用いて、並びに/又はサイズ変更を用いて、どのオブジェクトが選択可能であるか及び/又は前記選択可能なオブジェクトのうちどれが強調されているかを示すことにより行われる、
    請求項1からまでのいずれか1項記載の方法。
  5. 前記タッチコマンドのうち少なくとも1つは、少なくとも一部が垂直方向推移、水平方向推移、カーブ推移、円形推移及び/又は対角線上推移を有する経路に沿って行われる、請求項1からまでのいずれか1項記載の方法。
  6. どの種類の経路が設けられているかを示すため、グラフィック要素を用いて前記経路を可視化する、
    請求項記載の方法。
  7. 前記経路の可視化は、前記選択可能なオブジェクトの強調及び選択の精度を増加するため、前記選択可能なオブジェクトの少なくとも1つのグループに拡大ビューを与えるものである、
    請求項記載の方法。
  8. 前記少なくとも1つの選択可能なオブジェクトはプログラムアイコン、アプリアイコン、入力ボックス、入力フィールド、行で表示される情報、列で表示される情報、Eメール、リンク又はリファレンスである、
    請求項1からまでのいずれか1項記載の方法。
  9. タッチディスプレイ(2)を備えたタッチセンシング型の電子ハンドヘルドデバイス(1)であって、請求項1からまでのいずれか1項記載の方法を実施するために構成された電子ハンドヘルドデバイス(1)。
  10. スマートフォン、タブレットPC、マルチメディアプレーヤ、ウェアラブルデバイス、スマートウォッチ又はノートブックである、
    請求項記載の電子ハンドヘルドデバイス。
  11. コンピュータにより実行されたときに請求項1からまでのいずれか1項記載の方法をコンピュータに実行させる命令を備えたコンピュータ可読記憶媒体。
JP2021528007A 2018-07-26 2018-07-26 強化されたタッチセンシング選択 Active JP7421230B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2018/055608 WO2020021313A1 (en) 2018-07-26 2018-07-26 Enhanced touch sensitive selection

Publications (2)

Publication Number Publication Date
JP2021533511A JP2021533511A (ja) 2021-12-02
JP7421230B2 true JP7421230B2 (ja) 2024-01-24

Family

ID=63364116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021528007A Active JP7421230B2 (ja) 2018-07-26 2018-07-26 強化されたタッチセンシング選択

Country Status (6)

Country Link
US (1) US11928327B2 (ja)
EP (1) EP3814881A1 (ja)
JP (1) JP7421230B2 (ja)
KR (1) KR20210053288A (ja)
CN (1) CN113330408A (ja)
WO (1) WO2020021313A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072489A (ja) 2004-08-31 2006-03-16 Toshiba Corp 情報処理装置および表示制御プログラム
JP2008065476A (ja) 2006-09-05 2008-03-21 Denso Corp 操作システム
JP2009076044A (ja) 2007-09-18 2009-04-09 Palo Alto Research Center Inc ジェスチャを行うことによってユーザ・インターフェース内のオブジェクトを選択するための方法および装置
JP2010271982A (ja) 2009-05-22 2010-12-02 Nec Casio Mobile Communications Ltd 携帯端末装置及びプログラム
US20160110056A1 (en) 2014-10-15 2016-04-21 Samsung Electronics Co., Ltd. Method and apparatus for providing user interface
JP2018503209A (ja) 2015-01-06 2018-02-01 オラクル・インターナショナル・コーポレイション モバイルコンピュータシステムのグラフィカルユーザーインターフェースにおける利用可能項目の選択方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7441207B2 (en) * 2004-03-18 2008-10-21 Microsoft Corporation Method and system for improved viewing and navigation of content
US8315672B2 (en) * 2008-12-01 2012-11-20 Research In Motion Limited Portable electronic device and method of controlling same
US8990732B2 (en) * 2010-05-14 2015-03-24 Sap Se Value interval selection on multi-touch devices
US20120030566A1 (en) * 2010-07-28 2012-02-02 Victor B Michael System with touch-based selection of data items
US9169025B2 (en) * 2012-02-27 2015-10-27 Borealis Technical Limited Method for inflight deicing of landing gear and wheel bays in aircraft with onboard drive means
KR20140017429A (ko) * 2012-08-01 2014-02-11 삼성전자주식회사 화면 동작 방법 및 그 전자 장치
KR20150069801A (ko) 2013-12-16 2015-06-24 삼성전자주식회사 화면 제어 방법 및 그 전자 장치
US10613732B2 (en) * 2015-06-07 2020-04-07 Apple Inc. Selecting content items in a user interface display
US20170068416A1 (en) * 2015-09-08 2017-03-09 Chian Chiu Li Systems And Methods for Gesture Input
WO2018019050A1 (zh) * 2016-07-25 2018-02-01 北京拉酷网络科技有限公司 基于触敏表面—显示器的手势控制交互方法与设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072489A (ja) 2004-08-31 2006-03-16 Toshiba Corp 情報処理装置および表示制御プログラム
JP2008065476A (ja) 2006-09-05 2008-03-21 Denso Corp 操作システム
JP2009076044A (ja) 2007-09-18 2009-04-09 Palo Alto Research Center Inc ジェスチャを行うことによってユーザ・インターフェース内のオブジェクトを選択するための方法および装置
JP2010271982A (ja) 2009-05-22 2010-12-02 Nec Casio Mobile Communications Ltd 携帯端末装置及びプログラム
US20160110056A1 (en) 2014-10-15 2016-04-21 Samsung Electronics Co., Ltd. Method and apparatus for providing user interface
JP2018503209A (ja) 2015-01-06 2018-02-01 オラクル・インターナショナル・コーポレイション モバイルコンピュータシステムのグラフィカルユーザーインターフェースにおける利用可能項目の選択方法

Also Published As

Publication number Publication date
WO2020021313A1 (en) 2020-01-30
EP3814881A1 (en) 2021-05-05
KR20210053288A (ko) 2021-05-11
US20210149560A1 (en) 2021-05-20
US11928327B2 (en) 2024-03-12
CN113330408A (zh) 2021-08-31
JP2021533511A (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
US9152317B2 (en) Manipulation of graphical elements via gestures
US20140351758A1 (en) Object selecting device
US9176657B2 (en) Gesture-based selection and manipulation method
KR102228335B1 (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법
EP3336672A1 (en) Method and apparatus for providing graphic user interface in mobile terminal
US9870144B2 (en) Graph display apparatus, graph display method and storage medium
KR20170040283A (ko) 애플리케이션 윈도우에 대한 동적 조인트 디바이더
CN102520860A (zh) 一种进行桌面显示控制的方法及移动终端
US11099723B2 (en) Interaction method for user interfaces
US20150363048A1 (en) System and method for touch ribbon interaction
JP5861637B2 (ja) 情報端末装置及びタッチパネルの表示方法
US9870122B2 (en) Graphical user interface for rearranging icons
JP6041742B2 (ja) タッチパネル表示制御装置
KR20160004590A (ko) 전자 장치의 화면 표시 방법 및 전자 장치
CN104007920A (zh) 在电子测试装备上选择波形的方法
EP3278203A1 (en) Enhancement to text selection controls
JP6145550B2 (ja) オブジェクト処理方法、プログラムを記録する記録媒体及び情報処理装置
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
JP6131004B2 (ja) オブジェクト表示方法、プログラム、及び装置
US20180188940A1 (en) Control input method and device for executing the same
AU2015297289B2 (en) Wearable device and method of operating the same
JP7421230B2 (ja) 強化されたタッチセンシング選択
KR101366170B1 (ko) 항목의 상태 변경을 위한 사용자 인터페이스
KR20150098366A (ko) 가상 터치패드 조작방법 및 이를 수행하는 단말기
JP6270109B2 (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220804

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230613

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240104

R150 Certificate of patent or registration of utility model

Ref document number: 7421230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150