JP6711616B2 - グラフィック要素の選択 - Google Patents

グラフィック要素の選択 Download PDF

Info

Publication number
JP6711616B2
JP6711616B2 JP2015255022A JP2015255022A JP6711616B2 JP 6711616 B2 JP6711616 B2 JP 6711616B2 JP 2015255022 A JP2015255022 A JP 2015255022A JP 2015255022 A JP2015255022 A JP 2015255022A JP 6711616 B2 JP6711616 B2 JP 6711616B2
Authority
JP
Japan
Prior art keywords
touch
window
user
pointer
user interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015255022A
Other languages
English (en)
Other versions
JP2016129019A (ja
Inventor
ダワリ アヴィナーシュ
ダワリ アヴィナーシュ
ガーデ サミール
ガーデ サミール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dassault Systemes SE
Original Assignee
Dassault Systemes SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dassault Systemes SE filed Critical Dassault Systemes SE
Publication of JP2016129019A publication Critical patent/JP2016129019A/ja
Application granted granted Critical
Publication of JP6711616B2 publication Critical patent/JP6711616B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Description

本発明は、一般には、コンピュータプログラムおよびシステムの技術分野に関し、より詳細には、グラフィック要素の選択方法に関する。
グラフィカルユーザインタフェース(GUI)は、ユーザと、例えば、パーソナルコンピュータ、ラップトップ、音楽プレーヤ、携帯電話、携帯情報端末といったデバイスとの間のインタラクションの効率に関して重要な役割を果たす。このようなデバイスは、機能を遂行するさまざまなアプリケーションおよびプログラムを実行する。
通常、ユーザは、GUI要素として表示デバイスに表示されるメニュー、ツールバー、アイコン、および他のグラフィックを介してアプリケーションおよびプログラムとインタラクトする。例えば、コンピュータ支援設計(CAD)技術の分野において、製品を形成する、オブジェクト(または部品)またはオブジェクトのアセンブリの設計用に、ダッソーシステムズの商標CATIAに基づいて提供される製品など、いくつかのシステムおよびプログラムが市販されている。CADシステムは、ユーザがGUIを介してオブジェクトまたはオブジェクトのアセンブリの複雑な3次元(3D)モデルを構築して操作できるようにさせる。
従来、動作は、ユーザによって動作されるポインタを用いたグラフィックインタラクションによって遂行される。ポインタは、デバイスのGUIで表示され、そしてマウス、トラックボール、グラフィックタブレットなどといったポインティングデバイス経由で動作される。物理的ボタン(例えば、押しボタン)またはキーボードなど、周辺入力デバイス経由で動作を遂行することも可能である。最近になって、接触感応(touch-sensitive)ディスプレイが開発された。接触感応ディスプレイは、ユーザとデバイスとの間の新しい種類のインタラクションを提供する。接触感応ディスプレイは、例えば、ディスプレイ上のユーザの指の接触など、表示エリア上の付着物(appendage)の存在、位置およびモーションを検知することができる。接触感応ディスプレイは、従って、従来のポインティングデバイスに取って代わる入力インタフェースを提供する。さらに、接触感応ディスプレイはまた、出力インタフェースも提供する。
接触感応ディスプレイは、接触感応表面を備え、それによりこの表面とのユーザの任意の接触または近接インタラクションを検知できる。抵抗、表面音響波、赤外線、および容量技術を含む、いくつかのタイプの接触感応ディスプレイ技術が開発されているが、これらに限定されない。インタラクションは、典型的には、スタイラス、指などの付着物を介して接触感応ディスプレイに提供される。ユーザインタラクションの検知は、付着物が直接接触感応ディスプレイと接触する−付着物が接触感応ディスプレイにタッチする時に遂行され、ユーザインタラクションの検知は、付着物が接触感応ディスプレイから所与の距離に置かれている−付着物が接触感応ディスプレイにタッチしなくてよい時にも遂行され得る。ユーザインタラクションは従って、ユーザに表示されるものに対して直接遂行される。
一般に、接触感応ディスプレイを備えるデバイスは、もはやポインティングデバイスおよび/または周辺入力デバイスを備えていない。これにより、従来ポインティングデバイスおよび/または周辺入力デバイスを用いて行われていた一部の動作をユーザが遂行できない可能性がある。しかしながら、接触感応画面に表示されるグラフィック要素の正確な選択は、指では非常に困難であり、スタイラスでも困難である。一般に、指/ポインティングデバイス単独を使用して正確な選択をすることは、困難である。なぜならば、指またはポインティングデバイス(例えば、スタイラス)は、付着物と直接接触している画面のエリアにオクルージョン(occlusion)を生成し、付着物および目と表示画面との間に手が置かれることによってユーザの視界が狭まり、そしてユーザは、現在選択されているものを見ることができないからである。さらに、選択されるグラフィック要素が接近していれば、ユーザが特定のグラフィック要素を正確に選択することがさらに困難になる。これは、一部には、指または手で握られた付着物特有のジッターが原因であり、一部には、画面上のタッチポイントの動きを正確に制御する能力が指/ポインティングデバイスの動きを制御する能力よりも低いことが原因であるので困難である。典型的には、タッチポイントの変位は、指/ポインティングデバイスの変位と同じである。別の問題は、タッチポインタの感度が上がらないこと:タッチポインタの動きが指またはポインティングデバイスの動きと全く同じであり、これによりタッチポインタの動きの精度を欠くことになる。さらなる問題は、ユーザが正確な選択を行うためにビューをズームインしなければならず、その後、元のスケールに戻して作業を継続するためにズームアウトしなければならないことであり、これは、ユーザにとって煩雑な動作であり、時間のかかるプロセスであり、そしてタブレットなど、接触感応ディスプレイを有するデバイスに限定されるコンピュータ資源をさらに要求する。
一部のソリューションが開発されている。しかしながら、それらのソリューションは、いくつかの欠点を抱える。主に、ユーザは、タッチ入力を使用してポインタをピクセルずつ移動するために、ディスプレイのすべてのエリアに到達するためになおも困難に遭遇する。さらに、ソリューションがポインタのオフセットとポインタの減速との組み合わせを使用する場合、ユーザがポインタを正しく移動させることは困難である。さらに、デュアルフィンガー技術は、正確さを高めるが、ユーザフレンドリーでなく、特に、デュアルフィンガースライダを使用するソリューションではユーザフレンドリーでない。
従って、上記に簡単に論じた既存のソリューションの制限により、接触感応ディスプレイ上のグラフィック要素を選択するための改善方法が必要である。好適には、その方法は、ユーザに直感的で人間工学的でなければならない、ジェスチャーの正確さを改善しなければならない。
本発明は、従って、接触感応ディスプレイに表示されるグラフィック要素を選択するためのコンピュータ実装方法を提供する。その方法は、グラフィック要素を接触感応ディスプレイに表示すること、接触感応ディスプレイ上の第1のユーザインタラクションの第1の位置を検知すること、ウィンドウをディスプレイに表示することであって、そのウィンドウは、グラフィック要素を選択するポインタを備えること、第1のユーザインタラクションの第1の位置の周囲のエリアをウィンドウにレンダリングすること、接触感応ディスプレイ上の第2のユーザインタラクションを検知すること、接触感応ディスプレイ上の第2のユーザインタラクションの移動を検知すること、および第2のユーザインタラクションの移動に従ってポインタをウィンドウ内で移動することを備える。
その方法は、以下をさらに備えることができる。
−第2のユーザインタラクションの移動は、移動方向と移動距離を備え、そしてポインタは、同じ移動方向および第2のユーザインタラクションの移動距離に比例する移動距離で移動される。
−ポインタの移動距離は、縮小係数を適用することによって比例縮小される。
−ユーザアクションの後、縮小係数を選択すること。
−ポインタの移動のステップの後、接触感応ディスプレイ上の第1の位置から第2の位置への第1のユーザインタラクションの移動を検知するステップと、接触感応ディスプレイ上の第2の位置の周囲のエリアをウィンドウにレンダリングするステップ。
−接触感応ディスプレイ上の第2の位置の周囲のエリアをウィンドウにレンダリングすることは、第1の位置から第2の位置に移動する間、ウィンドウにおいて、第1のユーザインタラクションの中間位置の周囲のエリアのリアルタイムレンダリングを遂行することをさらに備える。
−第1のユーザインタラクションの移動に従ってウィンドウを移動すること。
−ウィンドウが移動する間、ポインタは、ウィンドウ内で不動のままである。
−第2のユーザインタラクションは、接触感応ディスプレイ上で保持される。
−第1のユーザインタラクションは、接触感応ディスプレイ上で保持される。
−ポインタを移動した後、第1および第2のユーザインタラクションの欠如を検知するステップと、ポインタの下にあるグラフィック要素を選択するステップ。
−接触感応ディスプレイからウィンドウを除去すること。
−ウィンドウにレンダリングされたエリアは、拡大または縮小係数に基づいて拡大または縮小される。
コンピュータに上記の方法のステップをとるようにさせる命令を備える、グラフィック要素を選択するコンピュータプログラムがさらに提供される。
メモリに通信可能に結合されたプロセッサ、および接触感応ディスプレイを備え、そのメモリは、上記のコンピュータプログラムを格納する、グラフィック要素を選択するコンピュータシステムもまた提供される。
本発明を具体化するシステムは、限定されない例として、添付図面を参照して次に説明される。
本発明の例を示すフローチャートである。 本発明の例を示すスクリーンショットである。 本発明の例を示すスクリーンショットである。 本発明の例を示すスクリーンショットである。 本発明の例を示すスクリーンショットである。 本発明の例を示すスクリーンショットである。 本発明の例を示すスクリーンショットである。 本発明を遂行するシステムの例を示す図である。
本発明は、接触感応ディスプレイに表示されるグラフィック要素を選択するためのコンピュータ実装方法に向けられている。その方法は、グラフィック要素を接触感応ディスプレイに表示するステップを備える。その方法はまた、接触感応ディスプレイ上の第1のユーザインタラクションの第1の位置、例えば、ユーザが指で画面をタッチすることを検知するステップも備える。その方法は、ウィンドウをディスプレイに表示するステップをさらに含む。ウィンドウは、好適には、第1の位置から一定の距離のオフセットで表示される。ウィンドウは、そのウィンドウ内に表示されるグラフィック要素の1つを選択するポインタを備える。さらに、その方法は、第1のユーザインタラクションの第1の位置の周囲のエリアをウィンドウにレンダリングすることを備える。その方法は、接触感応ディスプレイ上の第2のユーザインタラクション、例えば、ユーザが第2の指で画面をタッチすることを検知することをさらに備える。次に、その方法は、接触感応ディスプレイ上の第2のユーザインタラクションの変位(または移動)、例えば、ユーザが画面上の自分の第2の指をスライドすることを検知することを備える。ウィンドウに表示されるポインタは、接触感応ディスプレイ上の第2のユーザインタラクションに従って移動される。
その方法は、接触感応画面に表示されるグラフィック要素の選択を改善する。発明は、任意のサイズを有する任意のグラフィック要素に使用することができる。特に、発明の方法は、表示される時、例えば、寸法がわずか(2または3)のピクセル以下である小さいサイズを有するグラフィック要素をユーザが選択できるようにさせる。このような種類のインタラクションは、ユーザがジオメトリ構築プロセスの一部として正確なポイントを画面に入力する必要があるか、または一部の修正動作を遂行するために他の隣接ジオメトリの中からジオメトリ(またはその一部)を選択しなければならない、このようなCAD製品に必要であることが多い。任意の種類のグラフィック要素、例えば、これらの要素のポイント、ライン、面または集合体を選択することができる。発明は、例えば、モデルを形成する他のフィーチャの中からフィーチャを選択するために使用することができる。本発明は、選択されるグラフィック要素が配置された主タッチ(primary touch)の周囲のディスプレイのエリアを複製するウィンドウの内側にポインタを正確に移動するための副タッチ(secondary touch)を使用する。ユーザが副タッチを移動する間、主タッチは、検知された位置で一定に保たれ、そして(主タッチによってオクルードされたグラフィック要素を示す)周囲のエリアのウィンドウのビューは、変わらない。(デフォルトではウィンドウの中心になり得る)ポインタのみウィンドウ内で移動する。このポインタ(クロスヘアポインタであってよい)は、タッチポインタを表し、このポインタの下にある要素は、選択されていると見なされる。グラフィック要素の選択は、そのタスク専用のウィンドウ内で遂行される。有利には、もはやユーザビューがユーザ自身の指でオクルードされない。従って、ユーザはこれより、間隔が狭いグラフィック要素の選択がより正確になる。さらに、ポインタは、主指(primary finger)からオフセットされず、従って、画面のすべてのエリアがアクセス可能のままである。また、ポインタモーションは、副タッチに比例し、主タッチに比例せず、従って、ユーザの知覚の乖離がより少なくなる。さらに、本発明は、ズームイン、選択およびズームアウトに費やされるであろうユーザの時間を省く。興味深いことに、この発明は、必要であり、ユーザの通常のワークフローを邪魔しない場合のみ実施される。
本方法は、コンピュータ実装される。これは、方法のステップ(または実質的にはすべてのステップ)が少なくとも1つのコンピュータ、または同様の任意のシステムによって実行されるという意味である。従って、方法のステップは、コンピュータによって、可能性として完全に自動的に、または半自動的に遂行される。例において、方法の少なくとも一部のステップのトリガリングは、ユーザ−コンピュータインタラクションを介して遂行され得る。必要とされるユーザ−コンピュータインタラクションのレベルは、予測される自動性(automatism)およびユーザの要望を満たす必要性のバランスを取るレベルに応じて異なり得る。例において、このレベルは、ユーザ定義および/または事前定義となる。
例えば、縮小係数を選択するステップ(S110)およびS160において第2のユーザインタラクションを移動するステップが、ユーザアクションの後トリガされる。
コンピュータ実装方法の典型的な例は、この目的に適応したシステムを用いる方法を遂行することである。そのシステムは、メモリに結合されたプロセッサおよびグラフィカルユーザインタフェース(GUI)を備えることができ、メモリは、その方法を遂行する命令を備えるコンピュータプログラムを記録している。メモリはまた、データベースを格納することもできる。メモリは、可能性としていくつかの物理的に区別できる部分(例えば、1つはプログラム用、および可能性として1つはデータベース用)を備える格納に適応した任意のハードウェアである。
「データベース」は、探索および読み出しを行うために体系化されたデータの任意の集合(即ち、情報)を意味する。メモリに格納された場合、データベースは、コンピュータによる高速な探索および読み出しを可能にする。データベースは、実際には、さまざまなデータ処理動作と共にデータの格納、読み出し、修正、および削除を容易にするために構造化されている。データベースは、レコードに細分化されるファイルまたはファイルのセットから成り、各レコードは1または複数のフィールドから成る。フィールドは、データストレージの基本単位である。ユーザは、主としてクエリを介してデータを読み出すことができる。キーワードおよびソーティングコマンドを使用して、ユーザは、使用されているデータベース管理システムのルールに従って、データの特定の集合体に対するレポートを読み出すまたは生成する多数のレコードのフィールドを素早く探索し、再配列し、グループ化し、そして選択することができる。
本発明において、選択可能なグラフィック要素をデータベースに格納できる。
図8は、発明の方法を遂行するためのシステムの例を示している。システムは、典型的には、コンピュータ、例えば、タブレットである。図8のコンピュータは、内部通信バス1000に接続された中央処理装置(CPU)1010を備え、ランダムアクセスメモリ(RAM)1070もまた、バスに接続されている。コンピュータは、バスに接続されたビデオランダムアクセスメモリ1100と関連付けられた画像処理装置(GPU)1110をさらに備える。ビデオRAM1100もまた、フレームバッファとして当技術分野では周知である。大容量ストレージデバイスコントローラ1020は、ハードドライブ1030など、大容量メモリデバイスへのアクセスを管理する。コンピュータプログラム命令およびデータを有形に具体化するのに適した大容量メモリデバイスは、例として、EPROM、EEPROM、およびフラッシュメモリなど、半導体メモリデバイスと、内部ハードディスクおよびリムーバブルディスクなど、磁気ディスクと、光磁気ディスクと、CD−ROMディスク1040とを含む、あらゆる形態の不揮発性メモリを含む。上述のいずれのメモリも、特別に設計されたASIC(特定用途向け集積回路)によって補完または組み込まれ得る。ネットワークアダプタ1050は、ネットワーク1060へのアクセスを管理する。コンピュータはまた、ポインタ制御デバイス(カーソル制御デバイスとも呼ばれる)などといった触覚デバイス1090も含むことができる。ポインタ制御デバイスは、ユーザが接触感応ディスプレイ1080上の任意の所望の配置にポインタ(カーソルとも呼ばれる)を選択的に位置付けすることを可能にするコンピュータにおいて使用される。接触感応ディスプレイ(タッチ画面とも呼ばれる)は、コンピュータに取り付けられたハードウェア表示装置であり、その前面で行われるタッチに応答する。接触感応ディスプレイは、1つ、2つまたは多数の同時タッチをサポートすることができる。さらに、ポインタ制御デバイスは、ユーザがさまざまなコマンドを選択して、制御信号を入力できるようにさせる。ポインタ制御デバイスは、入力制御信号をシステムに送るいくつかの信号発生デバイスを含む。典型的には、接触感応ディスプレイ上のポインタ制御デバイスは、指、スタイラスであってよい付着物であるが、これらに限定されない。接触感応ディスプレイの状況において、触覚デバイス1090(タッチスクリーンセンサおよびそれに付随するコントローラベースのファームウェア)は、接触感応ディスプレイに統合される。
本発明は、コンピュータプログラムによって実装することができる。コンピュータプログラムは、コンピュータによって実行可能な命令備え、その命令は、上記のシステムに方法を遂行させる手段を備える。プログラムは、システムのメモリを含む、任意のデータストレージ媒体上で記録可能にすることができる。プログラムは、例えば、デジタル電子回路に実装されるか、またはコンピュータハードウェア、ファームウェア、ソフトウェア、またはそれらの組み合わせにおいて実装できる。プログラムは、装置、例えば、プログラマブルプロセッサによって実行される機械読取り可能ストレージデバイスに有形に具体化されるコンピュータプログラム製品として実装され得る。発明の方法ステップは、入力データで動作して出力を発生させることによって方法の機能を遂行する命令のプログラムを実行するプログラマブルプロセッサによって遂行され得る。プロセッサは、従って、プログラマブルであり、データストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信して、それらにデータおよび命令を送信するために結合され得る。アプリケーションプログラムは、高レベルの手続き型またはオブジェクト指向のプログラミング言語か、または必要に応じてアセンブリ言語または機械語に実装され得る。いずれの場合も、それらの言語は、コンパイラ型またはインタープリタ型言語になり得る。プログラムは、フルインストールプログラムまたは更新プログラムであってよい。システムのプログラムのアプリケーションの結果として、いずれの場合も方法を遂行する命令となる。
次に図1を参照すると、ステップS100において、少なくとも1つのグラフィック要素がシステムによって接触感応ディスプレイ上、例えば、図8のディスプレイ1080に表示されている。オブジェクトの表示は、当技術分野では周知のように遂行される。グラフィック要素(グラフィックコンポーネントまたは単にグラフィックとも呼ばれる)という語は、ユーザによって部分的または全体的に選択され得る表示可能なオブジェクトを意味する。オブジェクトという語は、アイコン、モデル化オブジェクト、メニュー、頂点、エッジ、面、フィーチャ(フィーチャベースのモデル化オブジェクト)、ジオメトリ、および他のグラフィックを含むが、これらに限定されない。より一般的には、グラフィック要素は、ディスプレイ上に表される任意の情報であり、例えば、オブジェクトは、選択することができる最小のグラフィック要素であるピクセルで表すことができる。オブジェクトは、モデル化オブジェクト、例えば、CAD(Computer-Aided Design)ソフトウェアを用いてモデル化される3次元モデル化オブジェクトであってよい。
図2−図7において、接触感応ディスプレイに表示された2つのグラフィック要素12、14を有するオブジェクト10を示している。
本方法のステップは、接触感応ディスプレイに表示されるグラフィカルユーザインタフェース(GUI)上で実施されることを理解されたい。GUIは、ユーザがコンピュータシステムとインタラクトできるようにさせるグラフィカルインタフェースである。インタラクションは、一般的には、ユーザが選択可能なアイコンのセットを包含するメニューおよびツールバーを用いて遂行され、各アイコンは、当技術分野では周知のように、1または複数の動作または機能と関連付けられる。GUIはさらに、さまざまなタイプのツールを示すことができ、例えば、コンピュータ支援設計(CAD)システムのGUIは、オブジェクトの3D配向を容易にし、編集した製品の動作のシミュレーションをトリガするまたは表示される製品のさまざまな属性をレンダリングするためのグラフィックツールを備えることができる。本発明は、ユーザインタラクションを受け取る任意の種類のGUI上で実施することができることを理解されたい。
次に、ステップS110において、タッチポインタの移動距離の縮小係数が選択される。このポインタは、ステップS120のユーザアクションの結果として表示されるウィンドウ内で表示される。ポインタの移動距離の縮小係数は、ユーザがタッチポインタの感度を設定できるようにさせる。この設定は、あるセッションから次のセッションへと格納される。従って、移動距離の縮小係数は、グラフィック要素の所与の選択プロセスに対するユーザアクションの後に選択され得るか、またはシステムが当該係数のデフォルト値を選択することができる。ポインタの感度は、任意の値にすることができることを理解されたい。縮小係数は、ポインタのパラメータであり、当該パラメータの値が選択されることを理解されたい。任意の値を、ポインタの移動距離の縮小係数と関連付けることができる。実際には、ユーザは、1xを2xから10xまで(両方とも含む)インクリメントする範囲でポインタの感度を設定するオプションが与えられる。例えば、縮小係数の値が1/2ならば、これは、ポインタの移動距離がこの値1/2を用いて比例縮小され、ポインタの変位は、ポインタの動きを制御するユーザインタラクションの変位と比較して2倍(2x)に縮小されるという意味である。
次に、ステップS120において、ユーザは、第1のユーザアクションを遂行する:第1のユーザインタラクションは、接触感応ディスプレイ上で行われる。その結果、接触感応ディスプレイ上の第1のユーザ位置が検知される、または判定される。第1の位置の検知は、当技術分野では周知のように遂行される。位置は、ユーザインタラクションを生じさせる入力が遂行される接触感応ディスプレイ上の位置である。一般に、接触感応ディスプレイは、ユーザと、選択するオブジェクトが配置された空間との間の2次元(2D)インタフェースである。空間は、2Dまたは3Dであってよい。ユーザインタラクションを生じさせる入力は、従って、2Dまたは3D空間向けの2Dインタフェースで遂行される。2D空間において、第1のユーザインタラクションの位置は、例えば、接触感応ディスプレイ上の座標系に従って判定され得る。3D空間において、3D空間の第1のユーザインタラクションの3D位置が計算され得る。この3D空間の3D位置の計算は、例えば、当技術分野では周知のピッキング、例えば、レイトレーシングの技術によって実現され得る。
ユーザインタラクションは、ユーザが選択したいグラフィック要素上で行われるか、または−グラフィック要素が正確な選択を行うのに小さすぎる場合、選択されるグラフィック要素の少なくとも近傍で行われる。実際には、付着物は、接触感応ディスプレイと接触しており、例えば、ユーザの指16がオブジェクト10を押している−より正確には、指の位置は、ユーザが選択したいと望むオブジェクト10のグラフィック要素14の近くにある。
ユーザインタラクションは、ユーザによって提供される接触感応ディスプレイ上の入力である。入力は、接触感応ディスプレイによってコンピュータに送信される信号を発生させる。コンピュータ、例えば、パーソナルコンピュータ、ラップトップ、音楽プレーヤ、携帯電話、携帯情報端末は、それらに適用される任意の入力または動きまたは入力の中断を検知することができる。従って、デバイスは、OS(Operating System)からのタッチサポートを有する。ハードウェア(タッチ画面)に加え、コンピュータ上で稼働するOSは、タッチインタラクションもサポートしなければならない。プログラムは、OSからのタッチイベント、例えば、接触感応ディスプレイに表示されるGUIを受信する。
第1のユーザインタラクションは、当該ディスプレイ上のタッチイベントが他にない場合の接触感応ディスプレイのタッチ表面のいわゆるDOWNイベントである。第1のユーザインタラクションは、次のステップが実施される間、接触感応ディスプレイ上で保持され得る。
次に、ステップS130において、ウィンドウは、接触感応ディスプレイに表示される。ウィンドウという語は、ウィンドウが属するプログラムのグラフィカルユーザインタフェースの一部を包含するビジュアルエリアを備えるグラフィック制御要素を意味する。ウィンドウは、ユーザが第1のユーザインタラクションの位置を保持する(典型的には、当技術分野ではHOLDイベントと呼ばれる)間に経過する一定時間の後のみ示される。
ウィンドウは、S110において縮小係数が選択されたポインタを備える。ポインタは、好適には、ユーザがそのポインタを見ることできるように表示され、これは、グラフィック要素の選択を容易にする。ポインタは常に、ウィンドウの内側に配置され、ウィンドウと共に移動し、ウィンドウの外側に移動することができない。従って、ポインタは常に、ウィンドウ内にとどまる。ウィンドウの内側のポインタは、表示されてGUIに使用されるその他のポインタ、例えば、アプリケーションを起動するカーソルとは異なる。
ウィンドウおよびポインタの表示は、第1のユーザインタラクションの後にトリガされる。例えば、図2に示すように、ユーザがディスプレイとインタラクトした後、ウィンドウ20およびポインタ24は、図3に示すように表示される。ウィンドウは、従って、ユーザインタラクションに基づいて現れたり消えたりする、ポプアップウィンドウである。
さらに図3の参照において、ウィンドウは、円形(円環)であり、ウィンドウ装飾で枠付けされる。例えば、ウィンドウが長方形または正方形である、任意の形を使用することができることを理解されたい。ウィンドウ装飾は、表示されない場合もある。ポインタは、デフォルトではウィンドウの中心に配置され、ポインタは、表示される時にウィンドウ内の任意の配置、例えば、グラフィック要素の前の選択の結果として生じる位置に位置付けることができことを理解されたい。
興味深いことに、ウィンドウは、第1のユーザインタラクションの位置から所定の位置のオフセットで接触感応ディスプレイ上に置かれる。例えば、第1のユーザインタラクションからの所定の方向および距離は、ウィンドウの位置を取得するために使用され得る。典型的には、方向および距離は、ウィンドウが第1のユーザインタラクションの近傍に置かれるように選択される。例えば、図3の例において、ウィンドウ20と指16の第1の位置との間の距離は、所定の数のピクセルを超えることができず(その距離は、ユークリッド距離になる可能性もある)そしてウィンドウは、指16の左側に置かれる。ウィンドウは、従って、ユーザの視界に入り、そして指16の手(ここでは右手)はウィンドウを隠さず、ユーザは、従って、グラフィック要素を選択するために遂行される次の動作を見ることができる。所定の方向および距離は、ユーザアクションの後にカスタマイズされ得る。例えば、ユーザが左利きであれば、そのユーザは、ウィンドウが指16の右側に置かれることを好むであろうし、または指が表示エリアの左/右/上/下のエッジ近くにある場合、ウィンドウは、指のそれぞれ、右/左/下/上に置かれる。またはステップS150およびS160における副タッチインタラクションがウィンドウに近づく場合、ウィンドウは、副タッチインタラクションを妨げないように適切に移動する。
次に、ステップS140において、第1のユーザインタラクションの第1の位置の周囲のエリアは、ステップS130において表示されるウィンドウ内にレンダリングされる。そうでなければ、第1の位置の周りで表示されるコンテンツの一部は、ウィンドウにおいて複製される(または表示される)。実際には、第1の位置の周囲の所定のエリアは、ウィンドウと同じ表面エリアを有するので、ウィンドウにおいて拡大がない。従って、ウィンドウに表示されるコンテンツは、第1の位置の中心にあれば、例えば、ウィンドウの重心が第1の位置と一致すれば、ウィンドウ(ウィンドウ装飾で枠付けされていない)が回復するだろうコンテンツと同じである。
ウィンドウにおいて拡大があり得る。この場合、第1の位置の周囲のエリアは、拡大を用いない一般的な場合と比較して縮小される。拡大係数(倍率とも呼ばれる)は、一定にすることができ、または例えば、ステップS110においてユーザが移動距離の縮小係数を選択する時のユーザアクションの後、選択することができる。拡大は、ウィンドウにレンダリングされて表示されるエリアが、ステップS100において表示されるエリアと比較して外見が大きくなったという意味である。逆に、ウィンドウの表示は、例えば、ステップS110におけるユーザアクションの後に選択される、縮小係数(縮小率とも呼ばれる)に基づいて縮小され得る。
拡大がない場合は、ウィンドウに表示されるコンテンツは、すでにタッチ画面に表示されているコンテンツのコピーであり、計算資源の消費は、従って、拡大を行う場合に比べて抑えられる。
図3において、ウィンドウ20は、点線の円(dotted circle)26内のコンテンツを複製する。ウィンドウ20および点線の円26は、同じ直径および同じエリアを有する。点線の円は、第1のユーザインタラクションの第1の位置の周囲のエリアを区切り、第1の位置の中心になる。ここでの点線の円26は、例示のみを目的として表されている。
次に、ステップS150において、第2のユーザインタラクションが接触感応ディスプレイ上で検知される。このステップは、ステップS120と同じやり方で遂行される。実際には、付着物は、接触感応ディスプレイと接触しており、例えば、図4に示すように、ユーザの左手の第2の指18がタッチ画面を押す。好適には、第2のユーザインタラクションは、第1の位置に位置されず、そしてウィンドウ上で遂行されない。
次に、ステップS160において、第2のユーザインタラクションの移動は、接触感応ディスプレイ上で検知され、そしてポインタは、第2のユーザインタラクションの移動に従ってウィンドウ内で移動する。第2のユーザインタラクションの移動または変位は、典型的には、接触感応ディスプレイ上の第2のユーザインタラクションのスライドである。ここでのスライディングは、変位が実施されている間、第2のユーザインタラクションが常に検知されている(つまり、接触感応ディスプレイに継続的に接触している)という意味である。
第2のユーザアクションの移動は、移動距離および移動方向を備える。その移動はまた、当技術分野では周知のように、移動加速度も備えることができる。ポインタは、当技術分野では周知のように、第2のユーザインタラクションと同じ移動方向で移動する。ポインタの移動距離は、第2のユーザインタラクションの移動距離に比例する。これは、ポインタが、第2のユーザインタラクションによって進む距離と同じ距離、それよりも長い距離または短い距離を進むことができるという意味である。実際には、ポインタの移動距離は、ユーザがポインタを選択されるグラフィック要素により移動しやすくできるように縮小される。これによってユーザがより確実な選択を遂行できるようになる。このため、ポインタの移動距離は、ステップS110において選択された縮小係数を使用して縮小される。
図5は、ステップS160を示している。第2のユーザインタラクションは、第1の位置260から第2の位置262へスライドする指18によって生成される。第2のユーザインタラクションの移動は、点線の矢印26で表される。ポインタ24は、第2のユーザインタラクションの変位方向に従っているが、ポインタの移動距離がすでに選択された縮小係数の適用によって縮小されるので、より短い距離で進む。ポインタの移動は、点線の矢印28で表される。従って、ポインタの動きの制御は、削減係数をポインタの変位に適用するおかげでより的確になる。点線矢印26および28は、例示のみを目的として付加されている。
ポインタの移動は、リアルタイムで遂行される。つまり、ポインタは、第2のユーザインタラクションの変位が検知される同じ時間において変位する。実際には、接触感応ディスプレイは、触覚デバイス1090を形成するタッチスクリーンセンサのグリッドを備え、そして第2のユーザインタラクションの移動は、位置のセットに離散化され、各位置は、ユーザインタラクションによってアクティブ化されるセンサに対応している。従って、アクティブ化されたセンサ毎に、第2のユーザインタラクションの新しい位置が計算され、そしてポインタは、そのポインタの新しい位置が第2のユーザインタラクションの新しい位置を反映するように移動される。このようにして、ポインタは、リアルタイムで第2のユーザインタラクションの変位に従う。
プロセスのこのステップにおいて、ユーザは、ポインタの位置:ポインタが彼/彼女が選択したいグラフィック要素の上にある、ことにより満足することができる。ポインタがグラフィック要素の上にある時、そのグラフィック要素を選択することができる−それは、事前選択された状態であり、ユーザが、表示されたグラフィック要素の中からどのグラフィック要素を選択できるかを分かりやすくできるように強調されてもよい。例えば、強調は、グラフィック要素のハイライトのおかげで実施され得る。ハイライトは、表現に発光色を適用することである。強調はまた、グラフィック要素の点滅、強調されるグラフィック要素の輪郭を太くすること、または強調されるグラフィック要素の輪郭を形成するポイントの密度を上げることなど、他の視覚効果によって遂行されることもできる。なお、ユーザに他のグラフィック要素の中から選択可能なグラフィック要素を見分けさせる任意の手段も使用されてよい。
ユーザは、選択されるグラフィック要素をポインタの下に持っていくために、第1のユーザインタラクションを使用する予定であるグラフィック要素の事前選択を遂行する第2の可能性を有する。プロセスのこのステップにおいて、第2のユーザインタラクションはなおも検知されており、例えば、指18はなおも接触感応ディスプレイと接触している。
ステップS170において、第1のユーザインタラクションの移動が検知され、その移動は、接触感応ディスプレイ上の第1の位置から開始して第2の位置において終了する。この検知ステップは、ステップS160における第2のユーザインタラクションの検知ステップと同じやり方で遂行される。
第1のユーザインタラクションが第2の位置上にあれば、接触感応ディスプレイ上の第2の位置の周囲のエリアがウィンドウにレンダリングされる。そのレンダリングは、ステップS140を参照して論じたレンダリングと同じように遂行される。
好適には、ウィンドウのレンダリングは、第1の位置から第2の位置に移動する間の、第1のユーザインタラクションの位置の周囲のエリアのリアルタイムレンダリングである(S180)。このリアルタイムレンダリングは、ポインタのリアルタイム移動と同様であり、第1のユーザインタラクションの移動は、位置のセットに離散化され、各位置は、ユーザインタラクションによってアクティブ化されるセンサに対応している。そしてアクティブ化されたセンサ毎に、第1のユーザインタラクションの新しい位置が計算され、そして第1のユーザインタラクションの新しい位置の周囲のエリアのレンダリングがウィンドウに表示される。このやり方によって、ウィンドウのレンダリングは、リアルタイムで第1のユーザインタラクションの変位に従う。
興味深いことに、第1のユーザインタラクションが移動する間、ウィンドウは、第1のユーザインタラクションの移動に従って移動する。これは、ウィンドウが、ステップS130を参照して論じたものと同じやり方でGUI上に位置付けされるという意味であり、ウィンドウは、第1のユーザインタラクションの新しい位置から所定の位置のオフセットで接触感応ディスプレイ上に置かれる。
有利には、第1のユーザインタラクションが移動する間、第2のユーザインタラクションがさらに検知されるにもかかわらず、ウィンドウのポインタは、ウィンドウが移動してウィンドウのレンダリングが更新される間、ウィンドウ内で不動のままである。これによって、有利には、システムが、ユーザが(自主的か否かにかかわらず)生成するだろう第2のユーザインタラクションの変位を許容できるようになる。従って、ひとたびユーザがウィンドウのポインタを移動して置くと、ポインタは、その位置を確保し、そしてユーザは、グラフィック要素がポインタの下になるまで第1のユーザインタラクションを移動することによってグラフィック要素の位置を調整する。興味深いことに、ユーザは、ポインタが選択されるグラフィック要素の上になるまで、つまり、グラフィック要素が事前選択の状態になるまで第2および第1のユーザインタラクションを連続して移動することができる。ユーザは、従って、オブジェクトの選択を行うために両方のユーザインタラクションを使用することができる。これは特に、事前選択を行う画面で現在の指の配置(configuration)が許す範囲の容易さおよび便利さに従っていずれかの指を選んで動かすことができるユーザの人間工学に基づく。
次に、ステップS190において、ユーザは、事前選択の状態であるグラフィック要素を選択する。例えば、ユーザは、例えば、指18を接触感応ディスプレイから離して(当技術分野ではUPイベントとして周知である)第2のユーザインタラクションを停止することができる。代替的には、第1および第2のユーザインタラクションがこれ以上検知されない場合、つまり、それらの検知の欠如が検知された場合、上にポインタが配置されているグラフィック要素の選択をトリガすることができる。検知の欠如は、ユーザインタラクションがユーザによって解放された、例えば、ユーザは、接触感応ディスプレイから指16、18を離すという意味である。別の例として、ポインタが所与の時間期間グラフィック要素の上で動かない状態のままであれば、選択は、自動的に遂行される。グラフィック要素の選択は、その他のやり方でトリガされてもよいことを認識されたい。
ひとたびグラフィック要素が選択されると、ユーザは、グラフィック要素のさらなる選択を遂行することができる:(i)第1のユーザインタラクションがユーザによって保持されているならば、新しい第2のユーザインタラクションを生成して、ウィンドウにおいてすでに表示されているポインタをすでに表示されている第2のグラフィック要素に移動する、(ii)第1と第2の両方のユーザインタラクションが除去されたならば、ステップS100からS160までを再度遂行する。
次に、ステップS200において、ウィンドウは、接触感応ディスプレイから除去される。つまり、ウィンドウは、もはや表示されない。除去は、グラフィック要素が選択された後すぐに遂行され得る。ウィンドウは、選択の後でも、特に、選択が自動的に長く持続される場合、除去されない場合がある。実際には、ウィンドウは、第1のユーザインタラクションが除去される場合に限り消去されなければならない。これは、有利には、選択毎に第1のインタラクションからやり直さずに、第1/第2のユーザインタラクションの連続移動によって多要素の選択を可能にする。
選択されるグラフィック要素は、ユーザがそのグラフィック要素が選択されたことが分かるように、特定のレンダリングで表現され得る。これは、選択されたグラフィック要素14が点線でレンダリングされた図7に示されている。
本方法は、グラフィック要素を非選択状態にするために使用できる。ポインタは、すでに選択されているグラフィック要素に移動されて、ポインタの変位(複数)は、図1と関連して論じたものと同じ原理に従って遂行される。選択されたグラフィック要素は、例えば、ポインタが所与の時間期間選択されたグラフィック要素の上で動かない状態のままの場合、選択されない。
本発明の好適な実施形態が説明されている。発明の精神および範囲から逸脱しない範囲でさまざまな変更が行われてもよいことを理解されたい。従って、他の実装は、以下の特許請求の範囲の範囲内である。例えば、第1のユーザインタラクションおよび第2のユーザインタラクションは、2つの指16、18が接触感応ディスプレイに接触することによって遂行され、そして各指は、ユーザのそれぞれの手に属する。逆に、ユーザは、1つのみの手に属する指を使用してもよい。代替的には、二人のユーザは、同じGUIで一緒に作業することができ、例えば、一般的に、グラフィック要素の選択を必要とするモデル化オブジェクトの設計プロセス中に共同作業することができ、第1のユーザインタラクションは、一人のユーザによって遂行されてもよく、そして第2のユーザインタラクションは、第2のユーザによって遂行されてもよい。ユーザはまた、ステップS100からS160までまたはS100からS190までにおいて示したように、いくつかのグラフィック要素の事前選択を−例えば、ポインタが所与の時間期間前記グラフィック要素の上にある時にグラフィック要素が事前選択される−連続して遂行することもできそして一度にすべての事前選択されたグラフィック要素を選択する。

Claims (15)

  1. 接触感応ディスプレイに表示されるグラフィック要素を選択するためのコンピュータ実装方法であって、
    グラフィック要素を前記接触感応ディスプレイに表示する(S100)こと、
    接触感応ディスプレイ上の第1のユーザインタラクションの第1の位置を検知する(S120)こと、
    前記第1のユーザインタラクションが除去されるまで前記第1の位置から所定の位置のオフセットにおいて、ウィンドウを前記接触感応ディスプレイに表示する(S130)ことであって、前記ウィンドウは、グラフィック要素を選択するポインタを備えること、
    前記第1のユーザインタラクションの前記第1の位置の周囲のエリアを前記ウィンドウにレンダリングする(S140)こと、
    前記接触感応ディスプレイ上の第2のユーザインタラクションを検知する(S150)こと、
    前記接触感応ディスプレイ上の前記第2のユーザインタラクションの移動を検知すること、および
    前記第2のユーザインタラクションの移動に従ってポインタをウィンドウ内で移動すること
    を備えることを特徴とするコンピュータ実装方法。
  2. 前記第2のユーザインタラクションの移動は、移動方向と移動距離を備え、前記ポインタは、同じ移動方向および前記第2のユーザインタラクションの移動距離に比例する移動距離で移動されることを特徴とする請求項1に記載のコンピュータ実装方法。
  3. 前記ポインタの移動距離は、縮小係数を適用することによって比例縮小されることを特徴とする請求項2に記載のコンピュータ実装方法。
  4. ユーザアクションの後、前記縮小係数を選択することをさらに備えることを特徴とする請求項3に記載のコンピュータ実装方法。
  5. 前記ポインタを移動するステップの後、
    前記接触感応ディスプレイ上の前記第1の位置から第2の位置への前記第1のユーザインタラクションの移動を検知するステップ(S170)と、
    前記接触感応ディスプレイ上の前記第2の位置の周囲のエリアを前記ウィンドウにレンダリングするステップ(S180)と
    をさらに備えることを特徴とする請求項1ないし4のいずれかに記載のコンピュータ実装方法。
  6. 前記接触感応ディスプレイ上の前記第2の位置の周囲の前記エリアを前記ウィンドウにレンダリングすることは、前記第1の位置から前記第2の位置に移動する間、前記ウィンドウにおいて、前記第1のユーザインタラクションの中間位置の周囲のエリアのリアルタイムレンダリングを遂行することをさらに備えることを特徴とする請求項5に記載のコンピュータ実装方法。
  7. 前記第1のユーザインタラクションの前記移動に従って前記ウィンドウを移動することをさらに備えることを特徴とする請求項5または6に記載のコンピュータ実装方法。
  8. 前記ウィンドウが移動する間、前記ポインタは、前記ウィンドウ内で不動のままであることを特徴とする請求項5ないし7のいずれかに記載のコンピュータ実装方法。
  9. 前記第2のユーザインタラクションは、前記接触感応ディスプレイ上で保持されることを特徴とする請求項5ないし8のいずれかに記載のコンピュータ実装方法。
  10. 前記第1のユーザインタラクションは、前記接触感応ディスプレイ上で保持されることを特徴とする請求項1ないし9のいずれかに記載のコンピュータ実装方法。
  11. 前記ポインタを移動することの後、前記第1および前記第2のユーザインタラクションの欠如を検知するステップと、
    前記ポインタの下にあるグラフィック要素を選択するステップ(S190)と
    をさらに備えたことを特徴とする請求項1ないし10のいずれかに記載のコンピュータ実装方法。
  12. 前記接触感応ディスプレイから前記ウィンドウを除去する(S200)ことをさらに備えたことを特徴とする請求項11に記載のコンピュータ実装方法。
  13. 前記ウィンドウにレンダリングされたエリアは、拡大または縮小係数に基づいて拡大または縮小されることを特徴とする請求項1ないし12のいずれかに記載のコンピュータ実装方法。
  14. コンピュータに請求項1ないし13のいずれかに記載の方法のステップをとるようにさせる命令を備える、グラフィック要素を選択するためのコンピュータプログラム。
  15. メモリに通信可能に結合されたプロセッサ、および接触感応ディスプレイを備え、前記メモリは、請求項14のコンピュータプログラムを格納する、グラフィック要素を選択するためのコンピュータシステム。
JP2015255022A 2014-12-31 2015-12-25 グラフィック要素の選択 Active JP6711616B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP14307221.3A EP3040839B1 (en) 2014-12-31 2014-12-31 Selection of a graphical element
EP14307221.3 2014-12-31

Publications (2)

Publication Number Publication Date
JP2016129019A JP2016129019A (ja) 2016-07-14
JP6711616B2 true JP6711616B2 (ja) 2020-06-17

Family

ID=52434497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015255022A Active JP6711616B2 (ja) 2014-12-31 2015-12-25 グラフィック要素の選択

Country Status (6)

Country Link
US (1) US11061502B2 (ja)
EP (1) EP3040839B1 (ja)
JP (1) JP6711616B2 (ja)
KR (1) KR20160081835A (ja)
CN (1) CN105739816B (ja)
CA (1) CA2915741A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
US11157152B2 (en) * 2018-11-05 2021-10-26 Sap Se Interaction mechanisms for pointer control

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282368A (ja) * 1993-02-01 1994-10-07 Wacom Co Ltd 情報処理装置の位置情報入力システム
JPH07271501A (ja) * 1994-03-31 1995-10-20 Wacom Co Ltd 表示画面における表示物の表示方法
US6025841A (en) * 1997-07-15 2000-02-15 Microsoft Corporation Method for managing simultaneous display of multiple windows in a graphical user interface
US6337698B1 (en) * 1998-11-20 2002-01-08 Microsoft Corporation Pen-based interface for a notepad computer
US6392675B1 (en) * 1999-02-24 2002-05-21 International Business Machines Corporation Variable speed cursor movement
GB2355086A (en) * 1999-10-06 2001-04-11 Ncr Int Inc Selection of displayed options, for self-service terminals
JP4215549B2 (ja) * 2003-04-02 2009-01-28 富士通株式会社 タッチパネル・モードとポインティング・デバイス・モードで動作する情報処理装置
JP4770241B2 (ja) * 2005-04-05 2011-09-14 株式会社日立製作所 エレベーター装置
US20070038955A1 (en) * 2005-08-09 2007-02-15 Nguyen Mitchell V Pen-based computer system having first and second windows together with second window locator within first window
JP4882319B2 (ja) * 2005-09-08 2012-02-22 パナソニック株式会社 情報表示装置
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
US8176438B2 (en) * 2008-09-26 2012-05-08 Microsoft Corporation Multi-modal interaction for a screen magnifier
JP5240773B2 (ja) * 2008-12-18 2013-07-17 シャープ株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2010165291A (ja) * 2009-01-19 2010-07-29 Funai Electric Co Ltd 表示装置および拡大表示方法
US7870496B1 (en) * 2009-01-29 2011-01-11 Jahanzeb Ahmed Sherwani System using touchscreen user interface of a mobile device to remotely control a host computer
US8255830B2 (en) * 2009-03-16 2012-08-28 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
JP2011028366A (ja) * 2009-07-22 2011-02-10 Sony Corp 操作制御装置および操作制御方法
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display
US8358281B2 (en) * 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
JP2011141753A (ja) * 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP5112471B2 (ja) * 2010-05-11 2013-01-09 シャープ株式会社 画像表示操作装置及びこれを備えた画像形成装置
US8659562B2 (en) * 2010-11-05 2014-02-25 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
FR2973899B1 (fr) * 2011-04-07 2013-04-26 Archos Procede de selection d'un element d'une interface utilisateur et dispositif mettant en oeuvre un tel procede.
US8677232B2 (en) * 2011-05-31 2014-03-18 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
CN102855074A (zh) * 2011-06-30 2013-01-02 安凯(广州)微电子技术有限公司 一种触屏操作方法
JP5388385B2 (ja) * 2012-05-16 2014-01-15 パナソニック株式会社 表示制御装置、表示制御方法、およびプログラム
CN103513908B (zh) * 2012-06-29 2017-03-29 国际商业机器公司 用于在触摸屏上控制光标的方法和装置
CN103631489B (zh) 2012-08-30 2017-02-08 中兴通讯股份有限公司 触摸屏字符显示方法及装置
US9261989B2 (en) * 2012-09-13 2016-02-16 Google Inc. Interacting with radial menus for touchscreens
JP5796562B2 (ja) * 2012-10-26 2015-10-21 コニカミノルタ株式会社 データ処理装置、設定方法および設定プログラム
EP2755124B1 (en) * 2013-01-15 2019-03-13 BlackBerry Limited Enhanced display of interactive elements in a browser
CN103136180A (zh) 2013-02-25 2013-06-05 北京极兴莱博信息科技有限公司 一种文段复制粘贴的方法、装置及终端
US20140372939A1 (en) * 2013-06-17 2014-12-18 Zamurai Corporation Systems and methods for assisting in selection and placement of graphical objects in a graphical user interface
CN104793774A (zh) * 2014-01-20 2015-07-22 联发科技(新加坡)私人有限公司 电子装置控制方法
US9990126B2 (en) * 2014-05-30 2018-06-05 Visa International Service Association Method for providing a graphical user interface for an electronic transaction with a handheld touch screen device
US9594489B2 (en) * 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
US10684758B2 (en) * 2017-02-20 2020-06-16 Microsoft Technology Licensing, Llc Unified system for bimanual interactions

Also Published As

Publication number Publication date
US11061502B2 (en) 2021-07-13
CA2915741A1 (en) 2016-06-30
EP3040839B1 (en) 2020-08-12
EP3040839A1 (en) 2016-07-06
CN105739816B (zh) 2021-08-24
JP2016129019A (ja) 2016-07-14
CN105739816A (zh) 2016-07-06
KR20160081835A (ko) 2016-07-08
US20160188175A1 (en) 2016-06-30

Similar Documents

Publication Publication Date Title
US8896549B2 (en) Method and system for duplicating an object using a touch-sensitive display
KR101541928B1 (ko) 시각적 피드백 디스플레이
JP4743268B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20120105367A1 (en) Methods of using tactile force sensing for intuitive user interface
US11068155B1 (en) User interface tool for a touchscreen device
JP2010170573A (ja) グラフィカル・ユーザ・インターフェース・オブジェクトを操作する方法及びコンピュータシステム
JP2013186540A (ja) 情報処理装置及び情報処理方法
JP6189583B2 (ja) 複数のマニピュレータからのオブジェクトのマニピュレータの選択
US10761684B2 (en) Setting a parameter
JP6711616B2 (ja) グラフィック要素の選択
US10775984B2 (en) Setting a parameter
US20150020025A1 (en) Remote display area including input lenses each depicting a region of a graphical user interface
US10761705B2 (en) Setting a parameter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200528

R150 Certificate of patent or registration of utility model

Ref document number: 6711616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250