JP2014506368A - 段階的なアクセスポイント - Google Patents

段階的なアクセスポイント Download PDF

Info

Publication number
JP2014506368A
JP2014506368A JP2013548462A JP2013548462A JP2014506368A JP 2014506368 A JP2014506368 A JP 2014506368A JP 2013548462 A JP2013548462 A JP 2013548462A JP 2013548462 A JP2013548462 A JP 2013548462A JP 2014506368 A JP2014506368 A JP 2014506368A
Authority
JP
Japan
Prior art keywords
confirmation
input
display
receiving
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013548462A
Other languages
English (en)
Inventor
ガーン,ジョナサン
リー,イー−シアン
エー. レーガン,エイプリル
スリパド クルカルニ,ハリシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014506368A publication Critical patent/JP2014506368A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Rehabilitation Tools (AREA)

Abstract

インタラクティブ・ディスプレイ・システムで動作を開始するユーザの意図を判断することに関する様々な実施例がここに記載される。例えば、開示される一実施例は、タッチセンシティブ・ディスプレイを有するインタラクティブ・ディスプレイ・デバイスで動作を開始する方法を提供する。この例では、この方法は、ディスプレイの起動領域に開始制御を表示し、開始制御を介して開始入力を受け取り、開始入力の受け取りに応じて、ディスプレイの確認領域に確認ターゲットを表示し、確認ターゲットを介して確認入力を受け取り、確認入力に応じて動作を実行することを有する。

Description

サーフェス・コンピュータ・デバイス(surface computing device)のようなインタラクティブ・ディスプレイ・システムは、表示画面と、表示画面上の接触を検出するように構成された接触検出機構とを含む。光学式機構、容量性機構及び抵抗性機構を含み、これらに限定されない様々な種類のこのような接触検出機構が使用されることがある。インタラクティブ・ディスプレイ・システムは、主なユーザ入力デバイスとして接触検出機構を利用することにより、ユーザがキーボード、マウス又はこのような従来の入力デバイスを用いずにデバイスと相互作用することを可能にする。
インタラクティブ・ディスプレイ・システムで動作を開始するユーザの意図を判断することに関する様々な実施例がここに記載される。例えば、開示される一実施例は、タッチセンシティブ・ディスプレイ(接触感知表示装置)を有するインタラクティブ・ディスプレイ・デバイスで動作を開始する方法を提供する。この方法は、ディスプレイの起動領域に開始制御を表示し、開始制御を介して開始入力を受け取り、開始入力の受け取りに応じて、ディスプレイの確認領域に確認ターゲットを表示し、確認ターゲットを介して確認入力を受け取り、確認入力に応じて動作を実行することを有する。
この概要は、以下の詳細な説明に更に記載する概念の抜粋を簡単な形式で紹介するために提供されている。この概要は、特許請求の範囲の対象の主な特徴又は必須の特徴を特定することを意図するものでなく、また、特許請求の範囲の対象の範囲を制限するために使用されることを意図するものでもない。更に、特許請求の範囲の対象は、この開示のいずれかの部分に記載のいずれかの欠点又は全ての欠点を解決する実現に限定されない。
インタラクティブ・ディスプレイ・デバイスの実施例の概略図 インタラクティブ・ディスプレイ・デバイスで動作を開始する方法の実施例を示すフローチャート 起動領域及び開始領域を有するユーザインタフェースの実施例を示す図 開始入力を受け取った後に確認ターゲットを表示する図3の実施例を示す図 確認入力を受け取った後の図3の実施例を示す図
前述のように、インタラクティブ・ディスプレイ・デバイスは、主な入力デバイスとしてタッチセンシティブ・ディスプレイを利用してもよい。従って、ジェスチャ入力及び非接触(hover)入力(すなわち、ディスプレイの表面の上で実行されるジェスチャ)を含んでもよいタッチ入力が、アプリケーション及びオペレーティングシステムを含むデバイスの全ての側面と相互作用するために使用されてもよい。
インタラクティブ・ディスプレイ・デバイスが水平ディスプレイを用いたテーブルのような構成を有する場合のような或る実施例では、故意でない接触が生じる可能性がある。このような接触入力の影響の重要度は、どのようにインタラクティブ・ディスプレイ・デバイスが故意でない入力を解釈するかに応じて変化し得る。例えば、“ペイント”プログラムにおける故意でない接触は、故意でない線の描画又は他のユーザにとって妨害的でない他のこのような軽微な取り消し可能な動作を生じることがある。一方、アプリケーション又はオペレーティングシステムのシェルの終了又は再起動を生じる故意でない接触は、ユーザ経験にとって非常に妨害的になる可能性がある。
従って、妨害的な動作の実行を生じる故意でない接触を回避することに役立つための、インタラクティブ・ディスプレイ・デバイスでの動作の段階的な開始に関する様々な実施例がここに開示される。これらの実施例について説明する前に、例示的なインタラクティブ・ディスプレイ・デバイス100について図1を参照して説明する。インタラクティブ・ディスプレイ・デバイス100は、画像を表示し、接触入力を受け取るように構成されたディスプレイ102を含む。ディスプレイ102の非限定的な例は、プラズマディスプレイ及び有機発光デバイス(OLED:organic light emitting device)ディスプレイのような発光表示パネル、液晶ディスプレイ(LCD:liquid crystal display)のような変調表示パネル、デジタル・マイクロミラー・デバイス(DMD:digital micromirror device)又はLCDマイクロディスプレイのような映写マイクロディスプレイ、並びに陰極線管(CRT:cathode ray tube)ディスプレイを含む。プロジェクタ、レンズ、光ガイド等のような図1に示されていない様々な他のハードウェアエレメントが、ディスプレイ102に表示する画像を生成するために使用されてもよいことが分かる。更に、インタラクティブ・ディスプレイ・デバイス100は、スマートフォン又はポータブルメディアプレイヤのようなモバイルデバイス、スレートコンピュータ、タブレットコンピュータ、パーソナルコンピュータ、ラップトップコンピュータ、サーフェスコンピュータ、テレビシステム等を含み、これらに限定されない如何なる適切な種類のデバイスでもよいことも分かる。
インタラクティブ・ディスプレイ・デバイス100は、ディスプレイ102上又はディスプレイ102の近くでの接触入力及び/又は非接触入力を検出するように構成された接触及び/又は非接触検出システム104を更に含む。前述のように、接触及び/又は非接触検出システム104は、接触及び/又は非接触入力を検出するために如何なる適切な機構を利用してもよい。例えば、光学式接触検出システムは、例えば、表示画面に投影された赤外線を介して及び/又は漏れ全反射(FTIR:frustrated total internal reflection)を介して、接触入力を検出するために1つ以上のカメラを利用してもよい。同様に、光学式接触及び/又は非接触検出システム104は、画像センサ画素が画像表示画素と組み合わされた画素内センサ(sensor-in-pixel)表示パネルを利用してもよい。接触及び/又は非接触検出システム104の他の非限定的な例は、容量性及び抵抗性接触検出システムを含む。
インタラクティブ・ディスプレイ・デバイス100はまた、論理サブシステム106とデータ保持サブシステム108とを含む。論理サブシステム106は、ここに記載の様々な実施例を実施するために、データ保持サブシステム108に格納された命令を実行するように構成される。論理サブシステム106は、1つ以上の命令を実行するように構成された1つ以上の物理デバイスを含んでもよい。例えば、論理サブシステム106は、1つ以上のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、又は他の論理構造物の一部である1つ以上の命令を実行するように構成されてもよい。このような命令は、タスクの実行、データ種別の実装、1つ以上のデバイスの状態の変換、又は所望の結果への到達を行うように実装されてもよい。
論理サブシステム106は、ソフトウェア命令を実行するように構成された1つ以上のプロセッサを含んでもよい。更に又は別法として、論理サブシステム106は、ハードウェア又はファームウェア命令を実行するように構成された1つ以上のハードウェア又はファームウェア論理機構を含んでもよい。論理サブシステム106のプロセッサは、単一コアでもよく、マルチコアでもよく、ここで実行されるプログラムは、並列処理、分散処理又は他の適切な処理のために構成されてもよい。論理サブシステム106は、2つ以上のデバイスに分散された個々のコンポーネントを任意選択で含んでもよい。これらの2つ以上のデバイスは、遠隔に配置されてもよく、及び/又は協調処理のために構成されてもよい。論理サブシステム106の1つ以上の側面は、クラウドコンピュータ構成で構成された遠隔からアクセス可能なネットワーク接続されたコンピュータデバイスにより仮想化されて実行されてもよい。
データ保持サブシステム108は、ここに記載の方法及び処理を実施するために、論理サブシステム106により実行可能な命令及び/又はデータを保持するように構成された1つ以上の物理的な過渡的でないデバイスを含んでもよい。このような方法及び処理が実施される場合、データ保持サブシステム108の状態は変換されてもよい(たとえば、異なるデータを保持するように変換されてもよい)。
データ保持サブシステム108は、取り外し可能なコンピュータ媒体及び/又は内蔵のコンピュータ可読記憶媒体及び/又は他のデバイスを含んでもよい。データ保持サブシステム108は、特に、光学式メモリデバイス(例えば、CD、DVD、HD-DVD、Blue-Rayディスク等)、半導体メモリデバイス(例えば、RAM、EPROM、EEPROM等)及び/又は磁気メモリデバイス(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAM等)を含んでもよい。データ保持サブシステム108は、揮発性、不揮発性、ダイナミック、スタティック、読み書き、読み取りのみ、ランダムアクセス、順次アクセス、位置指定可能、ファイル指定可能及びコンテンツ指定可能という特徴のうち1つ以上を備えたデバイスを含んでもよい。或る実施例では、論理サブシステム106及びデータ保持サブシステム108は、特定用途向け集積回路又はシステム・オン・チップのような1つ以上の共通のデバイスに統合されてもよい。
図1はまた、取り外し可能コンピュータ可読記憶媒体109の形式のデータ保持サブシステム108の側面を示している。取り外し可能コンピュータ可読記憶媒体109は、ここに記載の方法及び処理を実施するために実行可能な命令及び/又はデータを格納及び/又は転送するために使用されてもよい。取り外し可能コンピュータ可読記憶媒体109は、特に、CD、DVD、HD-DVD、Blue-Rayディスク、EEPROM及び/又はフロッピー(登録商標)ディスク及び/又は他の磁気媒体の形式になってもよい。
前述のように、故意でない接触入力は、インタラクティブ・ディスプレイ・デバイスにより、動作を実行するコマンドとして解釈されることがある。例えば、或る実施例では、インタラクティブ・ディスプレイ・デバイス102は、テーブル又は机の形式になってもよい。従って、例えば、ユーザがディスプレイ上で手又は肘を休めた場合、故意でない接触が容易に生じる可能性がある。このような故意でない入力が再起動又は終了動作のような妨害的な動作に使用されるユーザインタフェース制御で生じた場合、故意でない接触は、ユーザ経験にとって妨害的になる可能性がある。
より具体的な例として、図1の実施例では、インタラクティブ・ディスプレイ・デバイス100は、ディスプレイ102の角に配置された複数のアクティブ領域110を有するユーザインタフェースを有する。アクティブ領域110は、接触入力が特定のアプリケーション及び/又はオペレーティングシステムの制御動作の実行を開始させるように構成されたディスプレイ102の領域を表す。例えば、アクティブ領域110内での接触入力は、アプリケーションを再起動又は終了させてもよい。図1の実施例では、アクティブ領域110はディスプレイ102の角に描かれているが、このようなアクティブ領域110は他の適切な位置を有してもよいことが分かる。
(例えば)再起動コマンドの意図しない実行がユーザ経験を妨害するため、インタラクティブ・ディスプレイ・デバイス102は、このような動作を実行するユーザの意図を確認するために、段階的な活性化シーケンスを利用する。このように、ユーザが行う意図しない接触が動作を開始させることを回避してもよい。ここに記載の実施例は、2段階の活性化シーケンスを利用するが、他の実施例は3段階以上を利用してもよいことが分かる。
図2は、インタラクティブ・ディスプレイ・デバイスで動作を開始する方法200の実施例を示すフローチャートを示している。ディスプレイの起動領域において受け取られた開始入力及びディスプレイの確認領域において受け取られた確認入力が、ユーザの意図を確認するために使用される。図1に示す実施例を参照して以下に方法200について説明するが、方法200は、如何なる適切なハードウェア及びソフトウェアを使用して実行されてもよいことが分かる。
方法200は、ステップ202において、ディスプレイの起動領域にアイコンのような開始制御を表示し、ステップ204において、起動領域において開始入力を受け取ることを有する。開始入力は、開始制御での接触相互作用を有する。開始制御は、起動領域に永続的に表示されてもよく、起動領域において接触が検出された場合に表示されてもよいことが分かる。起動領域は、段階的なシーケンスのうち第1の段階の間に開始入力を検出するように構成された図1のアクティブ領域110のようなディスプレイの一部を有する。
開始制御で行われた開始入力は、意図したものでもよく、故意でないものでもよい。従って、インタラクティブ・ディスプレイ・デバイスは、確認入力が受け取られるまで動作を実行しない。従って、次に方法200は、ステップ206において、確認領域にターゲットアイコン及び/又はターゲットテキストのような確認ターゲットを表示することを有する。確認ターゲットの表示は、開始の接触が認識されたことをユーザに伝えてもよい。ターゲットテキストは、確認入力が受け取られた場合に実行される動作を示してもよい。ここで用いられる「確認ターゲット(confirmation target)」という用語は、前に開始された動作を実行する意図を確認するためにユーザが相互作用するいずれかのユーザインタフェース要素を示す。
図3は、表示されたアイコンの形式の開始制御306を備えた起動領域302を含むユーザインタフェース300の実施例を示している。前述のように、アイコン又は他の適切な開始制御が起動領域に永続的に表示されてもよく、起動領域において接触が検出された場合に表示されてもよいことが分かる。図3に示すように、指304は、制御306の上に位置している。開始制御は如何なる適切な方法で活性化されてもよいため、指304は単なる例示目的で示されており、限定的であることを意図しないことが分かる。従って、接触入力(接触、ジェスチャ及び前述の非接触を含む)に関して説明するが、ここに記載の実施例は、3Dカメラ、カーソル制御デバイス(トラックボール、ポインティング・スティック、スタイラス、マウス等)のような他の適切なユーザ入力デバイスから受け取った入力と共に使用されてもよい。
図3はまた、ターゲットテキスト308と、ユーザが意図を確認するために相互作用してもよいターゲットアイコン310とを有する確認ターゲット307を、影付きの形式で示している。これらの要素は、活性化されていない場合に目に見えない又は低減した視覚的な存在を有してもよく、開始入力が起動領域302で検出された場合に完全な輝度で表示されてもよいことを示すために、影付きの形式で示されている。更に、或る実施例では、確認ターゲット307の表示は、ユーザの注意を引き付けるように構成された適切なアニメーション効果及び/又はサウンド効果を含んでもよい。従って、インタラクティブ・ディスプレイ・デバイスで動作を開始することに慣れていない可能性があるユーザは、アニメーション効果及び/又はサウンド効果がどのように動作を開始するかについての有用な合図を提供することを見出してもよい。更に、このようなアニメーション効果及び/又はサウンド効果は、開始制御306による意図しない相互作用をユーザに警告してもよい。モバイルデバイスで実行される方法200の実施例では、適切な触覚的感覚が確認ターゲット307の表示に伴ってもよい。
図示の実施例では、ターゲットテキスト308は、確認された場合に実行される動作を示す。図3に示す実施例に示すように、ターゲットアイコン310は、起動領域においてアイコンに対して補完的な形状を有しており、意図を確認するために、ユーザがアイコンを起動領域からターゲットアイコンの内部にドラッグできるように構成される。起動領域のアイコンの補完的な形状及びターゲットアイコンは、実行されるジェスチャの性質をユーザに示すのに役立ち得ることが分かる。更に、図3の実施例のアイコンの特定の外観及び位置は、例示目的で提示されており、開始及び確認ユーザインタフェース要素は、他の適切な外観及び位置を有してもよいことが分かる。
図2に戻り、次に方法200は、208において、確認入力を受け取ることを有する。或る実施例では、確認入力は、起動領域のアイコンを確認ターゲットに移動させるジェスチャを有してもよい。例えば、或る実施例では、確認入力は、アイコンを起動領域から補完的なアイコンの内部にドラッグするジェスチャを含んでもよい。更に又は別法として、或る実施例では、確認入力は、確認ターゲットの周囲に定義された確認領域内で(例えばターゲットテキストの上で)受け取られたタップ入力を有してもよい。確認入力が開始入力の認識後の所定の時間間隔内に受け取られた場合、デバイスは関連する動作を実行する。そうでない場合、段階的な活性化シーケンスはタイムアウトし、関係する動作を実行せずに終了する。
確認時間間隔は、如何なる適切な持続時間を有してもよい。適切な持続時間は、新たなユーザが確認入力の性質を理解することを可能にするのに適切な持続時間であるが、望ましくないほど長期間に表示空間を占有しないような持続時間を含み、これに限定されない。図4は、単一の確認ターゲットを示しているが、或る実施例は、それぞれ異なる動作に対応してもよい複数の確認ターゲットを含んでもよいことが分かる。
図2に戻り、或る実施例では、どのように確認入力を実行するかをユーザに指示するために、確認入力を受け取る前又は確認入力を受け取る間に、トレーニングユーザインタフェース要素が表示されてもよい。例えば、図4は、確認入力を実行するために、「三日月型のところにアイコンをドラッグして下さい」という内容をユーザに指示するテキストを有するテキストボックス408を示している。また或いは別法として、トレーニング要素は、例えば、確認ジェスチャを実行するために辿るべき経路を示すグラフィカルな要素を有してもよい。例えば、図4はまた、確認入力のユーザの実行を案内するように構成された矢印409の表示を含む他の例示的なトレーニング要素を示している。テキストボックス408及び矢印409は、トレーニング要素の非限定的な例であり、他の適切なトレーニング要素及び/又はトレーニング要素の組み合わせが表示されてもよく、トレーニング要素が全く表示されなくてもよいことが分かる。或る実施例では、1つ以上のトレーニング要素の表示は、ユーザに提供される視覚的な合図を誇張するように構成された適切なアニメーション効果及び/又はゴースト効果を含んでもよい。
このようなトレーニング要素は、ジェスチャ速度及び/又は方向の特性を含み、これらに限定されない様々なジェスチャ入力特性に基づいて表示されてもよい。例えば、場合によってはどのようにアイコンを操作すべきかについて確信できない経験の少ないユーザが、経験のある自信のあるユーザに比べて比較的遅いジェスチャ入力を有する可能性があるため、トレーニング要素は、所定の閾値速度より遅いと判定されたジェスチャ又は不正確な経路を有すると判定されたジェスチャについて表示されてもよい。
或る実施例では、確認ターゲット307及び/又は開始制御306は、1つ以上のトレーニング要素により提供された機能を提供する。例えば、確認ターゲット307及び/又は開始制御306の外観は、ユーザが確認ジェスチャを実行すると変化してもよい。このような変化は、ジェスチャの実行の成功に向かうユーザの進行方向を示すように構成される。適切な非接触の合図、可聴式の合図及び/又は視覚的なアニメーションの合図がトレーニング要素の表示に伴ってもよい。
前述のように、ドラッグのジェスチャ以外の接触入力が確認入力として利用されてもよい。例えば、前述のように、確認入力の受け取りは、確認領域におけるタップ入力の受け取りを有してもよい。より具体的な例として、ユーザがデバイスに実行させることを意図する動作を確認するために、確認入力のドラッグを実行するのではなく、経験の豊富なユーザは、まず制御306をタップし、次にターゲットテキスト308又はターゲットアイコン310をタップすることを選択してもよい。この組み合わせは、タップ及びドラッグのシーケンスに比べてユーザにとって比較的速くなる可能性があり、従って、より熟練したユーザの興味を引く可能性がある。これに応じて、或る実施例では、確認入力の実行が成功したという視覚的な合図を提供するために、ディスプレイは、ターゲットアイコン310への開始制御306の移動を表示してもよい。或る実施例では、確認入力の実行の成功を示すために、他の適切な非接触の合図、可聴式の合図及び/又は視覚的なアニメーションの合図が提供されてもよい。一方、他の実施例では、開始された動作の実行に伴う合図(例えば、デバイスのシャットダウンに伴うシャットダウンのアニメーションのシーケンス)以外の合図は提供されなくてもよい。
インタラクティブ・ディスプレイ・デバイスが確認入力を受け取ると、方法200は、210において、動作を実行することを有する。例えば、図5は、開始制御306が指304によりターゲットアイコン310の内部にドラッグされた後のユーザインタフェースを概略的に示している。この確認入力に応じて、インタラクティブ・ディスプレイ・デバイスは、ターゲットテキスト308により示される「Start Over」動作を実行する。
ここに記載の構成及び/又は手法は、実際に例示であり、複数の変形例が可能であるため、これらの特定の実施例又は例は、限定的な意味で考えられるべきではないことが分かる。ここに記載の特定のルーチン又は方法は、多数の処理方法のうち1つ以上を表し得る。従って、示された動作は、示されたシーケンスで実行されてもよく、他のシーケンスで実行されてもよく、並列に実行されてもよく、或る場合には省略されてもよい。同様に、前述の処理の順序は変更されてもよい。
この開示の対象は、様々な処理、システム及び構成、並びにここに記載の他の特徴、機能、動作及び/又は特性の全ての新規な自明でない組み合わせ及び部分的組み合わせと、そのいずれかの均等物及び全ての均等物とを含む。

Claims (10)

  1. ディスプレイを含むインタラクティブ・ディスプレイ・デバイスで動作を開始する方法であって、
    前記ディスプレイの起動領域に開始制御を表示するステップと、
    前記開始制御を介して開始入力を受け取るステップと、
    前記開始入力の受け取りに応じて、前記ディスプレイの確認領域に確認ターゲットを表示するステップと、
    前記確認ターゲットを介して確認入力を受け取るステップと、
    前記確認入力に応じて動作を実行するステップと、
    を有する方法。
  2. 前記確認入力を受け取るステップは、前記確認ターゲットに向かってユーザインタフェースアイコンをドラッグするジェスチャ入力を受け取ることを有する、請求項1に記載の方法。
  3. 前記ジェスチャ入力は、前記確認ターゲットの補完的なユーザインタフェースアイコンの内部に前記ユーザインタフェースアイコンをドラッグすることを有する、請求項2に記載の方法。
  4. 前記確認入力が所定の確認時間間隔内に受け取られた場合にのみ、前記動作を実行するステップを更に有する、請求項1に記載の方法。
  5. 前記確認入力を受け取るステップは、前記確認ターゲットを介してタップ入力を受け取ることを有する、請求項1に記載の方法。
  6. 前記開始入力の受け取りに応じて、トレーニング要素を表示するステップを更に有する、請求項1に記載の方法。
  7. 前記トレーニング要素は、ジェスチャ速度及びジェスチャ方向の特性のうち1つ以上に応じて表示される、請求項6に記載の方法。
  8. ディスプレイと、
    前記ディスプレイ上での接触及び/又は近くの非接触を検出するように構成された接触及び/又は非接触検出サブシステムと、
    データ保持サブシステムと、
    前記データ保持サブシステムに格納された命令を実行するように構成された論理サブシステムと、
    を有し、
    前記命令は、
    前記ディスプレイの起動領域に開始制御を表示し、
    前記開始制御を介して開始入力を受け取り、
    前記ディスプレイの確認領域において確認入力を受け取り、
    前記確認入力に応じて動作を実行するように構成されるインタラクティブ・ディスプレイ・デバイス。
  9. 前記開始入力の受け取りに応じて確認ターゲットを表示するように実行可能な命令を更に有する、請求項8に記載のデバイス。
  10. ジェスチャ速度及びジェスチャ方向の特性のうち1つ以上に応じてトレーニング要素を表示するように実行可能な命令を更に有する、請求項8に記載のデバイス。
JP2013548462A 2011-01-04 2012-01-03 段階的なアクセスポイント Pending JP2014506368A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161429715P 2011-01-04 2011-01-04
US61/429,715 2011-01-04
US13/083,227 US20120169624A1 (en) 2011-01-04 2011-04-08 Staged access points
US13/083,227 2011-04-08
PCT/US2012/020069 WO2012094310A2 (en) 2011-01-04 2012-01-03 Staged access points

Publications (1)

Publication Number Publication Date
JP2014506368A true JP2014506368A (ja) 2014-03-13

Family

ID=46380333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013548462A Pending JP2014506368A (ja) 2011-01-04 2012-01-03 段階的なアクセスポイント

Country Status (15)

Country Link
US (1) US20120169624A1 (ja)
EP (1) EP2661665A4 (ja)
JP (1) JP2014506368A (ja)
KR (1) KR20140027081A (ja)
CN (1) CN102650930A (ja)
AU (1) AU2012204490A1 (ja)
BR (1) BR112013017018A2 (ja)
CA (1) CA2823626A1 (ja)
CL (1) CL2013001948A1 (ja)
CO (1) CO6721053A2 (ja)
MX (1) MX2013007808A (ja)
RU (1) RU2013130669A (ja)
SG (1) SG191132A1 (ja)
WO (1) WO2012094310A2 (ja)
ZA (1) ZA201304329B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017502369A (ja) * 2014-11-14 2017-01-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体の制御方法、装置及び移動デバイス
JP2017097496A (ja) * 2015-11-19 2017-06-01 カシオ計算機株式会社 電子機器、タッチ操作制御方法及びプログラム
US9864979B2 (en) 2014-08-29 2018-01-09 Panasonic Intellectual Property Management Co., Ltd. Transaction terminal device

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101359233B1 (ko) * 2008-07-01 2014-02-05 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
WO2013120537A1 (en) * 2012-02-17 2013-08-22 Sony Ericsson Mobile Communications Ab Display and method in an electric device
US8843827B2 (en) 2013-01-22 2014-09-23 Tealium Inc. Activation of dormant features in native applications
US9612740B2 (en) * 2013-05-06 2017-04-04 Barnes & Noble College Booksellers, Inc. Swipe-based delete confirmation for touch sensitive devices
US8805946B1 (en) 2013-08-30 2014-08-12 Tealium Inc. System and method for combining content site visitor profiles
US11695845B2 (en) 2013-08-30 2023-07-04 Tealium Inc. System and method for separating content site visitor profiles
US20150066587A1 (en) 2013-08-30 2015-03-05 Tealium Inc. Content site visitor processing system
US9537964B2 (en) 2015-03-11 2017-01-03 Tealium Inc. System and method for separating content site visitor profiles
US9081789B2 (en) 2013-10-28 2015-07-14 Tealium Inc. System for prefetching digital tags
US8990298B1 (en) 2013-11-05 2015-03-24 Tealium Inc. Universal visitor identification system
US9601080B1 (en) 2013-11-13 2017-03-21 Google Inc. Systems and methods for virtually weighted user input elements for performing critical actions
WO2015157646A1 (en) 2014-04-11 2015-10-15 Ensighten, Inc. Url prefetching
US20160077793A1 (en) * 2014-09-15 2016-03-17 Microsoft Corporation Gesture shortcuts for invocation of voice input
KR102380228B1 (ko) * 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
US11347316B2 (en) 2015-01-28 2022-05-31 Medtronic, Inc. Systems and methods for mitigating gesture input error
US10613637B2 (en) * 2015-01-28 2020-04-07 Medtronic, Inc. Systems and methods for mitigating gesture input error
US11146656B2 (en) 2019-12-20 2021-10-12 Tealium Inc. Feature activation control and data prefetching with network-connected mobile devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013530A (ja) * 2005-06-30 2007-01-18 Orion Denki Kk キーロック解除機能を備えた電子機器
US20080195961A1 (en) * 2007-02-13 2008-08-14 Samsung Electronics Co. Ltd. Onscreen function execution method and mobile terminal for the same
US20100257490A1 (en) * 2009-04-03 2010-10-07 Palm, Inc. Preventing Unintentional Activation And/Or Input In An Electronic Device
US20100269040A1 (en) * 2009-04-16 2010-10-21 Lg Electronics Inc. Mobile terminal and control method thereof

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701027B2 (ja) * 2004-09-02 2011-06-15 キヤノン株式会社 情報処理装置、制御方法及びプログラム
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
KR20070113018A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 터치스크린 장치 및 그 실행방법
KR100720335B1 (ko) * 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
US7924271B2 (en) * 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
KR100883115B1 (ko) * 2007-03-28 2009-02-10 삼성전자주식회사 실행영역이 설정된 터치스크린을 구비하는 휴대 단말기 및그 기능 실행 방법
DE202008018283U1 (de) * 2007-10-04 2012-07-17 Lg Electronics Inc. Menüanzeige für ein mobiles Kommunikationsendgerät
US7958460B2 (en) * 2007-10-30 2011-06-07 International Business Machines Corporation Method for predictive drag and drop operation to improve accessibility
US8327272B2 (en) * 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
KR101486345B1 (ko) * 2008-03-21 2015-01-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
KR100942821B1 (ko) * 2008-05-08 2010-02-18 주식회사 한모아 터치 위치 이동과 방향 전환에 의한 명령 또는 데이터 입력 방법 및 장치
US20100146425A1 (en) * 2008-12-08 2010-06-10 Lance John M Drag and drop target indication in a graphical user interface
US20100229129A1 (en) * 2009-03-04 2010-09-09 Microsoft Corporation Creating organizational containers on a graphical user interface
TW201035829A (en) * 2009-03-31 2010-10-01 Compal Electronics Inc Electronic device and method of operating screen
US8519960B2 (en) * 2009-09-17 2013-08-27 Aten International Co., Ltd. Method and apparatus for switching of KVM switch ports using gestures on a touch panel
KR20100006150A (ko) * 2009-11-19 2010-01-18 주식회사 한모아 터치 위치 이동과 방향 전환에 의한 명령 또는 데이터 입력 방법 및 장치
US8769443B2 (en) * 2010-02-11 2014-07-01 Apple Inc. Touch inputs interacting with user interface items
US20110320978A1 (en) * 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013530A (ja) * 2005-06-30 2007-01-18 Orion Denki Kk キーロック解除機能を備えた電子機器
US20080195961A1 (en) * 2007-02-13 2008-08-14 Samsung Electronics Co. Ltd. Onscreen function execution method and mobile terminal for the same
US20100257490A1 (en) * 2009-04-03 2010-10-07 Palm, Inc. Preventing Unintentional Activation And/Or Input In An Electronic Device
US20100269040A1 (en) * 2009-04-16 2010-10-21 Lg Electronics Inc. Mobile terminal and control method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9864979B2 (en) 2014-08-29 2018-01-09 Panasonic Intellectual Property Management Co., Ltd. Transaction terminal device
JP2017502369A (ja) * 2014-11-14 2017-01-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体の制御方法、装置及び移動デバイス
US10908799B2 (en) 2014-11-14 2021-02-02 SZ DJI Technology Co., Ltd. Method and a device for controlling a moving object, and a mobile apparatus
JP2017097496A (ja) * 2015-11-19 2017-06-01 カシオ計算機株式会社 電子機器、タッチ操作制御方法及びプログラム

Also Published As

Publication number Publication date
MX2013007808A (es) 2013-08-21
BR112013017018A2 (pt) 2018-11-06
CL2013001948A1 (es) 2013-12-13
RU2013130669A (ru) 2015-01-10
CA2823626A1 (en) 2012-07-12
EP2661665A4 (en) 2017-06-28
WO2012094310A3 (en) 2012-12-27
CN102650930A (zh) 2012-08-29
KR20140027081A (ko) 2014-03-06
ZA201304329B (en) 2014-08-27
NZ613914A (en) 2014-05-30
US20120169624A1 (en) 2012-07-05
AU2012204490A1 (en) 2013-07-25
EP2661665A2 (en) 2013-11-13
CO6721053A2 (es) 2013-07-31
SG191132A1 (en) 2013-07-31
WO2012094310A2 (en) 2012-07-12

Similar Documents

Publication Publication Date Title
JP2014506368A (ja) 段階的なアクセスポイント
AU2017202901B2 (en) Information display apparatus having at least two touch screens and information display method thereof
US9658766B2 (en) Edge gesture
RU2591671C2 (ru) Краевой жест
KR102027612B1 (ko) 애플리케이션의 썸네일-이미지 선택 기법
US8775973B2 (en) Presentation of search results
US8775958B2 (en) Assigning Z-order to user interface elements
US20120304131A1 (en) Edge gesture
JP2014532949A (ja) ユーザ・インターフェースの間接的対話
US11099723B2 (en) Interaction method for user interfaces
NZ613914B (en) Staged access points
US10684688B2 (en) Actuating haptic element on a touch-sensitive device
US20240086026A1 (en) Virtual mouse for electronic touchscreen display
US11782599B1 (en) Virtual mouse for electronic touchscreen display
EP3908915A1 (en) Interfaces presentations on displays
KR20160031276A (ko) 전자 장치, 및 이의 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141208

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160906