JP2016502200A - スワイプジェスチャ認識技術を使用したコンテンツ操作 - Google Patents

スワイプジェスチャ認識技術を使用したコンテンツ操作 Download PDF

Info

Publication number
JP2016502200A
JP2016502200A JP2015545425A JP2015545425A JP2016502200A JP 2016502200 A JP2016502200 A JP 2016502200A JP 2015545425 A JP2015545425 A JP 2015545425A JP 2015545425 A JP2015545425 A JP 2015545425A JP 2016502200 A JP2016502200 A JP 2016502200A
Authority
JP
Japan
Prior art keywords
swipe gesture
touch
content
specified
swipe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015545425A
Other languages
English (en)
Other versions
JP6309020B2 (ja
Inventor
マノフ,ロバート,エス.
フック,トッド
スクワイアー,ジェシー,ディー.
シャイ,ケレイヴ,ケー.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Somo Audience Corp
Original Assignee
Somo Audience Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Somo Audience Corp filed Critical Somo Audience Corp
Publication of JP2016502200A publication Critical patent/JP2016502200A/ja
Application granted granted Critical
Publication of JP6309020B2 publication Critical patent/JP6309020B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/14Tree-structured documents
    • G06F40/143Markup, e.g. Standard Generalized Markup Language [SGML] or Document Type Definition [DTD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】タッチ入力ディスプレイを有するユーザデバイスでスワイプジェスチャ認識を使用し、ホスティングサーバにより提供されるコンテンツを操作する。【解決手段】方法は、スワイプジェスチャ認識モジュールと組み合わされてコンテンツパッケージを形成するコンテンツをホスティングサーバに格納することを含む。スワイプジェスチャ認識モジュールは、コンテンツのうちの少なくとも1つの表示可能なコンテンツ要素と関連付けられる。この方法は更に、ホスティングサーバにおいてユーザデバイスからコンテンツパッケージの要求を受信すること、ユーザデバイスで実行しているアプリケーションで表示するため、コンテンツパッケージをホスティングサーバからユーザデバイスに送信することを含む。少なくとも1つの表示可能なコンテンツ要素でスワイプジェスチャが発生すると、所定アクションが少なくとも1つの表示可能なコンテンツ要素に適用される。【選択図】図1

Description

本出願は、すべての開示内容が参照によって本願に組み込まれる、「スワイプジェスチャ認識技術を使用したコンテンツ操作」と題する、2013年7月1日に出願された米国特許出願番号13/932,898号、及び、2012年11月28日に出願された米国特許仮出願番号61/730,899号の利点を主張するものである。
開示の実施形態は、スワイプジェスチャ認識技術を使用したコンテンツ操作を対象とする。より詳細には、開示の実施形態は、ユーザデバイスにおけるスワイプジェスチャ認識技術を使用し、ホスティングサーバによって提供されるインターネットベースのコンテンツを操作するシステム及び方法を対象とする。
例えば、スマートフォン、タブレット、電子書籍リーダ、タッチ対応ラップトップ、タッチ対応デスクトップコンピュータなど、タッチスクリーンベースのユーザコンピューティングデバイスは、一般に、インターネットを介して、サーバからコンテンツを要求するために使用されている。このようなコンテンツは、広告、又は、その広告の特定部分がユーザによってタッチされるまで、表示コンテンツに重畳された他のタイプの表示ウインドウを含むことができる。タッチされると広告を閉じる部分は、その広告の隅にある小さな「x」であってもよい。
比較的小さなスクリーン、特に、スマートフォンのスクリーンでは、ユーザがスクリーンの指定部分を正確にタッチして広告を閉じることは、しばしば困難である。これは、閉じる「ボタン」の代わりに、ユーザが無意識に広告のアクティブな部分をタッチする結果となり、同様に、アニメーションの望まない起動、又は、別のウェブページへの望まないナビゲーションとなることがある。これは、ユーザにとって非常にイライラして迷惑する体験となる可能性がある。
特定のコストパークリック(CPC)に基づいて広告の代金が支払われるので、このような広告主のウェブページの望まない起動は、広告主のコストを増加する可能性がある。このため、モバイルデバイスにおいてCPCベースで広告を得る広告主は、非常に高いクリックスルー率(CTR)を得るが、偶然のクリックスルーに起因して低い投資利益率(ROI)を得ることとなる。これは、現在及び潜在的な顧客を悩ませる可能性があり、大規模なブランドへ大きな影響を与える、否定的なブランド認知となる可能性がある。
開示の実施形態は、スワイプジェスチャ認識技術を実装し、ホスティングサーバによってユーザデバイスに提供されるインターネットベースのコンテンツを操作する、システム、方法及びプロセッサ命令を提供する。
開示のシステム及び方法では、ユーザは、例えば、モバイルデバイスなど、コンピューティングデバイスを持つことができる。モバイルデバイスは、例えば、携帯電話機、タブレット、モバイルブラウザなどのソフトウエアの組み込みモバイルピース(mobile piece)を実行する家庭電化製品とすることができる。ブラウザは、コンテンツの一部を要求することができる。このコンテンツは、一般的に、ウェブページでホストされ、インターネットを介してアクセスされる。このような場合、ウェブページは、実際に、デバイスからコンテンツをホストするサーバへと要求する。コンテンツは、広告とその広告に適用する動作(behavior)とを含むことができる。サーバがコンテンツ要求を受信すると、スワイプジェスチャ動作及び要求コンテンツに関連情報を適用するために必要な技術パッケージなど、コンテンツ、広告、特定の関連情報の「パッケージ」を提供する。異なるタイプの広告は異なる方法でバンドルされてもよく、特に、コンテンツの特定部分とアセンブルされた、スワイプジェスチャ認識技術の異なる要素があってもよい。これらの決定がなされると、サーバは、少なくともスワイプジェスチャ認識技術ピース及び広告を含む、束(bundle)を送信する。
広告は、コンテンツサーバ(すなわち、ホスティングサーバ)以外のサーバから来ることができる。コンテンツサーバは、広告自体にアクセスできなくてもよい。むしろ、コンテンツサーバが広告について十分な情報を受信すると、コンテンツサーバが、ユーザのデバイスでスワイプジェスチャ認識技術を広告にどのように適用するかを判定することができる。
特定の実施形態では、コンテンツサーバによって受信された広告に関する情報は、スワイプ技術、例えば、ユニフォームリソースロケータ(URL)を適用することを予定(look)している特定のコンテンツパッケージの識別子とすることができる。この情報は、ユーザデバイスに広告がどのように表示されるか、例えば、広告はフルスクリーンであるか又はページの下部にあるウインドウバーか否かを示す、付加的なコンテキストデータを含むこともできる。コンテンツサーバによって受信された情報は、広告主によって望まれるプレゼンテーションのタイプの特定の詳細、及び、検出スワイプジェスチャに広告がどのように応答するつもりかを含むことができる。また、広告主は、スワイプが発生した通知(indication)のみを望むことができ、ユーザデバイスで動作しているソフトウエアにスワイプに対する応答を処理させることができる。
広告に関連するコンテンツサーバによって受信された情報は、広告がユーザデバイスに表示されるコンテキストを提供する。この情報は、スワイプジェスチャ認識技術から必要とされる特定の動作、スワイプ技術がプレゼンテーションコンポーネントを含む必要があるか否か、及び、そうであれば、どのプレゼンテーションコンポーネントが必要かを記述する。
コンテンツ、広告情報及びスワイプジェスチャ認識技術(例えば、コードのモジュールの形式で)を含むパッケージがアセンブルされると、それがユーザデバイスに配信される。このパッケージは、例えば、クライアントタイプのスクリプトの形式であってもよく、このスクリプトは、ユーザデバイスレベルで利用可能な情報に基づいて決定することができる。スワイプジェスチャ認識技術がユーザデバイスにあれば、スワイプジェスチャ認識技術は、どこに広告コンテンツがあるか、及び、ユーザデバイスにプレゼンテーションをどのように表示するかに関する詳細をすでに認識している。このため、表示動作はパッケージに基づく。とりわけ、スワイプジェスチャ認識技術は、コンテンツページの一部を介して「クロールし」、表示/制御するつもりである広告を見いだす。パッケージがプレゼンテーションコンポーネントに適用される必要があれば、この時点でそのように行われる。スワイプ技術はまた、ユーザのジェスチャを解釈するため、ユーザのジェスチャをリスニングし始める必要がある場所を判定し、例えば、クリック、ドラッグ又は他のジェスチャなど、ユーザがスワイプジェスチャをするつもりであったか、又は、ユーザが他のタイプの操作をするつもりであったかを決定する。
前述の準備がなされ、関連した決定のすべてが行なわれた後、スワイプジェスチャ認識技術は、ユーザがユーザデバイスのスクリーンをタッチすることを待つ、受動リスニングモードになる。ユーザがスクリーンにタッチし、そのタッチが、例えば、スワイプジェスチャ動作が適用されるスクリーンの部分内でのものであると、システムは、タッチがスワイプジェスチャであると見做すべきか否かを解釈しようと試みる。
このため、ユーザがスクリーンをタッチすると、スワイプジェスチャ認識技術は「目覚め」、ユーザの意図がタッチアクションに関するものであるかを把握しようとすることを開始する。行動分析をユーザの指の移動状態、例えば、何本の指が所定の位置にあるか、それらがどの方向に移動しているか、それらが移動していた時間の長さ、及び、様々な他の基準に適用することで、技術がこれを行なう。ユーザがスクリーンをタッチした後、スワイプ技術は、ジェスチャ及びユーザがスクリーンと持った対話を記録する。ユーザが指をスクリーンから離すと、スワイプ技術は、タッチデータの収集とバックグラウンドでなされていた分析を中止し、タッチデータ、例えば、タッチ位置及び時間データに基づく決定を開始する。
スワイプジェスチャ認識技術は、ユーザが指を使用してスクリーンで行ったタッチアクションを分析し、これらのアクションが、システムが期待及び応答するように構成された種類のスワイプジェスチャを構成するか否かを判定する。システムが、タッチアクションが探し求めていたスワイプジェスチャを意味しないと判定すれば、システムは、さらなるタッチアクションを待つ、受動的な「リスニング」モードに戻ることができる。
スワイプジェスチャ認識技術が「リスニング」している特定のスワイプジェスチャを検出したならば、ユーザデバイスにインストールされたパッケージの特定の本質(nature)に依存する異なるアクションをとる。一般的な場合には、システムが正式(bona fide)のスワイプジェスチャを検出すると、システムが、それをリスニングするようなことが起こる、任意のアプリケーション又はエンティティにこれを通知する。特定の実施形態では、スワイプジェスチャ認識技術はまた、ユーザデバイスにユーザインタフェースを実装することができる。このような場合、スワイプジェスチャが検出されると、システムは、アニメーションの方法で広告をスクリーンから取り外すことによって、例えば、重畳された表示可能なコンテンツ要素(例えば、広告)を消去するなど、特定のアクションをとる。パッケージが表示処理部なしでスワイプジェスチャ認識技術を含む実施形態では、適用されるスワイプジェスチャ認識を要求するパッケージの部分(例えば、広告コンテンツの原因となるエンティティによってコード化された部分)が、スワイプが発生した受信通知に基づいて、適切なアクションをとる原因となる。
開示の実施形態は、例えば、アプリケーションがあるタイプのアクションを表示広告に適用できるように、タッチスクリーンジェスチャをリスニングし、検出ジェスチャが適切であるか否かを判定し、その後、システムが、知る必要があるアプリケーションに通知することを確認する、システム及び方法を提供する。アプリケーションは、例えば、重畳広告を閉じ、広告によって特定される異なるサイトに広告を「介してスワイプ」し、又は、広告にアニメーション若しくは他の実施可能な要素を起動させることができる。例えば、広告がソフトドリンクに関するものであれば、スワイプジェスチャは、グラスに注がれている飲料を表示するアニメーションを実行させてもよい。このため、開示の実施形態の一態様は、すべてのタッチスクリーンデータを処理し、ユーザとの対話を実行する方法を解釈する能力である。
特定の実施形態では、ユーザのスクリーンタッチの検出後、システムは、スワイプジェスチャの「リスニング」を開始する。システムは、タッチが所定の領域、例えば、広告で行われたか否かを判定することができ、システムがスワイプジェスチャに応答又は単にそれを報告する原因があるか否かを判定することもできる。タッチが広告の上で行われなければ、システムは、リスニングを終了し、次のタッチ検出を待つ。タッチが広告の上で行われたならば、システムは、ユーザがスクリーンのタッチを終了するまで、タッチデータ、例えば、位置及び時間をキャプチャする。この時点で、システムは、ユーザの対話のパターンをスワイプジェスチャとして認識すべきか否か判定する。スワイプジェスチャでなければ、システムは、休止状態に戻り、次のタッチが発生することを待つ。例えば、ジェスチャが十分長く、適切な方向で、その軸からあまりずれず、かつ、適切な大きさを有していると判定されると、ジェスチャは、正式のスワイプジェスチャと見做される。この判定に基づいて、特定のアプリケーションに通知することができ、及び/又は、特定のアクションをとることができる。ホスティングサーバからユーザデバイスに配信されたパッケージのタイプに応じて、実行されるアクションは、広告の消去であってもよく、又は、アプリケーションへ通知して次のタッチイベントを待つだけでもよい。
特定の実施形態では、スワイプジェスチャ認識技術が、広告に取り付けられ、例えば、派生「パッケージ」が、ユーザデバイスに配信される。このパッケージは、コンテンツの一部として、コンテンツプロバイダ(すなわち、広告コンテンツの原因となるエンティティ)のスクリプトコンポーネントを含むことができる。コンテンツプロバイダのスクリプトがユーザのデバイスで実行されると、スクリプトを使用するアプリケーション又は他のエンティティは、特定の情報を設定して、スクリプトにそのコンテキストを知らせる。例えば、スワイプジェスチャ認識技術が取り付けられた広告である、「ABCD」と呼ばれる要素があってもよい。要素ABCDの内部に、スワイプジェスチャが必要であり、システムがスワイプジェスチャをモニタすべき特定の領域としての要素を特定することをユーザに示す、矢印(又は他のシンボル)を有するサブ要素があってもよい。特定の領域は、異なる色に変化し、又は、ユーザが領域をスワイプする代わりに領域をタッチすると、他の種類の通知を提供することができる。特定の実施形態は、4つの異なる方向でスワイプジェスチャを検出するように構成される。システムは、スワイプジェスチャが左、右、上又は下に向かうことを確認する。一方、斜め方向のスワイプは、認識されない。
コアスワイプジェスチャ認識技術に関して問題となっている「パッケージ」は、そこに埋め込まれたスクリプトブロック(例えば、JavaScript(登録商標))に、例えば、テキスト、イメージ及びビデオコンテンツの組み合わせを有するHTMLファイルとし、アプリケーションプログラミングインタフェース(API)として動作させることもできる。スワイプジェスチャ動作は、標準の<script>タグ(外部のライブラリを特定する“src”属性と共に)を使用した広告コンテンツによって参照される、外部のJavaScriptライブラリで定義することができる。ページのどの部分に取り付けるべきか、スワイプジェスチャ検出にどのオプションが使用されるべきか、及び、スワイプジェスチャが検出されると何をすべきかに関して、スワイプライブラリを指示するコンテンツのスクリプトブロックによって、動作が任意のHTMLコンテンツに取り付けられる。
同様にユーザ体験を提供するように構成されたスワイプ広告の場合、プロセスは同様に機能する。広告コンテンツをホスティングするサーバは、スワイプジェスチャ認識「ユーザ体験」を含むHTMLコンテンツのブロックを返送することができる。このHTMLコンテンツと広告コンテンツとの組み合わせは、上述したのと同様な方法(すなわち、スワイプ広告がユーザ体験自体を提供するように構成されていないのと同様な場合)で、スワイプジェスチャ動作を要求及び構成する。これらのユーザ体験提供スワイプ広告のそれぞれは、着信要求に動的に応答する何かというよりはむしろ、前もってアセンブルされたHTMLコードの静的ブロックであってもよい。
特定の実施形態では、コンテンツ、例えば、ウェブページは、スワイプジェスチャを全域で追跡したいアイテムを持つことができる。これは、特定の領域でユーザがスワイプジェスチャを行なったときいつでも通知するように、スワイプスクリプトに要求する。ユーザがスクリーンをタッチしているように、スワイプジェスチャ認識技術は、バックグラウンドで、ユーザがスワイプジェスチャをするつもりであるか否かを判定するため、タッチパターンの決定を行なっている。スワイプジェスチャが検出されると、システムは、任意のエンティティ、例えば、通知されることを要求したアプリケーション又はウェブページのHTMLコードに通知する。いくつかの実施形態では、通知を要求するエンティティは、単に検出動作自体を使用する第三者(third party)であってもよい。いくつかの実施形態では、通知を要求するエンティティは、第三者のアプリケーションに対していくつかの動作サポート及びユーザインタフェース(UI)を提供するスワイプ広告パッケージになるだろう。
特定の実施形態では、スワイプジェスチャが検出されると、すべてのエンティティに通知することができる。特定のエンティティがシステムに登録され包括的なパッケージを要求したものであれば、システムは、例えば、広告を閉じる又は広告を介してクリックするなど、検出スワイプジェスチャに応答して特定のアクションをとる。システムは、スワイプジェスチャの検出に必要なアクションは何でも実行することができ、その後、リスナー、すなわち、タッチ検出モニタを「解体(tear down)」することができる。なぜならば、タッチ検出モニタはもはや必要ないからである。これがなされると、ユーザデバイスの失効(drain)又はセッションのスピードダウンを回避することができる。
他の実施形態では、システムは、適切なアクションをとり、スワイプジェスチャをリスニングし続けることができる。例えば、ユーザがソーダボトルを横切ってスワイプすると、アニメーションはソフトドリンクがグラスに注がれて泡が放出することを表示する、ソフトドリンクに関する広告のように、スワイプジェスチャがアニメーションを開始するために使用される広告があってもよい。アニメーションが開始された後、ユーザが繰り返しアニメーションを開始できるように、リスナーは、そのままにしておくことができる。
一態様では、開示の発明は、タッチ入力ディスプレイを有するユーザデバイスでスワイプジェスチャ認識を使用し、ホスティングサーバによって提供されるコンテンツを操作する方法を提供する。この方法は、前記コンテンツのうちの少なくとも1つの表示可能なコンテンツ要素に関連付けられたスワイプジェスチャ認識モジュールと組み合わされてコンテンツパッケージを形成するコンテンツを前記ホスティングサーバに格納することを含む。この方法はさらに、前記ホスティングサーバにおいて、前記ユーザデバイスから前記コンテンツパッケージの要求を受信することと、前記ユーザデバイスで実行しているアプリケーションによって表示するため、前記コンテンツパッケージを前記ホスティングサーバから前記ユーザデバイスに送信することと、を含む。
また、開示の発明のこの形態に関して、スワイプジェスチャ認識モジュールは、前記少なくとも1つの表示可能なコンテンツ要素が前記ユーザデバイスに表示されると、スワイプジェスチャ認識を実行するように構成される。前記スワイプジェスチャ認識は、前記ユーザデバイスの前記タッチ入力ディスプレイからタッチ入力データを受信する。前記スワイプジェスチャ認識はさらに、前記スワイプジェスチャ認識モジュールを使用して、前記ホスティングサーバ又は第2のサーバに格納されたスワイプジェスチャ判定モジュールをアクセスし、前記タッチ入力データを解析し、前記少なくとも1つの表示可能なコンテンツ要素でスワイプジェスチャが発生したか否かを判定することを含む。前記スワイプジェスチャ認識はさらにまた、前記少なくとも1つの表示可能なコンテンツ要素でスワイプジェスチャが発生したと判定されると、前記少なくとも1つの表示可能なコンテンツ要素に所定のアクションを適用することを含む。
開示主題の上記及び他の目的及び利点は、同様な参照文字が全体を通して同様な部分を参照する添付図面と併せて、以下の詳細な説明を考慮すれば明らかであろう。
開示の発明に従って、ホスティングサーバによって提供されるインターネットベースのコンテンツを操作するスワイプジェスチャ認識技術を実装した、ユーザデバイス及びホスティングサーバで実行される方法のフローチャートである。 ユーザデバイスにおいて、スワイプジェスチャ認識及びコンテンツ操作を実行する方法のフローチャートである。 広告に関してユーザデバイスにおいて、スワイプジェスチャ認識及びコンテンツ操作を実行する方法のフローチャートである。 ユーザデバイスにおいてスワイプジェスチャ認識を実行する方法のフローチャートである。 ユーザデバイスにおいてスワイプジェスチャ認識を実行する方法のフローチャートである。
図1は、ユーザデバイス及びホスティングサーバで実行される、表示コンテンツを操作する方法を示す。ユーザデバイスは、スワイプジェスチャ認識技術を実装し、ホスティングサーバによって提供され、ユーザデバイスに表示されるコンテンツを操作する。この技術は、例えば、HTMLベースのスクリプト、コンパイルモジュール、プラグイン、アプレット、アプリケーションプログラムインタフェース(API)など、様々な形式のスワイプジェスチャ認識ソフトウエアコードを含むことができる。
ユーザデバイスは、例えば、モバイル機器(例えば、スマートフォン、タブレットなど)、又は、ユーザがスワイプジェスチャを可能とするタッチスクリーン若しくはトラックパッドタイプの要素を備えた、パーソナルコンピュータ若しくはラップトップなど、任意のタイプのユーザコンピューティングデバイスとすることができる。ユーザデバイスは、例えば、インターネットを介して、ホスティングサーバにコンテンツ要求を開始する(105)。コンテンツ要求は、例えば、特定のウェブページを対象としたユニフォームリソースロケータ(URL)の形式とすることができる。
ホスティングサーバは、コンテンツ要求を受信すると、ユーザデバイスに送信するための要求コンテンツを作成する(110)。コンテンツの作成は、ハイパーテキストマークアック言語(HTML)及びプラグイン、例えば、スクリプト若しくは他の実行可能な要素を使用したウェブページの構成物など、従来の態様を含む。作成されたコンテンツは、他のサーバから検索されるコンテンツを含む、広告コンテンツを含むこともできる。コンテンツの作成は、以下でさらに詳細に説明するように、ユーザデバイスで実行されるスワイプジェスチャにコンテンツがどのように反応するかを規定する、スワイプ技術構成の埋め込みを含むこともできる(115)。そして、コンテンツは、コンテンツ応答の形式で、ユーザデバイスに送信される(120)。
ユーザデバイスは、ホスティングサーバによって送信されたコンテンツ応答を受信し、例えば、ユーザデバイスに表示されるとコンテンツに重畳する広告などのコンテンツの要素に、スワイプ技術を添付する(130)。ユーザデバイスは、例えば、タッチスクリーンにコンテンツを表示し、スクリーンにタッチするユーザの検出を待つ(135)。タッチが検出されると、ユーザデバイスは、ジェスチャ入力、すなわち、検出されたタッチが実際にユーザによるスワイプジェスチャであるか否かを確定する基準を提供する、タッチデータの入力及び蓄積を実行し始める(140)。
ユーザがスクリーンをタッチすることをやめた後(145)、ユーザデバイスは、検出されたジェスチャを解釈し、派生アクションに適用する(150)。例えば、スクリーンのタッチが正式のスワイプジェスチャであると解釈されると、重畳された広告コンテンツがディスプレイから除去、例えば、広告が重畳されているコンテンツから広告を「一掃」することができる。様々な他のタイプのアクションは、スワイプジェスチャが原因となる可能性がある。例えば、スワイプジェスチャは、アニメーション又は表示コンテンツの他の実施可能な態様を開始することができる。派生アクションの後まもなく、ユーザは、基本的なコンテンツ、すなわち、「非スワイプ」コンテンツと対話することができる(155)。一方、スクリーンのタッチが正式のスワイプジェスチャであると解釈されないと、ユーザデバイスは、ユーザがスクリーンをタッチすることを再び待つ(135)。
図2は、ユーザデバイスの立場から、スワイプジェスチャ認識及びコンテンツ操作を実行する方法を示す。上述したように、ユーザデバイスは、ホスティングサーバに送信するコンテンツ要求を開始する(205)。次に、ユーザデバイスは、ホスティングサーバからのコンテンツ応答を待つ(210)。コンテンツが受信された後、スワイプジェスチャ認識技術が埋め込まれたコンテンツを表示する(215)。正式のスワイプジェスチャを検出して認識するため、ユーザデバイスによって実行されたステップの残りは、図1について上述した通りである。これらのステップは、ユーザがスクリーンをタッチすること(220)、ジェスチャ入力を開始すること(225)、ユーザがスクリーンをタッチするのを中止すること(230)、ジェスチャの解釈及びアクションの適用(application)(235)、非スワイプコンテンツとのユーザ対話(240)を含む。
図3は、他の表示コンテンツ、例えば、ウェブページに重畳された広告の特定の場合、ユーザデバイスにおいてスワイプジェスチャ認識及びコンテンツ操作を実行する方法を示す。上述のように、ユーザデバイスは、ホスティングサーバから表示するコンテンツを受信し、スワイプジェスチャ認識をコンテンツに添付する(305)。そして、ユーザデバイスは、デバイススクリーンをタッチするユーザの検出を待つ(310)。タッチが検出されると、ユーザデバイスは、ジェスチャ入力、すなわち、タッチデータの入力及び蓄積を実行し始める(315)。
ジェスチャ入力の一部として(315)、ユーザデバイスは、タッチが広告の上にあったか否かを決定する(320)。換言すると、タッチが所定の開始要素内、例えば、広告「ウインドウ」又は他の表示図形要素によって特定された領域内にあるか否かを判定する。そうであれば、ユーザデバイスは、ユーザがスクリーンをタッチすることを中止するまで、スクリーンタッチに関するデータ、例えば、位置及び時間データを連続してキャプチャする(330)。一方、タッチが広告の上になかったと判定されれば(325)、スワイプジェスチャ認識が中止され、次のユーザタッチが待たれる(335)。
スワイプジェスチャが完了した後、すなわち、ユーザがデバイスをタッチすることを中止した後(330)、検出ジェスチャが正式のスワイプジェスチャであるか否かを判定する分析が実行される。以下でより詳細に説明するように、分析は、スワイプ検出の間に収集されたタッチデータ、例えば、位置及び時間データに特定の基準を適用することを含む。タッチデータ、すなわち、タッチ「パターン」が適用基準を満たしていると判定されると(340)、スワイプを「リスニングしている」様々なアプリケーションに信号を出力する。一方、スワイプジェスチャがスワイプジェスチャとして認識されなければ(345)、ユーザデバイスは次のタッチを待つ(355)。
正式のスワイプジェスチャが検出されると、広告に添付されたスワイプ技術に「登録されている」所定のアクションが実行される(360)。例えば、登録アクションは、重畳広告ウインドウを閉じてもよい。登録アクションはまた、アニメーション又は他の実施可能要素の開始を含むことができる。登録アクションは、例えば、HTMLベースのスクリプトなど、様々なソフトウエアコードの形式を使用して実装することができる。
特定の実施形態では、スワイプジェスチャの検出は、リスニングアプリケーションに通知することができるが、任意の更なるアクションは、広告に添付されたスワイプ技術によってというよりはむしろ、アプリケーション自体によって実行することができる。例えば、広告は、実行可能要素、例えば、Adobe Flash(登録商標)で作成されたモジュールを含む、表示コンテンツの一部であってもよく、この要素は、スワイプジェスチャが通知されると、重畳広告を消去する操作を処理することができる。このような場合、リスナーがスワイプの発生を通知された後(350)、添付スワイプ技術は、アクションを実行する代わりに、次のタッチを待つ(365)。
スワイプの検出に続いて(350)、添付スワイプ技術によってアクションが適用されると(360)、スワイプ技術が広告から切り離されてそのスワイプ検出機能が停止するステップ(370)、またその代わりに、スワイプ技術がスワイプ検出を継続して次のタッチを待つステップ(375)を実行することができる。
図4A及び4Bは、ユーザデバイスでスワイプジェスチャ認識を実行する方法を示す。上述したように、スワイプジェスチャ認識は、ユーザデバイスのスクリーンをタッチするユーザから始まる(402)。ユーザデバイスの従来のタッチ検出電子装置によって、タッチすることを検出し、スワイプジェスチャ認識技術に通知することができる。スクリーンのタッチの検出は、「タッチ開始イベント」と呼ぶことができる(404)。タッチ開始イベントが検出されると、一連の基準は、基本的なタッチデータに適用される。タッチデータは、例えば、画面のタッチされた位置について、位置及び時間情報を含むことができる。
タッチデータに適用される第1の基準は、複数の指がスクリーンをタッチするのに使われたか否かの判定であってもよい(406)。これは、所定の優先度、例えば、コンテンツプロバイダによって設定された優先度に基づいて設定できるパラメータである、スワイプ検出のために複数の指のタッチが許可されているかの判定に従う(408)。問題となっている特定の構成で複数の指のタッチが許可されているならば、プロセスは、タッチハンドラ及びタイマを切り離し、次のタッチ開始イベントを待つ。
複数の指のスワイプジェスチャが許可されているならば、プロセスは、例えば、所定の領域(例えば、表示ウインドウ)を持つ重畳広告など、所定の「開始要素」があるか否かを決定する(410)。そうであれば、プロセスは、開始要素の境界内でタッチが始まったか否かを判定する(412)。タッチが開始要素で始まれば(又は、開始要素が構成されていなければ)、プロセスは、スクリーンをタッチする1つの指(又は複数の指)の動き及びタッチの終了を検出するルーチンである、「タッチ移動」イベント及び「タッチ終了」イベントリスナーを起動する(414,416)。これらのアクションは、ユーザデバイスの従来のタッチスクリーン検出システムによって通知することができる。また、タッチ移動イベントは、基本的なタッチ位置及び時間データの処理に基づいて検出することができる。
タッチ開始イベントが検出され、タッチ移動及びタッチ終了リスナーが添付された後、タイマが起動される。タッチ移動イベントが検出されずに、経過時間が所定のタイムリミットを越えると(418,420)、タッチ検出ハンドラ及びタイマが切り離され、プロセスは次のタッチを待つ(422)。
一方、タイムリミットを越える前に、タッチ移動イベントが検出されると(424)、以下の段落で説明するように、複数の基準をタッチ移動データに適用することができる。
プロセスは、タッチ移動イベント中に、任意の所定の要素がタッチされたか否かを判定する(426)。例えば、重畳広告を定義するウインドウは、「目的要素」として定義することができる。そして、プロセスは、移動中にタッチされた要素が目的要素であるか否かを判定する(428)。タッチされた要素が目的要素でなければ、プロセスは、タッチ(すなわち、スワイプジェスチャ)が目的要素にとどまる必要があるか否かを定義するパラメータに応じて(430)、タッチハンドラ及びタイマを切り離すことができる。一方、タッチされた要素が目標要素であれば、プロセスのこの分岐においてさらに処理する必要はない。
プロセスは、位置データと、特に、最新のタッチ移動データとに基づいて、タッチ移動の方向を算出する(432)。そして、プロセスは、算出された方向が前のタッチ移動データと一致するか否かを判定する(434)。換言すると、プロセスは、スワイプジェスチャが一方向に継続しているか否かを判定する。移動が直線又は特定の方向(例えば、スクリーンの水平方向)から変化することが許される程度は、例えば、コンテンツプロバイダ又はユーザの優先度に基づいて、パラメータを希望の値に設定することで規定することができる。この時点でプロセスに適用される方向の基準は、前の1組のタッチ移動データについて、1組のタッチ移動データに関連することに留意すべきである。これは、特定の移動の処理が継続することを可能にするにはあまりにも重要である、次へと向かう1つのデータ、例えば、1つのタッチ位置から次への方向変化で、移動をフィルタリング(filter out)するために使用される。以下で説明するように、さらなる1組の基準は、全体としてのスワイプジェスチャに適用することができる。
プロセスは、最新のタッチ移動データから距離を判定し(436)、算出された距離に基づいて移動速度を算出することもできる(438)。これは、例えば、正式のスワイプジェスチャであるには遅すぎる又は速すぎると見做されるスワイプ動作をフィルタリングするパラメータなど、様々なパラメータに適用することができる。このようなパラメータは、本明細書で説明したすべてのパラメータと同様に、コンテンツプロバイダ、ユーザ若しくはシステムデザイナの優先度又はこれらの組み合わせに基づいて、前もって設定することができる。
上述した様々な基準のタッチ移動データへの適用後、タッチ移動データは記録される(440)。より詳細には、記録されるタッチ移動データは、ユーザによってなされたスワイプジェスチャに沿ったスクリーン位置とすることができる。タッチ移動データの記録は、上述したように、適用基準によって「フィルタリング」の対象となる。ユーザが1つの指(又は、複数の指)をタッチスクリーンから離したことを意味する、タッチ終了イベントを受信するまで(442)、この記録プロセスは、ユーザがスワイプジェスチャを実行するものとして継続される。
タッチ終了イベントの受信後、プロセスは、スワイプジェスチャが終了したに違いない要素として(446)、特定の要素が特定されたことを意味する、「終了要素」が構成されたか否かを判定することができる(444)。例えば、スワイプジェスチャが重畳広告の近くでなされれば、パラメータは、全部のスワイプが広告の領域(例えば、表示ウインドウ)内にあることを要求する設定とすることができる。タッチ終了が所定の終了要素の上でなければ、スワイプジェスチャ認識プロセスを終了することができる(すなわち、タッチハンドラ及びタイマを切り離すことができ、次のタッチを待つ)。
終了要素基準の適用後、タッチ移動データ、すなわち、スワイプジェスチャの大部分又はすべてに関連するデータは解釈され(448)、スワイプジェスチャが正式と見做すべきか否かを判定する。これらの基準は、スワイプジェスチャが所定のタイムリミット内で実行された否かの決定を含むことができる(450)。また、所定の目標要素の外側に多すぎるタッチ位置があるか否かの判定があってもよい(452)。スワイプジェスチャが所定の最小距離にわたっているか否か(例えば、スワイプジェスチャが表示コンテンツと比較して十分長いか否か)の決定があってもよい(454)。
スワイプジェスチャ基準はまた、スワイプジェスチャが所定の許可方向、例えば、スクリーンの水平方向で実行されたか否かの判定を含むことができる(456)。この基準はまた、移動ラインが正式のスワイプと見做す直線に十分近いか否かの判定を含むことができる(458)。
スワイプジェスチャデータがすべての適用基準を満たしていれば、スワイプジェスチャが認識され、「リスナー」アプリケーションにスワイプジェスチャが起こったことが通知される(460)。
上述したアルゴリズムを実装したスワイプジェスチャ認識技術(又は、「スワイプ技術」)は、「スワイプ広告」又は「スワイプコンテンツ」パッケージの一部としてバンドルされたのと同様に、「スタンドアローン構成」で適用することができる1組の「動作」を含む。用語「動作」は、ユーザインタフェース入力機構、例えば、オブジェクト指向のソフトウエアに実装されたタッチスクリーンを介して、ユーザインタフェースがユーザによって開始されたスワイプジェスチャ及び他の入力を検出して応答する方法を指す。
スタンドアローンのスワイプ技術構成では、スクリプト、例えば、JavaScript、アプリケーションプログラミングインタフェース(API)を介して、動作が露出、すなわち、プログラマが利用できるようになる。これは、動作が、例えば、表示される重畳又はポップアップイメージなど、ウェブページの任意の要素と対話するように構成することを可能とする。プログラマは、これらの動作要素を、ユーザにコンテンツを示すように構成するコードに組み込むことができる。このような場合、プログラマはまた、コード、例えば、スクリプトを含ませることができ、APIを介して受信することができる様々なタイプの検出動作を処理することができる。
APIは、ユーザデバイスにコンテンツを示すために使用されるHTMLコードに組み込まれた1組のJavaScriptオブジェクトを介して実装される。APIはまた、ホスティングサーバ及び/又は制御されたパブリックコンテンツデリバリネットワーク(CDN)に存在することができ、外部のJavaScriptファイルを参照するタグを含む。外部ファイルは、とりわけ、JavaScriptオブジェクトを介してスワイプジェスチャ検出情報を提供するために、上述したスワイプジェスチャ認識アルゴリズムを実装する。
バンドル構成では、動作要素と検出動作ハンドリングとの両方が、スワイプ広告又はスワイプコンテンツパッケージの一部としてバンドルされる。この構成では、スワイプ広告パッケージは、検出動作に応答してなされる動作及びアクションを定義する、外部のスクリプトファイルをアクセスするタグを含んだモジュラシステムとすることができる。他の機能はまた、例えば、ユーザデバイスにコンテンツを示す方法に関連した機能など、外部のファイルによって提供される。
スワイプ広告又はスワイプコンテンツパッケージによって提供されるバンドル機能は、コンテンツを作成するプログラマが、スワイプジェスチャ機能を備えたコンテンツをユーザに提示するために、JavaScriptオブジェクト及び外部のJavaScript参照を使用しながら、主としてHTMLで作業できるようにする。例えば、広告のようなコンテンツは、HTMLタグ(例えば、イメージタグの周りのアンカータグ)を使用することによって、HTMLファイルに含むことができる。そして、このタグ付きコンテンツは、スワイプジェスチャ機能を備えた、表示対象のスワイプ広告パッケージによってアクセスできる。
以下で説明するJavaScriptオブジェクトは、公知の名前付きの組、すなわち、論理的なグループ分けにおける列挙値を提供することで、スワイプジェスチャ認識技術の動作をサポートする。これらのオブジェクトのメンバは、スワイプジェスチャ動作のAPI機能と対話する場合、値として使用するために参照することができる。
次のオブジェクトは、適切なスワイプジェスチャと見做すため、検出ジェスチャが直線軌道を有しなければならない程度を定義する列挙値を提供する。
SoMo.Swipe.LineDetection
・Strict
・Even
・Loose
次のオブジェクトは、適切なスワイプジェスチャと見做すために、検出ジェスチャが向かう方向を定義する公知の値を提供する。
SoMo.Swipe.Direction
・Up
・Down
・Left
・Right
スワイプジェスチャ検出機能は、協働する2つの機能の形式でAPIに表れ、所定のページ要素、例えば、重畳又はポップアップイメージでのスワイプジェスチャのための「オブザーバ」の追加と削除を可能にする。スワイプジェスチャオブザーバを追加すると、検出アルゴリズムの制御及び微調整を可能にする、1組のオプションを指定することができる。
オブザーバ追加機能の使用方法は次の通りである。
Somo.Swipe.addSwipeObserver
・targetElementId - (任意)スワイプジェスチャ検出が適用される、ドキュメントオブジェクトモデル(DOM)要素の識別子である。指定しなければ、現在のドキュメントと見做す。
・startElementId - (任意)適切なスワイプジェスチャと見做すため、スワイプジェスチャが開始するDOM要素の識別子である。指定しなければ、制約が適用されない。
・endElementId - (任意)適切なスワイプジェスチャと見做すため、スワイプジェスチャが終了するDOM要素の識別子である。指定しなければ、制約が適用されない。
・ignoreSwipeElementIds - (任意)スワイプ検出に関与すべきでないDOM要素の識別子の配列である。これらの要素は、タッチイベントがスワイプ検出を処理することを許可しない。要素は、一般的に、例えば、広告イメージがクリックされるなど、他のジェスチャを主に受信することを目的とする場合、このオプションが指定される。指定しなければ、スワイプ検出は通常のイベント処理を使用して適用される。
・allowMultipleFingers - (任意)スワイプジェスチャが複数の指で実行され得るかを示すブール値である。指定しなければ、falseと見做される。
・maximumTouchesOffTarget - (任意)ジェスチャがまだスワイプであると見做されるため、目標要素の外側にあることが許可される指のタッチの総数である。指定しなければ、制約が適用されない。
・minimumDistanceVertical - (任意)有効な垂直スワイプジェスチャに必要とされる、ピクセル単位の最小距離である。指定しなければ、50ピクセルの距離と見做される。
・minimumDistanceHorizontal - (任意)有効な水平スワイプジェスチャに必要とされる、ピクセル単位の最小距離である。指定しなければ、50ピクセルの距離と見做される。
・maximunMoveInterval - (任意)有効なスワイプジェスチャを記録するため、図形の移動の間に経過することができる、ミリ秒単位の最大時間である。指定しなければ、250ミリ秒の間隔と見做される。
・maximumGestureInterval - (任意)スワイプと見做すため、ジェスチャの開始のタッチと終了のタッチとの間に経過することができる、ミリ秒単位の最大時間である。指定しなければ、1250ミリ秒の間隔と見做される。
・lineDetection - (任意)適用すべき線検出の厳密性である。これは、ジェスチャが直線であったと確認するときに使用する許容因子を表す、SoMo.Swipe.LineDetectionオブジェクトから公知の値、又は、浮動小数点パーセント値の形式をとることができる。指定しなければ、公知のLineDirection.Even値と見做される。
・allowedDirections - (任意)有効と見做されるため、スワイプジェスチを行なうことができる方向の配列である。この配列のメンバは、SoMo.Swipe.Directionオブジェクトから公知の値の形式をとる。指定しなければ、4つの基本的な方向と見做される。
・swipeCallbacks - (任意)所定のオプションを満たすスワイプジェスチャが検出されたとき、呼び出される関数の配列である。関数は、function(引数)のシグネチャーを有することが期待される。引数は、スワイプジェスチャが監視されるDOM要素とジェスチャ方向を夫々値とする、targetElement及びdirectionをメンバとして含むオブジェクトである。方向は、SoMo.Swipe.Directionオブジェクトから公知の値として表される。
戻り値:
スワイプオブザーバに割り当てられた固有のハンドル、及び、ジェスチャ検出に適用された、1組のオプションを表すオブジェクトである。このオブジェクトは、スワイプジェスチャを監視することを適切に停止するため、removeSwipeObserver関数に渡す必要がある。
次は、SoMo.Swipe.addSwipeObserverオブジェクトの使用例である。

var handle = SoMo.Swipe.addSwipeObserver(
{
targetElementId : ‘myAdContainerId’,
ignoreSwipeElementIds : [‘myAdImageId’],
lineDetection : Somo.Swipe.LineDetection.Loose,
swipeCallbacks : [function(args) { alert(‘swipe’); }]
});

var handle = SoMo.Swipe.addSwipeObserver(
{
targetElementId : ‘santaImageId’,
startElementId : ‘santaHatId’,
endElementId : ‘santaBellyId’,
ignoreSwipeElementIds : [‘myAdImageId’, ‘someOtherId’],
allowMultipleFingers : true,
maximumTouchesOfftarget : 5,
minimumDistanceVertical : 100,
minimumDistanceHorizontal : 65,
maximumMoveInterval : 200,
maximumGestureInterval : 1100,
lineDetection : SoMo.Swipe.LineDetection.Loose,
allowDirections : [SoMo.Swipe.Direction.Up],
swipeCallbacks : [handleSwipe]
});
オブザーバ除去関数の使用方法は下記のとおりである。
removeSwipeObserver
引数:addSwipeObserverが呼び出されたときに返される1組のオプションである。例えば、
var handle = SoMo.Swipe.addSwipeObserver(options);
SoMo.Swipe.removeSwipeObserver(handle);
である。
下記の事項は、JavaScriptオブジェクトを使用するための構造を定義する、JavaScriptインタフェース定義又はインタフェースコンタクトの形式で、上述したオブジェクト定義のリステートメントである。この定義は、例えば、線の検出及び方向のため、オブジェクトの引数として使用される特定の値の列挙を含む。
var SoMo = SoMo || {};

// Swipe Behaviors

/**
* A static class providing the public interface for swipe ad functionality.
* @class
*/
SoMo.Swipe =
{
/**
* Adds an observer to be alerted when a swipe gesture is detected.
* @member Swipe
*
* @param options {object} A set of options for controlling swipe detection behavior. The allowed options are:
* targetElementId {string} [OPTIONAL] Id of the DOM element that swipe detection is applied to. If not specified, the screen is used
* startElementId {string} [OPTIONAL] Id of the DOM element that swipe gesture must begin on. If not specified, no constraint is applied
* endElementId {string} [OPTIONAL] Id of the DOM element that the swipe gesture must end on. If not specified, no constraint is applied
* ignoreSwipeElementIds {array} [OPTIONAL] A set of DOM element ids that should not particupate in swipe detection. These elements will not allow the touch events to bubble. If not specified, swipe detection will be applied using normal event bubbling
* allowMultipleFingers {boolean} [OPTIONAL] True if gesture with multiple fingers are eligible to be considered swipe gesture. If not specified, false is assumed
* maximumTouchesOffTarget {int} [OPTIONAL] The total number of touches that are allowed to occure on an element that is not the target. If not specified, no constraint is applied
* minimumDistanceVertical {int} [OPTIONAL] The minimum distance, in pixels, that are required for a vertical swipe gesture. If not specified, a reasonable default is applied
* minimumDistanceHorizontal {int} [OPTIONAL] The minimum distance, in pixels, that are required for a horizontal swipe gesture. If not specified, a reasonable default is applied
* maximumMoveInterval {int} [OPTIONAL] The maximum amount of time, in milliseconds, that may elapse between finger movements. If not specified, a reasonable default is applied
* maximumGestureInterval {int} [OPTIONAL] The maximum amount of time, in milliseconds, that performing the gesture is allowed to take. If not specified, a reasonable default is applied
* lineDetection {int|float} [OPTIONAL] The type of line detection strictness that should be applied. If not specified, a reasonable default is applied
* allowedDirections {array} [OPTIONAL] The set of directions in which a swipe gesture is valid. If not applied, the four primary directions are allowed
* swipeCallbacks {array} [OPTIONAL] The set of callback functions to alert when a swipe gesture is detected. If not specified, no notification is performed
*
* @returns {object} The set of options received normalized with the default values for unspecified members
*/
addSwipeObsever : function Swipe$addSwipeObserver(options) {},
/**
* Removes a swipe observer.
* @member Swipe
*
* @param options {object} The set of options received as a return value when the swipe observer was added.
*/
removeSwipeObserver : function Swipe$removeSwipeObserver(options) {}
};

// Line Detection

SoMo.Swipe.LineDetection =
{
Strict : 0,
Loose : 2,
Even : 4
};

// Direction

SoMo.Swipe.Direction =
{
Up : 0,
Down : 2,
Left : 4,
Right : 8
};
下記の事項は、HTMLページに表れるようにする、スワイプ動作参照の一例である。

<script type=“text/javascript” src=http://ef2083a34f0ec9f817e8-64e501cf4fb3a4a144bedf4c4ec2f5da.r2.cf2.rackcdn.com/static/swipe-ads/somo-swipe-behaviors.js></script>
下記の事項は、HTMLページに含まれる、スワイプコンテンツユニット(例えば、広告ユニット)の一例である。

<script type=“text/javascript”>
window.SwipeAdState =
{
Normal : 0,
AdOnly : 2,
DoNotDisplay : 4,
AwaitCallback : 8
};

window.currentSwipeAdId = ‘swipeAd9876789’;
window.swipeState = window.SwipeAdState.Normal;
window.swipeQueue = window.swipeQueue || [];
window.swipeQueue.push(window.currentSwipeAdId);
</script>
<div style=“display:none; position:absolute; top:-3000px; left:-3000px; z-index=-9999;”id=“adwrapper123454321”>
<!-- AD CREATIVE -->
<a
href=“http:// www.giftcards.com/?utm source= Swipe&utm medium=mobile&utm campaign=728x90”target=“_blank”><img src=“http:// www.swipeadvertising.com/ads/tablet-728x90.png”height=“90” width=“728” alt=“Ad Content” /></a>
<!-- END AD CREATIVE -->
</div>

<script type=“text/javascript” src=“http://ef2083a34f0ec9f817e8-64e501cf4fb3a4a144bedf4c4ec2f5da.r2.cf2.rackcdn.com/static/Awipe-ads/somo-bottom-728x90-close.js>”</script>
<script type=”text/javascript”>
(function(undefined)
{
var wrapperId = ‘adWrapper123454321’;
var id = window.currentSwipeAdId;
delete window.currentSwipeAdId;

var initialize = (function(id, wrapperId)
{
return function() {SoMo.SwipeAds.initializeAd[id](id, wrapperId); };
})(id, wrapperId);

if (window.swipeState === window.SwipeAdState.AwaitCallback)
{
SoMo.SwipeAds.addSwipeAdCompleteCallback(id, initialize);
window.swipeState = window.SwipeAdState.Normal:
}
else
{
SoMo.DOMReady.add(initialize);
}
})();
</script>
例示的な実施形態が本明細書及び図面で表示及び説明されているが、それらの原理及び精神から逸脱することなく、図示及び/又は説明する例示的な実施形態を変更できることは、当業者によって理解されるであろう。

Claims (22)

  1. タッチ入力ディスプレイを有するユーザデバイスでスワイプジェスチャ認識を使用し、ホスティングサーバによって提供されるコンテンツを操作する方法であって、
    前記コンテンツのうちの少なくとも1つの表示可能なコンテンツ要素に関連付けられたスワイプジェスチャ認識モジュールと組み合わされてコンテンツパッケージを形成するコンテンツを前記ホスティングサーバに格納し、
    前記ホスティングサーバにおいて、前記ユーザデバイスから前記コンテンツパッケージの要求を受信し、
    前記ユーザデバイスで実行しているアプリケーションによって表示するため、前記コンテンツパッケージを前記ホスティングサーバから前記ユーザデバイスに送信する、
    ことを含み、
    前記スワイプジェスチャ認識モジュールは、前記少なくとも1つの表示可能なコンテンツ要素が前記ユーザデバイスに表示されると、スワイプジェスチャ認識を実行するように構成され、
    前記スワイプジェスチャ認識は、
    前記ユーザデバイスの前記タッチ入力ディスプレイからタッチ入力データを受信し、
    前記スワイプジェスチャ認識モジュールを使用して、前記ホスティングサーバ又は第2のサーバに格納されたスワイプジェスチャ判定モジュールをアクセスし、前記タッチ入力データを解析し、前記少なくとも1つの表示可能なコンテンツ要素でスワイプジェスチャが発生したか否かを判定し、
    前記少なくとも1つの表示可能なコンテンツ要素でスワイプジェスチャが発生したと判定されると、前記少なくとも1つの表示可能なコンテンツ要素に所定のアクションを適用する、
    方法。
  2. 前記少なくとも1つの表示可能なコンテンツ要素は、他の表示コンテンツに重畳されたウインドウの形状である、
    請求項1に記載の方法。
  3. 前記少なくとも1つの表示可能なコンテンツ要素は、表示ウインドウの形状であり、他の表示コンテンツの一部を形成する、
    請求項1に記載の方法。
  4. 前記所定のアクションは、前記少なくとも1つの表示可能なコンテンツ要素の消去を含む、
    請求項1に記載の方法。
  5. 前記所定のアクションは、前記少なくとも1つの表示可能なコンテンツ要素に関連付けられたユニフォームリソースロケータを起動することを含む、
    請求項1に記載の方法。
  6. 前記スワイプジェスチャ認識モジュールは、スクリプトオブジェクトを含むアプリケーションプログラミングインタフェース(API)を含む、
    請求項1に記載の方法。
  7. 前記スワイプジェスチャ認識モジュールは、所定のスワイプジェスチャに応答して、前記タッチディスプレイを制御するコードを含む、
    請求項6に記載の方法。
  8. 前記コンテンツは、所定のスワイプジェスチャに応答して、前記タッチディスプレイを制御するコードを含む、
    請求項6に記載の方法。
  9. 前記スワイプジェスチャ判定モジュールは、前記スワイプジェスチャ認識モジュールにおける外部のスクリプトファイル参照タグを使用してアクセスされる、
    請求項1に記載の方法。
  10. 前記ユーザデバイスの前記タッチ入力ディスプレイから受信した前記タッチ入力データに基づいて、ユーザによるタッチ開始位置を検出し、
    スワイプジェスチャであることを判定するため、タッチが開始されなければならない前記タッチスクリーンの領域を特定する開始要素が指定されたか否かを判定し、
    前記開始要素が指定されたならば、前記ユーザによる前記タッチ開始位置が、前記指定された開始要素の境界内で発生したか否かを判定し、
    前記ユーザによる前記タッチ開始位置が前記指定された開始要素の境界内であれば、スワイプジェスチャが発生したか否かを判定する解析のため、前記タッチ入力データの蓄積を開始するタッチ移動イベントを通知し、
    前記ユーザによる前記タッチ開始位置が前記指定された開始要素の境界内でなければ、前記スワイプジェスチャ判定を終了し、
    前記開始要素が指定されなければ、タッチ移動イベントを通知することで、
    前記スワイプジェスチャ判定モジュールが、前記少なくとも1つの表示可能なコンテンツ要素でスワイプジェスチャが発生しているか否かを判定する、
    請求項1に記載の方法。
  11. 前記ユーザデバイスの前記タッチ入力ディスプレイから受信した前記タッチ入力データに基づいて、ユーザによるタッチ終了位置を検出し、
    スワイプジェスチャであることを判定するため、タッチが終了されなければならない前記タッチスクリーンの領域を特定する終了要素が指定されたか否かを判定し、
    前記終了要素が指定されたならば、前記ユーザによる前記タッチ終了位置が、前記指定された終了要素の境界内で発生したか否かを判定し、
    前記ユーザによる前記タッチ終了位置が前記指定された終了要素の境界内であれば、スワイプジェスチャが発生したか否かを判定するため、前記蓄積されたタッチ入力データの解析を開始するタッチ終了イベントを通知し、
    前記ユーザによる前記タッチ終了位置が前記指定された終了要素の境界内でなければ、前記スワイプジェスチャ判定を終了し、
    前記終了要素が指定されなければ、タッチ終了イベントを通知する、
    ことを更に含む、請求項10に記載の方法。
  12. タッチ入力ディスプレイを有するユーザデバイスでスワイプジェスチャ認識を使用し、ホスティングサーバによって提供されるコンテンツを操作する方法を、プロセッサに実行させる命令を格納した非一時的な記録媒体であって、前記方法は、
    前記コンテンツのうちの少なくとも1つの表示可能なコンテンツ要素に関連付けられたスワイプジェスチャ認識モジュールと組み合わされてコンテンツパッケージを形成するコンテンツを前記ホスティングサーバに格納し、
    前記ホスティングサーバにおいて、前記ユーザデバイスから前記コンテンツパッケージの要求を受信し、
    前記ユーザデバイスで実行しているアプリケーションによって表示するため、前記コンテンツパッケージを前記ホスティングサーバから前記ユーザデバイスに送信する、
    ことを含み、
    前記スワイプジェスチャ認識モジュールは、前記少なくとも1つの表示可能なコンテンツ要素が前記ユーザデバイスに表示されると、スワイプジェスチャ認識を実行するように構成され、
    前記スワイプジェスチャ認識は、
    前記ユーザデバイスの前記タッチ入力ディスプレイからタッチ入力データを受信し、
    前記スワイプジェスチャ認識モジュールを使用して、前記ホスティングサーバ又は第2のサーバに格納されたスワイプジェスチャ判定モジュールをアクセスし、前記タッチ入力データを解析し、前記少なくとも1つの表示可能なコンテンツ要素でスワイプジェスチャが発生したか否かを判定し、
    前記少なくとも1つの表示可能なコンテンツ要素でスワイプジェスチャが発生したと判定されると、前記少なくとも1つの表示可能なコンテンツ要素に所定のアクションを適用する、
    記録媒体。
  13. 前記少なくとも1つの表示可能なコンテンツ要素は、他の表示コンテンツに重畳されたウインドウの形状である、
    請求項12に記載の記録媒体。
  14. 前記少なくとも1つの表示可能なコンテンツ要素は、表示ウインドウの形状であり、他の表示コンテンツの一部を形成する、
    請求項12に記載の記録媒体。
  15. 前記所定のアクションは、前記少なくとも1つの表示可能なコンテンツ要素の消去を含む、
    請求項12に記載の記録媒体。
  16. 前記所定のアクションは、前記少なくとも1つの表示可能なコンテンツ要素に関連付けられたユニフォームリソースロケータを起動することを含む、
    請求項12に記載の記録媒体。
  17. 前記スワイプジェスチャ認識モジュールは、スクリプトオブジェクトを含むアプリケーションプログラミングインタフェース(API)を含む、
    請求項12に記載の記録媒体。
  18. 前記スワイプジェスチャ認識モジュールは、所定のスワイプジェスチャに応答して、前記タッチディスプレイを制御するコードを含む、
    請求項17に記載の記録媒体。
  19. 前記コンテンツは、所定のスワイプジェスチャに応答して、前記タッチディスプレイを制御するコードを含む、
    請求項17に記載の記録媒体。
  20. 前記スワイプジェスチャ判定モジュールは、前記スワイプジェスチャ認識モジュールにおける外部のスクリプトファイル参照タグを使用してアクセスされる、
    請求項12に記載の記録媒体。
  21. 前記ユーザデバイスの前記タッチ入力ディスプレイから受信した前記タッチ入力データに基づいて、ユーザによるタッチ開始位置を検出し、
    スワイプジェスチャであることを判定するため、タッチが開始されなければならない前記タッチスクリーンの領域を特定する開始要素が指定されたか否かを判定し、
    前記開始要素が指定されたならば、前記ユーザによる前記タッチ開始位置が、前記指定された開始要素の境界内で発生したか否かを判定し、
    前記ユーザによる前記タッチ開始位置が前記指定された開始要素の境界内であれば、スワイプジェスチャが発生したか否かを判定する解析のため、前記タッチ入力データの蓄積を開始するタッチ移動イベントを通知し、
    前記ユーザによる前記タッチ開始位置が前記指定された開始要素の境界内でなければ、前記スワイプジェスチャ判定を終了し、
    前記開始要素が指定されなければ、タッチ移動イベントを通知することで、
    前記スワイプジェスチャ判定モジュールが、前記少なくとも1つの表示可能なコンテンツ要素でスワイプジェスチャが発生しているか否かを判定する、
    請求項12に記載の記録媒体。
  22. 前記ユーザデバイスの前記タッチ入力ディスプレイから受信した前記タッチ入力データに基づいて、ユーザによるタッチ終了位置を検出し、
    スワイプジェスチャであることを判定するため、タッチが終了されなければならない前記タッチスクリーンの領域を特定する終了要素が指定されたか否かを判定し、
    前記終了要素が指定されたならば、前記ユーザによる前記タッチ終了位置が、前記指定された終了要素の境界内で発生したか否かを判定し、
    前記ユーザによる前記タッチ終了位置が前記指定された終了要素の境界内であれば、スワイプジェスチャが発生したか否かを判定するため、前記蓄積されたタッチ入力データの解析を開始するタッチ終了イベントを通知し、
    前記ユーザによる前記タッチ終了位置が前記指定された終了要素の境界内でなければ、前記スワイプジェスチャ判定を終了し、
    前記終了要素が指定されなければ、タッチ終了イベントを通知する、
    命令を更に含む、請求項21に記載の記録媒体。
JP2015545425A 2012-11-28 2013-11-27 スワイプジェスチャ認識技術を使用したコンテンツ操作 Expired - Fee Related JP6309020B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261730899P 2012-11-28 2012-11-28
US61/730,899 2012-11-28
US13/932,898 US20140149916A1 (en) 2012-11-28 2013-07-01 Content manipulation using swipe gesture recognition technology
US13/932,898 2013-07-01
PCT/US2013/072186 WO2014085555A1 (en) 2012-11-28 2013-11-27 Content manipulation using swipe gesture recognition technology

Publications (2)

Publication Number Publication Date
JP2016502200A true JP2016502200A (ja) 2016-01-21
JP6309020B2 JP6309020B2 (ja) 2018-04-11

Family

ID=50774456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015545425A Expired - Fee Related JP6309020B2 (ja) 2012-11-28 2013-11-27 スワイプジェスチャ認識技術を使用したコンテンツ操作

Country Status (7)

Country Link
US (6) US20140149916A1 (ja)
EP (1) EP2926227A4 (ja)
JP (1) JP6309020B2 (ja)
CN (1) CN104937525B (ja)
AU (1) AU2013352207A1 (ja)
CA (1) CA2892999A1 (ja)
WO (1) WO2014085555A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10216403B2 (en) 2013-03-29 2019-02-26 Orange Method to unlock a screen using a touch input
US20140365319A1 (en) * 2013-06-10 2014-12-11 Google Inc. Mechanism for managing online content on touchscreen devices in the flow of an online publication
US10402060B2 (en) * 2013-06-28 2019-09-03 Orange System and method for gesture disambiguation
US10220304B2 (en) * 2013-10-14 2019-03-05 Microsoft Technology Licensing, Llc Boolean/float controller and gesture recognition system
KR102140294B1 (ko) * 2014-01-16 2020-07-31 삼성전자주식회사 전자 장치의 광고 방법 및 그 전자 장치
US11064008B2 (en) * 2014-05-05 2021-07-13 Usablenet Inc. Methods for facilitating a remote interface and devices thereof
CN104156139A (zh) * 2014-08-06 2014-11-19 广州三星通信技术研究有限公司 阻止链接广告页面的方法和装置
US10891690B1 (en) 2014-11-07 2021-01-12 Intuit Inc. Method and system for providing an interactive spending analysis display
US11442617B1 (en) * 2015-06-12 2022-09-13 Intuit, Inc. Committing data in electronic devices using swiping gestures
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
CN106354392B (zh) * 2015-07-16 2019-06-28 阿里巴巴集团控股有限公司 网页操作方法及装置
US10360750B2 (en) * 2015-11-03 2019-07-23 Capital One Services, Llc Systems and methods for pattern generation and security features
US10530731B1 (en) 2016-03-28 2020-01-07 Snap Inc. Systems and methods for chat with audio and video elements
US20170310673A1 (en) * 2016-04-20 2017-10-26 Huami Inc. Security system with gesture-based access control
KR20190021724A (ko) * 2017-08-23 2019-03-06 삼성전자주식회사 보안성이 향상된 이미지 표시 방법 및 이를 수행하는 전자 장치
CN108280676A (zh) * 2018-01-04 2018-07-13 广州阿里巴巴文学信息技术有限公司 一种基于滑动视窗进行广告展示的方法、装置和终端设备
CN109309852B (zh) * 2018-11-06 2022-05-27 杨富山 视频广告处理方法、终端及介质
CN111046290A (zh) * 2019-12-13 2020-04-21 珠海格力电器股份有限公司 一种广告处理的方法、装置、电子设备及存储介质
CN112416236A (zh) * 2020-03-23 2021-02-26 上海幻电信息科技有限公司 基于web页面的手势封装、交互方法、设备和存储介质
CN111610855A (zh) * 2020-03-30 2020-09-01 北京爱接力科技发展有限公司 一种手势去广告的方法、装置、终端和计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110288913A1 (en) * 2010-05-20 2011-11-24 Google Inc. Interactive Ads
US20120092277A1 (en) * 2010-10-05 2012-04-19 Citrix Systems, Inc. Touch Support for Remoted Applications
US20120131497A1 (en) * 2010-11-18 2012-05-24 Google Inc. Orthogonal Dragging on Scroll Bars
US20120131454A1 (en) * 2010-11-24 2012-05-24 Siddharth Shah Activating an advertisement by performing gestures on the advertisement

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001063916A1 (en) 2000-02-25 2001-08-30 Interval Research Corporation Method and system for selecting advertisements
US7047503B1 (en) 2001-03-28 2006-05-16 Palmsource, Inc. Method and apparatus for the selection of records
US8261306B2 (en) 2001-12-11 2012-09-04 Koninklijke Philips Electronics N.V. System for and method of shopping through television
EP1779373A4 (en) 2004-08-16 2011-07-13 Maw Wai-Lin VIRTUAL KEYBOARD INPUT DEVICE
US8326775B2 (en) * 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7900225B2 (en) 2007-02-20 2011-03-01 Google, Inc. Association of ads with tagged audiovisual content
US20080225037A1 (en) 2007-03-15 2008-09-18 Basimah Khulusi Apparatus and method for truncating polyhedra
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8717305B2 (en) * 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8174502B2 (en) * 2008-03-04 2012-05-08 Apple Inc. Touch event processing for web pages
US8467991B2 (en) * 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
US7996422B2 (en) 2008-07-22 2011-08-09 At&T Intellectual Property L.L.P. System and method for adaptive media playback based on destination
US8856690B2 (en) 2008-10-31 2014-10-07 Sprint Communications Company L.P. Associating gestures on a touch screen with characters
US8566045B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9684521B2 (en) * 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8839155B2 (en) 2009-03-16 2014-09-16 Apple Inc. Accelerated scrolling for a multifunction device
US8285499B2 (en) * 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9485339B2 (en) 2009-05-19 2016-11-01 At&T Mobility Ii Llc Systems, methods, and mobile devices for providing a user interface to facilitate access to prepaid wireless account information
CN102033881A (zh) * 2009-09-30 2011-04-27 国际商业机器公司 用于识别网页中的广告的方法和系统
US8432368B2 (en) 2010-01-06 2013-04-30 Qualcomm Incorporated User interface methods and systems for providing force-sensitive input
EP2531969A4 (en) * 2010-02-01 2013-12-04 Jumptap Inc INTEGRATED ADVERTISING SYSTEM
US20120254804A1 (en) * 2010-05-21 2012-10-04 Sheha Michael A Personal wireless navigation system
US20120130822A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Computing cost per interaction for interactive advertising sessions
US8660978B2 (en) * 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
WO2012142055A1 (en) 2011-04-11 2012-10-18 Zinio, Llc Reader with enhanced user functionality
US10222974B2 (en) 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
US8751972B2 (en) * 2011-09-20 2014-06-10 Google Inc. Collaborative gesture-based input language
US9229568B2 (en) * 2011-09-30 2016-01-05 Oracle International Corporation Touch device gestures
US20140007018A1 (en) 2011-10-05 2014-01-02 Fooncrazy Corp Summation of tappable elements results/actions by swipe gestures
US8719734B2 (en) 2011-11-16 2014-05-06 Microsoft Corporation Two-stage swipe gesture recognition
US8954890B2 (en) 2012-04-12 2015-02-10 Supercell Oy System, method and graphical user interface for controlling a game
US20130275924A1 (en) 2012-04-16 2013-10-17 Nuance Communications, Inc. Low-attention gestural user interface
US20140026105A1 (en) 2012-07-18 2014-01-23 Research In Motion Limited Method and Apparatus Pertaining to a Gesture-Controlled Snooze Instruction
US9696879B2 (en) 2012-09-07 2017-07-04 Google Inc. Tab scrubbing using navigation gestures
US8487897B1 (en) 2012-09-12 2013-07-16 Google Inc. Multi-directional calibration of touch screens

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110288913A1 (en) * 2010-05-20 2011-11-24 Google Inc. Interactive Ads
US20120092277A1 (en) * 2010-10-05 2012-04-19 Citrix Systems, Inc. Touch Support for Remoted Applications
US20120131497A1 (en) * 2010-11-18 2012-05-24 Google Inc. Orthogonal Dragging on Scroll Bars
US20120131454A1 (en) * 2010-11-24 2012-05-24 Siddharth Shah Activating an advertisement by performing gestures on the advertisement

Also Published As

Publication number Publication date
EP2926227A1 (en) 2015-10-07
US20140245164A1 (en) 2014-08-28
US20190018566A1 (en) 2019-01-17
US20210011600A1 (en) 2021-01-14
AU2013352207A1 (en) 2015-07-16
EP2926227A4 (en) 2016-08-03
US20160202900A1 (en) 2016-07-14
CA2892999A1 (en) 2014-06-05
US10089003B2 (en) 2018-10-02
US10831363B2 (en) 2020-11-10
CN104937525B (zh) 2018-01-23
US20140304609A1 (en) 2014-10-09
US20140149916A1 (en) 2014-05-29
WO2014085555A1 (en) 2014-06-05
US11461536B2 (en) 2022-10-04
CN104937525A (zh) 2015-09-23
US9218120B2 (en) 2015-12-22
JP6309020B2 (ja) 2018-04-11

Similar Documents

Publication Publication Date Title
US11461536B2 (en) Content manipulation using swipe gesture recognition technology
US10552644B2 (en) Method and apparatus for displaying information content
US10762277B2 (en) Optimization schemes for controlling user interfaces through gesture or touch
US9805377B2 (en) Unified content visibility
US9152529B2 (en) Systems and methods for dynamically altering a user interface based on user interface actions
US20110191666A1 (en) Animation control methods and systems
US20120278712A1 (en) Multi-input gestures in hierarchical regions
JP2015502606A (ja) クロス・ウィンドウ・アニメーション
US9684445B2 (en) Mobile gesture reporting and replay with unresponsive gestures identification and analysis
US20120254892A1 (en) Uniform Event Handling Across Multiple Computing Devices
KR20160020486A (ko) 터치패드 조작 및 더블 탭 주밍을 위한 독립적 히트 테스팅
JP5909240B2 (ja) 溝メタファーを使用する瞬時パニング
WO2016066047A1 (zh) 用于在屏幕显示设备上展示客体信息的方法及装置
JP6844206B2 (ja) プログラム、情報処理方法、および情報処理装置
NL2007880C2 (en) Uniform event handling across multiple computing devices.
US10896447B1 (en) Methods and systems for reducing inadvertent interactions with advertisements displayed on a computing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180313

R150 Certificate of patent or registration of utility model

Ref document number: 6309020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees