JP2015512540A - インスタンス化可能なジェスチャオブジェクト - Google Patents
インスタンス化可能なジェスチャオブジェクト Download PDFInfo
- Publication number
- JP2015512540A JP2015512540A JP2015503316A JP2015503316A JP2015512540A JP 2015512540 A JP2015512540 A JP 2015512540A JP 2015503316 A JP2015503316 A JP 2015503316A JP 2015503316 A JP2015503316 A JP 2015503316A JP 2015512540 A JP2015512540 A JP 2015512540A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- application
- recognition
- input
- computing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00405—Output means
- H04N1/00408—Display of information to the user, e.g. menus
- H04N1/00411—Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
伝統的に、プラットフォームによって提供されるネイティブにサポートされるジェスチャ機能は、複雑な構成を要することがあり、これは、一部の開発者が、自身のアプリケーションにジェスチャを組み込むのを困難にするか、そのコストが非常に高くなる。加えて、既存のプラットフォームにおけるネイティブのジェスチャ機能は、JavaScript及びHTMLのような動的なスクリプト言語を用いるアプリケーションに利用不可能なことがある。
図1は、本明細書で説明される技術を用いるのに動作可能な例示的実装における環境100の図である。図示される環境100は、ネットワーク106を介して通信可能に結合されるコンピューティングデバイス102とウェブサービス104とを含む。コンピューティングデバイス102及びウェブサービス104はそれぞれ、広範なコンピューティングデバイスによって実装され得る。
更に説明するため、次に図2を検討する。図2は、全体的に200において、認識インタフェース120を起動して、アプリケーション110の代わりにジェスチャ認識を取り扱うジェスチャオブジェクト122をインスタンス化する例示のシナリオを示している。レンダリングエンジン116(あるいは他のもの)によって)アプリケーション用にレンダリングされるコンテンツは、対応するコンテンツモデル202に従って表されることができる。コンテンツモデル202は、ドキュメント、ページ又は他のアプリケーションコンテンツの構造の階層的表現である。コンテンツモデルは、コンテンツを消費して該コンテンツ内に含まれる様々な要素204を参照して操作するアプリケーションを可能にする。要素204は、例えばイメージ、コントロール、テキスト、グラフィクス等のコンテンツとともに含まれるものを含むことができる。ある特定の例において、ドキュメントオブジェクトモデル(DOM)がアプリケーションによって使用され得る。DOMは、ブラウザ(又は他のアプリケーション)のためのページ内の要素を表し、該要素と対話するための標準的な勧告である。ページのDOMは、ブラウザによって構築されて、ウェブページ内に含まれる要素204を参照し、修正し、エフェクトを適用し及び/又は他の方法で操作するのに使用され得る。他のアプリケーション用のコンテンツもDOMに従って構成され、対応するページ、ファイル及び/又はドキュメントの要素204を表すことがある。他の種類のコンテンツモデル202を1つ又は複数の実施形態において用いてもよい。
特に、ジェスチャオブジェクト122は、図2において、対話入力206と、ターゲット要素208と、所与の対話コンテキストについてオブジェクトを生成するようアプリケーションによって設定されるカスタムプロパティ210とを含むように図示されている。対話入力206(ポインタとも呼ばれる)は、タッチ接触、ポインタの位置/移動、スタイラス入力、マウス入力及び/又は対話コンテキストについてトラックされる他の入力のような入力である。ジェスチャオブジェクト122は、1つ又は複数の個々の入力/接触、例えばポインタを含むように構成され得る。ジェスチャオブジェクトは、同じ入力ソースからの同じタイプの複数のポインタ及び/又は異なる入力ソースからの異なるタイプのポインタの組み合わせを含むことができる。ジェスチャオブジェクト122に入力/接触を含めることにより、これらの入力/接触は、ジェスチャ検出のために考慮されることになる。ターゲット要素208は、ジェスチャオブジェクト122がマップされるコンテンツモデル202内の要素を表す。例えばコンテンツのDOM表現内の要素を、ジェスチャオブジェクトのターゲットとして指定してもよい。個々の要素が、レンダリングされているユーザインタフェース、ページ又はドキュメントの1つ又は複数の個々のコンポーネント/アイテムを含むように定義されてもよい。ジェスチャオブジェクト122についてターゲット要素208を指定することにより、ジェスチャオブジェクト122に関して生成されたジェスチャイベントが、指定された要素に対して明示的に向けられることになる。さらに、1つ又は複数の要素が前もってわかるので、ジェスチャモジュール114及び/又は認識装置124により取得される生のジェスチャデータを、特定の要素についてフォーマットすることができる。したがって、ジェスチャオブジェクトは、アプリケーションレベルでの追加の処理をほとんど必要としないか、全く必要とすることなく、フォーマットされたジェスチャデータを、対応する要素が提供され得るアプリケーションに供給することができる。加えて、カスタムプロパティ210を提供して、ジェスチャオブジェクトの挙動の拡張及びカスタマイズを可能にし、存続期間の管理を容易にすることができる。その詳細は本明細書において後述される。
g.target = element // ジェスチャイベントを受信する要素を指定する
g.addPointer(pointerId) // 接触/入力をオブジェクト/認識装置に追加する
g.removePointer(pointerId) // 接触/入力を除去する
g.stop() // ジェスチャ処理を終了する
上記で簡潔に検討したように、ジェスチャ処理の結果は、特にターゲットとなる要素のために結果を変換するように、予め処理されることがある。ジェスチャオブジェクト122についてのターゲット要素208の指定は、システム要素を効果的に認識させる。したがって、認識インタフェース120は、ジェスチャ検出の結果を、ジェスチャが対象とする要素に関連付けられる座標空間に変換するように構成される。典型的に、ジェスチャ結果は、前の状態と新たな状態との間のデルタとして又は初期状態に対する累積値として表されることがある。ジェスチャについての生のデルタ又は累積データがアプリケーションに供給されると、アプリケーションは、特定の要素について生のデータを変換する作業を行わなければならない。例えば要素が以前に回転されていた場合、アプリケーションは、その既存の回転に関するジェスチャをどのように適用するかを決定しなければならない。要素がわからない伝統的なシステムにおいては、開発者は、開発を複雑にするアプリケーションコードにより、これらの状況に対処する以外に選択肢はない。一方、本明細書で説明される技術の通り、ジェスチャオブジェクト122についてターゲット要素208を明示的に定義することにより、認識インタフェース120は、要素の状態をトラックすることが可能になる。要素の状態は、適用された状態に基づいて更新され、更新された状態は、要素について定義された座標空間において、後続の認識されたジェスチャ(又はジェスチャの変化)についてデルタを計算するのに使用される。したがって、ジェスチャが検出される毎に、ジェスチャモジュール114によって提供される生のデルタ情報が、アプリケーションの代わりに、適切な座標空間に変換され得る。アプリケーションはしたがって、追加の処理をほとんど必要としないか全く必要とせずに、その結果を対応する要素に直接適用することができる。
認識インタフェース120及びジェスチャオブジェクト122は更に、管理される存続期間スキームを実装するように構成され得る。この管理存続期間スキームは、オブジェクトの再使用を可能にし、アクティブな対話入力206を有するオブジェクトへアクセス/参照する能力を保持し、適切な時にオブジェクトをクリーンナップするよう自動収集を制御する。一般的に言うと、JavaScript及び他のスクリプトベースのオブジェクトは、スコープ(例えば機能的又はグローバル)を有するように作成され、関連するスコープの期間の間、存続し得る。スコープは、特定の機能/モジュールに関連するか、ページ又はアプリケーションインスタンスの存続期間に関するものである。オブジェクトはその後、該オブジェクトが、もはや使用されなくなる時を認識して、自動的に自身をコレクションする(例えば自身を除去するか及び/又は他の方法で自身が削除されるのを可能にする)ことができる。
以下の議論では、上述のシステム及びデバイスを使用して実装され得るインスタンス可能なジェスチャオブジェクト技術を説明する。各プロシージャの態様は、ハードウェア、ファームウェア、ソフトウェア又はこれらの組み合わせで実装される。これらのプロシージャは、1つ又は複数のデバイスによって実行されるオペレーションを指定するブロックのセットとして示されているが、必ずしも、それぞれのブロックによるオペレーションを実行するのに図示された順序に限定されない。以下の議論の一部では、動作環境100並びに図2の例示のシナリオ200及び図3の例示のシナリオ300を参照することがある。
図6は、全体的に600で例示のシステムを図示している。このシステムは、本明細書で説明される様々な技術を実装することができる1つ又は複数のコンピューティングシステム及び/又はデバイスを表す、例示のコンピューティングデバイス602を含む。コンピューティングデバイス602は、例えばサービスプロバイタのサーバ、クライアント(例えばクライアントデバイス)に関連付けられたデバイス、オンチップシステム及び/又は任意の他の適切なコンピューティングデバイス若しくはコンピュータシステムとすることができる。
本発明は、構造的特徴及び/又は方法的動作に特有の言語で説明してきたが、添付の特許請求の範囲において定義される本発明は、必ずしも説明される具体的な特徴又は動作に限定されないことが理解されよう。
むしろ、具体的な特徴及び動作は、特許請求に係る発明を実装する例示的な形式として開示される。
Claims (10)
- コンピューティングデバイスによって提供されるネイティブのジェスチャ機能によりアプリケーションのジェチャ認識に対処するように、アプリケーションについてジェスチャオブジェクトをインスタンス化するステップと、
前記ジェスチャオブジェクトを、前記アプリケーションによって指定された対話入力及びターゲット要素に関連付けるステップと、
前記アプリケーションの代わりに、前記コンピューティングデバイスによって提供される前記ネイティブのジェスチャ機能を通してジェスチャ認識を容易にする認識装置を作成するステップと、
前記対話入力のための対話入力データを前記認識装置に供給して、前記対話入力データに基づくジェスチャ認識を可能にするステップと、
認識されたジェスチャを示すジェスチャイベントメッセージを前記認識装置から取得するステップと、
前記ジェスチャイベントメッセージによって記述される生のジェスチャデータを、前記アプリケーションの代わりに処理するステップと、
前記アプリケーションについてコンテンツモデルに従って、処理されたジェスチャデータを有するジェスチャイベントを前記関連付けられたターゲット要素に対して発火するステップと
を含む、方法。 - 前記ジェスチャオブジェクトは、前記コンピューティングデバイスによって提供される基礎となる絵ネイティブジェスチャ機能のスクリプトベースの抽象化である、請求項1に記載の方法。
- 前記アプリケーションは、動的なスクリプト言語を使用してプログラムされる、請求項1に記載の方法。
- 当該方法は、前記アプリケーションによって用いられる、前記アプリケーションについてコンテンツをレンダリングするレンダリングエンジンによって提示されるインタフェースを介して実行される、請求項1に記載の方法。
- 前記対話入力は、前記コンピューティングデバイスに関連付けられたタッチスクリーンに適用されるタッチ接触を備える、請求項1に記載の方法。
- 前記処理するステップは、前記生のジェスチャデータを前記アプリケーションによって指定される座標空間に変換することを備える、請求項1に記載の方法。
- 前記認識装置は、前記ジェスチャオブジェクトによって指定された対話入力をトラックして、該対話入力を、サポートされるジェスチャのライブラリにマップして、特定のジェスチャが生じた時を認識するように構成される、請求項1に記載の方法。
- 前記ジェスチャオブジェクトは、認識されるジェスチャについてのデータを、前記認識装置によって使用されるシステムフォーマットと、前記アプリケーションによって理解可能なスクリプトベースのフォーマットとの間で変換するように構成される、請求項1に記載の方法。
- 前記対話入力は、前記対話入力がアクティブである限りにおいて前記ジェスチャオブジェクトが自身をコレクションするのを防ぐピン止め参照として構成される、請求項1に記載の方法。
- 前記ターゲット要素に対して発火される前記ジェチャイベントは、前記ジェスチャイベントへの参照が失われたときに該ジェスチャオブジェクトへの継続的なアクセスを可能にするように、前記ジェスチャオブジェクトを識別する情報を含む、請求項1に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/436,877 US9575652B2 (en) | 2012-03-31 | 2012-03-31 | Instantiable gesture objects |
US13/436,877 | 2012-03-31 | ||
PCT/US2013/031809 WO2013148293A1 (en) | 2012-03-31 | 2013-03-15 | Instantiable gesture objects |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015512540A true JP2015512540A (ja) | 2015-04-27 |
JP2015512540A5 JP2015512540A5 (ja) | 2016-04-07 |
JP6226394B2 JP6226394B2 (ja) | 2017-11-08 |
Family
ID=49236795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015503316A Active JP6226394B2 (ja) | 2012-03-31 | 2013-03-15 | インスタンス化可能なジェスチャオブジェクト |
Country Status (6)
Country | Link |
---|---|
US (1) | US9575652B2 (ja) |
EP (1) | EP2831704A4 (ja) |
JP (1) | JP6226394B2 (ja) |
KR (1) | KR102108583B1 (ja) |
CN (1) | CN104246659B (ja) |
WO (1) | WO2013148293A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086998A (ja) * | 2018-11-27 | 2020-06-04 | ローム株式会社 | 入力デバイス、自動車 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9507512B1 (en) | 2012-04-25 | 2016-11-29 | Amazon Technologies, Inc. | Using gestures to deliver content to predefined destinations |
JP5377709B2 (ja) * | 2012-05-23 | 2013-12-25 | 株式会社スクウェア・エニックス | 情報処理装置,情報処理方法,及びゲーム装置 |
CN103577079B (zh) * | 2012-07-24 | 2017-11-07 | 腾讯科技(深圳)有限公司 | 电子设备中实现与应用交互的方法及电子设备 |
US9519351B2 (en) | 2013-03-08 | 2016-12-13 | Google Inc. | Providing a gesture-based interface |
US20140258943A1 (en) * | 2013-03-08 | 2014-09-11 | Google Inc. | Providing events responsive to spatial gestures |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
KR102182401B1 (ko) * | 2014-06-11 | 2020-11-24 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
CN104156063B (zh) * | 2014-07-14 | 2015-09-09 | 济南大学 | 一种面向三维交互界面的手势速度估计方法 |
US9430142B2 (en) * | 2014-07-17 | 2016-08-30 | Facebook, Inc. | Touch-based gesture recognition and application navigation |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
EP3289434A1 (en) * | 2015-04-30 | 2018-03-07 | Google LLC | Wide-field radar-based gesture recognition |
KR102002112B1 (ko) | 2015-04-30 | 2019-07-19 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
CN105007525A (zh) * | 2015-06-09 | 2015-10-28 | 济南大学 | 一种面向智能电视应用的交互情景事件关联智能感知方法 |
US10521100B2 (en) * | 2015-08-28 | 2019-12-31 | Facebook, Inc. | Systems and methods for providing interactivity for panoramic media content |
US20170060404A1 (en) * | 2015-08-28 | 2017-03-02 | Facebook, Inc. | Systems and methods for providing interactivity for panoramic media content |
US10521099B2 (en) * | 2015-08-28 | 2019-12-31 | Facebook, Inc. | Systems and methods for providing interactivity for panoramic media content |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US11029836B2 (en) | 2016-03-25 | 2021-06-08 | Microsoft Technology Licensing, Llc | Cross-platform interactivity architecture |
WO2017192167A1 (en) | 2016-05-03 | 2017-11-09 | Google Llc | Connecting an electronic component to an interactive textile |
CN107608609B (zh) * | 2016-07-11 | 2021-02-19 | 斑马智行网络(香港)有限公司 | 一种事件对象发送方法与装置 |
CN107423060B (zh) * | 2017-07-07 | 2021-03-30 | 北京小米移动软件有限公司 | 动画效果的呈现方法、装置及终端 |
JP7139436B2 (ja) * | 2018-02-22 | 2022-09-20 | マジック リープ, インコーポレイテッド | 物理的操作を用いたオブジェクト作成 |
US20220391268A1 (en) * | 2021-05-28 | 2022-12-08 | Roku, Inc. | Cloud Computation for Applications on Media Devices |
CN116166143B (zh) * | 2023-04-25 | 2023-07-04 | 麒麟软件有限公司 | 全局触摸手势识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009018314A2 (en) * | 2007-07-30 | 2009-02-05 | Perceptive Pixel, Inc. | Graphical user interface for large-scale, multi-user, multi-touch systems |
WO2011094267A1 (en) * | 2010-01-26 | 2011-08-04 | Apple Inc. | Gesture recognizers with delegates for controlling and modifying gesture recognition |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2089784C (en) | 1992-04-15 | 1996-12-24 | William Joseph Anderson | Apparatus and method for disambiguating an input stream generated by a stylus-based user interface |
US5592566A (en) | 1992-05-27 | 1997-01-07 | Apple Computer, Incorporated | Method and apparatus for computerized recognition |
WO1996009579A1 (en) | 1994-09-22 | 1996-03-28 | Izak Van Cruyningen | Popup menus with directional gestures |
US6310610B1 (en) | 1997-12-04 | 2001-10-30 | Nortel Networks Limited | Intelligent touch display |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US20070177804A1 (en) | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
US6643824B1 (en) | 1999-01-15 | 2003-11-04 | International Business Machines Corporation | Touch screen region assist for hypertext links |
EP1148411A3 (en) | 2000-04-21 | 2005-09-14 | Sony Corporation | Information processing apparatus and method for recognising user gesture |
US20030037181A1 (en) * | 2000-07-07 | 2003-02-20 | Freed Erik J. | Method and apparatus for providing process-container platforms |
US6897853B2 (en) | 2000-11-10 | 2005-05-24 | Microsoft Corp. | Highlevel active pen matrix |
US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US7284192B2 (en) | 2004-06-24 | 2007-10-16 | Avaya Technology Corp. | Architecture for ink annotations on web documents |
JP4583893B2 (ja) | 2004-11-19 | 2010-11-17 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
US8643605B2 (en) | 2005-11-21 | 2014-02-04 | Core Wireless Licensing S.A.R.L | Gesture based document editor |
US8296684B2 (en) | 2008-05-23 | 2012-10-23 | Hewlett-Packard Development Company, L.P. | Navigating among activities in a computing device |
US8106856B2 (en) * | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
US7936341B2 (en) | 2007-05-30 | 2011-05-03 | Microsoft Corporation | Recognizing selection regions from multiple simultaneous inputs |
US7932896B2 (en) | 2007-06-13 | 2011-04-26 | Apple Inc. | Techniques for reducing jitter for taps |
US8416196B2 (en) | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
US8174502B2 (en) | 2008-03-04 | 2012-05-08 | Apple Inc. | Touch event processing for web pages |
US8276093B2 (en) | 2008-04-24 | 2012-09-25 | Nintendo Co., Ltd. | Computer-readable storage medium having object display order changing program stored therein and apparatus |
JP4171770B1 (ja) | 2008-04-24 | 2008-10-29 | 任天堂株式会社 | オブジェクト表示順変更プログラム及び装置 |
CN101581992A (zh) | 2008-05-16 | 2009-11-18 | 鸿富锦精密工业(深圳)有限公司 | 触摸屏装置及其输入方法 |
US8375336B2 (en) | 2008-05-23 | 2013-02-12 | Microsoft Corporation | Panning content utilizing a drag operation |
KR101477743B1 (ko) | 2008-06-16 | 2014-12-31 | 삼성전자 주식회사 | 단말 및 그의 기능 수행 방법 |
US8390577B2 (en) | 2008-07-25 | 2013-03-05 | Intuilab | Continuous recognition of multi-touch gestures |
US20100042933A1 (en) | 2008-08-15 | 2010-02-18 | International Business Machines Corporation | Region selection control for selecting browser rendered elements |
US8836645B2 (en) | 2008-12-09 | 2014-09-16 | Microsoft Corporation | Touch input interpretation |
KR101854141B1 (ko) | 2009-01-19 | 2018-06-14 | 삼성전자주식회사 | 디스플레이 정보 제어 장치 및 방법 |
US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
EP2256592A1 (en) | 2009-05-18 | 2010-12-01 | Lg Electronics Inc. | Touchless control of an electronic device |
WO2011037558A1 (en) | 2009-09-22 | 2011-03-31 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8766928B2 (en) | 2009-09-25 | 2014-07-01 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
CA2686995A1 (en) | 2009-12-03 | 2011-06-03 | Ibm Canada Limited - Ibm Canada Limitee | Handling user-interface gestures in non-rectangular regions |
US20110167336A1 (en) | 2010-01-04 | 2011-07-07 | Hit Development Llc | Gesture-based web site design |
JP5569062B2 (ja) | 2010-03-15 | 2014-08-13 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム |
JP2011232894A (ja) | 2010-04-26 | 2011-11-17 | Renesas Electronics Corp | インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム |
US20130120280A1 (en) * | 2010-05-28 | 2013-05-16 | Tim Kukulski | System and Method for Evaluating Interoperability of Gesture Recognizers |
US20110304541A1 (en) | 2010-06-11 | 2011-12-15 | Navneet Dalal | Method and system for detecting gestures |
CN101959051A (zh) | 2010-09-01 | 2011-01-26 | 华为终端有限公司 | 远程呈现系统的屏幕选看方法及装置 |
US9146674B2 (en) | 2010-11-23 | 2015-09-29 | Sectra Ab | GUI controls with movable touch-control objects for alternate interactions |
DE102010054859A1 (de) * | 2010-12-17 | 2012-06-21 | Rohde & Schwarz Gmbh & Co. Kg | System mit Gestenerkennungseinheit |
US20120249422A1 (en) * | 2011-03-31 | 2012-10-04 | Smart Technologies Ulc | Interactive input system and method |
US20130024819A1 (en) * | 2011-07-18 | 2013-01-24 | Fuji Xerox Co., Ltd. | Systems and methods for gesture-based creation of interactive hotspots in a real world environment |
US10389778B2 (en) * | 2012-01-23 | 2019-08-20 | Time Warner Cable Enterprises Llc | Transitioning video between devices using touch gestures |
US9304646B2 (en) * | 2012-03-20 | 2016-04-05 | A9.Com, Inc. | Multi-user content interactions |
US9335913B2 (en) | 2012-11-12 | 2016-05-10 | Microsoft Technology Licensing, Llc | Cross slide gesture |
-
2012
- 2012-03-31 US US13/436,877 patent/US9575652B2/en active Active
-
2013
- 2013-03-15 JP JP2015503316A patent/JP6226394B2/ja active Active
- 2013-03-15 WO PCT/US2013/031809 patent/WO2013148293A1/en active Application Filing
- 2013-03-15 CN CN201380018255.4A patent/CN104246659B/zh active Active
- 2013-03-15 KR KR1020147027633A patent/KR102108583B1/ko active IP Right Grant
- 2013-03-15 EP EP13768893.3A patent/EP2831704A4/en not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009018314A2 (en) * | 2007-07-30 | 2009-02-05 | Perceptive Pixel, Inc. | Graphical user interface for large-scale, multi-user, multi-touch systems |
WO2011094267A1 (en) * | 2010-01-26 | 2011-08-04 | Apple Inc. | Gesture recognizers with delegates for controlling and modifying gesture recognition |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086998A (ja) * | 2018-11-27 | 2020-06-04 | ローム株式会社 | 入力デバイス、自動車 |
JP7280032B2 (ja) | 2018-11-27 | 2023-05-23 | ローム株式会社 | 入力デバイス、自動車 |
US11941208B2 (en) | 2018-11-27 | 2024-03-26 | Rohm Co., Ltd. | Input device and automobile including the same |
Also Published As
Publication number | Publication date |
---|---|
JP6226394B2 (ja) | 2017-11-08 |
US9575652B2 (en) | 2017-02-21 |
EP2831704A4 (en) | 2015-11-11 |
CN104246659B (zh) | 2017-09-22 |
CN104246659A (zh) | 2014-12-24 |
EP2831704A1 (en) | 2015-02-04 |
KR20140147095A (ko) | 2014-12-29 |
KR102108583B1 (ko) | 2020-05-07 |
US20130263029A1 (en) | 2013-10-03 |
WO2013148293A1 (en) | 2013-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6226394B2 (ja) | インスタンス化可能なジェスチャオブジェクト | |
CN108369456B (zh) | 用于触摸输入设备的触觉反馈 | |
CN106687922B (zh) | 参数惯性和api | |
KR102150733B1 (ko) | 패닝 애니메이션 | |
US11075976B2 (en) | Remoting application user interfaces | |
JP2017523515A (ja) | アイコンサイズ変更 | |
US10055388B2 (en) | Declarative style rules for default touch behaviors | |
US9256314B2 (en) | Input data type profiles | |
US9747004B2 (en) | Web content navigation using tab switching | |
US10691880B2 (en) | Ink in an electronic document | |
US20120260267A1 (en) | Methods and Systems for Supporting a Rendering API Using a Runtime Environment | |
US9383908B2 (en) | Independent hit testing | |
EP2992421A1 (en) | Invoking an application from a web page or other application | |
KR20170097161A (ko) | 브라우저 디스플레이 캐스팅 기법들 | |
JP2017526068A (ja) | 混合ビューへのジェスチャベースのアクセス | |
KR102040359B1 (ko) | 상태 정보를 위한 동기화 지점 | |
US20140372903A1 (en) | Independent Hit Testing for Touchpad Manipulations and Double-Tap Zooming | |
US20180300160A1 (en) | Host and Component Relationship between Applications | |
JP2015185005A (ja) | 表示画面を表示させるサーバ及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6226394 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |