JP5658376B2 - ウェブブラウザ上でコンテンツと相互作用する方法、装置、及びシステム - Google Patents

ウェブブラウザ上でコンテンツと相互作用する方法、装置、及びシステム Download PDF

Info

Publication number
JP5658376B2
JP5658376B2 JP2013544884A JP2013544884A JP5658376B2 JP 5658376 B2 JP5658376 B2 JP 5658376B2 JP 2013544884 A JP2013544884 A JP 2013544884A JP 2013544884 A JP2013544884 A JP 2013544884A JP 5658376 B2 JP5658376 B2 JP 5658376B2
Authority
JP
Japan
Prior art keywords
gesture
user
web page
displayed
actionable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013544884A
Other languages
English (en)
Other versions
JP2014503903A (ja
Inventor
エル. エルフォード、クリストファー
エル. エルフォード、クリストファー
ピー. ツォイ、ハワード
ピー. ツォイ、ハワード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2014503903A publication Critical patent/JP2014503903A/ja
Application granted granted Critical
Publication of JP5658376B2 publication Critical patent/JP5658376B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Description

本特許文書の開示の一部は、著作権保護対象物である材料を含んでいる。著作権所有者は、特許商標庁の特許ファイルまたは記録にある特許文書または特許開示物のファックスによる再生であれば何人にも反対しないが、その他の使用法に関してはすべての著作権を主張する。
パーソナルコンピューティング技術及び携帯電話デバイスは、この10年で劇的な変化を遂げた。パーソナルコンピューティング(PC)デバイスは、ますます普及しており、よりフォームファクターが小さく(ネットブック及びタブレット等)、計算力が増したものに進化している。同時に、携帯電話市場が、音声通信デバイスのみならず、電子メール、文書及びカメラ機能を含む、個人情報管理デバイスへと進化を遂げている。この結果、大型及び小型のPCデバイス両方が、消費者が日常生活を送る上で欠かせないものとなっている。
これらデバイスが市場に浸透して、その方面に精通した消費者が増えるにつれて、従来のPC中心の入力スキーム及びPC中心のユーザインターフェースが、多彩なユーザ体験の妨げになることが明らかになってきている。ここで利用する「PC中心の」という表現は、マウス、ペン、タッチスクリーンその他の既存のインターフェースを有するPCに基づく、従来のプラットフォームのことを示す。ユーザは、従来のPC中心のデバイス同様に、ハンドヘルド型のスマートフォンまたはMIDでアプリケーションを利用したいと思うであろうし、これは、アプリケーション開発業者にとっては様々な課題が提起されることを意味している。たとえば、設置面積の大きいPC用に設計されたアプリケーションは、小さな計算力の小さなフォームファクターで動かすことが難しい(動かせたとしても)。たとえば、主にフォームファクターのせいで、モバイルデバイスのアプリケーションは、通常、PC中心のデバイス(たとえば大型スクリーン、マウス、または、スクリーン上のカーソルを制御する他のデバイスを有するようなデバイス)に利用可能な類似したアプリケーションより低い機能またはこれらとは異なる機能を有している場合が多い。ハンドヘルドデバイスのアプリケーションフィーチャは、ハンドヘルドデバイス用に、通常は機能を減らして、「機能低下(dumbed down)」されていたり、凝縮されていたり(condensed)することが多い。
これら変更されたアプリケーションのうち、最もよく見る例が、ハンドヘルドデバイスで実行されている通常のウェブブラウザである。これらブラウザは、キーボード、マウス、トラックボール、及び、トラックパッド/タッチパッド等の入力デバイスを利用して、「カーソル」(テキストまたはポインタ)をスクリーン上で動かす、PC中心のパラダイムに基づいているために、限られた閲覧機能しか提供しない。この代わりに、現在のパラダイムには、ユーザが指またはペンを利用してデバイスに入力を提供するような、タッチスクリーンの入力を受け付けているものもある。タッチスクリーンの技術も、PC中心の環境内で設計されているので、通常は様々なPC中心の機能を利用している。しかし、これらのPC中心の種類の入力デバイスがない場合には、ハンドヘルドデバイス上で実行されるブラウザの開発業者は、彼らのアプリケーションをハンドヘルドデバイス用に適合させる必要がある(通常は、機能を低下させることで)。
機能に加えて、PC中心のアプリケーションの基本的なユーザインターフェースは、さらに、限定的なスクリーンの設置条件またはハンドヘルドデバイスの他の限定を考慮に入れるために、修正または設計変更を余儀なくされるだろう。ブラウザの例に戻ると、ハンドヘルドデバイスの上のブラウザのユーザインターフェースは、PC中心のプラットフォームが基とする元のブラウザに類似したものではあるが、ハンドヘルドインターフェースは、ハンドヘルドデバイスの限定を補うように簡略化されている場合が多い。この要素は、ハンドヘルドデバイスでは入力スキームに制約が多いことと考え合わせても、既存のPC中心のユーザとの交信パラダイムが急速に廃れてしまう可能性を示している。
本発明は、添付図面を例として説明され、添付図面に限定はされない。添付図面において同様の参照番号は同様の部材を示す。
本発明の一実施形態を示す。 本発明の一実施形態における変換ストア内の情報セットを示す。 本発明の一実施形態における変換ストア内の別の情報セットを示す。 本発明の一実施形態を示す。 本発明の一実施形態を示す。 本発明の一実施形態を示す。 本発明の一実施形態を示す。 本発明の一実施形態を示す。 本発明の一実施形態を示す。 本発明の一実施形態を示す。 本発明の一実施形態における実施形態の初期化の例を示す。 本発明の一実施形態を示すフローチャートである。 本発明の一実施形態を示すフローチャートである。 本発明の一実施形態を示すフローチャートである。
本発明の実施形態は、入力デバイス及びカーソルといった従来の部材から独立した、ウェブブラウザを操作する新しいパラダイムをユーザに提供する。より詳しくは、本発明の実施形態は、従来の入力デバイス、及び、タッチスクリーンの両方または片方が必要ではない、ジェスチャーによってウェブブラウザ上のコンテンツと相互作用するための方法、装置、及び、システムを提供する。ここで利用される「ジェスチャー」という用語は、これらに限定はされないが手、眼、及び、その他の身体部分の少なくとも1つの動きを含む、様々な動作のことを示す。簡潔にする目的から、ここに提示する多くの例では、手のジェスチャーが利用されるが、本発明の実施形態はこれに限定はされない。本明細書では、本発明の「一実施形態」「1つの実施形態」といった言い回しは、その実施形態との関連で記載される特定の特徴、構造、または特性が、本発明の少なくとも1つの実施形態に含まれることを意味する。したがって、「1つの実施形態では」「一実施形態では」等の言い回しが明細書の随所で見られるからといって、これらが必ずしも同じ実施形態のことを言及しているわけではない。
加えて、本明細書に「デバイス」「機械、マシン」「装置」といった用語は、これらに限定はされないがサーバ、デスクトップコンピューティングデバイス、ポータブルコンピューティングデバイス(ラップトップ、ノートブック、ネットブック、及びハンドヘルドを含む)、セットトップボックス、及びゲームコンソールを含む複数のシングルプロセッサまたはマルチプロセッサベースのコンピューティングデバイスのいずれかを含むことができる概念であってよい。ハンドヘルドデバイスは、これらに限定はされないが、携帯電話機、スマートフォン、情報携帯端末(PDA)、モバイルインターネットデバイス(MID)、ラップトップ、デジタルカメラ、メディアプレーヤ、ウルトラモバイルパーソナルコンピュータ(UMPC)、及び、ネットワークにローミングできたり接続できたりする任意のコンピューティングデバイスを含む概念であってよい。
本発明の実施形態は、プラットフォームまたはサイズに関わらず、ユーザに対して、ウェブブラウザとの、カスタマイズされた交信体験を可能とする。より詳しくは、本発明の実施形態によれば、ユーザは、外部の物理的な入力デバイスがなくとも、及び、入力スクリーンまたは表示デバイス上に物理的に触らなくとも、ジェスチャーを利用することでウェブブラウザと交信することができるようになる。本発明の実施形態は、本発明の精神を逸脱しなければ、様々なプラットフォームの上での実装に適合させることができる。
本発明の一実施形態においては、ユーザは、ジェスチャーを利用してウェブブラウズ動作を行うことができる。一実施形態では、ジェスチャー入力スキームには、加速度計及びカメラを少なくとも含む動き検知ソースと、ジェスチャー検知モジュールと、ジェスチャー処理モジュールとが含まれてよい。動き検知ソース、ジェスチャー検知モジュール、及び、ジェスチャー処理モジュールは、別個のコンポーネントとして実装されてもよいし、本発明の実施形態の精神を逸脱しない様々なやり方で、組み合わせてもよい。したがってたとえば一実施形態では、動き検知ソースを、ジェスチャー検知モジュールと組み合わせて、1つのコンポーネントにすることもできる。別の実施形態では、ジェスチャー検知モジュールと、ジェスチャー処理モジュールとを、1つのコンポーネントに組み合わせてもよい。簡潔に説明するために、以下の記載では、各モジュールの機能を別個に説明する。様々な実施形態でも、実装のためにどのように組み合わせられようが(組み合わせられまいが)、各モジュールの機能は同じである。
動き検知ソースは、ユーザの動き(たとえば手の動き、眼の動き、体の動き等)を特定して、動きデータを取得する。その後、ジェスチャー検知モジュールは、動きデータが特定の動きに関するものであって、プラットフォームに渡すイベントではないと判断する。つまり、ジェスチャー検知モジュールは、デバイスに入力を提供するジェスチャーであって、単なるデバイスの動きではないと判断する。この動きは、ジェスチャー処理モジュールに渡されて、ジェスチャー処理モジュールは、動きを変換して、ユーザがウェブブラウザ内で実行しようとしている動作を判断することができる。
今日では、様々な動き検知技術が存在しており、本発明の精神から逸脱せずに本発明の実施形態で利用することができる。これら動き検知技術の例は、よくゲームプラットフォームで利用されている。たとえば、Nintendo(登録商標)CorporationのWiiゲームプラットフォームは、Wiiの遠隔コントローラで加速度計を利用している。Wiiの遠隔コントローラの加速度計は、動き、動きの方向、及び、速度情報を特定して、ベースのWiiユニットのトランシーバと連携することで、ユーザの動作がスクリーンで模倣される。同様に、Microsoft(登録商標)Corporationから最近発売されたKinectは、カメラを利用してユーザの動きを検知して、ゲームにおいてこれを再現する。ほかにも、様々なユーザ向けにカメラによるジェスチャー認識技術を活用するゲーム関連ではない様々な製品が、Gesture Tek(登録商標)などの会社により販売されている。
本発明の実施形態は、これら既存の動き検知技術を活用して、ウェブ閲覧における、動きに基づく入力スキームを向上させる。具体的には、本発明の実施形態は、カメラ、加速度計の両方または片方を利用して、ジェスチャーを検知して捉え、ジェスチャーがウェブブラウザの入力であると意図されていることを確かめて、ジェスチャーを、ユーザがウェブブラウザ上でとることを望む特定の動作の指標に変換する。一例として、ユーザが、ウェブブラウザのスクリーンのある領域にズームするために手で掴む動作を行ったと想定する。この実施形態では、カメラと加速度計とが(両方あわさって動き検知ソースを構成する)、動作のデータストリームを、ジェスチャー検知を行うコンポーネント(ジェスチャー検知モジュール)に提供することができる。
一実施形態では、ジェスチャー検知モジュールは、プラットフォーム上のオペレーティングシステムの一コンポーネントであり、この動きが、オペレーティングシステムが認識するような動きのイベントではないと特定することができる。その後、ジェスチャー検知モジュールは、この動きが、ウェブブラウザに入力されるべきジェスチャーとして意図されていると判断して、この動きをジェスチャー処理モジュールに提供する。そして、ジェスチャー処理モジュールは、動きを、ウェブブラウザのコンポーネントが理解できる動作に変換して、ブラウザに動作を伝える。一実施形態では、この変換プロセスで、特定のジェスチャーを特定のブラウザ動作に相関付けるジェスチャーライブラリを利用する。適切なブラウザ動作への変換がなされて、ブラウザに送られると、ブラウザは、ユーザが意図している動作を実行することができる。
今の例では、カメラは、手で掴む動作を捉えて、ジェスチャー検知モジュールにストリーミングする。ジェスチャー検知モジュールは、手で掴む動作を、データストリームから受信して、これが入力として意図されているものであると判断する。ジェスチャー検知モジュールは、ジェスチャー処理モジュールに、動作が手で掴むことを意味している旨を伝える。次いで、ジェスチャー処理モジュールは、ジェスチャーレポジトリを調べて、手で掴む動作をどの動作に変換すべきかを判断して、「ズーム」要求であると判断すると、ブラウザに、ウェブブラウザのスクリーン上の適切な領域にズームするようブラウザに通知する。これに応じて、ウェブブラウザはズーム動作を行い、ユーザの望む最終的結果をユーザに提供する。
図1は、本発明の一実施形態の一例を示す。図示されているようにユーザが動きを行っている場合を想定する。コンピューティングプラットフォーム(コンピューティングプラットフォーム100)に連結されている動き検知ソース(カメラ105と加速度計110とを合わせたもの)は、手で掴む動きを特定して捉え、この動作の動きデータストリームをジェスチャー検知モジュール115に提供する。ジェスチャー検知モジュール115は、動きを調べ、これがコンピューティングプラットフォーム100のオペレーティングシステムに渡すべき動きイベントではないことを確かめる。ジェスチャー検知モジュール115は、次に、動きが、ウェブブラウザへの入力を意図されているジェスチャーであると判断して、ジェスチャー検知モジュール115が、この情報をジェスチャー処理モジュール120に提供する。
ジェスチャー検知モジュール115からジェスチャー情報を受け取ると、ジェスチャー処理モジュール120は、ジェスチャー情報を調べて、変換ストア(ジェスチャーライブラリ125)に照らしあわせて情報を処理する。本発明の一実施形態では、変換ストアには、様々なユーザのジェスチャーと、ウェブブラウザで実行されるべき特定の動作との間のマッピングが含まれている。この例では、ジェスチャー処理モジュール120は、手で掴む動作を、ユーザからの「ズーム」要求に変換する。ジェスチャー処理モジュール120は、その後、ウェブブラウザ130に、ユーザの要求についてのズーム要求を送信してよい。
本発明の一実施形態では、ジェスチャー検知モジュール115が、コンピューティングプラットフォーム100で実行されるオペレーティングシステムの延長として実装されてよいが、本発明の実施形態がこの形態に限定されるわけではない。同様に、ジェスチャー処理モジュール120が、ウェブブラウザ130の延長として実装されてよいが、本発明の実施形態がこの形態に限定されるわけではない。別の実施形態では、ジェスチャー処理モジュール120が、ウェブブラウザ130に連結される、独立したモジュールであってもよい。
図2は、本発明の実施形態におけるジェスチャーライブラリ125に格納されている情報の一例を示す。具体的には、図2は、ジェスチャー処理モジュールが変換する可能性のある様々な動作を示している。たとえば、図1で上述した例に関していうと、ユーザが両方の拳を合わせる動作をした場合、この動きがカメラ105及び加速度計110により捉えられて、ジェスチャー検知モジュール115に提供されて、動作がジェスチャーであると特定された後に、ジェスチャー処理モジュール120に中継される。ジェスチャー処理モジュール120は、このジェスチャーをジェスチャーライブラリ125のジェスチャーリストと比較してよい。図2に示すように、ジェスチャー処理モジュール120は、ジェスチャーライブラリ125を調べて、このユーザの動作(両方の拳を合わせる動作)を、「タブを閉じる」要求に変換して、ジェスチャー処理モジュール120は、このジェスチャーを、タブを閉じる命令に置き換えて、この命令をウェブブラウザ130に提供する。
同様に、図3は、ジェスチャーライブラリ125の情報の別の例を示している。この例では、カメラ及び加速度計が検知した様々な動作をジェスチャーに変換することができる。したがい、ユーザが加速度計110が検知する、揺れの動作を行う場合、この動作は最終的に、ユーザが揺らしている方向に応じて、ページを前後に繰る要求としてウェブブラウザ125に渡されてよい。本発明の様々な実施形態では、ジェスチャーとウェブブラウザ125への変換された動作要求のリストが、所定の基準に従って自動的に、またはアプリケーション開発者による手動で、動的に更新可能なリストであってよい。
ウェブブラウザを操作するために新しいパラダイムのためのジェスチャーに基づく入力スキームに加えて、本発明の実施形態は、さらに、ウェブブラウザ内の可能性のある様々な動作を特定して露呈させる。従来のPC中心の環境で見られるウェブページは、通常、マウスが存在することを想定している。したがって例えば、ウェブページが、ユーザがこの領域で動作を行うまではユーザには直接的に分からない「アクション領域」を含んでいる場合がある。ウェブページがマウスの移動(hover)を検知したときにはじめて、ユーザに利用可能な、隠されていたテキストまたは動作が表示される。
図4は、本発明の一実施形態の一例を示す。図示されているように、従来のPC中心のウェブブラウザ(「ウェブブラウザ405」)用に開発されたアプリケーション(「アプリケーション400」)は、通常、位置決めカーソルを、所定の時間の間、グラフィックインターフェースのアクション可能な領域(「アクション可能領域410」)に位置させる取決め(convention)を利用する。アプリケーション400は、この領域に関する情報を提供する別のテキスト(隠されたテキスト415)を表示して、応答する。したがってこの環境においては、ユーザが、隠されていた情報を見ると、さらなる命令を実行させるために選択することで(たとえば、隠れていた情報415内に明らかになった「企業責任」へのリンクをクリックして)、新たなウェブページに導かれてよい。
しかし、フォームファクターが小さいデバイス(たとえばMID)では通常、この種の機能は利用可能ではない。たとえば接触式のデバイスでは、位置決めをするカーソルがないために、この技術を利用することができない。入力デバイスがあるハンドヘルドデバイスであっても(たとえば棒状のTVリモコン)、ユーザは、ポインタを特定の位置に位置させたり保持したりするのが難しい場合がある。この結果、これらのプラットフォームで実行されているウェブブラウザアプリケーションには、通常、この「アクション可能な領域」機能が含まれていない。
本発明の実施形態においては、ウェブアプリケーションが、全てのプラットフォームに同じ機能を提供することができる。本発明の実施形態は、一部のデバイスタイプでは特定、動作が難しかった1以上のグラフィックユーザインターフェース構成をユーザに利用可能とする新たなパラダイムを提供することができる。より詳しくは、アクション可能な領域の上に位置決めカーソルを移動させるのではなく、本発明の一実施形態では、アプリケーション400のアクション可能な領域全体を特定して、どのプラットフォームアプリケーション400が実行中であっても見ることができる視覚キューのセット(「視覚キュー415」)を提供する。視覚キュー415は、プラットフォームごとにカスタマイズすることができるので、ユーザに、非常に新しく、向上した交信体験を提供することができる。
図5Aから図5Cは、視覚キューを利用してウェブブラウザとの交信の新たなパラダイムを向上させることができる、本発明の一実施形態を示す。この例では、ユーザは電話を利用することを想定しているが、本発明の他の実施形態は、前述したような様々なデバイスに実装することができる。図5Aに示すように、ウェブページを電話で受け取ると(たとえば図4に示すアプリケーション400)、このウェブページのコード(コード500)を構文解析して、コード解析モジュール500に送り、コード解析モジュール500で、ウェブページが、アクション可能領域を含んでいると判断される。当技術分野では、今日のウェブページが通常HTML(ハイパーテキストマークアップ言語)、XHTML(拡張可能ハイパーテキストマークアップ言語)、及び、XML(拡張可能マークアップ言語)の少なくとも1つで記述されることは公知である。通常、ウェブブラウザは、言語をDOMに構文解析する際にウェブレイアウトエンジン(たとえば、Microsoft Internet ExplorerブラウザのTrident/MSHTML)を利用する。DOMは、HTML,XHTML及びXML文書のオブジェクトを表し、これらと相互作用するためのプラットフォームを超えた、言語から独立している取決めである。ここでは既存の言語及び取決めを例にとって説明を行うが、本発明の実施形態はこれに限定はされない。当業者であれば、将来開発されるウェブマークアップ言語及び取決めの片方または両方を、本発明の実施形態の実施に適合させることが簡単であることを理解するだろう。
ウェブページのタグは、DOMにより、ウェブページ上の様々なアイテムの(他のアイテムに対する)位置を決定するために利用される。図示しているように、コード解析機505が、ウェブページのアクション可能な領域を複数特定すると、これらアクション可能な領域に関する情報が連結されてよい。収集されて連結された情報の種類の例をテーブル510に示す。具体的には、この例では、コード解析機505が、それぞれがあるアクション(たとえば図示されている「上に移動(floatover)」)及び該当アクションのタグ(<id=xyz>)に対応している3つの異なるアクション(X、Y、及びZ)を特定する。この例で利用されている「上に移動」という用語は、移動(hover)、マウスの移動、マウスオーバ等の移動、などの他の用語で表現される場合もある。
アクション可能な領域が図5Aで示すように特定されたと想定して、図5Bは、本発明の実施形態がどのように視覚キューをユーザに提示するかを示す。具体的には、図示されているように、一実施形態で、アクション可能な領域がウェブページに存在することが検知されると、ユーザ選択ボックス(選択ボックス520)が表示されてよい。ユーザは、自身が見たいアクション可能領域の種類を選択することができる。一実施形態では、ユーザは、これに加えて、アクション可能領域の種類を選択するために、ジェスチャーを利用してよい。本発明の本実施形態によれば、ユーザは、前述したようにジェスチャーによってウェブアプリケーションへの入力を提供することができるのみならず、直接交信しなくてもウェブブラウザアプリケーション内のアクション可能領域を特定することもできる。したがって、たとえば、アクション可能なアイテムの種類それぞれが数と関連付けられていれば、たとえば、5つの指を挙げることで、本発明の実施形態では、このジェスチャーを、5という数に関連付けられているアイテムの「選択」に利用することができる。
次に、選択されたアクション可能領域の種類を、拡張ウェブページ525に様々な方法で表示してよい。拡張ウェブページ525(a)−(d)という、拡張ウェブページ525の様々な例が挙げられているが、本発明の実施形態はこれらに限定はされない。たとえば、拡張ウェブページ525(a)は、アクション可能な領域410内でユーザが利用可能な全てのアクションアイテムのサイドメニューの形態で重ね合わせられるリストを含んでよい。または、これらのアイテムは、本発明の実施形態の精神を逸脱しない様々な他の方法で表示されてもよい。
メニューアイテムの実際の表示、及び、表示されるアクションの両方または片方が、ユーザがウェブページを読むデバイスに適した任意の種類の視覚キュー(視覚キュー530)であってよい。電話の例の場合には、小さな表示スクリーンであると想定すると、視覚キュー510はリンクへのテキストにより表されてよいだろう。別の例では、ユーザに対して、ユーザがリンクをアクティベートする際に利用可能なジェスチャーを示すアイコンを提示してもよい。また別の実施形態では、ユーザには、単に、選択可能なアクティブなウェブページの部分が提示されてもよい。
本発明の一実施形態では、ユーザが複数の視覚キュー510を見ることができるようになり、ページ上に選択可能、アクション可能な領域があることに気づくと、ユーザは、図5Cに示すように、視覚キュー510を選択してよい。本発明の一実施形態では、ユーザは、ジェスチャー(たとえば人差し指を前に差し出して、「リンク選択」を示す)を利用して、リンク先に行くことができる。前述したように、このジェスチャーは捉えられ、特定され、処理されてよく、ユーザの入力が、ウェブブラウザのユーザインターフェースに入力としてルーティングされてよい。次いで、ユーザに、製品のデモが提示される(リンクにより指定される)。
図6A〜図6Cは、本発明の一実施形態を示す。具体的には、図示されているように、アクション可能領域410がウェブブラウザ405内のウェブページに表示されている図4の例に戻って説明する。表示されているウェブページは、入力デバイス及びユーザインターフェースに関わらず、任意のプラットフォームで実行されているウェブアプリケーションを表示するものであってよい。一実施形態では、表示されるウェブページは、アクション可能領域410(カーソルがこの領域の上に移動したときに隠されている情報415が表示される)を含んでよい(これは図4に示されている)。解析されてページにアクション可能領域が含まれているかと判断されると、本発明の実施形態では、視覚キュー(視覚キュー600)が見えるようになり、アクション可能領域400が表される。
この例では、視覚キュー600は、人差し指が前に差し出されるアイコンである。前述したように、視覚キュー600は、本発明の実施形態を逸脱しない他の形式で表されてもよい。ここでジェスチャーアイコンを利用することで、ユーザは、自身がそのジェスチャーを行うことで、アクション可能領域410を選択することができる、とわかる。ユーザがいずれかの入力手段によって視覚キュー600を選択すると、アクションが、ユーザからのジェスチャーとして解釈されてよい。または、別の一実施形態では、ユーザがアイコンに示されているジェスチャーを行い、上述したようにジェスチャーが捉えられて入力であると判断されると、ジェスチャーがジェスチャー処理モジュール120に渡されてもよい。いずれのシナリオの場合にも、ユーザの動きは、「リンク先に行く」要求に変換されてよい。命令を受け取ると、ウェブブラウザ130は、図6Cに示すようにリンク先に行き、このようにして、ユーザには、前には利用できなかったアイテムのリストの全貌が見えるようになる。
図7は、本発明の一実施形態における初期化プロセスを示す。具体的には、示されているように、様々なジェスチャー(ブラウザジェスチャーまたは視覚キュージェスチャー)を、プラットフォームのジェスチャーフレームワークに登録しておくことができる。ジェスチャーのフレームワークは当業者によく知られたものであり、本発明の実施形態があいまいになるといけないので、ここでは詳述を避ける。登録されると、これらのジェスチャーはジェスチャー認識フレームワークの一部となり、その後は、プラットフォームがジェスチャーとみなす動作を受け取ると、アクセスすることができるようになる。
図8は、本発明の一実施形態を示すフローチャートである。以下の動作は、一連のプロセスとして記載されているかもしれないが、多くの動作は、実際には並列、同時、または、並列および同時に実行されてよい。加えて、一以上の実施形態では、動作の順序を、本発明の実施形態の精神を逸脱しない範囲で並べ替えることができる。801で、ウェブページをデバイス上に表示してよい。ウェブページのコードを802で解析して、アクション可能な領域がページ内に存在しているかを判断する。存在している場合には、本発明の一実施形態では、803で、アクション可能領域を視覚キューで置き換えてよい。ユーザは、804で、ジェスチャーを行うことによりウェブページと相互作用することができる。ユーザのジェスチャーは、805で、動き取得モジュールにより捉えられてよい。805で、動き取得モジュールは、捉えた動きをジェスチャー検知モジュールに提供して、動きが入力として解釈されるべきアクションであるかを判断する。入力がユーザからのものであると特定されると、ジェスチャー検知モジュールは、806で、このアクションをジェスチャー処理モジュールに渡してよい。ジェスチャー検知モジュールは、807で、ジェスチャーライブラリを調べて、ユーザのジェスチャーの意味を判断してよい。808で、ジェスチャーが特定されて、ウェブブラウザへの入力に変換されると、ジェスチャー処理モジュールは、809で、ウェブブラウザに入力を提供してよい。
図9は、本発明の一実施形態においてジェスチャー処理モジュールが上述したステップ807でジェスチャーライブラリを調べる方法を示すフローチャートである。以下の動作は、一連のプロセスとして記載されているかもしれないが、多くの動作は、実際には並列、及び、同時の片方または両方で実行されてよい。加えて、一以上の実施形態では、動作の順序を、本発明の実施形態の精神を逸脱しない範囲で並べ替えることができる。図示されているように、ジェスチャー処理モジュールは、807で、ジェスチャーライブラリを調べて、901でブラウザがブラウザジェスチャーであるかを判断することで、アクションを判断してよい。判断結果が肯定的である場合には、902で、動き検知モジュールが、ジェスチャーを入力として解釈すべきかを判断する。他方、901でジェスチャーがブラウザジェスチャーではない場合には、903でこのジェスチャーが、ウェブページ上で隠されているアイテムを示す視覚キュージェスチャーであるかを調べる。したがって、たとえばジェスチャーは、アクション可能な領域を特定するためのジェスチャーであるか、アクション可能な領域のアイテムを選択するためのジェスチャーであるか、及び、「隠されている」アイテムに対して他のアクションを実行するためのジェスチャーであるか、判断するために調べられてよい。ジェスチャーが、視覚キュージェスチャーであると判断された場合には、ジェスチャーによる入力を動き取得モジュールにより捉えて、902で処理して、ジェスチャーが入力であるかを判断してよい。
図10は、本発明の実施形態において実装可能な別の視覚キューを示すフローチャートである。以下の動作は、一連のプロセスとして記載されているかもしれないが、多くの動作は、実際には並列、及び、同時の片方または両方で実行されてよい。加えて、一以上の実施形態では、動作の順序を、本発明の実施形態の精神を逸脱しない範囲で並べ替えることができる。1001で、ウェブブラウザが、ウェブページをプラットフォームにロードしてよい。本発明の一実施形態では、プラットフォームが1002で構築されると、1003で、ユーザに、適切な視覚キューと拡張ウェブページとが提示されてよい。そうではない場合、つまり、プラットフォームが視覚キュー用に構成されていない場合には、ウェブページは、視覚キューなしで表示され続けてよい。
ユーザは、1004で、拡張ウェブページと交信し続けてよい。1005で、ユーザの入力が調べられ、ユーザが視覚キュー及び拡張インターフェースを終了(deactivate)させようとしているかを判断してよい。1006で、ユーザ入力が視覚キューの終了を意図している場合には、視覚キュー及びインターフェースを取り除き、ウェブページを元のページにし直す。このような入力が受信されていない場合には、ユーザは、1007で、1008で新たなウェブページがロードされるまでの間、拡張ウェブページとの交信を続けることができる。
本発明の実施形態におけるスキームは、様々なコンピューティングデバイスで実装可能である。一実施形態では、コンピューティングデバイスは、縮小命令セット・コンピュータ(RISC)エンジンまたは特定用途向けの処理エンジン(たとえばグラフィック処理ユニット(GPU)、デジタル信号処理ユニット(DSP)またはエンベデッドマイクロコントローラ)であってよい1以上のプロセッサ等の他の様々な公知のコンポーネントを含んでよい。
プロセッサ及び機械アクセス可能な記憶媒体は、ブリッジ/メモリコントローラを利用して通信可能に連結することができ、プロセッサは、機械アクセス可能な記憶媒体に格納されている命令を実行することができるものであってよい。ここで述べる機械アクセス可能な記憶媒体は、限定ではないが、機械またはデバイスにより製造または形成される粒子の有形配置(ハードディスク等の記憶媒体、フロッピー(登録商標)ディスク、光ディスク、CD−ROM,CD−RW、及び光磁気ディスク等の任意の他の種類のディスク、ROM、DRAM等のRAM、SRAM、EPROM、フラッシュメモリ、EEPROM等の半導体素子、磁気カードまたは光カード、または、電子命令の格納に適した任意の他の種類の媒体)であってよい。
ブリッジ/メモリコントローラは、グラフィックコントローラに連結されてよく、グラフィックコントローラは、表示デバイス上の表示データの出力を制御してよい。表示デバイスには、限定ではないが、容量性、抵抗性、表面弾性波(SAW)、赤外線、及び光学撮像等の任意の適切な接触式技術を利用して実装可能な接触式の表示デバイス(ここでは「タッチスクリーン」とも称される場合がある)を含んでよい。一実施形態の接触式表示デバイスは、任意の適切な多接触技術を利用して実装してもよい。接触式表示デバイスは、たとえば液晶ディスプレイ(LCD)用等の任意の適切な表示技術を利用して実装可能なディスプレイを含む。少なくとも1つの実施形態用のシステム制御論理には、1以上の表示インターフェースを接触式表示デバイスに提供する1以上のグラフィックコントローラが含まれてよい。
ブリッジ/メモリコントローラは、1以上のバスに連結されてよい。これらエレメントの1以上が、1つのパッケージの上で、または複数のパッケージまたはダイを利用して、プロセッサと集積されてよい。ユニバーサルシリアルバス(「USB」)ホストコントローラ等のホストバスコントローラが、バス(1または複数)と連結されてよく、複数の素子をUSBに連結してよい。たとえばキーボード及びマウス等のユーザ入力デバイスを、入力データを提供するためにコンピューティングデバイスに含めることができる。別の実施形態では、ホストバスコントローラが、Ethernet(登録商標)、Gigabit Ethernet(登録商標)、PCI、PCI Expess、FireWire、Bluetooth(登録商標)、WiFi、赤外線その他の既存の及び将来の規格を含む様々な他のインターコネクト規格に準拠していてよい。
前述した明細書では、本発明が特定の例示的な実施形態を参照して説明された。しかし、請求項に示されている本発明の広義の精神及び範囲を逸脱せずに様々な変更例及び変形例が可能である。したがって、明細書及び図面は、例示を意図しており、限定的な意味で受け取られるべきではない。

Claims (15)

  1. 第1のデバイス上のウェブブラウザアプリケーションで表示されるウェブページのコードを解析して、前記ウェブページ内のアクション可能領域を特定する段階と、
    前記アクション可能領域の選択を実行するユーザのジェスチャーを提案すべく、表示された前記ウェブページに対するユーザの交信前に、前記第1のデバイス上の前記ウェブブラウザアプリケーションによって、前記ウェブページの表示内の前記アクション可能領域を視覚キューで拡張する又は置き換える段階と、
    前記第1のデバイスに対するユーザの動きを特定する段階と、
    前記ユーザの動きを入力ジェスチャーとして特定する段階と、
    前記入力ジェスチャーを処理して、前記アクション可能領域の選択を決定する段階と、
    前記選択を前記ウェブブラウザアプリケーションに提供して、前記第1のデバイス上に表示される前記選択されたアクション可能領域の関連づけられた追加情報を利用可能とする段階と
    を備え
    前記コードは、前記アクション可能領域に対応する前記追加情報を有し、前記第1のデバイスとは異なりかつ位置決めカーソルを有する第2のデバイスで前記ウェブページが表示される場合には、前記追加情報は、前記第2のデバイスの位置決めカーソルが前記アクション可能領域の上に移動したことに応じて表示されるものである
    方法。
  2. 前記ユーザの動きを入力ジェスチャーとして特定する段階は、
    前記入力ジェスチャーに関連付けられている動きを特定する段階を有する、
    請求項に記載の方法。
  3. 前記入力ジェスチャーを処理して、前記アクション可能領域の選択を決定する段階は、
    前記入力ジェスチャーに関連付けられている前記動きを処理して、対応するウェブブラウザアクションを決定する段階を有する、
    請求項に記載の方法。
  4. 前記入力ジェスチャーに関連付けられている前記動きを処理する段階は、
    前記ウェブブラウザアプリケーションに通信可能に連結されているジェスチャーライブラリにアクセスする段階と、
    前記ジェスチャーライブラリ内で前記動きを特定する段階と、
    前記ジェスチャーライブラリ内で特定された前記動きに対応する前記ウェブブラウザアクションを選択する段階と
    を有する、請求項に記載の方法。
  5. コンピュータに、
    第1のデバイスで動作するウェブブラウザアプリケーションで表示されるウェブページのコードを解析して、前記ウェブページ内のアクション可能領域を特定する手順と、
    前記アクション可能領域の選択を実行するユーザのジェスチャーを提案すべく、表示された前記ウェブページに対するユーザの交信前に、前記第1のデバイス上で、前記ウェブページの表示内の前記アクション可能領域を視覚キューで拡張する又は置き換える手順と、
    前記第1のデバイスに対するユーザの動きを特定する手順と、
    前記ユーザの動きを入力ジェスチャーとして特定する手順と、
    前記入力ジェスチャーを処理して、前記アクション可能領域の選択を決定する手順と、
    前記選択を前記ウェブブラウザアプリケーションに提供して、前記第1のデバイス上に表示される前記選択されたアクション可能領域に関連づけられた追加情報を利用可能とする手順と
    を実行させ
    前記コードは、前記アクション可能領域に対応する前記追加情報を有し、前記第1のデバイスとは異なりかつ位置決めカーソルを有する第2のデバイスで前記ウェブページが表示される場合には、前記追加情報は、前記第2のデバイスの位置決めカーソルが前記アクション可能領域の上に移動したことに応じて表示されるものである
    プログラム。
  6. コンピュータに、
    前記入力ジェスチャーに関連付けられている動きを特定することで、前記ユーザの動きに対応するアクションを特定する手順をさらに実行させる、
    請求項に記載のプログラム。
  7. コンピュータに、
    記入力ジェスチャーに関連付けられている前記動きを処理して、対応するウェブブラウザアクションを決定することで、前記入力ジェスチャーを処理して、前記ウェブブラウザアクションを決定する手順をさらに実行させる、
    請求項に記載のプログラム。
  8. コンピュータに、
    前記ウェブブラウザアプリケーションに通信可能に連結されているジェスチャーライブラリにアクセスする手順と、
    前記ジェスチャーライブラリ内で前記動きを特定する手順と、
    前記ジェスチャーライブラリ内で特定された前記動きに対応する前記ウェブブラウザアクションを選択する手順と
    をさらに実行させる、
    請求項に記載のプログラム。
  9. 第1のコンピューティングプラットフォーム上に表示されるウェブページのコードを解析して、前記ウェブページ内のアクション可能領域を特定する段階と、
    前記アクション可能領域の選択を実行するユーザのジェスチャーを提案すべく、表示された前記ウェブページに対するユーザの交信前に、前記第1のコンピューティングプラットフォーム上で、前記ウェブページの表示内の前記アクション可能領域を視覚キューで拡張する又は置き換える段階と
    を備え
    前記アクション可能領域は、前記アクション可能領域のユーザの選択に応じて追加情報をユーザに提供し、
    前記コードは、前記第1のコンピューティングプラットフォームとは異なりかつ位置決めカーソルを有する第2のコンピューティングプラットフォームで前記ウェブページが表示される場合には、前記追加情報が、前記第2のコンピューティングプラットフォームの位置決めカーソルが前記アクション可能領域の上に移動したことに応じて表示されるように構成される
    方法。
  10. 記視覚キューは、アイコン、テキスト、または、前記ウェブページの縮小部分を含む、
    請求項に記載の方法。
  11. 前記視覚キューはアイコンを含み、該アイコンはジェスチャーを示す
    請求項10に記載の方法。
  12. コンピュータに、
    第1のコンピューティングプラットフォーム上に表示されるウェブページのコードを解析して、前記ウェブページ内のアクション可能領域を特定する手順と、
    前記アクション可能領域の選択を実行するユーザのジェスチャーを提案すべく、表示された前記ウェブページに対するユーザの交信前に、前記第1のコンピューティングプラットフォーム上で、前記ウェブページの表示内の前記アクション可能領域を視覚キューで拡張する又は置き換える手順と
    を実行させ
    前記アクション可能領域は、前記アクション可能領域のユーザの選択に応じて追加情報をユーザに提供し、
    前記コードは、前記第1のコンピューティングプラットフォームとは異なりかつ位置決めカーソルを有する第2のコンピューティングプラットフォームで前記ウェブページが表示される場合には、前記追加情報が、前記第2のコンピューティングプラットフォームの位置決めカーソルが前記アクション可能領域の上に移動したことに応じて表示されるように構成される
    プログラム。
  13. コンピュータに、
    前記アクション可能領域それぞれを表す1以上の視覚キューを表示する手順をさらに実行させる、
    請求項12に記載のプログラム。
  14. コンピュータに、
    アイコン、テキスト、又は、前記ウェブページの縮小部分を含む1以上の視覚キューを表示する手順をさらに実行させる、
    請求項12または13に記載のプログラム。
  15. コンピュータに、
    ジェスチャーを示すアイコンを表示する手順をさらに実行させる、
    請求項12から14のいずれか一項に記載のプログラム。
JP2013544884A 2010-12-23 2011-12-23 ウェブブラウザ上でコンテンツと相互作用する方法、装置、及びシステム Active JP5658376B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/978,082 US9575561B2 (en) 2010-12-23 2010-12-23 Method, apparatus and system for interacting with content on web browsers
US12/978,082 2010-12-23
PCT/US2011/067211 WO2012088515A2 (en) 2010-12-23 2011-12-23 Method, apparatus and system for interacting with content on web browsers

Publications (2)

Publication Number Publication Date
JP2014503903A JP2014503903A (ja) 2014-02-13
JP5658376B2 true JP5658376B2 (ja) 2015-01-21

Family

ID=46314976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013544884A Active JP5658376B2 (ja) 2010-12-23 2011-12-23 ウェブブラウザ上でコンテンツと相互作用する方法、装置、及びシステム

Country Status (7)

Country Link
US (4) US9575561B2 (ja)
EP (3) EP3660634B1 (ja)
JP (1) JP5658376B2 (ja)
KR (1) KR101493630B1 (ja)
CN (1) CN103270474B (ja)
TW (1) TWI521380B (ja)
WO (1) WO2012088515A2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575949B2 (en) 2011-04-11 2017-02-21 Data Systems International, Inc. Multi-view runtime interrogator
US9329839B2 (en) * 2011-04-11 2016-05-03 Data Systems International, Inc. Multi-view form design
US8831794B2 (en) * 2011-05-04 2014-09-09 Qualcomm Incorporated Gesture recognition via an ad-hoc proximity sensor mesh for remotely controlling objects
US9400850B2 (en) * 2011-05-31 2016-07-26 Verizon Patent And Licensing Inc. Systems and methods for providing a tailored user interface associated with a web page
US9146665B2 (en) 2011-09-30 2015-09-29 Paypal, Inc. Systems and methods for enhancing user interaction with displayed information
US9304646B2 (en) * 2012-03-20 2016-04-05 A9.Com, Inc. Multi-user content interactions
US9213420B2 (en) 2012-03-20 2015-12-15 A9.Com, Inc. Structured lighting based content interactions
US9373025B2 (en) * 2012-03-20 2016-06-21 A9.Com, Inc. Structured lighting-based content interactions in multiple environments
US9367124B2 (en) * 2012-03-20 2016-06-14 A9.Com, Inc. Multi-application content interactions
US9263084B1 (en) 2012-06-15 2016-02-16 A9.Com, Inc. Selective sharing of body data
US20150084859A1 (en) * 2013-09-23 2015-03-26 Yair ITZHAIK System and Method for Recognition and Response to Gesture Based Input
US9645651B2 (en) 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
WO2015122890A1 (en) * 2014-02-12 2015-08-20 Nokia Corporation Method and apparatus for updating a firmware of an apparatus
CN103941875B (zh) * 2014-05-05 2017-06-13 成都理想境界科技有限公司 一种翻页方法、装置及终端
CN104020853A (zh) * 2014-06-23 2014-09-03 暨南大学 基于Kinect的操纵网络浏览器的系统及方法
US9594489B2 (en) 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
KR101595958B1 (ko) * 2014-08-27 2016-02-18 엘지전자 주식회사 영상표시장치 및 영상표시장치 동작방법
CN104484035A (zh) * 2014-12-04 2015-04-01 北京百度网讯科技有限公司 基于体感设备的控制方法、装置和系统
CN104536674B (zh) * 2014-12-12 2018-05-11 北京百度网讯科技有限公司 一种用于在移动设备中对网页执行操作的方法和装置
ITUB20156909A1 (it) * 2015-12-10 2017-06-10 At Media S R L Sistema per il controllo e la visualizzazione interattiva di contenuti multimediali
CN105872691A (zh) * 2015-12-14 2016-08-17 乐视致新电子科技(天津)有限公司 浏览器控制方法及装置
JP6685397B2 (ja) * 2016-07-12 2020-04-22 三菱電機株式会社 機器制御システム
CN106354363A (zh) * 2016-08-26 2017-01-25 珠海市魅族科技有限公司 一种消息的处理方法和装置
CN106774829B (zh) * 2016-11-14 2021-04-02 平安科技(深圳)有限公司 一种对象控制方法和装置
NZ762548A (en) * 2017-09-15 2022-02-25 Abundant Robotics Inc Doubles end-effector for robotic harvesting
CN110489689B (zh) * 2018-05-09 2022-04-29 中移(苏州)软件技术有限公司 一种页面内容更新方法、装置、电子设备及存储介质
WO2020223172A1 (en) * 2019-04-28 2020-11-05 Apple Inc. Presenting user interfaces that update in response to detection of a hovering object
CN110300228A (zh) * 2019-06-29 2019-10-01 联想(北京)有限公司 一种信息处理方法及电子设备

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6282512B1 (en) * 1998-02-05 2001-08-28 Texas Instruments Incorporated Enhancement of markup language pages to support spoken queries
US7797447B1 (en) * 2000-07-10 2010-09-14 Fuji Xerox Co., Ltd. Data detector for creating links from web content for mobile devices
US20040205568A1 (en) * 2002-03-01 2004-10-14 Breuel Thomas M. Method and system for document image layout deconstruction and redisplay system
EP1394692A1 (en) 2002-08-05 2004-03-03 Alcatel Method, terminal, browser application, and mark-up language for multimodal interaction between a user and a terminal
US7185284B2 (en) * 2002-12-20 2007-02-27 Motorola, Inc. Method and apparatus for providing a hyperlink indication on a display for an image in a web page
US7337185B2 (en) 2003-04-30 2008-02-26 Yahoo! Inc. System and method for providing an improved graphical user interface for search
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
BRPI0606477A2 (pt) * 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
US8427426B2 (en) * 2005-05-27 2013-04-23 Sony Computer Entertainment Inc. Remote input device
US7975020B1 (en) * 2005-07-15 2011-07-05 Amazon Technologies, Inc. Dynamic updating of rendered web pages with supplemental content
US7814425B1 (en) * 2005-12-30 2010-10-12 Aol Inc. Thumbnail image previews
US7877677B2 (en) * 2006-03-01 2011-01-25 Infogin Ltd. Methods and apparatus for enabling use of web content on various types of devices
US20080189593A1 (en) * 2006-11-20 2008-08-07 Tim Baker System and method for enabling flash playback of MP3 files available on a web page
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US7962444B2 (en) 2008-05-19 2011-06-14 Qualcomm Incorporated System and method for presenting a contextual action for an indicator
KR100978929B1 (ko) * 2008-06-24 2010-08-30 한국전자통신연구원 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말
TWI367433B (en) 2008-08-14 2012-07-01 Acer Inc Control method according to captured video
KR101010283B1 (ko) * 2008-10-24 2011-01-24 삼성전자주식회사 휴대단말기의 웹 페이지 제공 방법 및 장치
US8578019B2 (en) * 2008-11-02 2013-11-05 Observepoint, Llc Monitoring the health of web page analytics code
US20100185949A1 (en) * 2008-12-09 2010-07-22 Denny Jaeger Method for using gesture objects for computer control
JP5369769B2 (ja) * 2009-03-05 2013-12-18 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよび情報処理システム
EP2409243A4 (en) * 2009-03-20 2013-04-17 Peel Technologies Inc CONTROL SYSTEM BASED ON A DEVICE
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US20120005632A1 (en) * 2010-06-30 2012-01-05 Broyles Iii Paul J Execute a command
US20120092381A1 (en) * 2010-10-19 2012-04-19 Microsoft Corporation Snapping User Interface Elements Based On Touch Input
US8893054B2 (en) * 2010-12-08 2014-11-18 At&T Intellectual Property I, L.P. Devices, systems, and methods for conveying gesture commands
US9400850B2 (en) 2011-05-31 2016-07-26 Verizon Patent And Licensing Inc. Systems and methods for providing a tailored user interface associated with a web page
US9373025B2 (en) 2012-03-20 2016-06-21 A9.Com, Inc. Structured lighting-based content interactions in multiple environments
US9304646B2 (en) 2012-03-20 2016-04-05 A9.Com, Inc. Multi-user content interactions
US9367124B2 (en) 2012-03-20 2016-06-14 A9.Com, Inc. Multi-application content interactions

Also Published As

Publication number Publication date
CN103270474B (zh) 2016-09-07
US20170277270A1 (en) 2017-09-28
US20220164034A1 (en) 2022-05-26
US11204650B2 (en) 2021-12-21
KR20130100353A (ko) 2013-09-10
WO2012088515A3 (en) 2012-10-11
EP2656179A4 (en) 2016-11-02
EP2656179A2 (en) 2013-10-30
WO2012088515A2 (en) 2012-06-28
EP4075241A1 (en) 2022-10-19
EP3660634B1 (en) 2022-05-25
US20120166974A1 (en) 2012-06-28
US20210026456A1 (en) 2021-01-28
CN103270474A (zh) 2013-08-28
US10802595B2 (en) 2020-10-13
EP2656179B1 (en) 2020-01-22
TWI521380B (zh) 2016-02-11
US9575561B2 (en) 2017-02-21
KR101493630B1 (ko) 2015-02-13
JP2014503903A (ja) 2014-02-13
TW201232329A (en) 2012-08-01
EP3660634A1 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
JP5658376B2 (ja) ウェブブラウザ上でコンテンツと相互作用する方法、装置、及びシステム
US10444961B2 (en) Hover-based interaction with rendered content
US7928964B2 (en) Touch input data handling
CN102221974B (zh) 指示笔设置
US8019390B2 (en) Statically oriented on-screen transluscent keyboard
TWI479369B (zh) 用於虛擬觸控板的電腦儲存媒體及方法
US20060267958A1 (en) Touch Input Programmatical Interfaces
US20090315841A1 (en) Touchpad Module which is Capable of Interpreting Multi-Object Gestures and Operating Method thereof
US20110157015A1 (en) Method of generating multi-touch signal, dongle for generating multi-touch signal, and related control system
US10732719B2 (en) Performing actions responsive to hovering over an input surface
AU2011101528A4 (en) Uniform event handling across multiple computing devices
US9727210B2 (en) User terminal device for supporting data share function and methods thereof
JP2018181294A (ja) カメラベースのグラフィカルユーザインタフェースを提供するための方法およびシステム、コンピュータシステム、プログラム
CN110945470A (zh) 可编程的多点触摸屏幕上键盘
JP2012198913A (ja) 電子機器、検索制御方法、及び検索制御プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141029

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141127

R150 Certificate of patent or registration of utility model

Ref document number: 5658376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250