JP2016530659A - 範囲及び値のジェスチャ対応同時選択 - Google Patents

範囲及び値のジェスチャ対応同時選択 Download PDF

Info

Publication number
JP2016530659A
JP2016530659A JP2016542341A JP2016542341A JP2016530659A JP 2016530659 A JP2016530659 A JP 2016530659A JP 2016542341 A JP2016542341 A JP 2016542341A JP 2016542341 A JP2016542341 A JP 2016542341A JP 2016530659 A JP2016530659 A JP 2016530659A
Authority
JP
Japan
Prior art keywords
user input
contact point
values
value
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016542341A
Other languages
English (en)
Inventor
ニールス ローテ
ニールス ローテ
ジュリアン カール ホセリンク
ジュリアン カール ホセリンク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2016530659A publication Critical patent/JP2016530659A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

範囲及び値のジェスチャ対応同時選択のための方法、ジェスチャ入力デバイス及びコンピュータプログラム製品が提供される。ユーザは、値の範囲(例えば、秒、分又は時間の範囲のうち1つ)を選択し、値のこの選択された範囲から値(例えば、値の選択された範囲が時間である場合、00〜23時間の間の値)を選択するように、2つの指210,220によってジェスチャを行う。ジェスチャは、2つのユーザ入力接触点230,240を検出する、カメラベースの入力デバイス又はタッチ入力デバイスを用いて取り込まれる。これらの2つのユーザ入力接触点230,240間の距離250は、値の選択された範囲を決定する。値のこの選択された範囲からの値の選択は、2つの仮想ライン250,270間の角度280により決定される。第1の仮想ライン250は、第1のユーザ入力接触点230と第2のユーザ入力接触点240との間のラインである。第2の仮想ライン270は、仮想基準点260と第1のユーザ入力接触点230との間のラインである。2つの指210,220間の距離250は、ユーザが範囲を選択するのを可能にし、第1の指210に対して第2の指220を回転させることは、ユーザが、ユーザ入力として、選択された範囲内で、値を選択するのを可能にする。

Description

本発明は、概して、ユーザ入力を受信するための方法、デバイス及びコンピュータプログラム製品に関し、詳細には、ジェスチャ入力デバイスを介してユーザ入力を受信するための方法及びコンピュータプログラム製品、及び、ジェスチャ入力デバイスに関する。
ジェスチャベースの入力は、タッチスクリーンを有するスマートフォンのようなタッチ入力デバイスにおいて広く実装されている。カメラを介したジェスチャベースの入力は、例えば米国特許第6,600,475号明細書からのも知られている。斯様なジェスチャベースの入力は、ユーザが(ON値又はOFF値を選択するために)スイッチを切り換え、設定(例えばミュート又はミュート解除)を選択するか又は値を選択する(例えば、町名のリストから町名を選択する)等を可能にする。典型的には、値の選択は、示されているユーザインタフェースと組み合わせてユーザにより実行される。これは、例えばユーザがどのジェスチャを入力することができるか(例えば、OFF値とON値との間のボタンを切り換えるためのスライドジェスチャ)を決定するボタンを表示することにより、ユーザフィードバックを与える。ピンチジェスチャ又は回転ジェスチャのような他のジェスチャは、表示されるもののサイズをそれぞれ減少又は増大させる(例えば、画像を拡大するか又はフォントサイズを増大させる)か、又は、表示されるものを(例えば縦モードから横モードに)回転させるために、スマートフォンのタッチスクリーン上のどこでも行われ得る。ジェスチャ入力デバイスが人の生活においてこれまでより大きな役割を果たすことを考えると、ジェスチャ入力デバイスを介してユーザ入力を与える、よりユーザ直観的な方法の必要性が存在する。
EP2442220は、入力データフィールドの選択が検出されるシステム及び方法を開示している。入力データフィールドの選択に応答して、内側同心円及び外側同心円を有するユーザインタフェースが生成される。内側同心円及び外側同心円のうち一方の範囲内でタッチ対応入力デバイスを介して発行されるタッチジェスチャの位置に対応する接触点が検出される。同心円のうち一方のまわりの接触点からの円運動の角速度が測定される。入力データ値は、接触点に基づく精度で調整され、円運動の測定された角速度に基づく速度で調整される。
DE102011084802は、パラメータベクトルのパラメータが変えられ得る手段によりタッチセンサ式ディスプレイフィールドを有するディスプレイ及び動作デバイスに関する。パラメータをセットするために、円形又は環状要素で作られた構造体が、対応する接触要素が配置される外周上で用いられる。リング要素の外周上の接触要素の位置を用いて、パラメータの値が符号化される。
本発明の目的は、ユーザ入力を与える、よりユーザ直観的な方法を可能にする方法、ジェスチャ入力デバイス及びコンピュータプログラム製品を提供することにある。
本発明の第1の態様において、ユーザ入力として値を選択するための方法が提供され、当該方法は、仮想平面における第1のユーザ入力接触点をジェスチャ入力デバイスを介して、検出するステップと、前記仮想平面において第2のユーザ入力接触点を前記ジェスチャ入力デバイスを介して検出するステップと、前記第1のユーザ入力接触点と前記第2のユーザ入力接触点との間の、前記仮想平面における距離を決定するステップと、前記第1のユーザ入力接触点から前記第2のユーザ入力接触点までの第1の仮想ラインと前記第1のユーザ入力接触点から前記仮想平面における予め規定された仮想基準点までの第2の仮想ラインとの間の、前記仮想の平面における角度を決定するステップと、決定された距離に基づいて値の斯様な範囲のセットから値の範囲を選択するステップと、決定された角度に基づいて、値の選択された範囲内において、値をユーザ入力として選択するステップとを有する。本方法は、ユーザがジェスチャを介して範囲及び値を同時に選択するのを可能にする。
本発明による方法の一実施形態において、ジェスチャ入力デバイスは、少なくとも2つの同時タッチ入力を検出するように構成されたタッチ入力デバイスであり、仮想平面における第1及び第2のユーザ入力接触点は、それぞれタッチ入力デバイス上の第1及び第2のユーザ入力接触点である。
本発明による方法の一実施形態において、ジェスチャ入力デバイスは、ユーザの手のジェスチャを検出するために画像を取り込むように構成された画像ベースの入力デバイスであり、仮想平面における第1及び第2のユーザ入力接触点は、それぞれ、画像ベースの入力デバイスにより取り込まれた画像の解析を介して決定される、第1及び第2の指の位置である。
本発明による方法の一実施形態において、本方法は、第1の位置から第2の位置への第2のユーザ入力接触点の運動を検出するステップを更に有し、値の斯様な範囲のセットから値の範囲を選択するステップに関して、第1の位置は、距離を決定することにおいて第2のユーザ入力接触点として利用され、値の選択された範囲内において値をユーザ入力として選択するステップに関して、第2の位置は、角度を決定することにおいて第2のユーザ入力接触点として利用される。
本発明による方法の一実施形態において、本方法は、第1の位置から第2の位置への第2のユーザ入力接触点の運動を検出するステップを更に有し、値の斯様な範囲のセットから値の範囲を選択するステップに関して、第2の位置は、距離を決定することにおいて第2のユーザ入力接触点として利用され、値の選択された範囲内において値をユーザ入力として選択するステップに関して、第1の位置は、角度を決定することにおいて第2のユーザ入力接触点として利用される。
本発明による方法の一実施形態において、本方法は、第2のユーザ入力接触点の第1の位置から第2の位置への第1の運動を検出するステップと、第2のユーザ入力接触点の第2の位置から第3の位置への第2の運動を検出するステップとを有し、値の斯様な範囲のセットから値の範囲を選択するステップに関して、第2の位置は、距離を決定することにおいて第2のユーザ入力接触点として利用され、値の選択された範囲内において値をユーザ入力として選択するステップに関して、第3の位置は、角度を決定することにおいて第2のユーザ入力接触点として利用される。
本発明による方法の一実施形態において、本方法は、第2のユーザ入力接触点の第1の位置から第2の位置への第1の運動を検出するステップと、第2のユーザ入力接触点の第2の位置から第3の位置への第2の運動を検出するステップとを有し、値の斯様な範囲のセットから値の範囲を選択するステップに関して、第3の位置は、距離を決定することにおいて第2のユーザ入力接触点として利用され、値の選択された範囲内において値をユーザ入力として選択するステップに関して、第2の位置は、角度を決定することにおいて第2のユーザ入力接触点として利用される。
本発明による方法の一実施形態において、検出された運動の中断、検出された運動の速度の変動、検出運動の方向の変動、及び/又は、検出された第2のユーザ入力接触点における圧力の変化のうちいずれか1つが生じたときに、第1の運動の検出が終了し、第2の運動の検出を開始する。
本発明による方法の一実施形態において、値をユーザ入力として選択するステップは、ユーザ入力接触点のうち少なくとも1つがもはや検出されなくなるまで、遅延される。
本発明による方法の一実施形態において、計算された距離が予め決められた閾値より小さいか若しくは計算された距離が予め決められた閾値より大きく、並びに/又は、計算された角度が予め決められた閾値より小さいか若しくは計算された角度が予め決められた閾値より大きく、並びに/又は、第1及び/若しくは第2のユーザ入力接触点の検出の期間が予め決められた閾値より小さいか若しくは第1及び/若しくは第2のユーザ入力接触点の検出の期間が予め決められた閾値より大きい、のうちいずれか1つが生じたときに、値をユーザ入力として選択するステップがスキップされ、キャンセルされ、反転され、又は、デフォルト値が選択される。
本発明による方法の一実施形態において、値の斯様な範囲のセットからの値の少なくとも1つの範囲又は前記範囲内の少なくとも1つの値の視覚的表現を表示するためのユーザインタフェースを生成するステップを有する。
本発明による方法の更なる実施形態において、ユーザインタフェースは、第1のユーザ入力接触点を少なくとも部分的に囲む、複数の表示された要素を有し、表示された要素の各々は、値の斯様な範囲のセットからの値の少なくとも1つの範囲の少なくとも部分を表す。
本発明による方法の一実施形態において、本方法は、仮想平面において少なくとも1つの追加のユーザ入力接触点を検出するステップを更に有し、値がユーザ入力として選択され得る、斯様な範囲のセットからの、値の少なくとも1つの範囲における値の精度は、検出されるユーザ入力接触点の数に基づく。
本発明の第2の態様において、値をユーザ入力として受信するためのタッチ入力デバイスが提供され、タッチ入力デバイスは、タッチセンサ式スクリーンと、複数のユーザ入力接触点を検出するように構成された、タッチセンサ式スクリーンに結合されたプロセッサとを有し、プロセッサは、本発明の第1の態様の方法のいずれかのステップを実行するように更に構成される。
本発明の第3の態様において、値をユーザ入力として受信するための画像ベースの入力デバイスが提供され、画像ベースの入力デバイスは、画像を取り込むためのカメラと、画像を受信し、複数のユーザ入力接触点を検出するために画像を処理するための、カメラに結合されたプロセッサとを有し、プロセッサは、本発明の第1の態様の方法のいずれかのステップを実行するように更に構成される。
本発明の第4の態様において、値をユーザ入力として受信するためのコンピュータプログラム製品が提供され、コンピュータプログラム製品は、コンピュータ上で実行されたときに本発明の第1の態様の方法のいずれかのステップを実行するためのソフトウエアコード部分を有する。
方法、ジェスチャ入力デバイス及びコンピュータプログラム製品は、とりわけ従属請求項において規定されるような、類似の及び/又は同一の好ましい実施形態を有することが理解されるべきである。本発明の好ましい実施形態は、従属請求項の、それぞれの独立請求項との任意の組み合わせであってもよいことが理解されるべきである。
本発明のこれらの及び他の態様は、後述される実施形態から明らかになり、これらを参照して説明されるだろう。
本発明の第1の態様による、値をユーザ入力として受信するための方法を概略的及び例示的に示す。 本発明の方法による、第1及び第2のユーザ入力接触点を有する仮想平面を概略的及び例示的に示す。 本発明の方法による、第1のユーザ入力接触点及び移動する第2のユーザ入力接触点を有する仮想平面を概略的及び例示的に示す。 本発明の方法による、第1のユーザ入力接触点及び移動する第2のユーザ入力接触点を有する仮想平面を概略的及び例示的に示す。 本発明の方法による、値をユーザ入力として受信するための画像ベースの入力デバイスを概略的及び例示的に示す。 本発明の方法による、値をユーザ入力として受信するためのタッチ入力デバイスを概略的及び例示的に示す。 本発明の方法による、ユーザがタッチ入力デバイスを介して値をユーザ入力として供給することを概略的及び例示的に示す。 本発明の方法による、ユーザがタッチ入力デバイスを介して値をユーザ入力として供給することを概略的及び例示的に示す。 本発明の方法による、ユーザがタッチ入力デバイスを介して値をユーザ入力として供給することを概略的及び例示的に示す。 本発明の方法による、ユーザがタッチ入力デバイスを介して値をユーザ入力として供給することを概略的及び例示的に示す。
図1は、本発明による方法100の一実施形態のステップの概略図を示している。第1のステップ110において、第1のユーザ入力接触点は、仮想平面において、ジェスチャ入力デバイスを介して検出される。仮想平面は、タブレットコンピュータ又は同様のデバイス(例えば、スマートフォン、ラップトップ、スマートホワイトボード、又は、タッチセンサ式エリアを有する他のデバイス)のタッチセンサ式スクリーンのような、タッチ入力デバイスの表面であり得る。そして、接触点は、物理的接触点、即ち、ユーザがタッチセンサ式スクリーンにタッチした位置であり得る。別の例として、接触点は、カメラにより取り込まれた画像において、仮想平面及びユーザの指先の共通部分であり得る。そして、ユーザは、カメラに向かってジェスチャをすることができ、その後、画像処理が、仮想平面におけるユーザ入力接触点の位置を決定する。それ故、本方法は、タッチ入力デバイス、画像ベースの入力デバイス、並びに、ジェスチャ入力デバイスの他のタイプに適用可能である。
第1のステップ110と同様の、第2のステップ120において、第2のユーザ入力接触点が検出される。仮想平面における第1及び第2のユーザ入力接触点(の位置)は、次のステップのために入力される。
第3のステップ130において、第1及び第2のユーザ入力接触点の間の(仮想平面における)距離が決定される。第4のステップ140は、2つの仮想ライン間の角度を決定することを有する。第1の仮想ラインは、第1のユーザ入力接触点から第2のユーザ入力接触点まで通るラインである。第2の仮想ラインは、仮想平面における予め規定された仮想基準点から第1のユーザ入力接触点まで通る。仮想基準点の位置は、例えば、タブレットコンピュータのタッチセンサ式スクリーン上に表示されるユーザインタフェース、又は、カメラに向かってジェスチャをするユーザの画像の背景において取り込まれる部屋の形状に関連し得る。
第5のステップ150は、第3のステップ130において決定された距離を取得し、この距離に基づいて、値の斯様な範囲のセットから、値の範囲を選択する。値のこの範囲から、値が第6のステップ160におけるユーザ入力として選択される。ユーザ入力として選択された値は、第4のステップ140において決定された角度に基づく。それ故、ユーザは、値をユーザ入力として与えるために、単一のジェスチャにおいて、少なくとも2つのユーザ入力接触点を介して、範囲及びこの範囲内の値を同時に供給することができる。一例として、選択される値の範囲は、決定された距離が値Aに等しいか又はそれ以上である(例えば、1センチメートル、40画素、ユーザ入力接触点の10倍の幅)場合、時間であってもよく(例えば、0−24時間の範囲)、Aより小さい場合、分であってもよい(例えば、0−59分の範囲)。この例において、決定された距離がAより小さい場合、5度の角度が値"5分"に関連し得るのに対し、10度の角度が値"15分"に関連し得る。しかしながら、ユーザ入力として選択された値及び選択された値の範囲は、数値的値(例えば、範囲"1,2,3,...";"10,20,30,...";"100,200,300,...")、カラーポイント(例えば、"淡い緑、濃い緑"、"淡い青、濃い青"、"淡い赤、濃い赤")、映画批評に関する値(例えば、"1つ星評価...5つ星評価"、"アクション,コメディ,ドキュメンタリー...")等のような、任意の値(値の任意の範囲)のであってもよい。
本方法は、斯様なユーザインタフェースを伴わなくても、メニュー状のユーザインタフェースと組み合わせて実装され得る(その一例は、図6A,6B,6C,6Dにおいて与えられる)。ジェスチャの桁外れの単純さ、及び、ユーザが範囲及びその範囲内の値を同時に選択するのを可能にする極めて直観的な態様を考慮すると、本方法は、"ブラインド制御"を可能にする。外科医は、このジェスチャを用いて、及び、患者から目をそらさないように、一般的照明を調光することができるか、又は、画像ベースの入力デバイスを備えた、手術室におけるタスク照明の輝度を増大させることができる。この例において、外科医は、カメラがどこにあるかを単純に知り、それに向かってジェスチャをするか、又は、外科医は、手術室にあるテーブルに埋め込まれたタッチセンサエリア上でジェスチャを実行する。手の時計回りの運動は、上方に調光し、反時計回りは、下方に調光し、(例えば外科医が親指及び人さし指を用いたときに)第1及び第2のユーザ入力接触点の間の小さな距離は、一般的照明を制御し、大きな距離(例えば親指及び小指)は、タスク照明を制御する。
図2は、本発明による方法の一実施形態当たりとしての、仮想平面200における第1のユーザ入力接触点230及び第2のユーザ入力接触点240を与える第1の指210及び第2の指220を伴う仮想平面200を示している。一例として、図2は、タブレットコンピュータ(図示省略)のタッチセンサ式スクリーンを介して理解される仮想平面200、又は、ユーザがジェスチャをしているカメラ(図示省略)により取り込まれる画像の底面図であり得る。
第1のユーザ接触点230と第2のユーザ接触点240との間の仮想ライン250は、値の斯様な範囲のセットから値の範囲を選択するための基礎となる。仮想平面200における、このラインの長さは、値のどの範囲が選択されたかを決定する。予め規定された仮想基準点260は、仮想平面200においてどこでも配置され得る。一例として、予め規定された仮想基準点260は、タブレットコンピュータのタッチセンサ式スクリーンを介してユーザインタフェースにおいて表示されたポイントに関連し得る。他の例として、予め規定された仮想基準点260は、スクリーンの角のうちの1つのような、スマートフォンのタッチセンサ式スクリーンの物理形状に関連し得る。更に他の例として、予め規定された仮想基準点260は、ユーザがジェスチャを行っているカメラにより取り込まれた画像において検出される水平ライン(例えば、床と壁との間の角、及び取り込まれた画像の縁部のような、検出された水平ラインの共通部分)に関連し得る。予め規定された仮想基準点260と第1のユーザ接触点230との間の仮想ライン270と、第1のユーザ接触点230と第2のユーザ接触点240との間の仮想ライン250との間の角度280は、値の選択された範囲から値を選択するための基礎となる。
何が第1のユーザ入力接触点230及び第2のユーザ入力接触点240であるかを決定することは、どのユーザ入力接触点230,240が最初に検出されるか(例えば、ユーザがタブレットコンピュータのタッチセンサ式スクリーンに最初にタッチした場所)、どのユーザ入力接触点230、240が、タブレットコンピュータのタッチセンサ式スクリーンの縁部に最も近いか、又は、タッチセンサ式スクリーン上の表示されたメニュー項目に最も近いか、に基づき得る。他の例は、第1のユーザ入力接触点230として検出される、残された最も大きいユーザ入力接触点、又は、最も大きい静止しているユーザ入力接触点を有する。
図3A及び3Bは、ユーザが第2の指220を(例えばタッチセンサ式スクリーンに渡って)動かす(300)、本発明による方法の一実施形態を示している。この例において、移動している第2の指220は、第1の位置310から第2の位置360まで移動する第2のユーザ入力接触点240をもたらす。第1のユーザ入力接触点230と第2のユーザ入力接触点240との間の距離320,370は、この例において同じのままである。しかしながら、予め規定された仮想基準点260と第1のユーザ接触点230との間の仮想ライン330と、第1のユーザ接触点230と第2のユーザ接触点240との間の仮想ライン320,370との間の角度340,380は変化する。この例において、ユーザは、それ故に、値の斯様な範囲のセットから値の範囲を選択し、その後、第1の位置310から第2の位置360まで第2のユーザ接触ポイント340を移動させることにより、この値の選択された範囲からの値の選択を変える。
種々の実施形態において、第1のユーザ入力接触点230及び/又は第2のユーザ入力接触点240の運動が検出される。第1の例として、ユーザが第2の指220を置く第1の位置310は、距離320を決定するための基礎となり得るとともに、第2の位置360は、角度380を決定するための基礎となり得る。これは、ユーザが範囲を最初に選択し(例えば範囲"日"、"月"、"年"のセットから選択された"日")、その後、選択された範囲を変えることなく第1の指210と第2の指220との間の距離370(従って、第1のユーザ入力接触点230と第2のユーザ入力接触点240との間の距離)を自由に変えるのを可能にする。逆も同様であり、角度340が第1の位置310に基づいて決定されるとともに、距離370が第2の位置360に基づいて決定される場合、ユーザは、最初に値を選択し、その後、範囲を選択することができる。これは、ユーザが調光範囲のセット(例えば、"0,10,20...90,100")から選択される輝度レベル(例えば、"調光10%")を選択し、その後、色範囲(例えば、"軟白色"、"冷白色"、"日光")を選択するのを可能にし得る。
他の例として、第1の位置310は、(例えばユーザインタフェースを介して)ユーザに現在の値を示すイベントをトリガするためだけに用いられてもよく、その後、ユーザの指が移動する第2の位置360が範囲を決定するために用いられ、ユーザの指が移動する第3の位置(図示省略)が値を決定するために用いられる。この場合も同様に、これは、値を決定する第2の位置360と範囲を決定する第3の位置とによって、逆も同様に実装され得る。更に他の例として、第1の位置310が値の第1のユーザ入力のための距離320及び角度340の双方を決定するとともに第2の位置360が値の第2のユーザ入力のための距離370及び角度380の双方を決定するときのように、複数のユーザ入力値がこの方法を介して受信されてもよい。また、一実施形態において、第1のユーザ接触点230は、第1の位置から第2の位置(図示省略)まで移動してもよく、仮想基準点260は、第1のユーザ接触点230に対する同じ相対位置のままになるように移動する。これは、ユーザがジェスチャを実行している間に(正確に)同じエリア内に第1のユーザ接触点230を保たなければならないことを阻止する。
他の実施形態において、検出される運動の態様は、第2のユーザ入力接触点240が毎秒1センチメートルの速度で第1の位置310から第2の位置360まで移動するとともに毎秒2センチメートルの速度で第2の位置360から第3の位置まで移動するときのように、第1の位置310、第2の位置360及び第3の位置を決定してもよい。同様に、検出された運動の方向の変化、又は、(例えば圧力感知式タッチインタフェースを有するタッチ入力デバイスが用いられたときには)圧力の変化が、第1の位置310、第2の位置360及び第3の位置を決定するための基礎になってもよい。更なる例として、値をユーザ入力として選択するステップは、第2のユーザ入力接触点240が予め決められた時間の間に同じ位置のままになるまで、遅延されてもよく、誤った値を偶然に選択するのを阻止する。又は、ユーザが仮想平面200から双方の指210,220を同時に取り除いた場合、値は選択されない。ユーザがジェスチャを"キャンセル"するのを可能にする。
図4は、本発明の方法による値をユーザ入力として受信するための画像ベースの入力デバイスを示している。カメラ400は、ユーザ(図示省略)がカメラに向かってジェスチャを行う視野410を有する。カメラ400は、プロセッサ430への(有線の又は無線)接続420を有する。プロセッサ430は、カメラ400により取り込まれた画像を解析し、仮想平面200における第1のユーザ入力接触点230及び第2のユーザ入力接触点240を検出する。一例として、カメラ400は、立体的なものであってもよく、プロセッサ430が仮想平面200における第1のユーザ入力接触点230と第2のユーザ入力接触点240との間の距離、同様に、第1のユーザ入力接触点230から第2のユーザ入力接触点240までの第1の仮想ライン(図示省略)と第1のユーザ入力接触点230から仮想平面200における予め規定された仮想基準点(図示省略)までの第2の仮想ライン(図示省略)との間の角度をより正確に決定するのを可能にする三次元画像を生成してもよい。プロセッサ430は、決定された距離に基づいて、値の斯様な範囲のセットから、値の範囲を更に選択し、決定された角度に基づいて、値の範囲内において、値をユーザ入力として選択する。プロセッサ430とユーザデバイス450との間の(有線又は無線)接続440を介して、ユーザ入力として選択された値は、ユーザデバイス450に送信され得る。一例として、ユーザデバイス450はテレビであってもよく、ユーザにより行われるジェスチャは範囲(例えばテレビチャンネル又はTVボリューム設定)及び選択された範囲内の値(例えば"チャンネル1...チャンネル20"又は"サウンドオフ、低ボリューム...高ボリューム")の選択を可能にする。他の例として、ユーザデバイス450は、壁に取り付けられた時計であってもよく、ジェスチャは、ユーザが範囲(例えば時間又は分)及び値(例えば"00〜23時間"又は"00〜59分")を選択することにより時間をセットするのを可能にする。カメラ400及びプロセッサ430は、例えば、ユーザデバイス450(例えばTV、壁に取り付けられた時計)において一体化されてもよく、又は、カメラを有する(スマート)フォンにおいて実装されてもよい。
図5は、本発明の方法による値をユーザ入力として受信するためのタッチセンサ式スクリーン510を有するタブレットコンピュータ500を示している。ユーザは、第1の指210及び第2の指220によってタッチセンサ式スクリーン510にタッチする。図は、ユーザが各手の1つの指210,220によってタッチセンサ式スクリーン510にタッチしていることを示しているが、同じ手からの指が用いられてもよく、又は、2人のユーザが各々1つの指を用いてもよい。更なる例において、複数の指が用いられ、他の身体部分が用いられ、又は、スタイラスのようなデバイスが指の代わりに若しくはそれに加えて用いられる。タブレットコンピュータ500は、タッチセンサ式スクリーン510を介して第1のユーザ入力接触点230及び第2のユーザ入力接触点240を検出し、本発明の方法に従って値をユーザ入力として選択する。選択された値は、例えば、アプリケーション又はシステムメニューにおける対話スクリーンにおけるユーザ入力として用いられてもよい。更なる例として、ユーザ入力は、ユーザインタフェースがタッチセンサ式スクリーン510上に表示されることなく、タブレットコンピュータ500の設定(例えば、ボリューム、輝度)を変えるために用いられてもよい(例えば、スクリーン510がオフになってもよく、又は、スクリーン510上に示されたユーザインタフェースがジェスチャにより実行された動作に関連しない)。更なる例として、ユーザが、ジェスチャを用いて第1の選択を行い、その後、物理ボタン(520)を用いて値を減少させ、物理ボタン(522)を用いて値を増大させ、物理ボタン(521)を用いて値を最終的なユーザ入力として選択するときのように、タブレットコンピュータ(500)は、ユーザが値の選択を微調整するのを可能にする物理ボタン(520,521,522)を有してもよい。
図6A、6B、6C、6Dは、本発明の方法による、ユーザがタブレットコンピュータ500を介して値をユーザ入力として供給する複数のステップを示している。第1のステップ(図6A)において、タブレットコンピュータ500は、タッチセンサ式スクリーン510を介してボタン600を与える。このボタンは、可視であってもよく、又は、不可視であってもよい(例えば"hot zone")。ユーザがボタン600(図6B)にタッチしたとき、現在の値610が示される("01:45")。この例において、現在の値610は、1時間45分からゼロまでカウントダウンするように設定された時間関数である(例えばクッキングタイマー)。2つ要素620,630がタッチセンサ式スクリーン510上に表示され、各要素は値の範囲に関連する。表示された第1の要素620は、第1のユーザ入力接触点230が検出されたボタン600を部分的に取り囲む。表示された第2の要素630は、第1の要素620を部分的に取り囲む。第1の要素620は、この例において、15分ずつ分を選択することに関連する4つの値を示す("0分"、"15分"、"30分"及び"45分")。表示された第2の要素は、この例において、時間を選択することに関連する8つの値を示す("0、1...6,7時間")。
次のステップ(図6C)において、ユーザは、第1の要素620において第2のユーザ入力接触点240を生成するために第2の指220を用いる。第1のユーザ入力接触点230及び第2のユーザ入力接触点240は、この例において、タッチセンサ式スクリーン510の表面(の部分)である仮想平面200に配置される。この例において、ユーザは、表示された第1の要素に関連する範囲"15分ずつ増加する分"から値"30分"を選択する。そして、ユーザは、タッチセンサ式スクリーン510上に表示された第2の要素630のエリアまで第2のユーザ入力接触点240を移動させる(図6D)。これにより、ユーザは、この第2の表示された要素630に関連する範囲("0,1...6,7時間")から値"3時間"を選択する。値の範囲からの値の各選択の後、現在の値610が更新される。即ち、最初に、値"30分"が選択されるので"01:45"から"01:30"に、そして、値"3時間"が選択されるので"01:30"から"03:30"に更新される。そして、ユーザは、テーブルコンピュータ500のタッチセンサ式スクリーン510から離れるように第1の指210及び第2の指220の指を移動させることができ(図示省略)、その後、タブレットコンピュータ500は第1のステップ(図6A)に進む。
前述の実施形態は、本発明を制限するよりはむしろ例示であり、当業者は、特許請求の範囲から逸脱することなく代替実施形態を設計することが可能であることに留意すべきである。請求項において、括弧内の任意の参照符号は、請求項を限定するものとして解釈されるべきではない。"有する"という用語は、請求項に記載されていない要素又はステップの存在を除外するものではない。要素の単数表記は斯様な要素の複数の存在を除外するものではない。幾つかの手段を列挙しているユニットに係る請求項において、これらの手段の幾つかは、ハードウェアの全く同一のアイテムにより具現化されてもよい。第1、第2及び第3等の使用は、任意の順序を示すものではない。これらの用語は名前と解釈されるべきである。動作の特定のシーケンスは、詳細に示されない限り要求されることを意図されない。

Claims (14)

  1. 値をユーザ入力として受信するための方法であって、
    仮想平面において、ユーザ入力接触点をジェスチャ入力デバイスを介して検出するステップと、
    前記仮想平面において、基準点と前記ユーザ入力接触点との間の距離を決定するステップと、
    前記仮想の平面において、前記基準点から前記ユーザ入力接触点までの第1の仮想ラインと第1のユーザ入力接触点から前記仮想平面における予め規定された仮想基準点までの第2の仮想ラインとの間の角度を決定するステップと、
    決定された距離に基づいて値の斯様な範囲のセットから値の範囲を選択するステップと、
    決定された角度に基づいて、値の選択された範囲内において、値をユーザ入力として選択するステップとを有し、
    前記基準点は、追加のユーザ入力接触点であり、
    前記追加のユーザ入力接触点及び前記ユーザ入力接触点は、それぞれ、第1及び第2のユーザ入力接触点を規定する、方法。
  2. 前記ジェスチャ入力デバイスは、少なくとも2つの同時タッチ入力を検出するように構成されたタッチ入力デバイスであり、
    前記仮想平面における前記第1及び第2のユーザ入力接触点は、それぞれ前記タッチ入力デバイス上の第1及び第2のユーザ入力接触点である、請求項1に記載の方法。
  3. 前記ジェスチャ入力デバイスは、ユーザの手のジェスチャを検出するために画像を取り込むように構成された画像ベースの入力デバイスであり、
    前記仮想平面における第1及び第2のユーザ入力接触点は、それぞれ、前記画像ベースの入力デバイスにより取り込まれた画像の解析を介して決定される、第1及び第2の指の位置である、請求項1に記載の方法。
  4. 第1の位置から第2の位置への第2のユーザ入力接触点の運動を検出するステップを更に有し、
    値の斯様な範囲のセットから値の範囲を選択するステップに関して、前記第1の位置又は前記第2の位置は、前記距離を決定することにおいて前記第2のユーザ入力接触点として利用され、
    値の選択された範囲内において値をユーザ入力として選択するステップに関して、前記第2の位置又は前記第1の位置は、それぞれ、前記角度を決定することにおいて前記第2のユーザ入力接触点として利用される、請求項1−3のうちいずれか一項に記載の方法。
  5. 第2のユーザ入力接触点の第1の位置から第2の位置への第1の運動を検出するステップと、
    第2のユーザ入力接触点の第2の位置から第3の位置への第2の運動を検出するステップとを有し、
    値の斯様な範囲のセットから値の範囲を選択するステップに関して、前記第2の位置又は前記第3の位置は、前記距離を決定することにおいて前記第2のユーザ入力接触点として利用され、
    値の選択された範囲内において値をユーザ入力として選択するステップに関して、前記第3の位置又は前記第2の位置は、前記角度を決定することにおいて前記第2のユーザ入力接触点として利用される、請求項1−3のうちいずれか一項に記載の方法。
  6. 検出された運動の中断、検出された運動の速度の変動、検出された運動の方向の変動、及び/又は、検出された第2のユーザ入力接触点における圧力の変化のうちいずれか1つが生じたときに、前記第1の運動の検出が終了し、前記第2の運動の検出を開始する、請求項5に記載の方法。
  7. 値をユーザ入力として選択するステップは、前記ユーザ入力接触点のうち少なくとも1つがもはや検出されなくなるまで遅延される、請求項1−6のうちいずれか一項に記載の方法。
  8. 計算された距離が予め決められた閾値より小さい、計算された距離が予め決められた閾値より大きい、計算された角度が予め決められた閾値より小さい、計算された角度が予め決められた閾値より大きい、第1又は第2のユーザ入力接触点の検出の期間が予め決められた閾値より小さい、第1又は第2のユーザ入力接触点の検出の期間が予め決められた閾値より大きい、のうちいずれか1つが生じたときに、値をユーザ入力として選択するステップがスキップされ、キャンセルされ、反転され、又は、デフォルト値が選択される、請求項1−7のうちいずれか一項に記載の方法。
  9. 値の斯様な範囲のセットからの値の少なくとも1つの範囲又は前記範囲内の少なくとも1つの値の視覚的表現を表示するためのユーザインタフェースを生成するステップを更に有する、請求項1−8のうちいずれか一項に記載の方法。
  10. 前記ユーザインタフェースは、前記第1のユーザ入力接触点を少なくとも部分的に囲む、複数の表示された要素を有し、前記表示された要素の各々は、値の斯様な範囲のセットからの値の少なくとも1つの範囲の少なくとも部分を表す、請求項9に記載の方法。
  11. 前記仮想平面において少なくとも1つの追加のユーザ入力接触点を検出するステップを更に有し、
    値がユーザ入力として選択され得る、斯様な範囲のセットからの、値の少なくとも1つの範囲における値の精度は、検出されるユーザ入力接触点の数に基づく、請求項1−10のうちいずれか一項に記載の方法。
  12. 値をユーザ入力として受信するためのタッチ入力デバイスであって、
    タッチセンサ式スクリーンと、
    複数のユーザ入力接触点を検出するように構成された、前記タッチセンサ式スクリーンに結合されたプロセッサとを有し、
    前記プロセッサは、請求項1−11のうちいずれか一項に記載の方法のステップを実行するように更に構成される、タッチ入力デバイス。
  13. 値をユーザ入力として受信するための画像ベースの入力デバイスであって、
    画像を取り込むためのカメラと、
    複数のユーザ入力接触点を検出するために前記画像を受信及び処理するように構成された、前記カメラに結合されたプロセッサとを有し、
    前記プロセッサは、請求項1−11のうちいずれか一項に記載の方法のステップを実行するように更に構成される、画像ベースの入力デバイス。
  14. 値をユーザ入力として受信するためのコンピュータプログラム製品であって、コンピュータ上で実行されたときに請求項1−11のうちいずれか一項に記載の方法のステップを実行するためのソフトウエアコード部分を有する、コンピュータプログラム製品。
JP2016542341A 2013-09-17 2014-09-16 範囲及び値のジェスチャ対応同時選択 Pending JP2016530659A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13184772 2013-09-17
EP13184772.5 2013-09-17
PCT/EP2014/069704 WO2015040020A1 (en) 2013-09-17 2014-09-16 Gesture enabled simultaneous selection of range and value

Publications (1)

Publication Number Publication Date
JP2016530659A true JP2016530659A (ja) 2016-09-29

Family

ID=49223597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016542341A Pending JP2016530659A (ja) 2013-09-17 2014-09-16 範囲及び値のジェスチャ対応同時選択

Country Status (5)

Country Link
US (1) US20160196042A1 (ja)
EP (1) EP3047354A1 (ja)
JP (1) JP2016530659A (ja)
CN (1) CN105531646A (ja)
WO (1) WO2015040020A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10705701B2 (en) 2009-03-16 2020-07-07 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US10706096B2 (en) 2011-08-18 2020-07-07 Apple Inc. Management of local and remote media items
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US10088989B2 (en) * 2014-11-18 2018-10-02 Duelight Llc System and method for computing operations based on a first and second user input
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
CN103823596A (zh) * 2014-02-19 2014-05-28 青岛海信电器股份有限公司 一种触摸事件扫描方法及装置
US9690478B2 (en) * 2014-03-04 2017-06-27 Texas Instruments Incorporated Method and system for processing gestures to cause computation of measurement of an angle or a segment using a touch system
JP6328797B2 (ja) 2014-05-30 2018-05-23 アップル インコーポレイテッド 1つのデバイスの使用から別のデバイスの使用への移行
GB2530713A (en) * 2014-08-15 2016-04-06 Myriada Systems Ltd Multi-dimensional input mechanism
CN110072131A (zh) 2014-09-02 2019-07-30 苹果公司 音乐用户界面
GB2537348A (en) * 2015-03-23 2016-10-19 Motivii Ltd User input mechanism
US10929008B2 (en) 2015-06-05 2021-02-23 Apple Inc. Touch-based interactive learning environment
US9740384B2 (en) * 2015-06-25 2017-08-22 Morega Systems Inc. Media device with radial gesture control and methods for use therewith
US10289206B2 (en) * 2015-12-18 2019-05-14 Intel Corporation Free-form drawing and health applications
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
KR20180037721A (ko) * 2016-10-05 2018-04-13 엘지전자 주식회사 디스플레이 장치
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
CN110221735B (zh) * 2018-03-02 2021-03-12 Oppo广东移动通信有限公司 图标处理方法、装置以及移动终端
KR102478031B1 (ko) * 2018-03-08 2022-12-16 삼성전자주식회사 외부 장치와의 연결을 위한 전자 장치 및 방법
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US11620103B2 (en) 2019-05-31 2023-04-04 Apple Inc. User interfaces for audio media control
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11392291B2 (en) * 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005050177A (ja) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd 非接触式情報入力装置
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
JP2006034754A (ja) * 2004-07-29 2006-02-09 Nintendo Co Ltd タッチパネルを用いたゲーム装置およびゲームプログラム
US20080186808A1 (en) * 2007-02-07 2008-08-07 Lg Electronics Inc. Electronic device with a touchscreen displaying an analog clock
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP2011076233A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
JP2011253468A (ja) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
US20120092267A1 (en) * 2010-10-15 2012-04-19 Sap Ag Touch-enabled circle control for time and date entry
JP2012123461A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 電子機器
JP2013008326A (ja) * 2011-06-27 2013-01-10 Canon Inc 画像処理装置及びその制御方法
JP2013065295A (ja) * 2011-08-29 2013-04-11 Kyocera Corp 装置、方法、及びプログラム
WO2013121459A1 (ja) * 2012-02-16 2013-08-22 古野電気株式会社 情報表示装置、表示モード切替方法及び表示モード切替プログラム
US20140245226A1 (en) * 2011-10-19 2014-08-28 Siemens Aktiengesellschaft Display and operating device

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7138983B2 (en) * 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
GB0031617D0 (en) * 2000-12-27 2001-02-07 Koninkl Philips Electronics Nv A method of providing a display for a graphical user interface
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US7296227B2 (en) * 2001-02-12 2007-11-13 Adobe Systems Incorporated Determining line leading in accordance with traditional Japanese practices
CN1639766A (zh) * 2002-02-26 2005-07-13 西奎公司 具有精调和粗调输入分辨率的触摸板
US7466307B2 (en) * 2002-04-11 2008-12-16 Synaptics Incorporated Closed-loop sensor on a solid-state object position detector
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
US7564449B2 (en) * 2006-06-16 2009-07-21 Cirque Corporation Method of scrolling that is activated by touchdown in a predefined location on a touchpad that recognizes gestures for controlling scrolling functions
US7907125B2 (en) * 2007-01-05 2011-03-15 Microsoft Corporation Recognizing multiple input point gestures
US7941765B2 (en) * 2008-01-23 2011-05-10 Wacom Co., Ltd System and method of controlling variables using a radial control menu
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US8174504B2 (en) * 2008-10-21 2012-05-08 Synaptics Incorporated Input device and method for adjusting a parameter of an electronic system
US9361009B2 (en) * 2010-12-01 2016-06-07 Adobe Systems Incorporated Methods and systems for setting parameter values via radial input gestures
US9547428B2 (en) * 2011-03-01 2017-01-17 Apple Inc. System and method for touchscreen knob control
FR2999725B1 (fr) * 2012-12-18 2015-01-23 Thales Sa Procede de reglage d'un secteur de cision/masquage d'un dispositif de scrutation d'environnement, dispositif de reglage et terminal d'operateur correspondants

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005050177A (ja) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd 非接触式情報入力装置
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
JP2006034754A (ja) * 2004-07-29 2006-02-09 Nintendo Co Ltd タッチパネルを用いたゲーム装置およびゲームプログラム
US20080186808A1 (en) * 2007-02-07 2008-08-07 Lg Electronics Inc. Electronic device with a touchscreen displaying an analog clock
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP2011076233A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
JP2011253468A (ja) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
US20120092267A1 (en) * 2010-10-15 2012-04-19 Sap Ag Touch-enabled circle control for time and date entry
JP2012123461A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 電子機器
JP2013008326A (ja) * 2011-06-27 2013-01-10 Canon Inc 画像処理装置及びその制御方法
JP2013065295A (ja) * 2011-08-29 2013-04-11 Kyocera Corp 装置、方法、及びプログラム
US20140245226A1 (en) * 2011-10-19 2014-08-28 Siemens Aktiengesellschaft Display and operating device
WO2013121459A1 (ja) * 2012-02-16 2013-08-22 古野電気株式会社 情報表示装置、表示モード切替方法及び表示モード切替プログラム

Also Published As

Publication number Publication date
CN105531646A (zh) 2016-04-27
US20160196042A1 (en) 2016-07-07
EP3047354A1 (en) 2016-07-27
WO2015040020A1 (en) 2015-03-26

Similar Documents

Publication Publication Date Title
JP2016530659A (ja) 範囲及び値のジェスチャ対応同時選択
JP6785273B2 (ja) ウェアラブルデバイスを通じたレーダ型ジェスチャ認識
JP6791994B2 (ja) 表示装置
US20220229524A1 (en) Methods for interacting with objects in an environment
TWI658396B (zh) 介面控制方法和電子裝置
TWI509497B (zh) 可攜式裝置之操作方法及系統
US9354780B2 (en) Gesture-based selection and movement of objects
US20150138101A1 (en) Mobile terminal and control method thereof
US10514842B2 (en) Input techniques for virtual reality headset devices with front touch screens
KR20170098285A (ko) 웨어러블 기기의 스크린의 표시 방법 및 웨어러블 기기
JP2016511487A (ja) ジェスチャによるタッチ入力の向上
US20160091979A1 (en) Interactive displaying method, control method and system for achieving displaying of a holographic image
US20150186037A1 (en) Information processing device, information processing device control method, control program, and computer-readable recording medium
KR20090107152A (ko) 멀티 터치 시스템 및 그 구동 방법
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
WO2017051571A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
US20180210597A1 (en) Information processing device, information processing method, and program
US10248307B2 (en) Virtual reality headset device with front touch screen
US10599326B2 (en) Eye motion and touchscreen gestures
KR102480568B1 (ko) 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(ui)를 표시하는 장치 및 방법
TWI488068B (zh) 手勢控制方法及裝置
TW201729065A (zh) 以單點操作顯示螢幕介面方法
WO2024042041A1 (en) Touchless interaction enablement method, apparatus and retrofitting assembly
TW202121146A (zh) 觸控投影系統與其方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181016

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190123

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190308

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200204

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200407

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200601

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201006

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20201020

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201208

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201208