JP5734661B2 - ユーザインタフェースを提供する方法 - Google Patents

ユーザインタフェースを提供する方法 Download PDF

Info

Publication number
JP5734661B2
JP5734661B2 JP2010535487A JP2010535487A JP5734661B2 JP 5734661 B2 JP5734661 B2 JP 5734661B2 JP 2010535487 A JP2010535487 A JP 2010535487A JP 2010535487 A JP2010535487 A JP 2010535487A JP 5734661 B2 JP5734661 B2 JP 5734661B2
Authority
JP
Japan
Prior art keywords
user
user interface
body part
environment
observed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010535487A
Other languages
English (en)
Other versions
JP2011505624A (ja
Inventor
ルーカス ジェイ エフ ヘゥールツ
ルーカス ジェイ エフ ヘゥールツ
ギャヴィン エム プロクター
ギャヴィン エム プロクター
スチュアート アール ピル
スチュアート アール ピル
アンガス ディー ディック
アンガス ディー ディック
ダニエル ケイ ペズッティ
ダニエル ケイ ペズッティ
フロリス エム エイチ クロンプフッツ
フロリス エム エイチ クロンプフッツ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2011505624A publication Critical patent/JP2011505624A/ja
Application granted granted Critical
Publication of JP5734661B2 publication Critical patent/JP5734661B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、システムを制御するためのユーザインタフェースを提供する方法に関する。
また、本発明は、システムを制御するためのユーザインタフェースを提供するシステムに関する。
本発明は、コンピュータプログラムにも関する。
Vogel, D., Balakrishnan, R.による"Interactive public ambient displays: transitioning from implicit to explicit, public to personal, interaction with multiple users", Proc. 17th annual ACM symposium on user interface software and technology, 2004, pp. 137 146は、公共及び個人の双方の情報との黙示的なインタラクションから明示的なインタラクションへの遷移をサポートする共有可能なインタラクティブ公共アンビエントディスプレイのためのインタラクションフレームワークを開示している。ディスプレイ及びインタラクション技術は、身体方向やディスプレイへのユーザの接近のような黙示的な状況的手掛かり(implicit contextual cue)、及び、ハンドジェスチャやスクリーン入力のような明示的な動作を利用する。ユーザがディスプレイに接近して、ちょっとの間停止するような黙示的な手掛かりを与えるときには、システムは、敏感なインタラクション(subtle interaction)のフェーズに入るべきである。通知のより詳細な説明、及び/又は、利用可能な公共情報の現在の状態が表示される。
既知の方法の問題は、ユーザに提供された制御が比較的鈍感である点である。これらは、本質的に距離に依存して2進法の態様で提供されるからである。手掛かりの検出は、ユーザとディスプレイとの距離に依存して選択される異なる機能を提供する状態間の遷移をもたらすのに用いるだけである。
本発明の目的は、ユーザ動作に対して比較的敏感な手法で利用可能なユーザインタフェースの異なるバージョンを可能にする方法、システム、消費者向け電子システム及びコンピュータプログラムを提供することにある。
この目的は、デバイスの或る環境内のユーザの身体又は身体部分の存在を観察するステップと、前記或る環境内で観察されたユーザの身体又は身体部分の変位の割合に依存してユーザインタフェースにより制御されたシステムとインタラクトするための特定の機能に関して、ユーザインタフェースの少なくとも知覚可能な部分をユーザに対して利用可能にするステップとを含む、本発明による方法により達成される。
或る環境内で観察されたユーザの身体又は身体部分の変位の割合に依存してユーザインタフェースにより制御されたシステムとインタラクトするための特定の機能に関して、ユーザインタフェースの少なくとも知覚可能な部分をユーザに対して利用可能にすることにより、変位の割合は、入力パラメータ又は連続的若しくは準連続的に可変な種類の類似の入力パラメータになり、従って、ユーザにより与えられ得るユーザインタフェース構成の範囲が増大する。適切な構成だけがシステムの制御におけるその後の使用に対して利用可能にされるので、ユーザインタフェースの少なくとも知覚可能な部分は単純である。更に、ユーザインタフェースの適切な構成だけを利用可能にすることは、少なくとも大幅に性能を向上させる可能性を作り出す。変位の割合は、必ずしも計算される必要はない。ユーザインタフェースが一の区域から次の区域に変遷する、少なくとも3つの区域を用いることにより、同様の効果が達成され得る。身体部分は、例えば人の手であってもよい。
本方法の一実施形態は、或る環境内で観察されたユーザの身体又は身体部分の変位の割合の変化に応じて、ユーザインタフェースの少なくとも1要素の利用可能性の状態を変えるステップを含む。
ユーザインタフェースを雑然としないものにするか、又は、少なくともユーザ側での混乱の可能性を減少させるという効果がある。ユーザインタフェースは、より多くの認識要求がユーザに対して行われる状態(ユーザインタフェースの多くの要素が利用可能な場合)から、より少ない要求が行われる状態(要素が供給されない場合)に変化する。
一実施形態において、ユーザインタフェースの少なくとも知覚可能な部分は、ユーザの身体又は身体部分が或る環境内に存在するように観察される場所、及び、ユーザの身体又は身体部分の変位の割合に依存した態様で、ユーザに対して利用可能であることをもたらす。
ユーザがユーザインタフェースの構成に対して使うことができる制御の範囲を拡大するという効果がある。これは、2つの入力変数がその構成を調節するための入力として機能するからである。
本方法の一実施形態は、或る環境内で観察されたユーザの身体又は身体部分の変位の割合に依存した割合で、ユーザインタフェースの構成の少なくとも部分を調節するステップを含む。
(ユーザの身体部分の位置の)変化の一の割合が、(ユーザインタフェースの設定の)変化の他の割合に関連付けられるので、ユーザインタフェースをより直感的なものにするという効果がある。
一実施形態において、ユーザインタフェースは、可視的な出力を与えるためのデバイスを含み、本方法は、可視的な出力を構成するための信号を前記デバイスに供給するステップを含む。
ディスプレイデバイスを用いて提供されたインタフェースの外観を変えることが比較的簡単であるので、ユーザインタフェースを実装するのを容易にするという効果がある。
変化(variant)は、可視的な出力の要素に対応する、可視的な出力を与えるデバイスの部分の存在及びその接近のうち少なくとも一方を検出することを含む。
それ故、ユーザが観察システムに含まれたデバイスにどれくらい速く接近するかに少なくとも部分に依存して、タッチセンサ式制御のセットの構成が比較的容易に変えられる。
一実施形態は、身体又は身体部分の変位の割合により決定された割合で、特定の機能に関連付けられた可視的な出力の少なくとも1要素の可視性の状態を調節するステップを含む。
全体が見えるまでの遷移が段階的であるので、ユーザが予期せぬ結果を伴う行動を起こすのを阻止するという効果がある。変位の割合により決定された割合で変化する可視性の状態の形式についてのフィードバックの供給は、ユーザインタフェースが十分に敏感な態様で変化することを確実にする。変位の割合は、或る環境の範囲内の一の離れた区域から次の区域への遷移間の時間に関して決定された割合であってもよい。
一実施形態は、或る環境内で観察された身体又は身体部分の変位に依存して、ユーザインタフェースにより制御されたシステムのそれぞれ異なる動作に関連付けられた複数の制御のうちの1つの制御を与えるステップを含む。
関連性が移動する身体又は身体部分の変位を観察することにより評価される、関連性のある制御だけが利用可能にされるので、ユーザインタフェースを簡素化するという効果がある。
一実施形態において、ユーザインタフェースは、消費者向け電子システムのユーザインタフェースを制御するために提供される。
消費者向け電子システムは、比較的広範囲の入力情報に応答する再構成可能なユーザインタフェースをもつ。
他の態様によれば、本発明によるユーザインタフェースを提供するためのシステムは、デバイスの或る環境内のユーザの身体又は身体部分の存在を観察する観察要素からの少なくとも1つの信号を処理する信号処理要素と、前記或る環境内で観察されたユーザの身体又は身体部分の変位の割合に依存して前記ユーザインタフェースにより制御された当該システムとインタラクトするための特定の機能に関して、前記ユーザインタフェースの少なくとも知覚可能な部分をユーザに対して利用可能にする制御要素とを含む。
本システムは、より広い範囲の入力を処理することが可能なので、バイナリシステムよりも敏感である。
一実施形態において、当該システムは、本発明による方法を実行するように設けられる。
本発明の他の態様によれば、マシン読み取り可能な媒体に組み込まれたときに、本発明による方法を実行するための情報処理能力をもつシステムをもたらし得る命令のセットを含むコンピュータプログラムが提供される。
本発明は、添付図面を参照してより詳細に説明されるだろう。
ホームエンタテイメントシステムの非常に概略的なブロック図である。 ホームエンタテイメントシステムのユーザインタフェースの機能を示す状態図である。 コーヒーメーカを制御するためのユーザインタフェースを備えたコーヒーメーカの部分の単純な図である。
図1に示されるように、ホームエンタテイメントシステム1は、メディアプレーヤ2及びテレビ3を含む。ホームエンタテイメントシステム1は、更に、ポータブルメディアプレーヤ5のためのドッキングステーション4を含む。
ホームエンタテイメントシステム1は、ハブ6により少なくとも部分的に制御される。ハブ6は、ユーザインタフェースが提供されるのを可能にするソフトウェアを実行するためのデータ処理ユニット7及びメインメモリ8を含む。ソフトウェアは、ユーザインタフェースの幾つかの構成を規定するデータとともにデータ格納デバイス9に格納される。ユーザインタフェースは、ユーザがシステムを操作することを可能にする入力手段と、システムがユーザの操作の効果を表す情報を伝えることを可能にする出力手段とを含む、人々がホームエンタテイメントシステム1とインタラクトすることが可能な手段のアセンブリを有する。
示された実施形態において、出力手段は、可聴的な出力を与えるためのスピーカ10と、可視的な出力を与えるためのディスプレイデバイス11とを含む。ディスプレイデバイス11は、或る他のオブジェクトを保持している身体部分(又は身体全体)が近接近又は接触の関係で保持される、ディスプレイデバイス上での位置を決定するためのデバイス13を更に含むタッチスクリーンデバイス12に含まれる。
ハブ6は、赤外線変換器14、超音波変換器15及びカメラ16に動作可能なように接続されている。赤外線変換器14は、超音波変換器15よりも長い距離でオブジェクトを検出することが可能であり、カメラ16よりも広い範囲に対して順次動作する。図1に示されたものとは異なる他の実施形態は、ユーザの身体部分の存在のためのハブ6の環境の少なくとも部分を観察するためのこれらのデバイスの全てよりも少ないデバイスを使用してもよい。他の実施形態において、ユーザの身体部分の存在は、ユーザにより保持されたタグ又はユーザによる警告(warn)の存在を決定することにより、間接的にのみ観察される。実際には、示された実施形態において、ドッキングステーション4は、ポータブルメディアプレーヤ5のドッキングステーション4への接近を観察するための、それ故にポータブルメディアプレーヤを保持する手の接近を間接的に観察するための距離センサ17を含む。
ハブ6は、赤外線変換器14、超音波変換器15、カメラ16及び距離センサ17により供給された少なくとも1つの信号を処理し、ユーザインタフェースの少なくとも1つの要素が、ハブ6の或る環境内で観察された移動身体部分の変位の割合に依存した態様でユーザに対して利用可能にされることをもたらす。より詳細には、接近の速度は、ユーザインタフェースの或る要素が出力手段であるか又はユーザ制御であるか、ユーザインタフェースの或る要素に関与するのはどの程度までか、及び、ユーザインタフェースの或る要素に関与するのはどのモードなのかのうち少なくとも1つを決定する変数として用いられる。
ユーザを混乱させない、及び、雑然としていると思わせる不明瞭なインタフェースをもたない、目に働きかけるグラフィカルユーザインタフェースを提供するために、ハブ6は、通常、ディスプレイデバイス11のための全ての可視的な出力をユーザから隠す。赤外線変換器14、超音波変換器15及びカメラ16は、ハブの所与の周辺内におけるユーザの身体又は身体部分の存在、距離(状態18)及び移動方向(状態19)を検出するために連続的に用いられる。これらのデバイスの1又はそれ以上のデバイスからの信号に基づいて、移動する身体部分の接近の速度が決定される(状態20)。
一例において、インタフェースは、ユーザの身体部分がハブ6の或る範囲r2内において検出されるとアクティブになる。
図2に示されるように、オーディオ出力の利用可能性の状態は、身体部分が範囲内にあり、所与の閾値v1よりも大きい速度(変位の割合)で接近することを決定することに基づいて変えられる(状態21)。示された実施形態においては、スピーカ10がオフにされる。
そうでなければ、信号は、少なくとも接近速度(即ち変位の割合)に依存してディスプレイデバイス11上に可視的な出力を構成するためにタッチスクリーンデバイス12に供給される。図2に示されるように、ディスプレイデバイス11のスクリーンの一部は、可視的な出力の特定の要素に対応し、指又はタッチペンのスクリーンの部分での存在及びその部分への接近が検出可能であり、従って、ユーザ制御が提供される。示された実施形態において、それぞれがメディアプレーヤ2の異なる動作に関連付けられた2つの制御C1,C2のうち一方が提供される。どちらか一方の制御は、ユーザの手足又はユーザにより保持された器具の接近速度に依存して提供される。接近速度が、第2の閾値v2よりも大きい場合には、2つの制御のうちの第2の制御がタッチスクリーンデバイス12上に示される(状態22)。そうでなければ、第1の制御C1が示される(状態23)。
第1の制御は、ハブ6への接近速度に依存した時間的に変化する態様で示される。ハブ6は、適切な信号をディスプレイデバイス11に供給することにより、接近速度に依存して第1の制御がフェードインされる速度を変える。それ故、ユーザインタフェースのグラフィカル部分の構成は、観察された変位の割合に依存した割合で調節される。
変形例において、同様の原理は、ポータブルメディアプレーヤ5がドッキングステーション4に配置されるときにフィードバックを供給するために適用される。ドッキングステーション4は、照明効果を与えるための照明デバイス26を有する。ポータブルメディアプレーヤ5がドッキングステーション4に接近する割合に依存して、光出力が増大される。接近速度が或る閾値を超える場合には、異なる照明効果が選択される。例えば、照明デバイス26は、点滅照明効果を与える。
他の変形例において、接近速度は、直接計算されないが、ユーザインタフェースにより制御されたシステムとインタラクトするための特定の機能に関してユーザインタフェースの少なくとも知覚可能な部分をユーザに対して利用可能にするステップは、或る環境内で観察されたユーザの身体又は身体部分の変位の割合に間接的に依存する。前記変位は、ステージ/区域において決定される。特に、照明デバイス26により供給された照明効果の可視性の状態は、ポータブルメディアプレーヤ2が複数の距離閾値のそれぞれと交差する割合で調節される。これは、距離センサ17が距離閾値の交差を感知し、照明デバイス26がリアルタイム又は準リアルタイムに調節される際に本質的に生ずる。
ユーザインタフェースを備えたデバイスの簡単な例に続き、図3は、コーヒーメーカ27を示している。メカニカルスイッチ28は、コーヒーメーカ27を制御するためのユーザインタフェースの知覚可能な部分を構成する。コントローラ29は、ユーザの手がスイッチ28に接近する割合を決定するために、スイッチ及びセンサ30から信号を受信する。接近の割合が或る閾値レベルよりも高い場合には、コントローラ29は、熱水管(図示省略)内のバルブ31を調節する。接近速度が或る閾値レベルよりも低い場合には、コントローラ29は、加熱デバイス33のためのレギュレータ32を活性化又は非活性化する信号を供給する。それ故、スイッチ28を押すための素早い動作は、その関与が第1の動作(コーヒーの注入を停止)をもたらすような態様でスイッチ28が提供されるべきであるという手掛かりとして機能する。遅い動作は、スイッチに取り付けられた機能がコーヒーメーカ27をオン又はオフにすることを可能にするために変化されるべきであるという手掛かりとして機能する。ユーザインタフェースを使用するのを容易にするために、スイッチ28の現在の機能は、スイッチ上のOLED表示デバイス34により示される。
詳細に前述された実施形態において、制御されるべきシステムの機能に対して知覚可能なフィードバックを供給するユーザインタフェースの要素、若しくは、ユーザがシステムを制御するための入力を供給するのを可能にする要素のいずれか、又は、これらの双方は、ユーザの身体又は身体部分が接近するのを観察される速度に依存した態様で与えられる。より広範囲のユーザインタフェース構成が、ユーザにより実際に把握されるユーザインタフェースの明確さを削減することなく提供され得る。
全ての変形例において、ユーザインタフェースにより制御されたシステムとインタラクトするための特定の機能に関してユーザインタフェースの少なくとも知覚可能な部分をユーザに対して利用可能にするプロセスは、或る環境内で観察されたユーザの身体又は身体部分の変位の割合に依存して適合される。その適合は、ユーザインタフェースの特定の知覚可能な部分に関して異なる機能を利用可能にするか、特定の機能と組みわせてユーザインタフェースの知覚可能な部分の異なる組み合わせを利用可能にするか、又は、ユーザインタフェースの知覚可能な部分と特定の機能性との固定した組み合わせが利用可能にされる態様、例えばユーザインタフェースの視覚的に知覚可能な部分をフェードインする態様を適合することをもたらしてもよい。
前述された実施形態は、本発明を限定するよりむしろ例示であり、当業者は、特許請求の範囲から逸脱することなく多くの代替実施形態を設計することができることに留意すべきである。特許請求の範囲において、括弧内の如何なる参照符号も特許請求の範囲を限定するものとして考慮されるべきではない。"有する"という用語の使用及びその活用は、特許請求の範囲に記載されたもの以外の要素又はステップの存在を除外するものではない。要素の単数表記は、斯様な要素の複数の存在を除外するものではない。本発明は、幾つかの別個の要素を有するハードウェアにより、及び、適切にプログラムされたコンピュータにより実行されてもよい。幾つかの手段を列挙しているデバイスに係る請求項において、これらの手段の幾つかは、一及び同一アイテムのハードウェアにより具現されてもよい。或る手段が相互に異なる従属請求項に記載されるという単なる事実は、これらの手段の組み合わせが有利に用いられ得ないことを示すものではない。
他の実施形態において、タッチスクリーンデバイス12を用いる代わりに、デバイスの表面は、グラフィックスを表示するために、電子インク又は電気湿潤ディスプレイ技術に基づくディスプレイデバイスを備え得る。赤外線変換器14、超音波変換器15又はカメラ16の代わりに、接近感知は、RFID又は他の無線伝送技術を用いて実行され得る。
"手段"は、当業者により明らかになるように、単独で又は他の機能と組み合わせて、分離して又は他の要素と協働して、動作中に実行するか、又は、特定の機能を実行するように設計される、如何なるハードウェア(別個又は一体の回路又は電子要素等)又はソフトウェア(プログラム又はプログラムの部分等)も含むことを意味する。"コンピュータプログラム"は、オプティカルディスク、インターネット等のネットワークを介してダウンロード可能なもの、又は、任意の他の態様の商品のような、コンピュータ読み取り可能な媒体上に格納されたいずれかのソフトウェアプロダクトを意味すると理解されるべきである。

Claims (10)

  1. デバイスを制御するためのユーザインタフェースを提供する方法であって、
    る環境内のユーザの身体又は身体部分の前記デバイスに対する接近速度を観察するステップと、
    前記デバイスの異なる動作に関連付けられた少なくとも2つの制御のうち1つの制御を、前記ユーザインタフェースの少なくとも知覚可能な部分を介して前記ユーザに対して提供するステップとを含み、
    前記少なくとも2つの制御のうち1つの制御は、前記或る環境内で観察された前記ユーザの身体又は身体部分の前記デバイスに対する接近速度が閾値よりも大きい場合に選択され、前記少なくとも2つの制御のうち他の制御は、そうではない場合に選択される、方法。
  2. 前記或る環境内で観察された前記ユーザの身体又は身体部分の前記デバイスに対する接近速度に応じて、前記ユーザインタフェースの少なくとも1要素の利用可能性の状態を変えるステップを含む、請求項1に記載の方法。
  3. 前記ユーザインタフェースの前記少なくとも知覚可能な部分は、前記ユーザの身体又は身体部分が前記或る環境内に存在するのを観察された位置、及び、前記ユーザの身体又は身体部分の接近速度に依存する態様で、前記ユーザに対して利用可能である、請求項1に記載の方法。
  4. 前記或る環境内で観察された前記ユーザの身体又は身体部分の前記デバイスに対する接近速度に依存した割合で、前記ユーザインタフェースの構成の少なくとも部分を調節するステップを含む、請求項1に記載の方法。
  5. 前記ユーザインタフェースは、可視的な出力を与えるためのデバイスを含み、
    当該方法は、前記可視的な出力を構成するための信号を前記可視的な出力を与えるためのデバイスに供給するステップを含む、請求項1に記載の方法。
  6. 前記或る環境内で観察された前記ユーザの身体又は身体部分の前記デバイスに対する接近速度により決定された割合で、特定の機能に関連付けられた前記可視的な出力の少なくとも1要素の可視性の状態を調節するステップを含む、請求項5又は請求項6に記載の方法。
  7. 前記或る環境内で観察された前記ユーザの身体又は身体部分の前記デバイスに対する接近速度に依存して前記ユーザインタフェースにより制御された前記デバイスのそれぞれ異なる動作に関連付けられた複数の制御のうち1つの制御を提供するステップを含む、請求項1に記載の方法。
  8. 前記ユーザインタフェースは、消費者向け電子システムのユーザインタフェースを制御するために設けられる、請求項1に記載の方法。
  9. る環境内のユーザの身体又は身体部分の当該デバイスに対する接近速度を観察するための観察要素からの少なくとも1つの信号を処理する信号処理要素と、
    ユーザインタフェースにより制御された当該デバイスとインタラクトするために、当該デバイスの異なる動作に関連付けられた少なくとも2つの制御のうち1つの制御を、前記ユーザインタフェースの少なくとも知覚可能な部分を介してユーザに対して提供する制御要素とを含み、
    前記少なくとも2つの制御のうち1つの制御は、前記或る環境内で観察された前記ユーザの身体又は身体部分の当該デバイスに対する接近速度が閾値よりも大きい場合に選択され、前記少なくとも2つの制御のうち他の制御は、そうではない場合に選択される、デバイス
  10. マシン読み取り可能な媒体に組み込まれたときに、情報処理能力をもつシステムに、請求項1〜8のうちいずれか一項に記載された方法を実行させることが可能な命令のセットを含む、コンピュータプログラム。
JP2010535487A 2007-11-29 2008-11-21 ユーザインタフェースを提供する方法 Active JP5734661B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP07121839.0 2007-11-29
EP07121839 2007-11-29
PCT/IB2008/054892 WO2009069050A1 (en) 2007-11-29 2008-11-21 Method of providing a user interface

Publications (2)

Publication Number Publication Date
JP2011505624A JP2011505624A (ja) 2011-02-24
JP5734661B2 true JP5734661B2 (ja) 2015-06-17

Family

ID=40377126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010535487A Active JP5734661B2 (ja) 2007-11-29 2008-11-21 ユーザインタフェースを提供する方法

Country Status (6)

Country Link
US (2) US8881064B2 (ja)
EP (1) EP2227729B1 (ja)
JP (1) JP5734661B2 (ja)
KR (1) KR101537524B1 (ja)
CN (1) CN101878463B (ja)
WO (1) WO2009069050A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8648825B2 (en) 2010-10-01 2014-02-11 Z124 Off-screen gesture dismissable keyboard
US8686951B2 (en) 2009-03-18 2014-04-01 HJ Laboratories, LLC Providing an elevated and texturized display in an electronic device
US20110199342A1 (en) * 2010-02-16 2011-08-18 Harry Vartanian Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound
EP2395413B1 (en) * 2010-06-09 2018-10-03 The Boeing Company Gesture-based human machine interface
US20120084737A1 (en) 2010-10-01 2012-04-05 Flextronics Id, Llc Gesture controls for multi-screen hierarchical applications
KR101646616B1 (ko) * 2010-11-30 2016-08-12 삼성전자주식회사 객체 제어 장치 및 방법
KR20230003896A (ko) * 2021-06-30 2023-01-06 삼성전자주식회사 지식 그래프를 이용하여 사용자의 상태 및 신체 부위의 사용량을 인식하기 위한 전자 장치 및 방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2695745B1 (fr) 1992-09-15 1994-10-28 Sextant Avionique Procédé de dialogue gestuel multimode dans un environnement virtuel.
JPH06274270A (ja) 1993-03-10 1994-09-30 Roehm Properties Bv 仮想現実空間データ入力装置
JP3521456B2 (ja) * 1993-11-25 2004-04-19 カシオ計算機株式会社 画像表示制御装置および画像表示制御方法
US5704836A (en) * 1995-03-23 1998-01-06 Perception Systems, Inc. Motion-based command generation technology
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7358956B2 (en) 1998-09-14 2008-04-15 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US6616284B2 (en) * 2000-03-06 2003-09-09 Si Diamond Technology, Inc. Displaying an image based on proximity of observer
US20020075334A1 (en) * 2000-10-06 2002-06-20 Yfantis Evangelos A. Hand gestures and hand motion for replacing computer mouse events
GB0118020D0 (en) * 2001-07-24 2001-09-19 Memco Ltd Door or access control system
US7047500B2 (en) * 2001-11-16 2006-05-16 Koninklijke Philips Electronics N.V. Dynamically configurable virtual window manager
GB2406634A (en) 2003-10-02 2005-04-06 Mathmos Ltd An object sensing lighting apparatus
DE112006000785T5 (de) * 2005-04-01 2008-02-14 Abb Research Ltd. Verfahren und System für das Liefern einer Benutzerschnittstelle
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
US7620316B2 (en) * 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
TWI348639B (en) * 2005-12-16 2011-09-11 Ind Tech Res Inst Motion recognition system and method for controlling electronic device
US7937667B2 (en) * 2006-09-27 2011-05-03 Donnelly Corporation Multimedia mirror assembly for vehicle
US8904312B2 (en) * 2006-11-09 2014-12-02 Navisense Method and device for touchless signing and recognition
US20080143559A1 (en) * 2006-12-18 2008-06-19 Dietz Paul H Appliance Control Panel
US20080256494A1 (en) * 2007-04-16 2008-10-16 Greenfield Mfg Co Inc Touchless hand gesture device controller
US8669938B2 (en) * 2007-11-20 2014-03-11 Naturalpoint, Inc. Approach for offset motion-based control of a computer

Also Published As

Publication number Publication date
US20140310621A1 (en) 2014-10-16
CN101878463B (zh) 2013-07-31
EP2227729A1 (en) 2010-09-15
US20100257491A1 (en) 2010-10-07
KR101537524B1 (ko) 2015-07-21
CN101878463A (zh) 2010-11-03
WO2009069050A1 (en) 2009-06-04
KR20100106432A (ko) 2010-10-01
JP2011505624A (ja) 2011-02-24
US8881064B2 (en) 2014-11-04
EP2227729B1 (en) 2022-10-19

Similar Documents

Publication Publication Date Title
JP5734661B2 (ja) ユーザインタフェースを提供する方法
US10747322B2 (en) Systems and methods for providing features in a friction display
US10013063B2 (en) Systems and methods for determining haptic effects for multi-touch input
US9330544B2 (en) System and method for simulated physical interactions with haptic effects
US10852907B2 (en) Display apparatus and controlling method thereof
US20180181205A1 (en) System and Method for a Haptically-Enabled Deformable Surface
EP2406700B1 (en) System and method for providing features in a friction display
CA3109701C (en) Portable electronic device with interface reconfiguration mode
KR102091597B1 (ko) 포터블 디바이스 및 그 제어 방법
KR101984590B1 (ko) 디스플레이 디바이스 및 그 제어 방법
JP2008033739A (ja) 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US9395816B2 (en) Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
JP2012520523A (ja) 摩擦ディスプレイシステム及び方法、並びに付加的な触覚効果
JP6141301B2 (ja) 間接的対話装置の対話モデル
KR20130061527A (ko) 정전 용량식 터치 스크린의 터치 감도 제어방법 및 이를 이용한 디스플레이 장치
WO2023179879A1 (en) Haptic profiles for electronic devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130724

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140221

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140228

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150415

R150 Certificate of patent or registration of utility model

Ref document number: 5734661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250