JP7182851B2 - 位置ベースの触覚効果のためのシステム及び方法 - Google Patents
位置ベースの触覚効果のためのシステム及び方法 Download PDFInfo
- Publication number
- JP7182851B2 JP7182851B2 JP2016238479A JP2016238479A JP7182851B2 JP 7182851 B2 JP7182851 B2 JP 7182851B2 JP 2016238479 A JP2016238479 A JP 2016238479A JP 2016238479 A JP2016238479 A JP 2016238479A JP 7182851 B2 JP7182851 B2 JP 7182851B2
- Authority
- JP
- Japan
- Prior art keywords
- haptic
- gesture
- user
- computing device
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本開示の1つの例示的な実施形態は、移動装置(例えば、スマートフォン、タブレット、Eリーダ等)を含む。移動装置は、1つ以上の仮想ボタンとのグラフィカルユーザインターフェース(GUI)を出力するように構成されるタッチスクリーンディスプレイを備える。GUIは、例えば、移動装置に記憶されたプログラムに関係付けられる多数のアイコンを含むホームスクリーンを含んでもよい。ユーザは、例えば、プログラムを実行するか又は他のやり方で移動装置に入力を提供するために仮想ボタンと相互作用してもよい。
図1Aは、位置ベースの触覚効果を提供するためのシステムの実施形態を示す。実施形態では、システムは、ユーザがコンピュータ装置100に接近して最終的に接触するときに実質的に連続的な触覚フィードバックを提供するように構成されるコンピュータ装置100を備える。追加的に又は代替的に、コンピュータ装置100は、コンピュータ装置100がユーザに接近して最終的に接触するときに実質的に連続的な触覚フィードバックを提供するように構成されてもよい。本明細書で用いられる実質的に連続的な触覚フィードバックは、実質的にユーザにより行われるジェスチャの持続時間の間中提供される1つ以上の触覚効果を含む。
図6は、一実施形態による位置ベースの触覚効果を提供する方法を実行するためのステップのフローチャートである。一部の実施形態では、図6のステップは、例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行されるプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図6に示される1つ以上のステップは省略され又は異なる順番で行われてもよい。同様に、一部の実施形態では、図6に示されない追加のステップが実行されてもよい。以下のステップは図2に示されたコンピュータ装置201に関して記載されたコンポーネントを参照して記載される。
位置ベースの触覚効果には多くの利点が存在する。例えば、このようなシステムは、より現実的な又は没入型のユーザ体験を提供してもよい。例えば、一部の実施形態では、このようなシステムは、ジェスチャの間中、例えば、ユーザがコンピュータ装置に接近及び/又は接触するときに、ユーザに実質的に連続的な触覚フィードバックを提供してもよい。これは、重力、磁界、電界、風の吹き込み、力の印加への抵抗、及び/又は熱等の物理現象をより現実的にシミュレートしてもよい。例えば、一部の実施形態では、コンピュータ装置は、仮想原子炉がメルトダウンした仮想アポカリプスゲームを実行してもよい。コンピュータ装置は、ユーザがコンピュータ装置に向かってジェスチャを行うことを検出し、それに応じて、例えば、放射能汚染をシミュレートするように構成される触覚効果を出力してもよい。例えば、コンピュータ装置は、ユーザがコンピュータ装置に接近することを検出することに応じて振幅が増加し、ユーザがコンピュータ装置に接触することに応じて激しい振動で終わるリモート触覚効果を実質的に連続的に出力してもよい。連続的な激しい触覚効果は、放射能に汚染された場所に接近することをより現実的にシミュレートしてもよい。
上記の方法、システム及び装置は例示である。様々な構成によって、適宜、様々な手続き又はコンポーネントが省略、置換、又は追加されてもよい。例えば、代替的な構成では、方法は記載されたものとは異なる順序で実行されてもよく、及び/又はステージが追加、省略及び/又は結合されてもよい。また、所定の構成に関して記載された機能は、様々な他の構成に結合されてもよい。構成の異なる態様及び要素が、同様に結合されてもよい。また、技術は進歩するものであり、そのため要素の多くは例示であり、本開示又は特許請求の範囲を限定しない。
Claims (12)
- ディスプレイ上に出力される仮想ボタンに対する ジェスチャを検出し且つ前記ジェスチャに関係付けられるセンサ信号を送信するように構成されるセンサであって、前記ジェスチャは少なくとも2つの位置の間におけるオブジェクトの動きを含み、前記少なくとも2つの位置のうち前記ジェスチャの開始位置は前記ディスプレイの表面から離れており、前記少なくとも2つの位置のうち前記ジェスチャの終了位置は前記ディスプレイの表面と接触している、センサと、
前記センサと通信するプロセッサであって、
前記センサから前記センサ信号を受信し、
前記センサ信号に少なくとも部分的に基づいて1つ以上の触覚効果を決定し、前記1つ以上の触覚効果は前記ジェスチャの間中、触覚フィードバックを提供するように構成され、前記触覚フィードバックは、前記仮想ボタンに対応する物理ユーザインターフェースコンポーネントに対して前記ジェスチャが現実になされたときの1つ以上の相互作用の複数の異なる特徴をシミュレートするように、前記ジェスチャ中の前記オブジェクトの前記ディスプレイの表面からの距離に基づいて変化し、
前記1つ以上の触覚効果に少なくとも部分的に基づいて1つ以上の触覚信号を生成し、且つ
前記1つ以上の触覚信号を触覚出力装置に送信する
ように構成されるプロセッサと、
前記プロセッサから前記1つ以上の触覚信号を受信し且つ前記1つ以上の触覚効果を出力するように構成される触覚出力装置と
を備える、システム。 - 前記1つ以上の触覚効果はリモート触覚効果及びローカル触覚効果を含み、前記プロセッサは、
前記ジェスチャの終了位置以外の位置において第1の相互作用を検出することに応じて、前記触覚出力装置に前記リモート触覚効果を出力させ、且つ
前記ジェスチャの終了位置において第2の相互作用を検出することに応じて、前記触覚出力装置に前記ローカル触覚効果を出力させる
ように更に構成される、請求項1に記載のシステム。 - 前記触覚出力装置は、ユーザにより装着されるように構成される装着可能装置に配置される第1の触覚出力装置及び前記ディスプレイの表面に結合される第2の触覚出力装置を含み、
前記プロセッサは、
前記ジェスチャの終了位置以外の位置において前記第1の相互作用を検出することに応じて、前記第1の触覚出力装置に前記リモート触覚効果を出力させ、且つ
前記ジェスチャの終了位置において前記第2の相互作用を検出することに応じて、前記第2の触覚出力装置に前記ローカル触覚効果を出力させる
ように更に構成される、請求項2に記載のシステム。 - 前記ジェスチャは、体の一部の移動を含み、
前記リモート触覚効果は、前記体の一部との静電結合を生成すること、又は前記体の一部に向かって固体、液体、ガス、プラズマ、音圧波若しくはレーザビームを放出することを含み、
前記ローカル触覚効果は、振動、テクスチャ、知覚される摩擦係数の変化、表面変形、又は温度の変化を含み、
前記センサは、カメラ、3Dイメージング装置、ジャイロスコープ、グローバルポジショニングシステム(GPS)、発光ダイオード(LED)、赤外線センサ、又は超音波トランスデューサを含む、請求項2に記載のシステム。 - センサから、ディスプレイ上に出力される仮想ボタンに対するジェスチャに関係付けられるセンサ信号を受信するステップであって、前記ジェスチャは少なくとも2つの位置の間におけるオブジェクトの動きを含み、前記少なくとも2つの位置のうち前記ジェスチャの開始位置は前記ディスプレイの表面から離れており、前記少なくとも2つの位置のうち前記ジェスチャの終了位置は前記ディスプレイの表面と接触している、ステップと、
前記センサ信号に少なくとも部分的に基づいて1つ以上の触覚効果を決定するステップであって、前記1つ以上の触覚効果は前記ジェスチャの間中、触覚フィードバックを提供するように構成され、前記触覚フィードバックは、前記仮想ボタンに対応する物理ユーザインターフェースコンポーネントに対して前記ジェスチャが現実になされたときの1つ以上の相互作用の複数の異なる特徴をシミュレートするように、前記ジェスチャ中の前記オブジェクトの前記ディスプレイの表面からの距離に基づいて変化するステップと、
前記1つ以上の触覚効果に少なくとも部分的に基づいて1つ以上の触覚信号を生成するステップと、
前記1つ以上の触覚信号を触覚出力装置に送信するステップであって、前記触覚出力装置は前記1つ以上の触覚信号を受信し且つ前記1つ以上の触覚効果を出力するように構成される、ステップと
を含む、方法。 - 前記1つ以上の触覚効果は、リモート触覚効果及びローカル触覚効果を含み、
前記ジェスチャの終了位置以外の位置において第1の相互作用を検出することに応じて、前記リモート触覚効果を出力するステップ、及び
前記ジェスチャの終了位置において第2の相互作用を検出することに応じて、前記ローカル触覚効果を出力するステップ
を更に含む、請求項5に記載の方法。 - 前記触覚出力装置は、装着可能装置に配置される第1の触覚出力装置及び前記ディスプレイの表面に結合される第2の触覚出力装置を含み、
前記ジェスチャの終了位置以外の位置において前記第1の相互作用を検出することに応じて、前記第1の触覚出力装置を介して前記リモート触覚効果を出力するステップ、及び
前記ジェスチャの終了位置において前記第2の相互作用を検出することに応じて、前記第2の触覚出力装置を介して前記ローカル触覚効果を出力するステップ
を更に含む、請求項6に記載の方法。 - 前記ジェスチャは、体の一部の移動を含み、
前記リモート触覚効果は、前記体の一部との静電結合を生成すること、又は前記体の一部に向かって固体、液体、ガス、プラズマ、音圧波若しくはレーザビームを放出することを含み、
前記ローカル触覚効果は、振動、テクスチャ、知覚される摩擦係数の変化、表面変形、又は温度の変化を含み、
前記センサは、カメラ、3Dイメージング装置、ジャイロスコープ、グローバルポジショニングシステム(GPS)、又は超音波トランスデューサを含む、請求項6に記載の方法。 - プログラムコードを含む非一時的なコンピュータ可読媒体であって、プロセッサにより実行されると、前記プログラムコードは、
センサから、ディスプレイ上に出力される仮想ボタンに対するジェスチャに関係付けられるセンサ信号を受信することであって、前記ジェスチャは少なくとも2つの位置の間におけるオブジェクトの動きを含み、前記少なくとも2つの位置のうち前記ジェスチャの開始位置は前記ディスプレイの表面から離れており、前記少なくとも2つの位置のうち前記ジェスチャの終了位置は前記ディスプレイの表面と接触していること、
前記センサ信号に少なくとも部分的に基づいて1つ以上の触覚効果を決定することであって、前記1つ以上の触覚効果は前記ジェスチャの間中、触覚フィードバックを提供するように構成され、前記触覚フィードバックは、前記仮想ボタンに対応する物理ユーザインターフェースコンポーネントに対して前記ジェスチャが現実になされたときの1つ以上の相互作用の複数の異なる特徴をシミュレートするように、前記ジェスチャ中の前記オブジェクトの前記ディスプレイの表面からの距離に基づいて変化すること、
前記1つ以上の触覚効果に少なくとも部分的に基づいて1つ以上の触覚信号を生成すること、及び
前記1つ以上の触覚信号を触覚出力装置に送信することであって、前記触覚出力装置は前記1つ以上の触覚信号を受信し且つ前記1つ以上の触覚効果を出力するように構成されること
を前記プロセッサに行わせるように構成される、非一時的なコンピュータ可読媒体。 - 前記1つ以上の触覚効果は、リモート触覚効果及びローカル触覚効果を含み、
前記プロセッサによって実行されると、
前記ジェスチャの終了位置以外の位置において第1の相互作用を検出することに応じて、前記触覚出力装置に前記リモート触覚効果を出力させること、及び
前記ジェスチャの終了位置において第2の相互作用を検出することに応じて、前記触覚出力装置に前記ローカル触覚効果を出力させること
を前記プロセッサに行わせるように構成されるプログラムコードを更に含む、請求項9に記載の非一時的なコンピュータ可読媒体。 - 前記触覚出力装置は、装着可能装置に配置される第1の触覚出力装置及び前記ディスプレイの表面に結合される第2の触覚出力装置を含み、
前記プロセッサによって実行されると、
前記ジェスチャの終了位置以外の位置において前記第1の相互作用を検出することに応じて、前記第1の触覚出力装置に前記リモート触覚効果を出力させること、及び
前記ジェスチャの終了位置において前記第2の相互作用を検出することに応じて、前記第2の触覚出力装置に前記ローカル触覚効果を出力させること
を前記プロセッサに行わせるように構成されるプログラムコードを更に含む、請求項10に記載の非一時的なコンピュータ可読媒体。 - 前記ジェスチャは、体の一部の移動を含み、
前記リモート触覚効果は、前記体の一部との静電結合を生成すること、又は前記体の一部に向かって固体、液体、ガス、プラズマ、音圧波若しくはレーザビームを放出することを含み、
前記ローカル触覚効果は、振動、テクスチャ、知覚される摩擦係数の変化、表面変形、又は温度の変化を含み、
前記センサは、カメラ、3Dイメージング装置、ジャイロスコープ、グローバルポジショニングシステム(GPS)、又は超音波トランスデューサを含む、請求項10に記載の非一時的なコンピュータ可読媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021145095A JP2022003535A (ja) | 2015-12-11 | 2021-09-07 | 位置ベースの触覚効果のためのシステム及び方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/966,652 | 2015-12-11 | ||
US14/966,652 US9990078B2 (en) | 2015-12-11 | 2015-12-11 | Systems and methods for position-based haptic effects |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021145095A Division JP2022003535A (ja) | 2015-12-11 | 2021-09-07 | 位置ベースの触覚効果のためのシステム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017107567A JP2017107567A (ja) | 2017-06-15 |
JP7182851B2 true JP7182851B2 (ja) | 2022-12-05 |
Family
ID=57530612
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016238479A Active JP7182851B2 (ja) | 2015-12-11 | 2016-12-08 | 位置ベースの触覚効果のためのシステム及び方法 |
JP2021145095A Pending JP2022003535A (ja) | 2015-12-11 | 2021-09-07 | 位置ベースの触覚効果のためのシステム及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021145095A Pending JP2022003535A (ja) | 2015-12-11 | 2021-09-07 | 位置ベースの触覚効果のためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US9990078B2 (ja) |
EP (1) | EP3179340A1 (ja) |
JP (2) | JP7182851B2 (ja) |
KR (1) | KR20170069936A (ja) |
CN (1) | CN106896910A (ja) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
KR102002112B1 (ko) | 2015-04-30 | 2019-07-19 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
CN114564143A (zh) | 2015-10-14 | 2022-05-31 | 麦克赛尔株式会社 | 终端装置 |
KR101807655B1 (ko) * | 2015-12-01 | 2017-12-11 | 주식회사 퓨처플레이 | 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
US9990078B2 (en) | 2015-12-11 | 2018-06-05 | Immersion Corporation | Systems and methods for position-based haptic effects |
US11003345B2 (en) | 2016-05-16 | 2021-05-11 | Google Llc | Control-article-based control of a user interface |
US9886829B2 (en) * | 2016-06-20 | 2018-02-06 | Immersion Corporation | Systems and methods for closed-loop control for haptic feedback |
US10169918B2 (en) * | 2016-06-24 | 2019-01-01 | Microsoft Technology Licensing, Llc | Relational rendering of holographic objects |
WO2018034053A1 (ja) * | 2016-08-18 | 2018-02-22 | ソニー株式会社 | 情報処理装置、情報処理システム及び情報処理方法 |
JP2018045349A (ja) * | 2016-09-13 | 2018-03-22 | カシオ計算機株式会社 | 処理装置、処理方法及びプログラム |
US10373452B2 (en) * | 2016-11-29 | 2019-08-06 | Immersion Corporation | Targeted haptic projection |
FR3059945B1 (fr) * | 2016-12-14 | 2019-10-04 | Faurecia Interieur Industrie | Dispositif de commande en particulier pour vehicule |
JP7000683B2 (ja) * | 2017-01-20 | 2022-01-19 | 富士フイルムビジネスイノベーション株式会社 | 情報処理システム及びプログラム |
US10559283B2 (en) * | 2017-03-20 | 2020-02-11 | Paypal, Inc. | Automated user device damage remediation |
US11126265B2 (en) * | 2017-06-14 | 2021-09-21 | Ford Global Technologies, Llc | Wearable haptic feedback |
CN107309874B (zh) * | 2017-06-28 | 2020-02-07 | 歌尔科技有限公司 | 一种机器人控制方法、装置和机器人 |
US10712931B2 (en) * | 2017-08-29 | 2020-07-14 | Apple Inc. | Systems for modifying finger sensations during finger press input events |
WO2019046945A1 (en) | 2017-09-06 | 2019-03-14 | Damon Motors Inc. | HAPTICALLY CAPABLE MOTORCYCLE |
US10474236B1 (en) * | 2017-09-13 | 2019-11-12 | Facebook Technologies, Llc | Haptic device for variable bending resistance |
WO2019084663A1 (en) | 2017-11-02 | 2019-05-09 | Damon Motors Inc. | Anticipatory motorcycle safety system |
US10678333B2 (en) * | 2017-11-14 | 2020-06-09 | Verizon Patent And Licensing Inc. | Methods and systems for presenting haptically perceptible virtual objects |
KR102462204B1 (ko) | 2017-11-21 | 2022-11-02 | 삼성전자주식회사 | 진동을 제공하기 위한 장치 및 방법 |
KR102486453B1 (ko) * | 2017-12-08 | 2023-01-09 | 삼성디스플레이 주식회사 | 표시 장치 |
EP3502835A1 (en) * | 2017-12-20 | 2019-06-26 | Nokia Technologies Oy | Gesture control of a data processing apparatus |
US20190324549A1 (en) * | 2018-04-20 | 2019-10-24 | Immersion Corporation | Systems, devices, and methods for providing immersive reality interface modes |
US20200192480A1 (en) * | 2018-12-18 | 2020-06-18 | Immersion Corporation | Systems and methods for providing haptic effects based on a user's motion or environment |
US11068688B2 (en) * | 2019-01-04 | 2021-07-20 | Pierre T. Gandolfo | Multi-function ultrasonic sensor controller with fingerprint sensing, haptic feedback, movement recognition, 3D positioning and remote power transfer capabilities |
US11868537B2 (en) | 2019-07-26 | 2024-01-09 | Google Llc | Robust radar-based gesture-recognition by user equipment |
EP4004686A1 (en) | 2019-07-26 | 2022-06-01 | Google LLC | Authentication management through imu and radar |
WO2021016751A1 (zh) * | 2019-07-26 | 2021-02-04 | 深圳市大疆创新科技有限公司 | 一种点云特征点提取方法、点云传感系统及可移动平台 |
KR102661485B1 (ko) | 2019-08-30 | 2024-04-29 | 구글 엘엘씨 | 일시정지된 레이더 제스처에 대한 시각적 표시자 |
DE102019216411B4 (de) * | 2019-10-24 | 2022-09-29 | Volkswagen Aktiengesellschaft | Vorrichtung zum Erfassen einer Eingabe mittels eines Betätigungsobjekts und Verfahren zum Betreiben einer Vorrichtung zum Erfassen einer Eingabe |
WO2021207330A2 (en) * | 2020-04-08 | 2021-10-14 | Tactual Labs Co. | Non-uniform electrode spacing with a bend sensor |
JP2021192178A (ja) * | 2020-06-05 | 2021-12-16 | ソニーグループ株式会社 | デバイス、制御方法及びプログラム |
CN114429811A (zh) * | 2020-10-29 | 2022-05-03 | 京东方科技集团股份有限公司 | 挂号系统 |
US11681399B2 (en) * | 2021-06-30 | 2023-06-20 | UltraSense Systems, Inc. | User-input systems and methods of detecting a user input at a cover member of a user-input system |
CN113703607A (zh) * | 2021-08-25 | 2021-11-26 | 北京京东方技术开发有限公司 | 一种交互显示装置 |
US11681373B1 (en) | 2021-12-08 | 2023-06-20 | International Business Machines Corporation | Finger movement management with haptic feedback in touch-enabled devices |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100060475A1 (en) | 2008-09-10 | 2010-03-11 | Lg Electronics Inc. | Mobile terminal and object displaying method using the same |
JP2015504320A (ja) | 2011-10-20 | 2015-02-12 | コーニンクレッカ フィリップス エヌ ヴェ | 医療処置のためのホログラフィユーザインターフェース |
JP2015111416A (ja) | 2013-11-26 | 2015-06-18 | イマージョン コーポレーションImmersion Corporation | 摩擦効果及び振動触覚効果を生成するシステム及び方法 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7890863B2 (en) * | 2006-10-04 | 2011-02-15 | Immersion Corporation | Haptic effects with proximity sensing |
KR101580227B1 (ko) | 2007-09-18 | 2015-12-24 | 센세그 오와이 | 감지 자극에 대한 장치 및 방법 |
EP2212762A4 (en) * | 2007-11-19 | 2011-06-29 | Cirque Corp | TOUCH PANEL COMBINED ON SCREEN AND HAVING PROXIMITY AND TOUCH SENSING CAPABILITIES |
US8373549B2 (en) * | 2007-12-31 | 2013-02-12 | Apple Inc. | Tactile feedback in an electronic device |
US8576181B2 (en) * | 2008-05-20 | 2013-11-05 | Lg Electronics Inc. | Mobile terminal using proximity touch and wallpaper controlling method thereof |
KR101498622B1 (ko) | 2008-06-25 | 2015-03-04 | 엘지전자 주식회사 | 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법 |
US8516397B2 (en) * | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
KR20120028553A (ko) * | 2010-09-15 | 2012-03-23 | 삼성전자주식회사 | 다기능 터치 패널과, 이를 포함하는 휴대 단말기 및 그의 운용 방법 |
JP5728866B2 (ja) * | 2010-09-24 | 2015-06-03 | ソニー株式会社 | 情報処理装置、情報処理端末、情報処理方法およびコンピュータプログラム |
US20120242793A1 (en) * | 2011-03-21 | 2012-09-27 | Soungmin Im | Display device and method of controlling the same |
US9448713B2 (en) | 2011-04-22 | 2016-09-20 | Immersion Corporation | Electro-vibrotactile display |
US9733706B2 (en) * | 2011-10-26 | 2017-08-15 | Nokia Technologies Oy | Apparatus and associated methods for touchscreen displays |
US9207852B1 (en) * | 2011-12-20 | 2015-12-08 | Amazon Technologies, Inc. | Input mechanisms for electronic devices |
CN104205958A (zh) * | 2011-12-29 | 2014-12-10 | 米格蒂卡斯特有限公司 | 能够与计算装置通讯的互动基部和标记 |
JP5957893B2 (ja) * | 2012-01-13 | 2016-07-27 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
US8493354B1 (en) | 2012-08-23 | 2013-07-23 | Immersion Corporation | Interactivity model for shared feedback on mobile devices |
US8711118B2 (en) | 2012-02-15 | 2014-04-29 | Immersion Corporation | Interactivity model for shared feedback on mobile devices |
JP2013186737A (ja) * | 2012-03-08 | 2013-09-19 | Stanley Electric Co Ltd | タッチパネル式操作装置 |
US9201585B1 (en) * | 2012-09-17 | 2015-12-01 | Amazon Technologies, Inc. | User interface navigation gestures |
KR102035134B1 (ko) * | 2012-09-24 | 2019-10-22 | 엘지전자 주식회사 | 영상표시장치, 및 그 동작방법 |
KR102091077B1 (ko) * | 2012-12-14 | 2020-04-14 | 삼성전자주식회사 | 입력 유닛의 피드백을 제어하는 휴대 단말 및 방법과, 이를 제공하는 상기 입력 유닛 및 방법 |
JP2014222488A (ja) | 2013-05-14 | 2014-11-27 | 株式会社東芝 | 描画装置及び描画システム |
EP3144780A1 (en) | 2013-06-11 | 2017-03-22 | Immersion Corporation | Systems and methods for pressure-based haptic effects |
JP6117075B2 (ja) * | 2013-10-10 | 2017-04-19 | 株式会社東海理化電機製作所 | 触覚呈示装置 |
US9248840B2 (en) * | 2013-12-20 | 2016-02-02 | Immersion Corporation | Gesture based input system in a vehicle with haptic feedback |
US9965034B2 (en) | 2013-12-30 | 2018-05-08 | Immersion Corporation | Systems and methods for a haptically-enabled projected user interface |
CN106104426B (zh) | 2014-03-21 | 2020-04-03 | 意美森公司 | 用于基于力的对象操纵和触觉检测的系统、方法和计算机可读介质 |
US9690370B2 (en) * | 2014-05-05 | 2017-06-27 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
US10031582B2 (en) | 2014-06-05 | 2018-07-24 | Immersion Corporation | Systems and methods for induced electrostatic haptic effects |
KR102328100B1 (ko) * | 2014-11-20 | 2021-11-17 | 삼성전자주식회사 | 복수의 입출력 장치를 제어하는 방법 및 장치 |
US9600076B2 (en) | 2014-12-19 | 2017-03-21 | Immersion Corporation | Systems and methods for object manipulation with haptic feedback |
US9658693B2 (en) | 2014-12-19 | 2017-05-23 | Immersion Corporation | Systems and methods for haptically-enabled interactions with objects |
US20160342208A1 (en) | 2015-05-20 | 2016-11-24 | Immersion Corporation | Haptic effects based on predicted contact |
US9990078B2 (en) | 2015-12-11 | 2018-06-05 | Immersion Corporation | Systems and methods for position-based haptic effects |
-
2015
- 2015-12-11 US US14/966,652 patent/US9990078B2/en active Active
-
2016
- 2016-12-07 KR KR1020160165843A patent/KR20170069936A/ko not_active Application Discontinuation
- 2016-12-08 EP EP16203034.0A patent/EP3179340A1/en not_active Withdrawn
- 2016-12-08 JP JP2016238479A patent/JP7182851B2/ja active Active
- 2016-12-12 CN CN201611137967.XA patent/CN106896910A/zh active Pending
-
2018
- 2018-05-08 US US15/974,236 patent/US10185441B2/en active Active
- 2018-12-12 US US16/217,822 patent/US10551964B2/en active Active
-
2021
- 2021-09-07 JP JP2021145095A patent/JP2022003535A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100060475A1 (en) | 2008-09-10 | 2010-03-11 | Lg Electronics Inc. | Mobile terminal and object displaying method using the same |
JP2015504320A (ja) | 2011-10-20 | 2015-02-12 | コーニンクレッカ フィリップス エヌ ヴェ | 医療処置のためのホログラフィユーザインターフェース |
JP2015111416A (ja) | 2013-11-26 | 2015-06-18 | イマージョン コーポレーションImmersion Corporation | 摩擦効果及び振動触覚効果を生成するシステム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180321787A1 (en) | 2018-11-08 |
US20170168630A1 (en) | 2017-06-15 |
JP2017107567A (ja) | 2017-06-15 |
EP3179340A1 (en) | 2017-06-14 |
CN106896910A (zh) | 2017-06-27 |
KR20170069936A (ko) | 2017-06-21 |
JP2022003535A (ja) | 2022-01-11 |
US10185441B2 (en) | 2019-01-22 |
US9990078B2 (en) | 2018-06-05 |
US20190179477A1 (en) | 2019-06-13 |
US10551964B2 (en) | 2020-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7182851B2 (ja) | 位置ベースの触覚効果のためのシステム及び方法 | |
US10248210B2 (en) | Systems and methods for haptically-enabled conformed and multifaceted displays | |
JP6616546B2 (ja) | ストレッチ特性を組み込んだ触覚デバイス | |
US10606356B2 (en) | Systems and methods for haptically-enabled curved devices | |
US10203757B2 (en) | Systems and methods for shape input and output for a haptically-enabled deformable surface | |
US10474238B2 (en) | Systems and methods for virtual affective touch | |
CN104123035A (zh) | 用于支持触觉的可变形表面的系统和方法 | |
US20180011538A1 (en) | Multimodal haptic effects | |
JPWO2015108112A1 (ja) | 操作判定装置、操作判定方法、および、プログラム | |
EP3367216A1 (en) | Systems and methods for virtual affective touch | |
US20200286298A1 (en) | Systems and methods for a user interaction proxy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210907 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210907 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210915 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210928 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20211022 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20211026 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220111 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220315 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20220315 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220329 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220412 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220527 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20220926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220927 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20221011 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20221018 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20221115 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7182851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |