JP2016219008A - ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法 - Google Patents
ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2016219008A JP2016219008A JP2016096642A JP2016096642A JP2016219008A JP 2016219008 A JP2016219008 A JP 2016219008A JP 2016096642 A JP2016096642 A JP 2016096642A JP 2016096642 A JP2016096642 A JP 2016096642A JP 2016219008 A JP2016219008 A JP 2016219008A
- Authority
- JP
- Japan
- Prior art keywords
- user
- haptic effect
- user interface
- haptic
- output device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000694 effects Effects 0.000 title claims abstract description 114
- 238000000034 method Methods 0.000 title claims description 18
- 238000012790 confirmation Methods 0.000 claims abstract description 8
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 210000003811 finger Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000003155 kinesthetic effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 208000015976 Corneal dystrophy-perceptive deafness syndrome Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 229910001285 shape-memory alloy Inorganic materials 0.000 description 1
- 239000002520 smart material Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/143—Touch sensitive instrument input devices
- B60K2360/1438—Touch screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザ・インターフェースに接触するユーザ入力要素を介したユーザによる入力の確認として、触覚効果を提供する。【解決手段】システム100は、システムのユーザからの入力を受け取るように構成されるユーザ・インターフェースと、ユーザ・インターフェースに対するユーザ入力要素の位置を感知するように構成されるセンサと、ユーザ・インターフェースに対するユーザ入力要素の位置に基づくセンサからの入力信号を受け取り、入力信号に基づいて触覚効果を決定し、決定された触覚効果に基づいて触覚効果発生信号を出力するように構成されるプロセッサと、を含む。触覚出力デバイスは、プロセッサから触覚効果発生信号を受け取り、決定された触覚効果をユーザに対して発生させるように構成され、決定された触覚効果がユーザ・インターフェースから離れて発生されるように、ユーザ・インターフェースとは別個の位置にある。【選択図】図1
Description
本発明は、概して、ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法に関する。
自動車のセンター・コンソールに位置する自動車用ユーザ・インターフェースなどの多くのユーザ・インターフェースが、温度調節の前に空調機ボタンを押すなど、特定の機能を起動するために複数の対話が必要とされるように設計されている。このような対話に伴う1つの問題は、ユーザ・インターフェースのタッチ・スクリーン上のどこにボタンがあるかを、タッチ・スクリーンを見ることなくユーザが識別する方法がないかもしれないということである。どこにボタンがあるかタッチ・スクリーンを見る必要なくユーザが識別するのを支援するためにユーザ・インターフェースにおいて触覚効果が発生され得るが、触覚効果が発生されることができ且つユーザによって伝播されることができるためには、ユーザは、しばらくの間タッチ・スクリーンに接触し続ける必要があるであろう。
ユーザ・インターフェースから情報を受け取るために、ユーザ・インターフェースに接触し続けなければならないことによってユーザが気を取られなくてよいように、ユーザが通常、接触するであろう位置に触覚効果を提供することが望ましい。
本発明の一態様によれば、システムのユーザからの入力を受け取るように構成されるユーザ・インターフェースと、ユーザ・インターフェースに対するユーザ入力要素の位置を感知するように構成されるセンサと、ユーザ・インターフェースに対するユーザ入力要素の位置に基づくセンサからの入力信号を受け取り、入力信号に基づいて触覚効果を決定し、決定された触覚効果に基づいて触覚効果発生信号を出力するように構成されるプロセッサと、を含むシステムが提供される。システムは、また、プロセッサから触覚効果発生信号を受け取り、決定された触覚効果をユーザに対して発生させるように構成され、決定された触覚効果がユーザ・インターフェースから離れて発生されるように、ユーザ・インターフェースとは別個の位置にある触覚出力デバイスを含む。
一実施形態では、システムは、また、ユーザに装着されるように構成されるウェアラブル・デバイスを含み、ウェアラブル・デバイスは触覚出力デバイスを含む。
一実施形態では、ウェアラブル・デバイスはスマートウォッチである。一実施形態では、ウェアラブル・デバイスはフィットネス・バンドである。
一実施形態では、システムは、また、ユーザによって携行されるように構成される手持ち式電子デバイスを含み、手持ち式電子デバイスは触覚出力デバイスを含む。
一実施形態では、手持ち式電子デバイスは、スマートフォンである。
一実施形態では、ユーザ・インターフェースは第2の触覚出力デバイスを含み、第2の触覚出力デバイスは、ユーザからの入力の確認として、ユーザに対してユーザ・インターフェースにおいて第2の触覚効果を発生させるように構成される。
一実施形態では、触覚出力デバイスは、ユーザに対して、ユーザ・インターフェースから離れた位置で第3の触覚効果を発生させるように構成される。一実施形態では、第2の触覚効果および第3の触覚効果は同一の触覚効果である。
一実施形態では、システムは、また、ユーザによって携行されるように構成される手持ち式電子デバイスを含み、手持ち式電子デバイスはユーザ・インターフェースを含む。
本発明の一態様によれば、システムのユーザに対して触覚効果を発生させるための方法が提供される。方法は、センサを用いて、ユーザからの入力を受け取るように構成されるユーザ・インターフェースの近くに位置するユーザ入力要素を感知することと、プロセッサを用いて、感知することに基づいて、ユーザに対して発生させる触覚効果を決定することと、プロセッサを用いて、決定された触覚効果に基づいて、触覚効果発生信号を触覚出力デバイスに出力することと、触覚出力デバイスを用いて、ユーザ・インターフェースから離れた位置で、決定された触覚効果を発生させることと、を含む。
一実施形態では、方法は、また、ユーザがユーザ入力要素を介してユーザ・インターフェースに接触することによる入力を、第2のセンサを用いて感知することと、プロセッサを用いて、感知された入力に基づいて、ユーザに対して発生させる第2の触覚効果を決定することと、第2の触覚出力デバイスを用いて、ユーザからの入力の確認として、ユーザに対してユーザ・インターフェースにおいて第2の触覚効果を発生させることと、を含む。
一実施形態では、第2の触覚効果は、ユーザ入力要素がユーザ・インターフェースに接触する間、発生される。
一実施形態では、方法は、また、プロセッサを用いて、感知された入力に基づいて、ユーザに対して発生させる第3の触覚効果を決定することと、触覚出力デバイスを用いて、ユーザに対してユーザ・インターフェースから離れた位置で第3の触覚効果を発生させることと、を含む。一実施形態では、第2の触覚効果および第3の触覚効果は同一の触覚効果である。
本発明の、これらのおよび他の態様、特徴、および特性、ならびに動作の方法および構造の関連要素の機能、および部品と製造の経済性との組合せは、本明細書の一部を形成する、添付の図面を参照する以下の説明および添付の特許請求の範囲の全てを考慮すると、より明らかとなるであろう。しかしながら、図面は、例示および説明のみを目的とし、本発明の範囲を定義することを意図するものではない。本明細書および特許請求の範囲において使用されるように、単数形の「a」、「an」、および「the」は、文脈で明確に指示しない限り、複数の対象を含む。
図面の構成要素は、本開示の一般原理を強調するために示され、必ずしも縮尺通りには描かれていない。対応する構成要素を指定する参照文字は、一貫性および明確性のために、図面全体を通して必要に応じて繰り返される。
図1は、本発明の実施形態によるシステム100の概略図である。システム100は、電子デバイス(デスクトップ・コンピュータ、ラップトップ・コンピュータ、電子ワークブック、販売時点情報管理デバイス、ゲーム・コントローラ、など)、手持ち式電子デバイス(携帯電話、スマートフォン、タブレット、タブレット型ゲーム・デバイス、携帯情報端末(「PDA」:(personal digital assistant))、携帯電子メール・デバイス、携帯インターネット・アクセス・デバイス、計算器、など)、ウェアラブル・デバイス(スマートウォッチ、フィットネス・バンド、眼鏡、ヘッドマウント・ディスプレイ、スマート靴下、スマート・シューズなどの衣類、など)、もしくは他の電子デバイスのうちの一部であってもよく、またはそれらのうちの1つもしくは複数を含んでもよい。いくつかの実施形態では、システム100またはシステム100の一部は、以下のシステム100の実装で説明されるように、車両などのより大きな装置に組み込まれてもよい。
図示するように、システム100は、プロセッサ110、メモリ・デバイス120、および入力/出力デバイス130を含み、それらは、バスおよび/または通信ネットワーク140を介して相互に接続されることができる。一実施形態では、入力/出力デバイス130は、ユーザ・インターフェース150、少なくとも1つの触覚出力デバイス160、少なくとも1つのセンサ170、および/または他の入力/出力デバイスを含んでもよい。
プロセッサ110は、システム100の動作および機能を管理または制御する、汎用のまたは特定目的用の、プロセッサまたはマイクロコントローラであってよい。例えば、プロセッサ110は、具体的には、入力/出力デバイス130のユーザに対する出力信号を制御して触覚フィードバックまたは触覚効果を提供するための特定用途向け集積回路(ASIC:application−specific integrated Circuit)として設計されてもよい。プロセッサ110は、プロセッサ110によって受け取られ、または決定される触覚信号に基づいてどの触覚フィードバックまたは触覚効果が発生されるべきか、触覚効果が発生される順序、ならびに触覚効果の大きさ、周波数、期間、および/または他のパラメータを、予め定義された要因に基づいて決定するように構成されてもよい。プロセッサ110は、また、特定の触覚効果を提供する、触覚出力デバイス160を駆動するために使用され得るストリーミング・コマンドを提供するように構成されてもよい。いくつかの実施形態では、各プロセッサ110がシステム100内のある機能を実行するように構成される、2つ以上のプロセッサ110がシステム100に含まれることができる。プロセッサ110の一実施形態について、以下でさらに詳細に説明する。
メモリ・デバイス120は、1つまたは複数の内部固定記憶ユニット、取り外し可能な記憶ユニット、および/または遠隔アクセス可能な記憶ユニットを含むことができる。様々な記憶ユニットは、揮発性メモリおよび不揮発性メモリのいかなる組合せも含むことができる。記憶ユニットは、情報、データ、命令、ソフトウェア・コードなどのいかなる組合せも記憶するように構成されることができる。より具体的には、記憶ユニットは、触覚効果のプロファイル、入力/出力デバイス130の触覚出力デバイス160がどのように駆動されるかについての命令、および/または触覚フィードバックもしくは触覚効果を発生させる他の情報を含むことができる。
バスおよび/または通信ネットワーク140は、システム100の様々な構成要素間の信号通信を可能にするように構成され、また、別の通信ネットワークを通じて遠隔コンピュータまたはサーバから情報にアクセスするようにも構成されることができる。通信ネットワークは、ワイヤレス通信ネットワーク、インターネット、パーソナル・エリア・ネットワーク(「PAN」:personal area network)、ローカル・エリア・ネットワーク(「LAN」:local area network)、メトロポリタン・エリア・ネットワーク(「MAN」:metropolitan area network)、ワイド・エリア・ネットワーク(「WAN」:wide area network)などのうちの1つまたは複数を含んでもよい。通信ネットワークは、ローカル無線周波数、セルラー(GPRS、CDMA、GSM、CDPD、2.5G、3G、4G LTE、など)、超広帯域無線通信(「UWB」:Ultra−WideBand)、WiMax(登録商標)、ZigBee(登録商標)、および/または他のアドホック/メッシュ・ワイヤレス・ネットワーク技術などを含んでもよい。
ユーザ・インターフェース150は、任意の適切なユーザ・インターフェースまたはタッチ/接触面アセンブリとして構成され得るタッチ感知デバイス152と、画像を表示するように構成される視覚ディスプレイ154とを含むことができる。視覚ディスプレイ154は、高解像度ディスプレイスクリーンを含むことができる。タッチ感知デバイス152は、任意のタッチ・スクリーン、タッチ・パッド、タッチ感知構造体、コンピュータ・モニタ、ラップトップ・ディスプレイ・デバイス、ワークブック・ディスプレイ・デバイス、携帯電子デバイススクリーン、または他の適切なタッチ感知デバイスであってもよい。タッチ感知デバイス152は、スタイラス、または手のひらや指(例えば、親指以外の指もしくは親指)などユーザの手の一部などの、ユーザ入力要素との物理的対話のために構成されてもよい。いくつかの実施形態では、タッチ感知デバイス152は、視覚ディスプレイ154を含んでもよく、その上に重ね合わせた、ユーザ入力要素からの入力を受け取る少なくとも1つのセンサを含んでもよい。
触覚出力デバイス160は、システム100のユーザに触覚フィードバックを提供するように構成される。触覚出力デバイス160によって提供される触覚フィードバックは、振動、変形、力覚(kinesthetic sensations)、静電摩擦または超音波摩擦などの、触覚効果を生成する方法のうちのいずれかによって生成されることができる。一実施形態では、触覚出力デバイス160は、アクチュエータを含んでもよく、例えば、偏心質量体がモータにより動かされる偏心回転質量体(「ERM」:Eccentric Rotating Mass)などの電磁アクチュエータ、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエータ(「LRA」:Linear Resonant Actuator)、もしくは圧電材料、電気活性ポリマー、もしくは形状記憶合金などの「スマートマテリアル」、マクロ繊維複合材アクチュエータ、静電気アクチュエータ、電気触知(electro−tactile)アクチュエータ、および/または振動触知(vibrotactile)フィードバックなどの物理的フィードバックを提供する別の種類のアクチュエータを含んでもよい。触覚出力デバイス160は、静電摩擦(「ESF」:electrostatic friction)や超音波摩擦(「USF」:ultrasonic friction)を用いるデバイス、または超音波触覚トランスデューサで音響放射圧を生じさせるデバイス、または触覚基板および可撓性のもしくは変形可能な表面を用いるデバイス、または熱効果を提供するデバイス、またはエアジェットを用いた空気のパフ(puff)などの発射型の触覚出力を提供するデバイスなどの、非機械的デバイスまたは非振動デバイスを含んでもよい。様々な触覚効果を発生させるために複数の触覚出力デバイス160が使用されてもよく、複数の触覚出力デバイス160は、変形、振動などの広範囲に及ぶ効果を生成するために使用されてもよい。
一実施形態では、触覚出力デバイス160の特定の位置に基づいて、様々な情報がユーザに通信され得るように、複数の触覚出力デバイス160がシステム100内の様々な位置に配置されてもよい。例えば、以下でさらに詳細に説明するように、車両における実装では、運転者に常に接触し、または運転者によって触れられる表面が、動きまたは振動して、運転者に触覚フィードバックを提供することができるように、ハンドル、運転者のシートおよび/もしくは運転者のシートベルト、または運転者が車両の運転中に日常的に接触する任意の他の表面において、またはその中などの、センター・コンソール内のユーザ・インターフェース150から離れた所に、触覚出力デバイス160のうち少なくとも1つが配置されてもよい。一実施形態では、触覚出力デバイス160は、運転者またはシステム100の任意のユーザに装着されるウェアラブル・デバイス内に位置してもよい。ウェアラブル・デバイスは、例えば、スマートウォッチ、フィットネス・バンドなどのリストバンド、ブレスレット、指輪、アンクレット、スマート靴下またはスマート・シューズを含むスマート衣類、眼鏡、ヘッドマウント・ディスプレイなどの形式であってもよい。システム100の車両以外の実装の場合、ユーザ・インターフェース150は、例えば、タブレットまたはスマートフォンの一部であってもよい。
図1に戻って、センサ170は、以下の種類のセンサのうちの1つまたは複数を含んでもよい。一実施形態では、センサ170は、ユーザの手、もしくは指などのユーザの手の一部、またはスタイラスなどのユーザ入力要素の、ユーザ・インターフェース150などの入力デバイスに対する位置を感知するように構成される、近接センサを含んでもよい。一実施形態では、センサ170は、カメラおよび画像プロセッサを含み、ユーザ・インターフェース150に対するユーザ入力要素の位置を感知するように構成されてもよい。一実施形態では、センサ170は、ユーザ・インターフェース150に位置するか、またはユーザ・インターフェース150の一部であってもよい。一実施形態では、センサ170は、スマートウォッチまたはリストバンドなどの、ユーザに装着されるウェアラブル・デバイス内に位置してもよい。一実施形態では、センサ170は、システム100内の触覚出力デバイス160(複数可)を含む電子デバイス(複数可)の位置を感知するように構成されてもよい。一実施形態では、センサ170は、ユーザ・インターフェース150の一部であり、かつ、ユーザ・インターフェース150のタッチ位置、例えば、ユーザ・インターフェース150のタッチ感知デバイス152におけるタッチ位置に加えられる圧力を測定するように構成される、圧力センサを含んでもよい。一実施形態では、センサ170は、環境条件を測定するように構成される、温度センサ、湿度センサ、および/または気圧センサを含んでもよい。一実施形態では、センサ170は、ユーザの心拍数などの生体測定値をキャプチャするように構成される、生体認証センサを含んでもよい。一実施形態では、センサ170は、ユーザの顔の表情および関連する生体情報をキャプチャするように構成される、画像センサおよび/またはカメラを含んでもよい。一実施形態では、センサ170は、触覚フィードバックを受け取るべき人を識別するために使用されてもよい。
図2は、プロセッサ110の一実施形態をより詳細に示す。プロセッサ110は、1つまたは複数のコンピュータ・プログラム・モジュールを実行するように構成されることができる。1つまたは複数のコンピュータ・プログラム・モジュールは、位置モジュール112、入力モジュール114、決定モジュール116、触覚出力デバイス制御モジュール118、および/または他のモジュールのうち1つまたは複数を含むことができる。プロセッサ110は、また、電子記憶装置119も含んでもよく、電子記憶装置119は、メモリ・デバイス120と同一であってもよく、またはメモリ・デバイス120に追加するものであってもよい。プロセッサ110は、ソフトウェア、ハードウェア、ファームウェア、ソフトウェア、ハードウェア、および/もしくはファームウェアの何らかの組合せ、ならびに/またはプロセッサ110上の処理能力を構成する他のメカニズムによって、モジュール112、114、116および/または118を実行するように構成されてもよい。
モジュール112、114、116および118は、単一の処理ユニット内に共に位置しているものとして図2に示されるが、システムが複数のプロセッサを含む実施形態では、モジュール112、114、116および/または118のうち1つまたは複数が、他のモジュールから遠隔設置されてもよいと理解すべきである。後述の異なるモジュール112、114、116および/または118によって提供される機能性の説明は、例示の目的のためであって、限定を意図するものではなく、モジュール112、114、116および/または118のいずれかが、説明されるものよりも多くのまたは少ない機能性を提供するものであってもよい。例えば、モジュール112、114、116および/または118のうち1つまたは複数が除外されてもよく、その機能性のうちのいくつかまたは全てが、モジュール112、114、116および/または118のうちの他のモジュールによって提供されてもよい。別の例として、プロセッサ110は、モジュール112、114、116および/または118のうち1つの下に帰属する機能性のうちのいくつかまたは全てを実行し得る、1つまたは複数の追加的なモジュールを実行するように構成されてもよい。
位置モジュール112は、ユーザの手やユーザの手の一部などのユーザ入力要素が、ユーザ・インターフェース150付近にあることを、センサ170が検知するときに生成される入力信号を、センサ170から受け取るように構成され、またはプログラムされる。位置モジュール112は、また、さらなる処理のために、位置信号を決定モジュール116に送るように構成され、またはプログラムされる。
入力モジュール114は、ユーザ入力要素を介したユーザからの入力をユーザ・インターフェース150が検知するときに生成される入力信号を、ユーザ・インターフェース150から受け取るように構成され、またはプログラムされる。例えば、システム100またはシステム100がその一部である装置の機能を動作させるボタンを表す、ユーザ・インターフェース150の一部に、例えば、接触することによって、ユーザは入力を示してもよい。例えば、車両におけるシステム100の実装では、運転者は、ボタンまたは視覚ディスプレイ154のボタンが表示される部分を押して、運転者が、車両内の空調機をオンにして、車両についての目標温度に設定したいということを示すことができる。入力モジュール114は、ユーザ・インターフェース150から入力信号を受け取り、入力信号に基づいてシステム100がさらにどの機能を実行するかを決定し、さらなる処理のために決定モジュール116に機能信号を送るように構成され、またはプログラムされる。
決定モジュール116は、センサ170からの出力に基づく位置モジュール112からの位置信号と、ユーザ・インターフェース150からの出力に基づく入力モジュール114からの機能信号とに従って、どの種類のアクションがシステム100によって取られるべきか、およびどの種類の触覚フィードバックが触覚出力デバイス160によって発生されるべきかを決定するように構成され、またはプログラムされる。決定モジュール116は、もしあれば、システム100が利用可能な位置情報および機能情報ならびに対応する触覚効果のライブラリを伴ってプログラムされてもよく、その結果、決定モジュール116は対応する出力を決定することができる。空調機をオンにするなどの、特定のアクションがとられるように命令する信号を送ることに加えて、決定モジュール116は、適切な触覚効果がユーザに提供され得るように、触覚出力デバイス制御モジュール118に信号を出力してもよい。
触覚出力デバイス制御モジュール118は、決定モジュール116によって生成される信号に基づいて、触覚出力デバイス160に出力する触覚制御信号を決定するように構成され、またはプログラムされる。触覚制御信号を決定することは、システム100に対する全ての入力に基づいて、1つまたは複数のパラメータを決定することを含んでもよく、1つまたは複数のパラメータは、ユーザに所望の効果を提供するために、触覚出力デバイス160によって発生されるであろう、触覚フィードバックの振幅、周波数、持続時間などを含む。
車両においてシステム100が提供される、本発明の一実施形態の実装では、車両は図3に示すハンドルSWを装備してもよい。図示するように、ハンドルSWは、矢印A1で示した、単一の変形点を発生させるように構成される第1の触覚出力デバイス310、ならびに/または矢印A2で示した、複数の変形点を時間的および空間的パターンで発生させるように構成される第2の触覚出力デバイス320(複数可)、ならびに/または運転者の手とハンドルSWとの間の接触点の堅さ/柔らかさ/材質特性の変化を発生させるように構成される第3の触覚出力デバイス330を含むことができる。一実施形態では、様々な種類の触覚効果が、車両の運転者に提供されて運転者に様々な情報を伝達してもよく、触覚出力デバイス310、320、330のうちいずれかは、運転者に対して振動を発生させるように構成されてもよい。
本発明の一実施形態の実装では、嵐の状態で車両を運転する運転者は、道路から目を離したくないかもしれないが、車両内部の温度を変更したいかもしれない。図4は、センター・コンソール内に位置するユーザ・インターフェース450付近に置かれた、運転者の右手RHを示す。運転者の右手RHがユーザ・インターフェース450付近にあるか、または近接していることを、上述のセンサ170が感知すると、ハンドルSW内の触覚出力デバイス330を介して、運転者の左手LHに触覚効果が提供されてもよい。これにより、運転者は、ユーザ・インターフェース450ではなく、前方の道路に注目することができるようになる。運転者の右手RHが近くにある、または近接しているのがユーザ・インターフェース450のどの部分であるかに応じて、異なる触覚効果がハンドルSW内に位置する少なくとも1つの触覚出力デバイスにより発生され得る。空調機などの車両のサブシステムの調節が行われ得るように、ハンドルSW内の触覚出力デバイス330によって発生される触覚効果は、運転者がシステムに入力を提供するために接触する必要があるユーザ・インターフェース450の部分の位置を、運転者が特定するのに役立つように変化してもよい。異なる触覚効果を提供することによって、運転者は、いつユーザ・インターフェース450を押すべきか、いつ運転者が指などのユーザ入力要素でユーザ・インターフェース450に接触するかをより素早く決定することができ、触覚効果は、ユーザ・インターフェース150およびハンドルSWにおいて、同時にまたは順次再生されることができる。
図5Aおよび5Bは、Z1、Z2、Z3およびZ4で示される4つのゾーンを有し、各ゾーンが車両のサブシステムのあるパラメータを制御するように構成される、ユーザ・インターフェース550の一実施形態を示す。例えば、Z1は、ステレオ・システムの音量を制御するために使用される第1のゾーンを表し、Z2は、音楽トラックやラジオ局を選択するために使用される第2のゾーンを表し、Z3は、ナビゲーション・システムを制御するために使用される第3のゾーンを表し、Z4は、車両の内部温度を制御するために使用される第4のゾーンを表し得る。運転者が、車両の内部温度を変更したい場合、図5Aに示すように、運転者は、第4のゾーンZ4の、ユーザ・インターフェース550上またはユーザ・インターフェース550の真上に、彼/彼女の右手RHを置いてもよい。運転者の手が第4のゾーンZ4に位置すること、または近接していることを上述のセンサ170が感知すると、ユーザ・インターフェース550は、温度制御に関してより多くのオプションが運転者に利用可能になるように、第4のゾーンZ4を拡大させて、他のゾーンZ1、Z2およびZ3を縮小させてもよい。例えば、第4のゾーンZ4が拡大されたこと、および空調機をオンまたはオフにする、または温度もしくはファン速度を調節するなどの温度制御に、運転者が今アクセスしていることの証明として、ハンドルSW内に位置する触覚出力デバイス330を用いて、触覚効果が運転者に提供されてもよい。次いで、運転者は、取る必要のあるアクションに対応する、拡大した第4のゾーンZ4の部分の上に彼/彼女の指を置いてもよい。ハンドルSW上の触覚出力デバイス330によって提供される触覚効果は、結果的に運転者がユーザ・インターフェース550を見る必要なく温度調節を行うことができるように、異なる機能に対応する、拡大した第4のゾーンZ4内の様々な位置に運転者を導くような方法で発生されてもよい。
次いで、上述のセンサ170は、ユーザ・インターフェース550に対する運転者の指の位置、または運転者により提供されるジェスチャを検知し、車両のサブシステムが取る必要があるアクションを決定するために、上述のプロセッサ110に信号を送ることができる。一実施形態では、ユーザが、ユーザの指などのユーザ入力要素で、ユーザ・インターフェース550のタッチ感知デバイスに接触するとき、ユーザ・インターフェース550のタッチ感知デバイスの一部である第2のセンサ(図示せず)が、ユーザからの入力を検知するために使用されてもよい。この場合も、運転者により行われた命令の確認として、対応する触覚効果が、運転者が接触しているハンドルSWにおいて、ユーザ・インターフェース550から離れて発生されてもよい。一実施形態では、ユーザ・インターフェース550内の、またはユーザ・インターフェース550に接続される触覚出力デバイスが、運転者がユーザ・インターフェース550に触れているとき最初の確認の触覚効果を提供し、次いで、ハンドルSW内の触覚出力デバイス330を用いて別の触覚効果を提供するために、使用されてもよい。一実施形態では、ユーザ入力要素がユーザ・インターフェース550に接触している間、ユーザ・インターフェースにおける触覚効果が発生されてもよい。
図3に示す、触覚対応した(haptically enabled)ハンドルSWと同様に、一実施形態では、車両の運転者のシートSは、図6に示す運転者の背中を支えるシートの直立部分などの、運転者Dが常に接触するであろう位置にある触覚出力デバイス610を含んでもよい。上述の実施形態では、矢印A3で示す運転者の背中に向かうシートSの振動または動きなどの触覚効果は、ハンドルSWによって提供される触覚効果の代わりに、またはそれに加えて、シートS内の触覚出力デバイス610によって提供されてもよい。
一実施形態では、1つまたは複数の触覚出力デバイスは、シートベルトSBに取り付けられ、または埋め込まれて、運転者Dに対して運動感覚フィードバックおよび/または振動触知フィードバックを発生させるように構成されてもよい。図7に示すように、1つまたは複数の触覚出力デバイス710は、多くのシートベルトに既に存在する引張力制御メカニズムの一部であってもよく、シートベルトSBの張力を調節することによって、運動感覚フィードバックを伝達するように構成されてもよい。振動触知フィードバックを発生させるように構成される追加の触覚出力デバイス720は、シートベルトSBに埋め込まれ、または取り付けられて、触覚出力デバイス710によって提供される運動感覚フィードバックに加えて、振動触知フィードバックを提供してもよい。触覚効果が運転者の脚に提供され得るように、床板、ならびに/またはアクセルおよびブレーキペダルなどの、典型的に運転者が恒常的に接触する車両の他の部分にも、触覚出力デバイスが含まれてもよい。いずれにしても、図示する実施形態は、限定を意図するものではない。
図7は、運転者Dに触覚効果を提供するために使用され得る、ウェアラブル・デバイスの一実施形態を示す。一実施形態では、ウェアラブル・デバイスは、リストバンド730の形式であってもよく、リストバンド730は、スマートウォッチまたはフィットネス・バンドであってもよい。一実施形態では、ウェアラブル・デバイスは、眼鏡740の形式であってもよく、眼鏡740は、GOOGLE GLASS(登録商標)、またはBMWのMini拡張現実ゴーグル(Mini augmented reality goggles)などの、サングラスまたはヘッドマウント・ディスプレイであってもよい。一実施形態では、触覚効果は、上述の触覚出力デバイス310、320、330、610、710、720などの車両内の他の触覚出力デバイスの代わりに、またはそれに加えて、ウェアラブル・デバイス730、740のうちの1つまたは複数を介して運転者に提供されてもよい。
本発明の一実施形態の実装では、車両は、タッチ・スクリーンを有するユーザ・インターフェースを含む可能性があるが、触覚対応したハンドル、シート、またはシートベルトを含まないかもしれない。本実装における車両の運転者は、少なくとも1つの触覚出力デバイスを含み、例えば、Bluetooth(登録商標)ワイヤレス接続を介して、ユーザ・インターフェースと対になる、スマートウォッチなどのウェアラブル・デバイスを装着していてもよい。ユーザ・インターフェースは、触覚出力デバイスを含んでも含まなくてもよい。ユーザ・インターフェースに対する入力の確認は、ウェアラブル・デバイスによって車両の運転者に提供されることができる。同様に、一実施形態では、触覚出力デバイスを含み、運転者のポケット内にあるスマートフォンが、ユーザ・インターフェースと対になり、ユーザ入力要素を介する運転者とユーザ・インターフェースとの間の対話、および/またはユーザ・インターフェースにより出力される信号に基づいて触覚効果を発生させてもよい。
一実施形態では、車両内のセンサは、触覚出力デバイスを含むスマートフォンの位置を感知するために使用されてもよく、プロセッサは、感知されたスマートフォンの位置に部分的に基づいて、ユーザに対して発生されるべき触覚効果を決定してもよい。少なくとも1つの触覚出力デバイスを有する2つ以上の電子デバイスを含むシステムの実施形態では、プロセッサがユーザに対して触覚効果を発生させる理想的な位置を決定することができるように、車両内のセンサは各デバイスの位置を感知するために使用されてもよい。例えば、運転者が、ユーザ・インターフェースを使用して車両の左のミラーを調節している場合、触覚効果は、運転者の左のポケットの中のスマートフォンなど、車両の左のミラーに最も近い電子デバイスによって発生されてもよい。運転者が、ユーザ・インターフェースを使用して車両の右のミラーを調節している場合、触覚効果は、運転者の右腕のスマートウォッチなど、右のミラーに最も近い電子デバイスによって発生されてもよい。同様に、モータ性能に関する触覚効果が発生される場合、プロセッサは、触覚対応したアンクレットなどの、運転者の脚および車両のペダルに最も近い触覚出力デバイスを含む電子デバイスで、触覚効果を発生させることを決定してもよい。
図8は、車両環境以外で用いられ得る、本発明の一実施形態の実装を示す。図示するように、システム800は、手持ち式電子デバイス810、およびウェアラブル・デバイス820を含み、手持ち式電子デバイス810は、例えば、スマートフォンまたはタブレットであってもよく、ウェアラブル・デバイス820は、例えば、スマートウォッチであってもよい。手持ち式電子デバイス810は、上述のユーザ・インターフェース150およびセンサ170を含み、ウェアラブル・デバイス820は、上述の触覚出力デバイス160を含む。手持ち式電子デバイス810およびウェアラブル・デバイス820は、ワイヤレス通信ネットワーク840を介して互いに通信する。ユーザは、手持ち式電子デバイス810のディスプレイを見ないで、彼/彼女の右手RHを用いて手持ち式電子デバイス810と対話し、ウェアラブル・デバイス820上の触覚出力デバイス160を介して触覚効果を受け取り、手持ち式電子デバイス810との対話を確認することができる。
図9は、上述のシステム100などのシステムのユーザに対して触覚効果を発生させるための方法900のフローチャートを示す。910では、指などのユーザの手の一部またはスタイラスであってもよいユーザ入力要素が、上述のセンサ170などのセンサによって、上述のユーザ・インターフェース150などのユーザ・インターフェース付近で感知される。920では、上述のプロセッサ110などのプロセッサが、ユーザ・インターフェース付近のまたは近接するユーザ入力要素を感知することに基づいて、発生させる触覚効果を決定する。930では、決定された触覚効果に基づく触覚効果発生信号が、プロセッサによって、上述の触覚出力デバイス160などの触覚出力デバイスに出力される。940では、決定された触覚効果が、触覚出力デバイスによって、ユーザ・インターフェースから離れた位置で発生される。次いで、方法は、910に戻るか、終了してもよく、または方法の一部としてさらなるアクションが取られてもよい。
例えば、一実施形態では、ユーザ・インターフェースに接触するユーザ入力要素を介したユーザによる入力は、タッチ感知デバイスの一部であるセンサなどの、ユーザ・インターフェースの一部であるセンサによって感知されてもよく、感知された入力に基づく、ユーザに対して発生されるべき第2の触覚効果が、プロセッサで決定されてもよい。次いで、第2の触覚効果は、ユーザによる入力の確認として、ユーザ・インターフェースにおいて、第2の触覚出力デバイスを用いてユーザに対し発生されてもよい。一実施形態では、ユーザ入力要素がユーザ・インターフェースに接触する間、第2の触覚効果が発生されてもよい。一実施形態では、感知された入力に基づく、ユーザに対し発生される第3の触覚効果がプロセッサで決定され、第3の触覚効果は、ユーザ・インターフェースから離れた位置で、触覚出力デバイスを用いてユーザに対し発生されてもよい。一実施形態では、第2の触覚効果および第3の触覚効果は、同一の触覚効果、または実質的に同一の触覚効果であってもよい。
本明細書で述べた実施形態は、いくつかの可能な実装および例を表し、必ずしも本開示を任意の特定の実施形態に限定することを意図するものではない。様々な修正がこれらの実施形態に対してなされることができ、それは、当業者によって理解されるであろう。そのようないかなる修正も、本開示の精神と範囲内に含まれ、かつ以下の特許請求の範囲により保護されると意図される。
Claims (15)
- システムのユーザからの入力を受け取るように構成されるユーザ・インターフェースと、
前記ユーザ・インターフェースに対するユーザ入力要素の位置を感知するように構成されるセンサと、
前記ユーザ・インターフェースに対する前記ユーザ入力要素の前記位置に基づく前記センサからの入力信号を受け取り、前記入力信号に基づいて触覚効果を決定し、決定された前記触覚効果に基づいて触覚効果発生信号を出力するように構成されるプロセッサと、
前記プロセッサから前記触覚効果発生信号を受け取り、決定された前記触覚効果を前記ユーザに対して発生させるように構成され、決定された前記触覚効果が前記ユーザ・インターフェースから離れて発生されるように、前記ユーザ・インターフェースとは別個の位置にある触覚出力デバイスと、を備えるシステム。 - 前記ユーザに装着されるように構成されるウェアラブル・デバイスをさらに備え、前記ウェアラブル・デバイスは前記触覚出力デバイスを備える、請求項1に記載のシステム。
- 前記ウェアラブル・デバイスはスマートウォッチである、請求項2に記載のシステム。
- 前記ウェアラブル・デバイスはフィットネス・バンドである、請求項2に記載のシステム。
- 前記ユーザによって携行されるように構成される手持ち式電子デバイスをさらに備え、前記手持ち式電子デバイスは前記触覚出力デバイスを備える、請求項1に記載のシステム。
- 前記手持ち式電子デバイスはスマートフォンである、請求項5に記載のシステム。
- 前記ユーザ・インターフェースは第2の触覚出力デバイスを備え、前記第2の触覚出力デバイスは、前記ユーザからの前記入力の確認として、前記ユーザに対して、前記ユーザ・インターフェースにおいて第2の触覚効果を発生させるように構成される、請求項1に記載のシステム。
- 前記触覚出力デバイスは、前記ユーザに対して、前記ユーザ・インターフェースから離れた位置で第3の触覚効果を発生させるように構成される、請求項7に記載のシステム。
- 前記第2の触覚効果および前記第3の触覚効果は同一の触覚効果である、請求項8に記載のシステム。
- 前記ユーザによって携行されるように構成される手持ち式電子デバイスをさらに備え、前記手持ち式電子デバイスは前記ユーザ・インターフェースを備える、請求項1に記載のシステム。
- システムのユーザに対して触覚効果を発生させるための方法であって、
センサを用いて、前記ユーザからの入力を受け取るように構成されるユーザ・インターフェースの近くに位置するユーザ入力要素を感知することと、
プロセッサを用いて、前記感知することに基づいて、前記ユーザに対して発生させる触覚効果を決定することと、
前記プロセッサを用いて、決定された前記触覚効果に基づいて、触覚効果発生信号を触覚出力デバイスに出力することと、
前記触覚出力デバイスを用いて、前記ユーザ・インターフェースから離れた位置で、決定された前記触覚効果を発生させることと、を含む方法。 - 第2のセンサを用いて、前記ユーザが、前記ユーザ入力要素を介して前記ユーザ・インターフェースに接触することによる入力を感知することと、
前記プロセッサを用いて、感知された前記入力に基づいて、前記ユーザに対して発生させる第2の触覚効果を決定することと、
第2の触覚出力デバイスを用いて、前記ユーザによる前記入力の確認として、前記ユーザに対して、前記ユーザ・インターフェースにおいて前記第2の触覚効果を発生させることと、をさらに含む、請求項11に記載の方法。 - 前記第2の触覚効果は、前記ユーザ入力要素が前記ユーザ・インターフェースに接触する間、発生される、請求項12に記載の方法。
- 前記プロセッサを用いて、感知された前記入力に基づいて、前記ユーザに対して発生させる第3の触覚効果を決定することと、
前記触覚出力デバイスを用いて、前記ユーザに対して、前記ユーザ・インターフェースから離れた位置で前記第3の触覚効果を発生させることと、をさらに含む、請求項13に記載の方法。 - 前記第2の触覚効果および前記第3の触覚効果は同一の触覚効果である、請求項14に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/713,166 US20160334901A1 (en) | 2015-05-15 | 2015-05-15 | Systems and methods for distributing haptic effects to users interacting with user interfaces |
US14/713,166 | 2015-05-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016219008A true JP2016219008A (ja) | 2016-12-22 |
Family
ID=55802305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016096642A Pending JP2016219008A (ja) | 2015-05-15 | 2016-05-13 | ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US20160334901A1 (ja) |
EP (2) | EP3093734B1 (ja) |
JP (1) | JP2016219008A (ja) |
KR (1) | KR20160134514A (ja) |
CN (1) | CN106155307A (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9630555B1 (en) * | 2016-01-25 | 2017-04-25 | Ford Global Technologies, Llc | Driver alert system for speed and acceleration thresholds |
US9898903B2 (en) * | 2016-03-07 | 2018-02-20 | Immersion Corporation | Systems and methods for haptic surface elements |
US10585480B1 (en) | 2016-05-10 | 2020-03-10 | Apple Inc. | Electronic device with an input device having a haptic engine |
JP6943525B2 (ja) * | 2016-09-12 | 2021-10-06 | ソニーグループ株式会社 | 情報提示装置、操舵装置、および情報提示方法 |
CN110692030A (zh) * | 2017-06-14 | 2020-01-14 | 福特全球技术公司 | 可穿戴的触觉反馈 |
DE102018117006B4 (de) * | 2018-07-13 | 2021-10-28 | Grammer Aktiengesellschaft | Fahrzeugsitz mit Sitzbedienungseinrichtung |
US10966007B1 (en) | 2018-09-25 | 2021-03-30 | Apple Inc. | Haptic output system |
US10843624B1 (en) * | 2019-05-29 | 2020-11-24 | Honda Motor Co., Ltd. | System and method for providing haptic counteractions and alerts within a seat of a vehicle |
US11909238B1 (en) | 2019-07-23 | 2024-02-20 | BlueOwl, LLC | Environment-integrated smart ring charger |
US11537203B2 (en) | 2019-07-23 | 2022-12-27 | BlueOwl, LLC | Projection system for smart ring visual output |
US11949673B1 (en) | 2019-07-23 | 2024-04-02 | BlueOwl, LLC | Gesture authentication using a smart ring |
US11853030B2 (en) | 2019-07-23 | 2023-12-26 | BlueOwl, LLC | Soft smart ring and method of manufacture |
US11551644B1 (en) | 2019-07-23 | 2023-01-10 | BlueOwl, LLC | Electronic ink display for smart ring |
US11479258B1 (en) | 2019-07-23 | 2022-10-25 | BlueOwl, LLC | Smart ring system for monitoring UVB exposure levels and using machine learning technique to predict high risk driving behavior |
US11462107B1 (en) | 2019-07-23 | 2022-10-04 | BlueOwl, LLC | Light emitting diodes and diode arrays for smart ring visual output |
US11984742B2 (en) | 2019-07-23 | 2024-05-14 | BlueOwl, LLC | Smart ring power and charging |
US11637511B2 (en) | 2019-07-23 | 2023-04-25 | BlueOwl, LLC | Harvesting energy for a smart ring via piezoelectric charging |
US11594128B2 (en) | 2019-07-23 | 2023-02-28 | BlueOwl, LLC | Non-visual outputs for a smart ring |
US11402913B1 (en) * | 2020-01-06 | 2022-08-02 | Rockwell Collins, Inc. | System and method for aircraft display device feedback |
US11024135B1 (en) | 2020-06-17 | 2021-06-01 | Apple Inc. | Portable electronic device having a haptic button assembly |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014102656A (ja) * | 2012-11-19 | 2014-06-05 | Aisin Aw Co Ltd | 操作支援システム、操作支援方法及びコンピュータプログラム |
WO2014103085A1 (ja) * | 2012-12-26 | 2014-07-03 | パナソニック株式会社 | タッチパネルデバイスとタッチパネルデバイスの制御方法 |
JP2014154150A (ja) * | 2013-02-04 | 2014-08-25 | Immersion Corp | ウェアラブルデバイスマネージャー |
JP2015035141A (ja) * | 2013-08-09 | 2015-02-19 | 株式会社デンソー | タッチパネル式入力装置、およびタッチパネル式入力方法 |
JP2015060303A (ja) * | 2013-09-17 | 2015-03-30 | 船井電機株式会社 | 情報処理装置 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1834229A2 (de) * | 2004-12-30 | 2007-09-19 | Volkswagon AG | Eingabevorrichtung und verfahren zum betrieb derselben |
US7609178B2 (en) * | 2006-04-20 | 2009-10-27 | Pressure Profile Systems, Inc. | Reconfigurable tactile sensor input device |
US9081445B2 (en) * | 2006-12-08 | 2015-07-14 | Johnson Controls Technology Company | Display and user interface |
US8963842B2 (en) * | 2007-01-05 | 2015-02-24 | Visteon Global Technologies, Inc. | Integrated hardware and software user interface |
US20080238886A1 (en) * | 2007-03-29 | 2008-10-02 | Sony Ericsson Mobile Communications Ab | Method for providing tactile feedback for touch-based input device |
US9857872B2 (en) * | 2007-12-31 | 2018-01-02 | Apple Inc. | Multi-touch display screen with localized tactile feedback |
US8373549B2 (en) * | 2007-12-31 | 2013-02-12 | Apple Inc. | Tactile feedback in an electronic device |
DE102008016017A1 (de) * | 2008-03-26 | 2009-10-22 | Continental Automotive Gmbh | Bedienvorrichtung |
US9056549B2 (en) * | 2008-03-28 | 2015-06-16 | Denso International America, Inc. | Haptic tracking remote control for driver information center system |
US8306576B2 (en) * | 2008-06-27 | 2012-11-06 | Lg Electronics Inc. | Mobile terminal capable of providing haptic effect and method of controlling the mobile terminal |
KR101553842B1 (ko) * | 2009-04-21 | 2015-09-17 | 엘지전자 주식회사 | 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법 |
US8576171B2 (en) * | 2010-08-13 | 2013-11-05 | Immersion Corporation | Systems and methods for providing haptic feedback to touch-sensitive input devices |
JP5705243B2 (ja) * | 2011-02-10 | 2015-04-22 | 京セラ株式会社 | 電子機器及び電子機器の制御方法 |
DE102011012838A1 (de) * | 2011-03-02 | 2012-09-06 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug |
US20130050131A1 (en) * | 2011-08-23 | 2013-02-28 | Garmin Switzerland Gmbh | Hover based navigation user interface control |
DE102011112447A1 (de) * | 2011-09-03 | 2013-03-07 | Volkswagen Aktiengesellschaft | Verfahren und Anordnung zum Bereitstellen einer graphischen Nutzerschnittstelle, insbesondere in einem Fahrzeug |
US9733706B2 (en) * | 2011-10-26 | 2017-08-15 | Nokia Technologies Oy | Apparatus and associated methods for touchscreen displays |
US9678570B2 (en) * | 2011-12-15 | 2017-06-13 | Lg Electronics Inc. | Haptic transmission method and mobile terminal for same |
US9349263B2 (en) * | 2012-06-22 | 2016-05-24 | GM Global Technology Operations LLC | Alert systems and methods for a vehicle |
DE102012216455A1 (de) * | 2012-09-14 | 2014-03-20 | Bayerische Motoren Werke Aktiengesellschaft | Feedback-Einrichtung zur Erzeugung eines distales, taktilen Feedback-Signals an einem den Fahrzeugsitz berührenden Körperbereich bei Interaktion mit einem Touchscreen |
KR102091077B1 (ko) * | 2012-12-14 | 2020-04-14 | 삼성전자주식회사 | 입력 유닛의 피드백을 제어하는 휴대 단말 및 방법과, 이를 제공하는 상기 입력 유닛 및 방법 |
US9202350B2 (en) * | 2012-12-19 | 2015-12-01 | Nokia Technologies Oy | User interfaces and associated methods |
DE102012024954A1 (de) * | 2012-12-20 | 2014-06-26 | Volkswagen Aktiengesellschaft | Verfahren zur Kennzeichnung einer Teilmenge einer in einer Speichereinheit abgelegten Grundmenge von Datensätzen und zur Visualisierung zumindest eines Teils der gekennzeichneten Teilmenge auf einer Anzeigeeinheit |
US9949890B2 (en) * | 2013-03-15 | 2018-04-24 | Sambhu Choudhury | Garment with remote controlled vibration array |
US20150040005A1 (en) * | 2013-07-30 | 2015-02-05 | Google Inc. | Mobile computing device configured to output haptic indication of task progress |
US20150307022A1 (en) * | 2014-04-23 | 2015-10-29 | Ford Global Technologies, Llc | Haptic steering wheel |
US10042439B2 (en) * | 2014-12-11 | 2018-08-07 | Microsft Technology Licensing, LLC | Interactive stylus and display device |
-
2015
- 2015-05-15 US US14/713,166 patent/US20160334901A1/en not_active Abandoned
-
2016
- 2016-04-21 EP EP16166421.4A patent/EP3093734B1/en active Active
- 2016-04-21 EP EP19212663.9A patent/EP3654144A1/en not_active Withdrawn
- 2016-05-11 KR KR1020160057422A patent/KR20160134514A/ko unknown
- 2016-05-13 JP JP2016096642A patent/JP2016219008A/ja active Pending
- 2016-05-16 CN CN201610320503.6A patent/CN106155307A/zh active Pending
-
2018
- 2018-02-23 US US15/904,206 patent/US20180181235A1/en active Granted
-
2020
- 2020-01-31 US US16/778,225 patent/US20200167022A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014102656A (ja) * | 2012-11-19 | 2014-06-05 | Aisin Aw Co Ltd | 操作支援システム、操作支援方法及びコンピュータプログラム |
WO2014103085A1 (ja) * | 2012-12-26 | 2014-07-03 | パナソニック株式会社 | タッチパネルデバイスとタッチパネルデバイスの制御方法 |
JP2014154150A (ja) * | 2013-02-04 | 2014-08-25 | Immersion Corp | ウェアラブルデバイスマネージャー |
JP2015035141A (ja) * | 2013-08-09 | 2015-02-19 | 株式会社デンソー | タッチパネル式入力装置、およびタッチパネル式入力方法 |
JP2015060303A (ja) * | 2013-09-17 | 2015-03-30 | 船井電機株式会社 | 情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3654144A1 (en) | 2020-05-20 |
EP3093734B1 (en) | 2020-01-01 |
CN106155307A (zh) | 2016-11-23 |
EP3093734A1 (en) | 2016-11-16 |
KR20160134514A (ko) | 2016-11-23 |
US20160334901A1 (en) | 2016-11-17 |
US20200167022A1 (en) | 2020-05-28 |
US20180181235A1 (en) | 2018-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200167022A1 (en) | Systems and methods for distributing haptic effects to users interacting with user interfaces | |
US10394285B2 (en) | Systems and methods for deformation and haptic effects | |
JP6411756B2 (ja) | 接触子に基づいたハプティックフィードバック生成 | |
US10296091B2 (en) | Contextual pressure sensing haptic responses | |
EP2796964B1 (en) | System and Method for a Haptically-Enabled Deformable Surface | |
US9405369B2 (en) | Simulation of tangible user interface interactions and gestures using array of haptic cells | |
US20190369733A1 (en) | Non-collocated haptic cues in immersive environments | |
JP5833601B2 (ja) | モバイルデバイス上での共有されたフィードバックのための双方向性モデル | |
JP2021508115A (ja) | 空中触覚システムと人との相互作用 | |
US10234945B2 (en) | Compensated haptic rendering for flexible electronic devices | |
US20120256848A1 (en) | Tactile feedback method and apparatus | |
CN110658919A (zh) | 用于触觉效果的参数修改的方法、电子装置和介质 | |
JP2011528826A (ja) | タッチスクリーンのキーシミュレーションに対する触覚フィードバック | |
JP2020013549A (ja) | 動的システム識別に基づく適応触覚効果レンダリング | |
US11175738B2 (en) | Systems and methods for proximity-based haptic feedback | |
JP2016219002A (ja) | 予測される接触に基づく触覚効果 | |
US20200012348A1 (en) | Haptically enabled overlay for a pressure sensitive surface | |
JP2019519856A (ja) | マルチモーダルハプティック効果 | |
CA2773387A1 (en) | Tactile feedback method and apparatus | |
KR20160111880A (ko) | 착용가능한 3차원 입력 장치와 외부 기기와의 연동 방법 | |
CN111258445A (zh) | 可变曲率交互式设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200427 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200917 |