JP2016219008A - ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法 - Google Patents

ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法 Download PDF

Info

Publication number
JP2016219008A
JP2016219008A JP2016096642A JP2016096642A JP2016219008A JP 2016219008 A JP2016219008 A JP 2016219008A JP 2016096642 A JP2016096642 A JP 2016096642A JP 2016096642 A JP2016096642 A JP 2016096642A JP 2016219008 A JP2016219008 A JP 2016219008A
Authority
JP
Japan
Prior art keywords
user
haptic effect
user interface
haptic
output device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016096642A
Other languages
English (en)
Inventor
エス. リン ウィリアム
S Rihn William
エス. リン ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2016219008A publication Critical patent/JP2016219008A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザ・インターフェースに接触するユーザ入力要素を介したユーザによる入力の確認として、触覚効果を提供する。【解決手段】システム100は、システムのユーザからの入力を受け取るように構成されるユーザ・インターフェースと、ユーザ・インターフェースに対するユーザ入力要素の位置を感知するように構成されるセンサと、ユーザ・インターフェースに対するユーザ入力要素の位置に基づくセンサからの入力信号を受け取り、入力信号に基づいて触覚効果を決定し、決定された触覚効果に基づいて触覚効果発生信号を出力するように構成されるプロセッサと、を含む。触覚出力デバイスは、プロセッサから触覚効果発生信号を受け取り、決定された触覚効果をユーザに対して発生させるように構成され、決定された触覚効果がユーザ・インターフェースから離れて発生されるように、ユーザ・インターフェースとは別個の位置にある。【選択図】図1

Description

本発明は、概して、ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法に関する。
自動車のセンター・コンソールに位置する自動車用ユーザ・インターフェースなどの多くのユーザ・インターフェースが、温度調節の前に空調機ボタンを押すなど、特定の機能を起動するために複数の対話が必要とされるように設計されている。このような対話に伴う1つの問題は、ユーザ・インターフェースのタッチ・スクリーン上のどこにボタンがあるかを、タッチ・スクリーンを見ることなくユーザが識別する方法がないかもしれないということである。どこにボタンがあるかタッチ・スクリーンを見る必要なくユーザが識別するのを支援するためにユーザ・インターフェースにおいて触覚効果が発生され得るが、触覚効果が発生されることができ且つユーザによって伝播されることができるためには、ユーザは、しばらくの間タッチ・スクリーンに接触し続ける必要があるであろう。
ユーザ・インターフェースから情報を受け取るために、ユーザ・インターフェースに接触し続けなければならないことによってユーザが気を取られなくてよいように、ユーザが通常、接触するであろう位置に触覚効果を提供することが望ましい。
本発明の一態様によれば、システムのユーザからの入力を受け取るように構成されるユーザ・インターフェースと、ユーザ・インターフェースに対するユーザ入力要素の位置を感知するように構成されるセンサと、ユーザ・インターフェースに対するユーザ入力要素の位置に基づくセンサからの入力信号を受け取り、入力信号に基づいて触覚効果を決定し、決定された触覚効果に基づいて触覚効果発生信号を出力するように構成されるプロセッサと、を含むシステムが提供される。システムは、また、プロセッサから触覚効果発生信号を受け取り、決定された触覚効果をユーザに対して発生させるように構成され、決定された触覚効果がユーザ・インターフェースから離れて発生されるように、ユーザ・インターフェースとは別個の位置にある触覚出力デバイスを含む。
一実施形態では、システムは、また、ユーザに装着されるように構成されるウェアラブル・デバイスを含み、ウェアラブル・デバイスは触覚出力デバイスを含む。
一実施形態では、ウェアラブル・デバイスはスマートウォッチである。一実施形態では、ウェアラブル・デバイスはフィットネス・バンドである。
一実施形態では、システムは、また、ユーザによって携行されるように構成される手持ち式電子デバイスを含み、手持ち式電子デバイスは触覚出力デバイスを含む。
一実施形態では、手持ち式電子デバイスは、スマートフォンである。
一実施形態では、ユーザ・インターフェースは第2の触覚出力デバイスを含み、第2の触覚出力デバイスは、ユーザからの入力の確認として、ユーザに対してユーザ・インターフェースにおいて第2の触覚効果を発生させるように構成される。
一実施形態では、触覚出力デバイスは、ユーザに対して、ユーザ・インターフェースから離れた位置で第3の触覚効果を発生させるように構成される。一実施形態では、第2の触覚効果および第3の触覚効果は同一の触覚効果である。
一実施形態では、システムは、また、ユーザによって携行されるように構成される手持ち式電子デバイスを含み、手持ち式電子デバイスはユーザ・インターフェースを含む。
本発明の一態様によれば、システムのユーザに対して触覚効果を発生させるための方法が提供される。方法は、センサを用いて、ユーザからの入力を受け取るように構成されるユーザ・インターフェースの近くに位置するユーザ入力要素を感知することと、プロセッサを用いて、感知することに基づいて、ユーザに対して発生させる触覚効果を決定することと、プロセッサを用いて、決定された触覚効果に基づいて、触覚効果発生信号を触覚出力デバイスに出力することと、触覚出力デバイスを用いて、ユーザ・インターフェースから離れた位置で、決定された触覚効果を発生させることと、を含む。
一実施形態では、方法は、また、ユーザがユーザ入力要素を介してユーザ・インターフェースに接触することによる入力を、第2のセンサを用いて感知することと、プロセッサを用いて、感知された入力に基づいて、ユーザに対して発生させる第2の触覚効果を決定することと、第2の触覚出力デバイスを用いて、ユーザからの入力の確認として、ユーザに対してユーザ・インターフェースにおいて第2の触覚効果を発生させることと、を含む。
一実施形態では、第2の触覚効果は、ユーザ入力要素がユーザ・インターフェースに接触する間、発生される。
一実施形態では、方法は、また、プロセッサを用いて、感知された入力に基づいて、ユーザに対して発生させる第3の触覚効果を決定することと、触覚出力デバイスを用いて、ユーザに対してユーザ・インターフェースから離れた位置で第3の触覚効果を発生させることと、を含む。一実施形態では、第2の触覚効果および第3の触覚効果は同一の触覚効果である。
本発明の、これらのおよび他の態様、特徴、および特性、ならびに動作の方法および構造の関連要素の機能、および部品と製造の経済性との組合せは、本明細書の一部を形成する、添付の図面を参照する以下の説明および添付の特許請求の範囲の全てを考慮すると、より明らかとなるであろう。しかしながら、図面は、例示および説明のみを目的とし、本発明の範囲を定義することを意図するものではない。本明細書および特許請求の範囲において使用されるように、単数形の「a」、「an」、および「the」は、文脈で明確に指示しない限り、複数の対象を含む。
本発明の一実施形態によるシステムの概略図である。 図1のシステムのプロセッサの概略図である。 図1のシステムの実装の一部の概略図である。 図1のシステムの実装の概略図である。 図1のシステムの実装の一部の概略図である。 図1のシステムの実装の一部の概略図である。 図1のシステムの実装の一部の概略図である。 図1のシステムの実装の一部の概略図である。 図1のシステムの実装の概略図である。 本発明の一実施形態による方法を概略的に示すフローチャートである。
図面の構成要素は、本開示の一般原理を強調するために示され、必ずしも縮尺通りには描かれていない。対応する構成要素を指定する参照文字は、一貫性および明確性のために、図面全体を通して必要に応じて繰り返される。
図1は、本発明の実施形態によるシステム100の概略図である。システム100は、電子デバイス(デスクトップ・コンピュータ、ラップトップ・コンピュータ、電子ワークブック、販売時点情報管理デバイス、ゲーム・コントローラ、など)、手持ち式電子デバイス(携帯電話、スマートフォン、タブレット、タブレット型ゲーム・デバイス、携帯情報端末(「PDA」:(personal digital assistant))、携帯電子メール・デバイス、携帯インターネット・アクセス・デバイス、計算器、など)、ウェアラブル・デバイス(スマートウォッチ、フィットネス・バンド、眼鏡、ヘッドマウント・ディスプレイ、スマート靴下、スマート・シューズなどの衣類、など)、もしくは他の電子デバイスのうちの一部であってもよく、またはそれらのうちの1つもしくは複数を含んでもよい。いくつかの実施形態では、システム100またはシステム100の一部は、以下のシステム100の実装で説明されるように、車両などのより大きな装置に組み込まれてもよい。
図示するように、システム100は、プロセッサ110、メモリ・デバイス120、および入力/出力デバイス130を含み、それらは、バスおよび/または通信ネットワーク140を介して相互に接続されることができる。一実施形態では、入力/出力デバイス130は、ユーザ・インターフェース150、少なくとも1つの触覚出力デバイス160、少なくとも1つのセンサ170、および/または他の入力/出力デバイスを含んでもよい。
プロセッサ110は、システム100の動作および機能を管理または制御する、汎用のまたは特定目的用の、プロセッサまたはマイクロコントローラであってよい。例えば、プロセッサ110は、具体的には、入力/出力デバイス130のユーザに対する出力信号を制御して触覚フィードバックまたは触覚効果を提供するための特定用途向け集積回路(ASIC:application−specific integrated Circuit)として設計されてもよい。プロセッサ110は、プロセッサ110によって受け取られ、または決定される触覚信号に基づいてどの触覚フィードバックまたは触覚効果が発生されるべきか、触覚効果が発生される順序、ならびに触覚効果の大きさ、周波数、期間、および/または他のパラメータを、予め定義された要因に基づいて決定するように構成されてもよい。プロセッサ110は、また、特定の触覚効果を提供する、触覚出力デバイス160を駆動するために使用され得るストリーミング・コマンドを提供するように構成されてもよい。いくつかの実施形態では、各プロセッサ110がシステム100内のある機能を実行するように構成される、2つ以上のプロセッサ110がシステム100に含まれることができる。プロセッサ110の一実施形態について、以下でさらに詳細に説明する。
メモリ・デバイス120は、1つまたは複数の内部固定記憶ユニット、取り外し可能な記憶ユニット、および/または遠隔アクセス可能な記憶ユニットを含むことができる。様々な記憶ユニットは、揮発性メモリおよび不揮発性メモリのいかなる組合せも含むことができる。記憶ユニットは、情報、データ、命令、ソフトウェア・コードなどのいかなる組合せも記憶するように構成されることができる。より具体的には、記憶ユニットは、触覚効果のプロファイル、入力/出力デバイス130の触覚出力デバイス160がどのように駆動されるかについての命令、および/または触覚フィードバックもしくは触覚効果を発生させる他の情報を含むことができる。
バスおよび/または通信ネットワーク140は、システム100の様々な構成要素間の信号通信を可能にするように構成され、また、別の通信ネットワークを通じて遠隔コンピュータまたはサーバから情報にアクセスするようにも構成されることができる。通信ネットワークは、ワイヤレス通信ネットワーク、インターネット、パーソナル・エリア・ネットワーク(「PAN」:personal area network)、ローカル・エリア・ネットワーク(「LAN」:local area network)、メトロポリタン・エリア・ネットワーク(「MAN」:metropolitan area network)、ワイド・エリア・ネットワーク(「WAN」:wide area network)などのうちの1つまたは複数を含んでもよい。通信ネットワークは、ローカル無線周波数、セルラー(GPRS、CDMA、GSM、CDPD、2.5G、3G、4G LTE、など)、超広帯域無線通信(「UWB」:Ultra−WideBand)、WiMax(登録商標)、ZigBee(登録商標)、および/または他のアドホック/メッシュ・ワイヤレス・ネットワーク技術などを含んでもよい。
ユーザ・インターフェース150は、任意の適切なユーザ・インターフェースまたはタッチ/接触面アセンブリとして構成され得るタッチ感知デバイス152と、画像を表示するように構成される視覚ディスプレイ154とを含むことができる。視覚ディスプレイ154は、高解像度ディスプレイスクリーンを含むことができる。タッチ感知デバイス152は、任意のタッチ・スクリーン、タッチ・パッド、タッチ感知構造体、コンピュータ・モニタ、ラップトップ・ディスプレイ・デバイス、ワークブック・ディスプレイ・デバイス、携帯電子デバイススクリーン、または他の適切なタッチ感知デバイスであってもよい。タッチ感知デバイス152は、スタイラス、または手のひらや指(例えば、親指以外の指もしくは親指)などユーザの手の一部などの、ユーザ入力要素との物理的対話のために構成されてもよい。いくつかの実施形態では、タッチ感知デバイス152は、視覚ディスプレイ154を含んでもよく、その上に重ね合わせた、ユーザ入力要素からの入力を受け取る少なくとも1つのセンサを含んでもよい。
触覚出力デバイス160は、システム100のユーザに触覚フィードバックを提供するように構成される。触覚出力デバイス160によって提供される触覚フィードバックは、振動、変形、力覚(kinesthetic sensations)、静電摩擦または超音波摩擦などの、触覚効果を生成する方法のうちのいずれかによって生成されることができる。一実施形態では、触覚出力デバイス160は、アクチュエータを含んでもよく、例えば、偏心質量体がモータにより動かされる偏心回転質量体(「ERM」:Eccentric Rotating Mass)などの電磁アクチュエータ、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエータ(「LRA」:Linear Resonant Actuator)、もしくは圧電材料、電気活性ポリマー、もしくは形状記憶合金などの「スマートマテリアル」、マクロ繊維複合材アクチュエータ、静電気アクチュエータ、電気触知(electro−tactile)アクチュエータ、および/または振動触知(vibrotactile)フィードバックなどの物理的フィードバックを提供する別の種類のアクチュエータを含んでもよい。触覚出力デバイス160は、静電摩擦(「ESF」:electrostatic friction)や超音波摩擦(「USF」:ultrasonic friction)を用いるデバイス、または超音波触覚トランスデューサで音響放射圧を生じさせるデバイス、または触覚基板および可撓性のもしくは変形可能な表面を用いるデバイス、または熱効果を提供するデバイス、またはエアジェットを用いた空気のパフ(puff)などの発射型の触覚出力を提供するデバイスなどの、非機械的デバイスまたは非振動デバイスを含んでもよい。様々な触覚効果を発生させるために複数の触覚出力デバイス160が使用されてもよく、複数の触覚出力デバイス160は、変形、振動などの広範囲に及ぶ効果を生成するために使用されてもよい。
一実施形態では、触覚出力デバイス160の特定の位置に基づいて、様々な情報がユーザに通信され得るように、複数の触覚出力デバイス160がシステム100内の様々な位置に配置されてもよい。例えば、以下でさらに詳細に説明するように、車両における実装では、運転者に常に接触し、または運転者によって触れられる表面が、動きまたは振動して、運転者に触覚フィードバックを提供することができるように、ハンドル、運転者のシートおよび/もしくは運転者のシートベルト、または運転者が車両の運転中に日常的に接触する任意の他の表面において、またはその中などの、センター・コンソール内のユーザ・インターフェース150から離れた所に、触覚出力デバイス160のうち少なくとも1つが配置されてもよい。一実施形態では、触覚出力デバイス160は、運転者またはシステム100の任意のユーザに装着されるウェアラブル・デバイス内に位置してもよい。ウェアラブル・デバイスは、例えば、スマートウォッチ、フィットネス・バンドなどのリストバンド、ブレスレット、指輪、アンクレット、スマート靴下またはスマート・シューズを含むスマート衣類、眼鏡、ヘッドマウント・ディスプレイなどの形式であってもよい。システム100の車両以外の実装の場合、ユーザ・インターフェース150は、例えば、タブレットまたはスマートフォンの一部であってもよい。
図1に戻って、センサ170は、以下の種類のセンサのうちの1つまたは複数を含んでもよい。一実施形態では、センサ170は、ユーザの手、もしくは指などのユーザの手の一部、またはスタイラスなどのユーザ入力要素の、ユーザ・インターフェース150などの入力デバイスに対する位置を感知するように構成される、近接センサを含んでもよい。一実施形態では、センサ170は、カメラおよび画像プロセッサを含み、ユーザ・インターフェース150に対するユーザ入力要素の位置を感知するように構成されてもよい。一実施形態では、センサ170は、ユーザ・インターフェース150に位置するか、またはユーザ・インターフェース150の一部であってもよい。一実施形態では、センサ170は、スマートウォッチまたはリストバンドなどの、ユーザに装着されるウェアラブル・デバイス内に位置してもよい。一実施形態では、センサ170は、システム100内の触覚出力デバイス160(複数可)を含む電子デバイス(複数可)の位置を感知するように構成されてもよい。一実施形態では、センサ170は、ユーザ・インターフェース150の一部であり、かつ、ユーザ・インターフェース150のタッチ位置、例えば、ユーザ・インターフェース150のタッチ感知デバイス152におけるタッチ位置に加えられる圧力を測定するように構成される、圧力センサを含んでもよい。一実施形態では、センサ170は、環境条件を測定するように構成される、温度センサ、湿度センサ、および/または気圧センサを含んでもよい。一実施形態では、センサ170は、ユーザの心拍数などの生体測定値をキャプチャするように構成される、生体認証センサを含んでもよい。一実施形態では、センサ170は、ユーザの顔の表情および関連する生体情報をキャプチャするように構成される、画像センサおよび/またはカメラを含んでもよい。一実施形態では、センサ170は、触覚フィードバックを受け取るべき人を識別するために使用されてもよい。
図2は、プロセッサ110の一実施形態をより詳細に示す。プロセッサ110は、1つまたは複数のコンピュータ・プログラム・モジュールを実行するように構成されることができる。1つまたは複数のコンピュータ・プログラム・モジュールは、位置モジュール112、入力モジュール114、決定モジュール116、触覚出力デバイス制御モジュール118、および/または他のモジュールのうち1つまたは複数を含むことができる。プロセッサ110は、また、電子記憶装置119も含んでもよく、電子記憶装置119は、メモリ・デバイス120と同一であってもよく、またはメモリ・デバイス120に追加するものであってもよい。プロセッサ110は、ソフトウェア、ハードウェア、ファームウェア、ソフトウェア、ハードウェア、および/もしくはファームウェアの何らかの組合せ、ならびに/またはプロセッサ110上の処理能力を構成する他のメカニズムによって、モジュール112、114、116および/または118を実行するように構成されてもよい。
モジュール112、114、116および118は、単一の処理ユニット内に共に位置しているものとして図2に示されるが、システムが複数のプロセッサを含む実施形態では、モジュール112、114、116および/または118のうち1つまたは複数が、他のモジュールから遠隔設置されてもよいと理解すべきである。後述の異なるモジュール112、114、116および/または118によって提供される機能性の説明は、例示の目的のためであって、限定を意図するものではなく、モジュール112、114、116および/または118のいずれかが、説明されるものよりも多くのまたは少ない機能性を提供するものであってもよい。例えば、モジュール112、114、116および/または118のうち1つまたは複数が除外されてもよく、その機能性のうちのいくつかまたは全てが、モジュール112、114、116および/または118のうちの他のモジュールによって提供されてもよい。別の例として、プロセッサ110は、モジュール112、114、116および/または118のうち1つの下に帰属する機能性のうちのいくつかまたは全てを実行し得る、1つまたは複数の追加的なモジュールを実行するように構成されてもよい。
位置モジュール112は、ユーザの手やユーザの手の一部などのユーザ入力要素が、ユーザ・インターフェース150付近にあることを、センサ170が検知するときに生成される入力信号を、センサ170から受け取るように構成され、またはプログラムされる。位置モジュール112は、また、さらなる処理のために、位置信号を決定モジュール116に送るように構成され、またはプログラムされる。
入力モジュール114は、ユーザ入力要素を介したユーザからの入力をユーザ・インターフェース150が検知するときに生成される入力信号を、ユーザ・インターフェース150から受け取るように構成され、またはプログラムされる。例えば、システム100またはシステム100がその一部である装置の機能を動作させるボタンを表す、ユーザ・インターフェース150の一部に、例えば、接触することによって、ユーザは入力を示してもよい。例えば、車両におけるシステム100の実装では、運転者は、ボタンまたは視覚ディスプレイ154のボタンが表示される部分を押して、運転者が、車両内の空調機をオンにして、車両についての目標温度に設定したいということを示すことができる。入力モジュール114は、ユーザ・インターフェース150から入力信号を受け取り、入力信号に基づいてシステム100がさらにどの機能を実行するかを決定し、さらなる処理のために決定モジュール116に機能信号を送るように構成され、またはプログラムされる。
決定モジュール116は、センサ170からの出力に基づく位置モジュール112からの位置信号と、ユーザ・インターフェース150からの出力に基づく入力モジュール114からの機能信号とに従って、どの種類のアクションがシステム100によって取られるべきか、およびどの種類の触覚フィードバックが触覚出力デバイス160によって発生されるべきかを決定するように構成され、またはプログラムされる。決定モジュール116は、もしあれば、システム100が利用可能な位置情報および機能情報ならびに対応する触覚効果のライブラリを伴ってプログラムされてもよく、その結果、決定モジュール116は対応する出力を決定することができる。空調機をオンにするなどの、特定のアクションがとられるように命令する信号を送ることに加えて、決定モジュール116は、適切な触覚効果がユーザに提供され得るように、触覚出力デバイス制御モジュール118に信号を出力してもよい。
触覚出力デバイス制御モジュール118は、決定モジュール116によって生成される信号に基づいて、触覚出力デバイス160に出力する触覚制御信号を決定するように構成され、またはプログラムされる。触覚制御信号を決定することは、システム100に対する全ての入力に基づいて、1つまたは複数のパラメータを決定することを含んでもよく、1つまたは複数のパラメータは、ユーザに所望の効果を提供するために、触覚出力デバイス160によって発生されるであろう、触覚フィードバックの振幅、周波数、持続時間などを含む。
車両においてシステム100が提供される、本発明の一実施形態の実装では、車両は図3に示すハンドルSWを装備してもよい。図示するように、ハンドルSWは、矢印A1で示した、単一の変形点を発生させるように構成される第1の触覚出力デバイス310、ならびに/または矢印A2で示した、複数の変形点を時間的および空間的パターンで発生させるように構成される第2の触覚出力デバイス320(複数可)、ならびに/または運転者の手とハンドルSWとの間の接触点の堅さ/柔らかさ/材質特性の変化を発生させるように構成される第3の触覚出力デバイス330を含むことができる。一実施形態では、様々な種類の触覚効果が、車両の運転者に提供されて運転者に様々な情報を伝達してもよく、触覚出力デバイス310、320、330のうちいずれかは、運転者に対して振動を発生させるように構成されてもよい。
本発明の一実施形態の実装では、嵐の状態で車両を運転する運転者は、道路から目を離したくないかもしれないが、車両内部の温度を変更したいかもしれない。図4は、センター・コンソール内に位置するユーザ・インターフェース450付近に置かれた、運転者の右手RHを示す。運転者の右手RHがユーザ・インターフェース450付近にあるか、または近接していることを、上述のセンサ170が感知すると、ハンドルSW内の触覚出力デバイス330を介して、運転者の左手LHに触覚効果が提供されてもよい。これにより、運転者は、ユーザ・インターフェース450ではなく、前方の道路に注目することができるようになる。運転者の右手RHが近くにある、または近接しているのがユーザ・インターフェース450のどの部分であるかに応じて、異なる触覚効果がハンドルSW内に位置する少なくとも1つの触覚出力デバイスにより発生され得る。空調機などの車両のサブシステムの調節が行われ得るように、ハンドルSW内の触覚出力デバイス330によって発生される触覚効果は、運転者がシステムに入力を提供するために接触する必要があるユーザ・インターフェース450の部分の位置を、運転者が特定するのに役立つように変化してもよい。異なる触覚効果を提供することによって、運転者は、いつユーザ・インターフェース450を押すべきか、いつ運転者が指などのユーザ入力要素でユーザ・インターフェース450に接触するかをより素早く決定することができ、触覚効果は、ユーザ・インターフェース150およびハンドルSWにおいて、同時にまたは順次再生されることができる。
図5Aおよび5Bは、Z1、Z2、Z3およびZ4で示される4つのゾーンを有し、各ゾーンが車両のサブシステムのあるパラメータを制御するように構成される、ユーザ・インターフェース550の一実施形態を示す。例えば、Z1は、ステレオ・システムの音量を制御するために使用される第1のゾーンを表し、Z2は、音楽トラックやラジオ局を選択するために使用される第2のゾーンを表し、Z3は、ナビゲーション・システムを制御するために使用される第3のゾーンを表し、Z4は、車両の内部温度を制御するために使用される第4のゾーンを表し得る。運転者が、車両の内部温度を変更したい場合、図5Aに示すように、運転者は、第4のゾーンZ4の、ユーザ・インターフェース550上またはユーザ・インターフェース550の真上に、彼/彼女の右手RHを置いてもよい。運転者の手が第4のゾーンZ4に位置すること、または近接していることを上述のセンサ170が感知すると、ユーザ・インターフェース550は、温度制御に関してより多くのオプションが運転者に利用可能になるように、第4のゾーンZ4を拡大させて、他のゾーンZ1、Z2およびZ3を縮小させてもよい。例えば、第4のゾーンZ4が拡大されたこと、および空調機をオンまたはオフにする、または温度もしくはファン速度を調節するなどの温度制御に、運転者が今アクセスしていることの証明として、ハンドルSW内に位置する触覚出力デバイス330を用いて、触覚効果が運転者に提供されてもよい。次いで、運転者は、取る必要のあるアクションに対応する、拡大した第4のゾーンZ4の部分の上に彼/彼女の指を置いてもよい。ハンドルSW上の触覚出力デバイス330によって提供される触覚効果は、結果的に運転者がユーザ・インターフェース550を見る必要なく温度調節を行うことができるように、異なる機能に対応する、拡大した第4のゾーンZ4内の様々な位置に運転者を導くような方法で発生されてもよい。
次いで、上述のセンサ170は、ユーザ・インターフェース550に対する運転者の指の位置、または運転者により提供されるジェスチャを検知し、車両のサブシステムが取る必要があるアクションを決定するために、上述のプロセッサ110に信号を送ることができる。一実施形態では、ユーザが、ユーザの指などのユーザ入力要素で、ユーザ・インターフェース550のタッチ感知デバイスに接触するとき、ユーザ・インターフェース550のタッチ感知デバイスの一部である第2のセンサ(図示せず)が、ユーザからの入力を検知するために使用されてもよい。この場合も、運転者により行われた命令の確認として、対応する触覚効果が、運転者が接触しているハンドルSWにおいて、ユーザ・インターフェース550から離れて発生されてもよい。一実施形態では、ユーザ・インターフェース550内の、またはユーザ・インターフェース550に接続される触覚出力デバイスが、運転者がユーザ・インターフェース550に触れているとき最初の確認の触覚効果を提供し、次いで、ハンドルSW内の触覚出力デバイス330を用いて別の触覚効果を提供するために、使用されてもよい。一実施形態では、ユーザ入力要素がユーザ・インターフェース550に接触している間、ユーザ・インターフェースにおける触覚効果が発生されてもよい。
図3に示す、触覚対応した(haptically enabled)ハンドルSWと同様に、一実施形態では、車両の運転者のシートSは、図6に示す運転者の背中を支えるシートの直立部分などの、運転者Dが常に接触するであろう位置にある触覚出力デバイス610を含んでもよい。上述の実施形態では、矢印A3で示す運転者の背中に向かうシートSの振動または動きなどの触覚効果は、ハンドルSWによって提供される触覚効果の代わりに、またはそれに加えて、シートS内の触覚出力デバイス610によって提供されてもよい。
一実施形態では、1つまたは複数の触覚出力デバイスは、シートベルトSBに取り付けられ、または埋め込まれて、運転者Dに対して運動感覚フィードバックおよび/または振動触知フィードバックを発生させるように構成されてもよい。図7に示すように、1つまたは複数の触覚出力デバイス710は、多くのシートベルトに既に存在する引張力制御メカニズムの一部であってもよく、シートベルトSBの張力を調節することによって、運動感覚フィードバックを伝達するように構成されてもよい。振動触知フィードバックを発生させるように構成される追加の触覚出力デバイス720は、シートベルトSBに埋め込まれ、または取り付けられて、触覚出力デバイス710によって提供される運動感覚フィードバックに加えて、振動触知フィードバックを提供してもよい。触覚効果が運転者の脚に提供され得るように、床板、ならびに/またはアクセルおよびブレーキペダルなどの、典型的に運転者が恒常的に接触する車両の他の部分にも、触覚出力デバイスが含まれてもよい。いずれにしても、図示する実施形態は、限定を意図するものではない。
図7は、運転者Dに触覚効果を提供するために使用され得る、ウェアラブル・デバイスの一実施形態を示す。一実施形態では、ウェアラブル・デバイスは、リストバンド730の形式であってもよく、リストバンド730は、スマートウォッチまたはフィットネス・バンドであってもよい。一実施形態では、ウェアラブル・デバイスは、眼鏡740の形式であってもよく、眼鏡740は、GOOGLE GLASS(登録商標)、またはBMWのMini拡張現実ゴーグル(Mini augmented reality goggles)などの、サングラスまたはヘッドマウント・ディスプレイであってもよい。一実施形態では、触覚効果は、上述の触覚出力デバイス310、320、330、610、710、720などの車両内の他の触覚出力デバイスの代わりに、またはそれに加えて、ウェアラブル・デバイス730、740のうちの1つまたは複数を介して運転者に提供されてもよい。
本発明の一実施形態の実装では、車両は、タッチ・スクリーンを有するユーザ・インターフェースを含む可能性があるが、触覚対応したハンドル、シート、またはシートベルトを含まないかもしれない。本実装における車両の運転者は、少なくとも1つの触覚出力デバイスを含み、例えば、Bluetooth(登録商標)ワイヤレス接続を介して、ユーザ・インターフェースと対になる、スマートウォッチなどのウェアラブル・デバイスを装着していてもよい。ユーザ・インターフェースは、触覚出力デバイスを含んでも含まなくてもよい。ユーザ・インターフェースに対する入力の確認は、ウェアラブル・デバイスによって車両の運転者に提供されることができる。同様に、一実施形態では、触覚出力デバイスを含み、運転者のポケット内にあるスマートフォンが、ユーザ・インターフェースと対になり、ユーザ入力要素を介する運転者とユーザ・インターフェースとの間の対話、および/またはユーザ・インターフェースにより出力される信号に基づいて触覚効果を発生させてもよい。
一実施形態では、車両内のセンサは、触覚出力デバイスを含むスマートフォンの位置を感知するために使用されてもよく、プロセッサは、感知されたスマートフォンの位置に部分的に基づいて、ユーザに対して発生されるべき触覚効果を決定してもよい。少なくとも1つの触覚出力デバイスを有する2つ以上の電子デバイスを含むシステムの実施形態では、プロセッサがユーザに対して触覚効果を発生させる理想的な位置を決定することができるように、車両内のセンサは各デバイスの位置を感知するために使用されてもよい。例えば、運転者が、ユーザ・インターフェースを使用して車両の左のミラーを調節している場合、触覚効果は、運転者の左のポケットの中のスマートフォンなど、車両の左のミラーに最も近い電子デバイスによって発生されてもよい。運転者が、ユーザ・インターフェースを使用して車両の右のミラーを調節している場合、触覚効果は、運転者の右腕のスマートウォッチなど、右のミラーに最も近い電子デバイスによって発生されてもよい。同様に、モータ性能に関する触覚効果が発生される場合、プロセッサは、触覚対応したアンクレットなどの、運転者の脚および車両のペダルに最も近い触覚出力デバイスを含む電子デバイスで、触覚効果を発生させることを決定してもよい。
図8は、車両環境以外で用いられ得る、本発明の一実施形態の実装を示す。図示するように、システム800は、手持ち式電子デバイス810、およびウェアラブル・デバイス820を含み、手持ち式電子デバイス810は、例えば、スマートフォンまたはタブレットであってもよく、ウェアラブル・デバイス820は、例えば、スマートウォッチであってもよい。手持ち式電子デバイス810は、上述のユーザ・インターフェース150およびセンサ170を含み、ウェアラブル・デバイス820は、上述の触覚出力デバイス160を含む。手持ち式電子デバイス810およびウェアラブル・デバイス820は、ワイヤレス通信ネットワーク840を介して互いに通信する。ユーザは、手持ち式電子デバイス810のディスプレイを見ないで、彼/彼女の右手RHを用いて手持ち式電子デバイス810と対話し、ウェアラブル・デバイス820上の触覚出力デバイス160を介して触覚効果を受け取り、手持ち式電子デバイス810との対話を確認することができる。
図9は、上述のシステム100などのシステムのユーザに対して触覚効果を発生させるための方法900のフローチャートを示す。910では、指などのユーザの手の一部またはスタイラスであってもよいユーザ入力要素が、上述のセンサ170などのセンサによって、上述のユーザ・インターフェース150などのユーザ・インターフェース付近で感知される。920では、上述のプロセッサ110などのプロセッサが、ユーザ・インターフェース付近のまたは近接するユーザ入力要素を感知することに基づいて、発生させる触覚効果を決定する。930では、決定された触覚効果に基づく触覚効果発生信号が、プロセッサによって、上述の触覚出力デバイス160などの触覚出力デバイスに出力される。940では、決定された触覚効果が、触覚出力デバイスによって、ユーザ・インターフェースから離れた位置で発生される。次いで、方法は、910に戻るか、終了してもよく、または方法の一部としてさらなるアクションが取られてもよい。
例えば、一実施形態では、ユーザ・インターフェースに接触するユーザ入力要素を介したユーザによる入力は、タッチ感知デバイスの一部であるセンサなどの、ユーザ・インターフェースの一部であるセンサによって感知されてもよく、感知された入力に基づく、ユーザに対して発生されるべき第2の触覚効果が、プロセッサで決定されてもよい。次いで、第2の触覚効果は、ユーザによる入力の確認として、ユーザ・インターフェースにおいて、第2の触覚出力デバイスを用いてユーザに対し発生されてもよい。一実施形態では、ユーザ入力要素がユーザ・インターフェースに接触する間、第2の触覚効果が発生されてもよい。一実施形態では、感知された入力に基づく、ユーザに対し発生される第3の触覚効果がプロセッサで決定され、第3の触覚効果は、ユーザ・インターフェースから離れた位置で、触覚出力デバイスを用いてユーザに対し発生されてもよい。一実施形態では、第2の触覚効果および第3の触覚効果は、同一の触覚効果、または実質的に同一の触覚効果であってもよい。
本明細書で述べた実施形態は、いくつかの可能な実装および例を表し、必ずしも本開示を任意の特定の実施形態に限定することを意図するものではない。様々な修正がこれらの実施形態に対してなされることができ、それは、当業者によって理解されるであろう。そのようないかなる修正も、本開示の精神と範囲内に含まれ、かつ以下の特許請求の範囲により保護されると意図される。

Claims (15)

  1. システムのユーザからの入力を受け取るように構成されるユーザ・インターフェースと、
    前記ユーザ・インターフェースに対するユーザ入力要素の位置を感知するように構成されるセンサと、
    前記ユーザ・インターフェースに対する前記ユーザ入力要素の前記位置に基づく前記センサからの入力信号を受け取り、前記入力信号に基づいて触覚効果を決定し、決定された前記触覚効果に基づいて触覚効果発生信号を出力するように構成されるプロセッサと、
    前記プロセッサから前記触覚効果発生信号を受け取り、決定された前記触覚効果を前記ユーザに対して発生させるように構成され、決定された前記触覚効果が前記ユーザ・インターフェースから離れて発生されるように、前記ユーザ・インターフェースとは別個の位置にある触覚出力デバイスと、を備えるシステム。
  2. 前記ユーザに装着されるように構成されるウェアラブル・デバイスをさらに備え、前記ウェアラブル・デバイスは前記触覚出力デバイスを備える、請求項1に記載のシステム。
  3. 前記ウェアラブル・デバイスはスマートウォッチである、請求項2に記載のシステム。
  4. 前記ウェアラブル・デバイスはフィットネス・バンドである、請求項2に記載のシステム。
  5. 前記ユーザによって携行されるように構成される手持ち式電子デバイスをさらに備え、前記手持ち式電子デバイスは前記触覚出力デバイスを備える、請求項1に記載のシステム。
  6. 前記手持ち式電子デバイスはスマートフォンである、請求項5に記載のシステム。
  7. 前記ユーザ・インターフェースは第2の触覚出力デバイスを備え、前記第2の触覚出力デバイスは、前記ユーザからの前記入力の確認として、前記ユーザに対して、前記ユーザ・インターフェースにおいて第2の触覚効果を発生させるように構成される、請求項1に記載のシステム。
  8. 前記触覚出力デバイスは、前記ユーザに対して、前記ユーザ・インターフェースから離れた位置で第3の触覚効果を発生させるように構成される、請求項7に記載のシステム。
  9. 前記第2の触覚効果および前記第3の触覚効果は同一の触覚効果である、請求項8に記載のシステム。
  10. 前記ユーザによって携行されるように構成される手持ち式電子デバイスをさらに備え、前記手持ち式電子デバイスは前記ユーザ・インターフェースを備える、請求項1に記載のシステム。
  11. システムのユーザに対して触覚効果を発生させるための方法であって、
    センサを用いて、前記ユーザからの入力を受け取るように構成されるユーザ・インターフェースの近くに位置するユーザ入力要素を感知することと、
    プロセッサを用いて、前記感知することに基づいて、前記ユーザに対して発生させる触覚効果を決定することと、
    前記プロセッサを用いて、決定された前記触覚効果に基づいて、触覚効果発生信号を触覚出力デバイスに出力することと、
    前記触覚出力デバイスを用いて、前記ユーザ・インターフェースから離れた位置で、決定された前記触覚効果を発生させることと、を含む方法。
  12. 第2のセンサを用いて、前記ユーザが、前記ユーザ入力要素を介して前記ユーザ・インターフェースに接触することによる入力を感知することと、
    前記プロセッサを用いて、感知された前記入力に基づいて、前記ユーザに対して発生させる第2の触覚効果を決定することと、
    第2の触覚出力デバイスを用いて、前記ユーザによる前記入力の確認として、前記ユーザに対して、前記ユーザ・インターフェースにおいて前記第2の触覚効果を発生させることと、をさらに含む、請求項11に記載の方法。
  13. 前記第2の触覚効果は、前記ユーザ入力要素が前記ユーザ・インターフェースに接触する間、発生される、請求項12に記載の方法。
  14. 前記プロセッサを用いて、感知された前記入力に基づいて、前記ユーザに対して発生させる第3の触覚効果を決定することと、
    前記触覚出力デバイスを用いて、前記ユーザに対して、前記ユーザ・インターフェースから離れた位置で前記第3の触覚効果を発生させることと、をさらに含む、請求項13に記載の方法。
  15. 前記第2の触覚効果および前記第3の触覚効果は同一の触覚効果である、請求項14に記載の方法。
JP2016096642A 2015-05-15 2016-05-13 ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法 Pending JP2016219008A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/713,166 US20160334901A1 (en) 2015-05-15 2015-05-15 Systems and methods for distributing haptic effects to users interacting with user interfaces
US14/713,166 2015-05-15

Publications (1)

Publication Number Publication Date
JP2016219008A true JP2016219008A (ja) 2016-12-22

Family

ID=55802305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016096642A Pending JP2016219008A (ja) 2015-05-15 2016-05-13 ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法

Country Status (5)

Country Link
US (3) US20160334901A1 (ja)
EP (2) EP3093734B1 (ja)
JP (1) JP2016219008A (ja)
KR (1) KR20160134514A (ja)
CN (1) CN106155307A (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9630555B1 (en) * 2016-01-25 2017-04-25 Ford Global Technologies, Llc Driver alert system for speed and acceleration thresholds
US9898903B2 (en) * 2016-03-07 2018-02-20 Immersion Corporation Systems and methods for haptic surface elements
US10585480B1 (en) 2016-05-10 2020-03-10 Apple Inc. Electronic device with an input device having a haptic engine
JP6943525B2 (ja) * 2016-09-12 2021-10-06 ソニーグループ株式会社 情報提示装置、操舵装置、および情報提示方法
CN110692030A (zh) * 2017-06-14 2020-01-14 福特全球技术公司 可穿戴的触觉反馈
DE102018117006B4 (de) * 2018-07-13 2021-10-28 Grammer Aktiengesellschaft Fahrzeugsitz mit Sitzbedienungseinrichtung
US10966007B1 (en) 2018-09-25 2021-03-30 Apple Inc. Haptic output system
US10843624B1 (en) * 2019-05-29 2020-11-24 Honda Motor Co., Ltd. System and method for providing haptic counteractions and alerts within a seat of a vehicle
US11909238B1 (en) 2019-07-23 2024-02-20 BlueOwl, LLC Environment-integrated smart ring charger
US11537203B2 (en) 2019-07-23 2022-12-27 BlueOwl, LLC Projection system for smart ring visual output
US11949673B1 (en) 2019-07-23 2024-04-02 BlueOwl, LLC Gesture authentication using a smart ring
US11853030B2 (en) 2019-07-23 2023-12-26 BlueOwl, LLC Soft smart ring and method of manufacture
US11551644B1 (en) 2019-07-23 2023-01-10 BlueOwl, LLC Electronic ink display for smart ring
US11479258B1 (en) 2019-07-23 2022-10-25 BlueOwl, LLC Smart ring system for monitoring UVB exposure levels and using machine learning technique to predict high risk driving behavior
US11462107B1 (en) 2019-07-23 2022-10-04 BlueOwl, LLC Light emitting diodes and diode arrays for smart ring visual output
US11984742B2 (en) 2019-07-23 2024-05-14 BlueOwl, LLC Smart ring power and charging
US11637511B2 (en) 2019-07-23 2023-04-25 BlueOwl, LLC Harvesting energy for a smart ring via piezoelectric charging
US11594128B2 (en) 2019-07-23 2023-02-28 BlueOwl, LLC Non-visual outputs for a smart ring
US11402913B1 (en) * 2020-01-06 2022-08-02 Rockwell Collins, Inc. System and method for aircraft display device feedback
US11024135B1 (en) 2020-06-17 2021-06-01 Apple Inc. Portable electronic device having a haptic button assembly

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102656A (ja) * 2012-11-19 2014-06-05 Aisin Aw Co Ltd 操作支援システム、操作支援方法及びコンピュータプログラム
WO2014103085A1 (ja) * 2012-12-26 2014-07-03 パナソニック株式会社 タッチパネルデバイスとタッチパネルデバイスの制御方法
JP2014154150A (ja) * 2013-02-04 2014-08-25 Immersion Corp ウェアラブルデバイスマネージャー
JP2015035141A (ja) * 2013-08-09 2015-02-19 株式会社デンソー タッチパネル式入力装置、およびタッチパネル式入力方法
JP2015060303A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 情報処理装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1834229A2 (de) * 2004-12-30 2007-09-19 Volkswagon AG Eingabevorrichtung und verfahren zum betrieb derselben
US7609178B2 (en) * 2006-04-20 2009-10-27 Pressure Profile Systems, Inc. Reconfigurable tactile sensor input device
US9081445B2 (en) * 2006-12-08 2015-07-14 Johnson Controls Technology Company Display and user interface
US8963842B2 (en) * 2007-01-05 2015-02-24 Visteon Global Technologies, Inc. Integrated hardware and software user interface
US20080238886A1 (en) * 2007-03-29 2008-10-02 Sony Ericsson Mobile Communications Ab Method for providing tactile feedback for touch-based input device
US9857872B2 (en) * 2007-12-31 2018-01-02 Apple Inc. Multi-touch display screen with localized tactile feedback
US8373549B2 (en) * 2007-12-31 2013-02-12 Apple Inc. Tactile feedback in an electronic device
DE102008016017A1 (de) * 2008-03-26 2009-10-22 Continental Automotive Gmbh Bedienvorrichtung
US9056549B2 (en) * 2008-03-28 2015-06-16 Denso International America, Inc. Haptic tracking remote control for driver information center system
US8306576B2 (en) * 2008-06-27 2012-11-06 Lg Electronics Inc. Mobile terminal capable of providing haptic effect and method of controlling the mobile terminal
KR101553842B1 (ko) * 2009-04-21 2015-09-17 엘지전자 주식회사 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법
US8576171B2 (en) * 2010-08-13 2013-11-05 Immersion Corporation Systems and methods for providing haptic feedback to touch-sensitive input devices
JP5705243B2 (ja) * 2011-02-10 2015-04-22 京セラ株式会社 電子機器及び電子機器の制御方法
DE102011012838A1 (de) * 2011-03-02 2012-09-06 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
US20130050131A1 (en) * 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
DE102011112447A1 (de) * 2011-09-03 2013-03-07 Volkswagen Aktiengesellschaft Verfahren und Anordnung zum Bereitstellen einer graphischen Nutzerschnittstelle, insbesondere in einem Fahrzeug
US9733706B2 (en) * 2011-10-26 2017-08-15 Nokia Technologies Oy Apparatus and associated methods for touchscreen displays
US9678570B2 (en) * 2011-12-15 2017-06-13 Lg Electronics Inc. Haptic transmission method and mobile terminal for same
US9349263B2 (en) * 2012-06-22 2016-05-24 GM Global Technology Operations LLC Alert systems and methods for a vehicle
DE102012216455A1 (de) * 2012-09-14 2014-03-20 Bayerische Motoren Werke Aktiengesellschaft Feedback-Einrichtung zur Erzeugung eines distales, taktilen Feedback-Signals an einem den Fahrzeugsitz berührenden Körperbereich bei Interaktion mit einem Touchscreen
KR102091077B1 (ko) * 2012-12-14 2020-04-14 삼성전자주식회사 입력 유닛의 피드백을 제어하는 휴대 단말 및 방법과, 이를 제공하는 상기 입력 유닛 및 방법
US9202350B2 (en) * 2012-12-19 2015-12-01 Nokia Technologies Oy User interfaces and associated methods
DE102012024954A1 (de) * 2012-12-20 2014-06-26 Volkswagen Aktiengesellschaft Verfahren zur Kennzeichnung einer Teilmenge einer in einer Speichereinheit abgelegten Grundmenge von Datensätzen und zur Visualisierung zumindest eines Teils der gekennzeichneten Teilmenge auf einer Anzeigeeinheit
US9949890B2 (en) * 2013-03-15 2018-04-24 Sambhu Choudhury Garment with remote controlled vibration array
US20150040005A1 (en) * 2013-07-30 2015-02-05 Google Inc. Mobile computing device configured to output haptic indication of task progress
US20150307022A1 (en) * 2014-04-23 2015-10-29 Ford Global Technologies, Llc Haptic steering wheel
US10042439B2 (en) * 2014-12-11 2018-08-07 Microsft Technology Licensing, LLC Interactive stylus and display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102656A (ja) * 2012-11-19 2014-06-05 Aisin Aw Co Ltd 操作支援システム、操作支援方法及びコンピュータプログラム
WO2014103085A1 (ja) * 2012-12-26 2014-07-03 パナソニック株式会社 タッチパネルデバイスとタッチパネルデバイスの制御方法
JP2014154150A (ja) * 2013-02-04 2014-08-25 Immersion Corp ウェアラブルデバイスマネージャー
JP2015035141A (ja) * 2013-08-09 2015-02-19 株式会社デンソー タッチパネル式入力装置、およびタッチパネル式入力方法
JP2015060303A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 情報処理装置

Also Published As

Publication number Publication date
EP3654144A1 (en) 2020-05-20
EP3093734B1 (en) 2020-01-01
CN106155307A (zh) 2016-11-23
EP3093734A1 (en) 2016-11-16
KR20160134514A (ko) 2016-11-23
US20160334901A1 (en) 2016-11-17
US20200167022A1 (en) 2020-05-28
US20180181235A1 (en) 2018-06-28

Similar Documents

Publication Publication Date Title
US20200167022A1 (en) Systems and methods for distributing haptic effects to users interacting with user interfaces
US10394285B2 (en) Systems and methods for deformation and haptic effects
JP6411756B2 (ja) 接触子に基づいたハプティックフィードバック生成
US10296091B2 (en) Contextual pressure sensing haptic responses
EP2796964B1 (en) System and Method for a Haptically-Enabled Deformable Surface
US9405369B2 (en) Simulation of tangible user interface interactions and gestures using array of haptic cells
US20190369733A1 (en) Non-collocated haptic cues in immersive environments
JP5833601B2 (ja) モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2021508115A (ja) 空中触覚システムと人との相互作用
US10234945B2 (en) Compensated haptic rendering for flexible electronic devices
US20120256848A1 (en) Tactile feedback method and apparatus
CN110658919A (zh) 用于触觉效果的参数修改的方法、电子装置和介质
JP2011528826A (ja) タッチスクリーンのキーシミュレーションに対する触覚フィードバック
JP2020013549A (ja) 動的システム識別に基づく適応触覚効果レンダリング
US11175738B2 (en) Systems and methods for proximity-based haptic feedback
JP2016219002A (ja) 予測される接触に基づく触覚効果
US20200012348A1 (en) Haptically enabled overlay for a pressure sensitive surface
JP2019519856A (ja) マルチモーダルハプティック効果
CA2773387A1 (en) Tactile feedback method and apparatus
KR20160111880A (ko) 착용가능한 3차원 입력 장치와 외부 기기와의 연동 방법
CN111258445A (zh) 可变曲率交互式设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200917