JP6494222B2 - 自動遠隔検出およびハプティック変換システム - Google Patents

自動遠隔検出およびハプティック変換システム Download PDF

Info

Publication number
JP6494222B2
JP6494222B2 JP2014181041A JP2014181041A JP6494222B2 JP 6494222 B2 JP6494222 B2 JP 6494222B2 JP 2014181041 A JP2014181041 A JP 2014181041A JP 2014181041 A JP2014181041 A JP 2014181041A JP 6494222 B2 JP6494222 B2 JP 6494222B2
Authority
JP
Japan
Prior art keywords
haptic
audio signal
input
signals
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014181041A
Other languages
English (en)
Other versions
JP2015053056A (ja
Inventor
アマヤ ベクヴァール ウェドル
アマヤ ベクヴァール ウェドル
ダニー グラント
ダニー グラント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2015053056A publication Critical patent/JP2015053056A/ja
Application granted granted Critical
Publication of JP6494222B2 publication Critical patent/JP6494222B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

一実施形態は概して、デバイス、より具体的には、ハプティック効果を生成するデバイスに関する。
ハプティックは、力、振動および動作などのハプティックフィードバック効果(すなわち「ハプティック効果」)をユーザに適用することによってユーザの触覚を利用する触覚および力フィードバック技術である。モバイル機器、タッチスクリーン装置およびパーソナルコンピュータなどの装置はハプティック効果を生成するように構成され得る。一般に、ハプティック効果を生成できる内蔵されたハードウェア(アクチュエータなど)へのコールは、装置のオペレーティングシステム(OS)内でプログラム化され得る。これらのコールはどのハプティック効果をプレイするかを特定する。例えば、ユーザが、例えば、ボタン、タッチスクリーン、レバー、ジョイスティック、ホイールまたはいくつかの他のコントールを使用して装置とやり取りする場合、装置のOSは、制御回路を介して内蔵されたハードウェアにプレイコマンドを送信することができる。次いで内蔵されたハードウェアは適切なハプティック効果を生成する。
装置は、ハプティック効果が他のコンテンツ内に組み込まれるように、オーディオなどの他のコンテンツの出力と共にハプティック効果の出力を調整するように構成され得る。例えば、ゲーミングコンテキストにおいて、ゲームが開発される場合、オーディオ効果ディベロッパは、ゲームに関連し、機関銃の発射、爆発またはカークラッシュなどのゲーム内で発生するアクションを表すオーディオ効果を開発できる。別のコンテキストにおいて、オーディオ入力または他の種類の現実世界の入力が、マイクロフォンまたは他の種類のセンサによりキャプチャされ得る。ハプティック効果ディベロッパは続いて、装置のためのハプティック効果を作成でき、その装置は他のコンテンツと共にハプティック効果を出力するように構成され得る。しかしながら、このようなプロセスは、ハプティック効果ディベロッパがオーディオ入力または他の入力を分析し、オーディオ入力または他の入力と協調し得る適切なハプティック効果を作成する時間を必要とするので、一般的に瞬時ではない。
一実施形態は、入力を1つまたは複数のハプティック効果に準リアルタイムで自動的に変換できるシステムである。そのシステムは準リアルタイムで入力を検出できる。そのシステムはさらに、検出した入力を1つまたは複数のハプティック信号に準リアルタイムで自動的に変換できる。そのシステムはさらに、1つまたは複数のハプティック信号に基づいて1つまたは複数のハプティック効果を生成できる。
さらなる実施形態、詳細、利点および修飾は、添付の図面と併せて考慮される以下の好ましい実施形態の詳細な説明から明らかになるであろう。
図1は、本発明の一実施形態に係る、システムのブロック図を示す。 図2は、本発明の一実施形態に係る、入力を1つまたは複数のハプティック効果に準リアルタイムで自動的に変換するシステムのブロック図を示す。 図3は、本発明の一実施形態に係る、自動ハプティック変換モジュールの機能性のフロー図を示す。
一実施形態は、マイクロフォンまたはカメラあるいはマイクロフォンまたはカメラのアレイなどのセンサによってリモート位置において検出され、ハプティックデバイスに無線で送信され得るオーディオ信号などの入力から変換されたハプティックフィードバックを送達するハプティックデバイスを含み得るシステムである。ハプティックフィードバックは、入力に基づいて生成され、準リアルタイムで送信されるハプティック効果を送達するようにプログラムされ得る、アクチュエータまたはアクチュエータのセットなどのハプティック出力デバイスまたはハプティック出力デバイスのセットによるハプティックデバイス内の出力であってもよい。より具体的には、システムは検出した入力を1つまたは複数のハプティック信号に準リアルタイムで変換でき、そのシステムはさらに、1つまたは複数のハプティック効果を生成するために1つまたは複数のハプティック信号をハプティック出力デバイスに送信できる。一実施形態において、センサは、ノイズ除去し、入力の特定の周波数バンド、機構、または他の特性のみをハプティックデバイスに送達するように構成され得る。さらに、実施形態によれば、ハプティックデバイス内のハプティック出力デバイスは、入力の異なる周波数バンド、機構、または他の特性を抽出するように合わせられてもよく、ユーザの注意を調節するようにハプティックフィードバックを制御および/または増大する。したがって、ユーザは、遠隔位置において検出される入力の特定の周波数バンド、機構、または他の特性を強調するハプティックフィードバックを経験できる。一実施形態において、ハプティックデバイスはウェアラブルハプティックデバイスであってもよい。
当業者に理解されるように、遠隔通信およびコンピューティングにおいて「準リアルタイム」とは、自動化データ処理またはネットワーク送信によって導かれる時間遅延を指す。したがって、入力が準リアルタイムでシステムにより検出される実施形態において、入力を検出することに関連する時間遅延に加えて、入力がリモートソースによって生成される時点で入力は検出される。さらに、システムが準リアルタイムで検出した入力に基づいて1つまたは複数のハプティック効果を生成する実施形態において、そのシステムは、検出した入力を1つまたは複数のハプティック信号に変換することに関連する時間遅延に加えて、検出した入力がシステムによって受信される時点において、検出した入力を1つまたは複数のハプティック効果を生成するために使用される1つまたは複数のハプティック信号に変換できる。特定の実施形態において、時間遅延は存在しなくてもよく、それ故、これらの実施形態において、「準リアルタイム」は「リアルタイム」と同一であり得る。
このようなシステムは、本発明の特定の実施形態に係る、いくつかのアプリケーションを有してもよい。例えば、システムは、特定の聴覚信号、ビデオ信号または他の種類の検出される入力などの特定の入力のステルスリモートモニタリングを準リアルタイムで可能にできるように軍事状況に利用されてもよく、そのシステムは、ハプティック出力を使用してリモート位置において特定の事象に関するモニターされた入力を送達でき、ハプティック出力は完全にサイレント形式で送達され得る。ハプティック出力はまた、「アラート」能力を提供するように十分な記述的情報を送達できる。より具体的には、ハプティック出力は、人の発話事象、乗り物の動作または発砲などの行われる特定の種類の活動を個人に知らせることができる。
別の例として、システムは、科学者が、特有のオーディオ信号、ビデオ信号または他の種類の検出される入力などの特有の入力を有する生物学的または地質学的事象のリモートモニタリングをできるように科学的状況に利用されてもよい。例えば、システムは、送信され、ハプティック出力に変換され、ウェアラブルハプティックデバイスなどのハプティックデバイスでプレイされ得る、特有の鳥の鳴き声をモニターするために、鳥類学者がリモートマイクロフォンを使用することを可能にする。したがって、鳥類学者は、特定の種の鳥が巣の位置に戻って来たことまたは一部の他の場合、特定の時間における特定の挙動の事実を通知され得る。
さらに別の例として、システムは、聴覚情報などのリアルタイム情報を視聴者につなぎ、1つまたは複数のハプティック効果に変換できるように「没入型」またはエンターテイメント状況に利用されてもよい。例えば、モトクロスレースにおいて、視聴者は、レーサーが準リアルタイムで事象を経験していることを感じることができる。
図1は、本発明の一実施形態に係るシステム10のブロック図を示す。一実施形態において、システム10はモバイル機器の一部であり、システム10はモバイル機器のための自動ハプティック変換機能を提供する。別の実施形態において、システム10はウェアラブルデバイスの一部であり、システム10はウェアラブルデバイスのための自動ハプティック変換機能を提供する。ウェアラブルデバイスの例としては、リストバンド、ヘッドバンド、眼鏡、リング、レッグバンド、衣服に取り付けられるアレイ、またはユーザが身体に装着できるもしくはユーザにより保持され得る任意の他の種類のデバイスが挙げられる。一部のウェアラブルデバイスは「ハプティック可能」であり得、それらがハプティック効果を生成するための機構を備えることを意味する。別の実施形態において、システム10は、デバイス(例えばモバイル機器またはウェアラブルデバイス)から分離され、デバイスのための自動ハプティック変換機能をリモートで提供する。単一のシステムとして示されるが、システム10の機能は分散システムとして実装されてもよい。システム10は、情報を通信するためのバス12または他の通信機構、および情報を処理するためのバス12に連結されるプロセッサ22を含む。プロセッサ22は汎用または特定目的のプロセッサのいずれの種類であってもよい。システム10はさらに、情報を記憶するためのメモリ14およびプロセッサ22により実行される命令を含む。メモリ14は、ランダムアクセスメモリ(「RAM」)、リードオンリメモリ(「ROM」)、磁気ディスクもしくは光ディスクなどの静的記憶デバイス、または任意の他の種類のコンピュータ可読媒体の任意の組み合わせから構成されてもよい。
コンピュータ可読媒体は、プロセッサ22によりアクセスされ得る任意の利用可能な媒体であってもよく、揮発性媒体および非揮発性媒体の両方、リムーバルおよびノンリムーバル媒体、通信媒体、ならびに記憶媒体を含んでもよい。通信媒体は、搬送波または他の搬送機構などの変調データ信号内にコンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータを含んでもよく、当該技術分野において公知の任意の他の形態の情報送信媒体を含んでもよい。記憶媒体は、RAM、フラッシュメモリ、ROM、消去可能プログラマブルリードオンリメモリ(「EPROM」)、電気的消去可能プログラマブルリードオンリメモリ(「EEPROM」)、レジスタ、ハードディスク、リムーバルディスク、コンパクトディスクリードオンリメモリ(「CD−ROM」)、または当該技術分野において公知の任意の他の形態の記憶媒体を含んでもよい。
一実施形態において、メモリ14は、プロセッサ22により実行される場合、機能を提供するソフトウェアモジュールを記憶する。モジュールは、システム10のためのオペレーティングシステム機能を提供するオペレーティングシステム15、ならびに一実施形態におけるモバイル機器の残りを含む。モジュールはさらに、以下により詳細に開示されるように入力を1つまたは複数のハプティック効果に自動的に変換する自動ハプティック変換モジュール16を含む。特定の実施形態において、自動ハプティック変換モジュール16は複数のモジュールを含んでもよく、各々のモジュールは入力を1つまたは複数のハプティック効果に自動的に変換するための特定の個々の機能を提供する。システム10は典型的に、Immersion CorporationによるIntegrator(商標)ソフトウェアなどの追加の機能を含むように1つ以上の追加のアプリケーションモジュール18を含む。
リモートソースからデータを送信および/または受信する実施形態において、システム10はさらに、赤外線、無線、Wi−Fi、またはセルラーネットワーク通信などの移動無線ネットワーク通信を提供するために、ネットワークインターフェースカードなどの通信デバイス20を含む。他の実施形態において、通信デバイス20は、イーサネット(登録商標)接続またはモデムなどの有線ネットワーク接続を提供する。
プロセッサ22はさらに、バス12を介して、グラフィック表現を表示するための液晶ディスプレイ(「LCD」)などのディスプレイ24またはユーザに対するユーザインターフェースに接続される。ディスプレイ24は、プロセッサ22から信号を送信し、受信するように構成される、タッチスクリーンなどのタッチセンサ入力デバイスであってもよく、マルチタッチのタッチスクリーンであってもよい。
一実施形態において、システム10はさらに、アクチュエータ26を含む。プロセッサ22は、生成されたハプティック効果に関連するハプティック信号をアクチュエータ26に送信してもよく、次いで振動触覚ハプティック効果、静電摩擦ハプティック効果または変形ハプティック効果などのハプティック効果を出力する。アクチュエータ26はアクチュエータ駆動回路を含む。アクチュエータ26は、例えば、電気モータ、電磁気アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマー、ソレノイド、偏心回転モータ(「ERM」)、線形共鳴アクチュエータ(「LRA」)、圧電アクチュエータ、高帯域アクチュエータ、電気活性ポリマー(「EAP」)アクチュエータ、静電摩擦ディスプレイ、または超音波振動発生器であってもよい。代替の実施形態において、システム10は、アクチュエータ26に加えて1つ以上の追加のアクチュエータを含んでもよい(図1に示さず)。アクチュエータ26はハプティック出力デバイスの一例であり、ハプティック出力デバイスは、駆動信号に応答して振動触覚ハプティック効果、静電摩擦ハプティック効果または変形ハプティック効果などのハプティック効果を出力するように構成されるデバイスである。代替の実施形態において、アクチュエータ26は一部の他の種類のハプティック出力デバイスにより置き換えられてもよい。さらに、他の代替の実施形態において、システム10はアクチュエータ26を含まなくてもよく、システム10とは別個のデバイスが、ハプティック効果を生成するアクチュエータまたは他のハプティック出力デバイスを含み、システム10は、生成されたハプティック信号を、通信デバイス20を介して、そのデバイスに送信する。
一実施形態において、システム10はさらに、スピーカ28を含む。プロセッサ22はオーディオ信号をスピーカ28に送信でき、次にオーディオ効果を出力する。スピーカ28は、例えば、ダイナミックラウドスピーカ、動電型スピーカ、圧電ラウドスピーカ、磁気歪みラウドスピーカ、静電ラウドスピーカ、リボンおよび平面磁気ラウドスピーカ、屈曲波ラウドスピーカ、平面パネルラウドスピーカ、ハイルエアモーショントランスデューサ(heil air motion transducer)、プラズマアークスピーカおよびデジタルラウドスピーカであってもよい。代替の実施形態において、システム10はスピーカ28(図1に示さず)に加えて1つまたは複数のさらなるスピーカを含んでもよい。さらに、他の代替の実施形態において、システム10はスピーカ28を含まなくてもよく、システム10とは別のデバイスが、オーディオ効果を出力するスピーカを含む。システム10は通信デバイス20を介してオーディオ信号をそのデバイスに送信する。
一実施形態において、システム10はさらにセンサ30を含む。センサ30は、エネルギーの形態、または限定されないが、音、運動、加速度、生体信号、距離、流量、力/圧力/歪/屈曲、湿度、線形位置、配向/傾斜、無線周波数、回転位置、回転速度、スイッチの操作、温度、振動、または可視光強度などの他の物理特性を検出するように構成されてもよい。センサ30はさらに、検出されたエネルギーまたは他の物理特性を、電気信号または仮想センサ情報を表す任意の信号に変換するように構成されてもよい。センサ30は、限定されないが、加速度計、心電図、脳電図、筋電図、眼電図、電子口蓋図(electropalatograph)、電気皮膚反応センサ、容量センサ、ホール効果センサ、赤外線センサ、超音波センサ、圧力センサ、光ファイバセンサ、屈曲センサ(flexion sensor)(または屈曲センサ(bend sensor))、力感応抵抗器、ロードセル、LuSense CPS155、小型圧力トランスデューサ、圧電センサ、歪みゲージ、湿度計、線形位置タッチセンサ、線形電位差計(またはスライダ)、線形可変差動変圧器、コンパス、傾斜計、磁性タグ(または無線周波数識別タグ)、回転エンコーダ、回転式ポテンショメータ、ジャイロスコープ、オン・オフスイッチ、温度センサ(例えば温度計、熱電対、抵抗温度検出器、サーミスタ、または温度変換集積回路)、マイクロフォン、光度計、高度計、温度計、生物学的モニター、カメラまたは光依存性抵抗器などの任意のデバイスであってもよい。代替の実施形態において、システム10は、センサ30に加えて、1つ以上のさらなるセンサ(図1に示さず)を含んでもよい。これらの実施形態の一部において、センサ30および1つ以上の追加のセンサはセンサアレイの一部であってもよく、またはセンサの回収の一部の他の種類であってもよい。さらに、他の代替の実施形態において、システム10はセンサ30を含まなくてもよく、システム10とは別個のデバイスがエネルギーの形態または他の物理特性を検出するセンサを含み、検出されたエネルギーまたは他の物理特性を仮想センサ情報を表す電気信号または他の種類の信号に変換する。デバイスは次いで、変換された信号を通信デバイス20を介してシステム10に送信する。
図2は、本発明の一実施形態に従って、入力を1つまたは複数のハプティック効果に準リアルタイムで自動的に変換するシステム200のブロック図を示す。この実施形態によれば、システム200は遠隔検出デバイス210およびハプティックデバイス220を含む。遠隔検出デバイス210は接続230を介してハプティックデバイス220に動作可能に接続されてもよい。特定の実施形態において、接続230はワイヤレスネットワーク接続を表す。他の代替の実施形態において、接続230は有線ネットワーク接続を表す。さらに、代替の実施形態において、システム200は、遠隔検出デバイス210に加えて1つもしくは複数の追加の遠隔検出デバイスおよび/またはハプティックデバイス220に加えて1つもしくは複数の追加のハプティックデバイス(図2に示さず)を含んでもよい。一部の実施形態において、接続230は省略されてもよく、検出デバイス210およびハプティックデバイス220はシステム200の単一のデバイス内に収容されてもよく、検出デバイス210およびハプティックデバイス220は、情報を通信するためのバスまたは他の通信機構により動作可能に接続されてもよい。さらに、一部の実施形態において、ハプティックデバイス220はウェアラブルハプティックデバイスであってもよい。
実施形態によれば、遠隔検出デバイス210はセンサ211を備える。センサ211は準リアルタイムで入力を検出するように構成される。より特には、センサ211は、遠隔検出デバイス210の近くで生成される入力を検出し、検出された入力を準リアルタイムで信号に変換するように構成される。代替の実施形態において、入力の検出は、リアルタイムまたは準リアルタイムであることを必要とされない。代わりに、この代替の実施形態において、入力は1つまたは複数のバッファ(図2に示さず)においてバッファリングされてもよい。特定の実施形態において、入力は、オーディオデータを含むオーディオ信号または他の種類のオーディオ入力であってもよい。他の代替の実施形態において、入力はビデオデータを含むビデオ信号または他の種類のビデオ入力であってもよい。さらに他の代替の実施形態において、入力は加速度データを含む加速度信号または他の種類の加速度入力であってもよい。さらに他の代替の実施形態において、入力は、方向データを含む方向信号、周囲光データを含む周囲光信号、またはセンサにより検出され得る別の種類の信号であってもよい。特定の実施形態において、センサ211は図1のセンサ30と同一であってもよい。
入力がオーディオ信号である実施形態において、センサ211は、オーディオ信号を検出するように構成されるマイクロフォンまたは一部の他の種類のデバイスであってもよい。入力がビデオ信号である実施形態において、センサ211はビデオ信号を検出するように構成されるカメラまたは一部の他の種類のデバイスであってもよい。入力が加速度信号である実施形態において、センサ211は加速度信号を検出するように構成される加速度計または一部の他の種類のデバイスであってもよい。入力が運動信号である実施形態において、センサ211は運動信号を検出するように構成される歩数計または一部の他の種類のデバイスであってもよい。入力が温度信号である実施形態において、センサ211は温度信号を検出するように構成される温度センサまたは一部の他の種類のデバイスであってもよい。さらに、特定の実施形態において、遠隔検出デバイス210は、センサ211に加えて1つまたは複数の追加のセンサ(図2に示さず)を備えてもよい。これらの実施形態の一部において、センサ211および1つまたは複数の追加のセンサはセンサアレイ(例えばマイクロフォンアレイ)の一部であってもよい。
実施形態によれば、遠隔検出デバイス210は任意選択にフィルタ212を備える。フィルタ212は検出した入力にフィルタをかけるように構成される。より特に、フィルタ212は、検出した入力の特定の周波数バンド、特徴または他の特性をフィルタを通して除去するように構成される。例えば、検出した入力がオーディオ信号または他の種類のオーディオ入力である場合、フィルタ212はバックグラウンド音を表す検出した入力の特性をフィルタを通して除去でき、それにより検出した入力の残りの特性のみが音声または一部の他の種類の音を表す。代替の例として、音声が常に検出される状況において、フィルタ212は音声を表す検出した入力の特性をフィルタを通して除去でき、それにより検出した入力の残りの特性のみがバックグラウンド音を表す。さらに別の例として、検出した入力が別の種類の入力である場合、フィルタ212は小さな大きさの事象を除去するように検出した入力の特性をフィルタを通して除去でき、それにより検出した入力の残りの特性のみが、環境変化、周波数遷移などの顕著な大きさの事象を表す。特定の実施形態において、フィルタ212は高域フィルタであってもよい。さらに、代替の実施形態において、フィルタ212は遠隔検出デバイス210から省略されてもよく、対応するフィルタリングが省略されてもよい。
実施形態によれば、遠隔検出デバイス210はさらに、トランスミッタ213を備える。トランスミッタ213は、検出した入力を接続230を使用してハプティックデバイス220に送信するように構成される。接続230が無線接続である実施形態において、トランスミッタ213は、検出した入力を無線接続を使用してハプティックデバイス220に無線で送信するように構成される無線トランスミッタであってもよい。接続230が無線接続である代替の実施形態において、トランスミッタ213は、検出した入力を無線接続を使用してハプティックデバイス220に送信するように構成される無線トランスミッタであってもよい。代替の実施形態において、トランスミッタ213は遠隔検出デバイス210から省略されてもよく、対応する送信は省略されてもよい。
実施形態によれば、ハプティックデバイス220はレシーバ221を備える。レシーバ221は、接続230を使用して遠隔検出デバイス210から送信される検出した入力を受信するように構成される。接続230が無線接続である実施形態において、レシーバ221は、無線接続を使用して遠隔検出デバイス210から検出された入力を無線で受信するように構成される無線レシーバであってもよい。接続230が無線接続である代替の実施形態において、レシーバ221は、無線接続を使用して遠隔検出デバイス210から検出された入力を受信するように構成される無線レシーバであってもよい。代替の実施形態において、レシーバ221はハプティックデバイス210から省略されてもよく、対応する受信は省略されてもよい。
実施形態によれば、ハプティックデバイス220はさらに、制御装置222を備える。制御装置222は、検出した入力を1つまたは複数のハプティック信号に準リアルタイムで自動的に変換するように構成される。より特には、制御装置222は、レシーバ221から検出した入力を受信し、受信した検出した入力を1つまたは複数のハプティック信号に準リアルタイムで自動的に変換するように構成される。特定の実施形態において、このことは、検出された入力が、その検出された入力をメモリまたは一部の他の種類の記憶装置内に記憶せずに1つまたは複数のハプティック信号に直接変換されることを意味する。代替の実施形態において、受信した検出した入力の1つまたは複数のハプティック信号への変換はリアルタイムまたは準リアルタイムであることを必要とされず、検出した入力をメモリまたは一部の他の種類の記憶装置内に記憶することを含んでもよい。
制御装置222は、検出した入力を1つまたは複数のハプティック信号に変換するために、人または当業者に公知である任意のハプティック変換アルゴリズムを使用してもよい。例示的なハプティック変換アルゴリズムは以下の特許または特許文献に記載されている(これらの全てはその全体が参照として本明細書に組み込まれる):米国特許第7,979,146号;米国特許第8,000,825号;米国特許第8,378,964号;米国特許出願公開第2011/0202155号;米国特許出願公開第2011/0215913号;米国特許出願公開第2012/0206246号;米国特許出願公開第2012/0206247号;米国特許出願第13/439,241号;米国特許出願第13/661,140号;米国特許出願第13/743,540号;米国特許出願第13/767,129号;米国特許出願第13/785,166号;米国特許出願第13/788,487号;米国特許出願第13/803,778号;および米国特許出願第13/799,059号。
一部の実施形態において、制御装置222はさらに、検出した入力の1つまたは複数の周波数バンド、特徴または特性を識別および/または抽出してもよい。特性の例としては、振幅、周波数、持続時間、エンベロープ、密度、大きさおよび強さが挙げられ得る。特性は数値を含んでもよく、その数値は検出した入力の特性を規定してもよい。制御装置222はさらに、1つまたは複数の識別された特性に基づいて1つまたは複数のハプティック信号を修正してもよい。より特には、制御装置222は、1つまたは複数の識別された特性に一致するように1つまたは複数のハプティック信号の1つまたは複数のハプティックパラメータを修正してもよい。実施形態によれば、ハプティック信号は1つまたは複数のハプティックパラメータを含んでもよく、ハプティックパラメータは、ハプティック効果を生成するために使用されるハプティック信号を規定でき、したがってまた、生成されるハプティック効果を規定できるパラメータである。より特には、ハプティックパラメータは、大きさ、周波数、持続時間、振幅、強さ、エンベロープ、密度または任意の他の種類の定量可能なハプティックパラメータなどのハプティック効果の質の量である。実施形態によれば、ハプティック効果は、少なくとも部分的にハプティック信号の1つまたは複数のハプティックパラメータにより規定され得、1つまたは複数のハプティックパラメータはハプティック効果の特性を規定できる。ハプティックパラメータは数値を含んでもよく、その数値はハプティック信号の特性を規定でき、したがってまた、ハプティック信号によって生成されるハプティック効果の特性を規定できる。ハプティックパラメータの例としては、振幅ハプティックパラメータ、周波数ハプティックパラメータ、持続時間ハプティックパラメータ、エンベロープハプティックパラメータ、密度ハプティックパラメータ、大きさハプティックパラメータおよび強さハプティックパラメータが挙げられ得る。
例として、制御装置222は、オーディオ信号または他の種類のオーディオ入力内の1つまたは複数の特定の周波数バンドを識別および/または抽出できる。次いで制御装置222は生成したハプティック信号の1つまたは複数のハプティックパラメータを修正してもよく、それによりハプティック信号は、オーディオ信号または他の種類のオーディオ入力内の識別された周波数バンドと同一または類似である1つまたは複数の特定の周波数バンドを含む。以下により詳細に記載しているように、修正したハプティック信号は次いで、1つまたは複数の特有のハプティック効果を生成するために使用されてもよく、その特有のハプティック効果はオーディオ信号/入力を識別してもよい。
別の例として、制御装置222はオーディオ入力から時間および/または周波数シグネチャを識別および/または抽出できる。次いで制御装置222は生成したハプティック信号の1つまたは複数のハプティックパラメータを修正してもよく、それによりハプティック信号は、オーディオ入力内の識別した時間および/または周波数シグネチャと同一または類似である時間および/または周波数シグネチャを含む。以下により詳細に記載しているように、修正したハプティック信号は次いで、1つまたは複数の特有のハプティック効果を生成するために使用されてもよく、その特有のハプティック効果はオーディオ入力を識別できる。1つの特定の例において、オーディオ入力はバードコール(bird call)の種類であってもよく、バードコール内の時間および/または周波数シグネチャはバードコールの種類を一意に識別できる。したがって、修正したハプティック信号は、修正したハプティック信号の対応する時間および/または周波数シグネチャに基づいてバードコールの種類を識別するハプティック効果を生成するために使用されてもよい。別の特定の例において、オーディオ入力は人の活動および人でない活動(例えば、人の言葉および乗り物のノイズ)を含んでもよく、オーディオ入力内の識別された特性は、人でない活動を区別するように人の活動を一意に識別できる。したがって、修正されたハプティック信号は、人の活動を識別する第1のハプティック効果、および人でない活動を識別する第2のハプティック効果を生成するために使用されてもよい。第1のハプティック効果および第2のハプティック効果の両方を感じる個人は、第1のハプティック効果が人の活動を識別し、第2のハプティック効果が人でない活動を識別することを識別できる。
さらに、代替の実施形態において、検出した入力を1つまたは複数のハプティック信号に自動的に変換すること以外に、制御装置222は、検出した入力の1つまたは複数の識別された特性に基づいて制御装置222内に記憶される1つまたは複数のハプティック信号を選択できる。より特には、制御装置222は、検出した入力の1つまたは複数の識別された特性に同一または最も類似である1つまたは複数のハプティックパラメータを含む1つまたは複数のハプティック信号を選択できる。1つまたは複数のハプティック信号はライブラリ内に記憶されてもよく、そのライブラリは制御装置222内に記憶される。
示した実施形態によれば、制御装置222は、プロセッサ223、メモリ224および自動ハプティック変換モジュール225を含んでもよい。プロセッサ223は任意の種類の汎用または特定目的プロセッサであってもよい。特定の実施形態において、プロセッサ223は図1のプロセッサ22と同一であり得る。メモリ224はプロセッサ223により実行される情報および命令を記憶するように構成されてもよい。メモリ224は、RAM、ROM、磁気ディスクもしくは光ディスクなどの静的記憶装置、または任意の他の種類のコンピュータ可読媒体の任意の組合せから構成されてもよい。特定の実施形態において、メモリ224は図1のメモリ14と同一であってもよい。自動ハプティック変換モジュール225は入力を1つまたは複数のハプティック効果に自動的に変換するための上述の機能を実施するように構成されてもよい。特定の実施形態において、自動ハプティック変換モジュール225は複数のモジュールを含んでもよく、各モジュールは入力を1つまたは複数のハプティック効果に自動的に変換するための上述の機能の特定の個々の部分を提供する。さらに、特定の実施形態において、自動ハプティック変換モジュール225は図1の自動ハプティック変換モジュール16と同一である。
また、実施形態によれば、ハプティックデバイス220はさらに、ハプティック出力デバイス226を含む。制御装置222は1つまたは複数のハプティック信号をハプティック出力デバイス226に送信するように構成される。次に、ハプティック出力デバイス226は、制御装置222により送信される1つまたは複数のハプティック信号に応答して振動触覚ハプティック効果、静電摩擦ハプティック効果、または変形ハプティック効果などの1つまたは複数のハプティック効果を出力するように構成される。特定の実施形態において、ハプティック出力デバイス226は図1のアクチュエータ26と同一である。
図3は、本発明の一実施形態に係る、自動ハプティック変換モジュール(例えば、図1の自動ハプティック変換モジュール16および図2の自動ハプティック変換モジュール225)の機能性のフロー図を示す。一実施形態において、図3の機能性は、メモリまたは他のコンピュータ可読もしくは有形的表現媒体内に記憶されるソフトウェアによって実装され、プロセッサによって実行される。他の実施形態において、機能性は、ハードウェアによって(例えば、特定用途向け集積回路(「ASIC」)、プログラマブルゲートアレイ(「PGA」)、フィールドプログラマブルゲートアレイ(「FPGA」)などの使用によって)、またはハードウェアとソフトウェアの任意の組合せによって実施されてもよい。
フローが開始し、310に進む。310において、入力が検出される。特定の実施形態において、入力は準リアルタイムで検出されてもよい。さらに、特定の実施形態において、入力はオーディオデータを含んでもよい。他の実施形態において、入力はビデオデータを含んでもよい。他の実施形態において、入力は加速度データを含んでもよい。他の実施形態において、入力は別の種類のデータを含んでもよい。次いでフローは320に進む。
320において、検出した入力はフィルタにかけられる。特定の実施形態において、320は省略されてもよい。次いでフローは330に進む。
330において、検出した入力は制御装置に送信される。一部の実施形態において、検出した入力は無線で制御装置に送信されてもよい。特定の実施形態において、330は省略されてもよい。次いでフローは340に進む。
340において、検出した入力の1つまたは複数の特性が識別される。特定の実施形態において、検出した入力の1つまたは複数の特性は、振幅、周波数、持続時間、エンベロープ、密度、大きさまたは強さのうちの少なくとも1つを含んでもよい。特定の実施形態において、340は省略されてもよい。フローは次いで350に進む。
350において、検出した入力は1つまたは複数のハプティック信号に自動的に変換される。検出した入力はハプティック変換アルゴリズムを使用して1つまたは複数のハプティック信号に自動的に変換され得る。特定の実施形態において、検出した入力は、1つまたは複数のハプティック信号に準リアルタイムで自動的に変換され得る。次いでフローは360に進む。
360において、1つまたは複数のハプティック信号は検出した入力の1つまたは複数の識別された特性に基づいて修正される。特定の実施形態において、1つまたは複数のハプティック信号の1つまたは複数のハプティックパラメータは検出した入力の1つまたは複数の識別された特性と一致するように修正されてもよい。これらの実施形態の一部において、1つまたは複数のハプティックパラメータは、振幅ハプティックパラメータ、周波数ハプティックパラメータ、持続時間ハプティックパラメータ、エンベロープハプティックパラメータ、密度ハプティックパラメータ、大きさパラメータまたは強さハプティックパラメータのうちの少なくとも1つを含んでもよい。特定の実施形態において、360は省略されてもよい。次いでフローは370に進む。
370において、1つまたは複数のハプティック効果は1つまたは複数のハプティック信号に基づいて生成される。特定の実施形態において、1つまたは複数のハプティック信号は1つまたは複数のハプティック効果を生成するために1つまたは複数のハプティック出力デバイスに送信されてもよい。これらの実施形態の一部において、1つまたは複数のハプティック出力デバイスの少なくとも1つはアクチュエータである。さらに、特定の実施形態において、ウェアラブルハプティックデバイスは1つまたは複数のハプティック信号に基づいて1つまたは複数のハプティック効果を生成できる。次いでフローは終了に進む。
したがって、実施形態によれば、オーディオ信号などの検出された入力をハプティック効果に自動的に変換するシステムが提供され、入力の検出および自動的変換は準リアルタイムで実施される。したがって、システムはオーディオ信号などの他の入力からハプティックコンテンツを自動的に生成できる。したがって、システムにより、ハプティックコンテンツが顕著に容易に生成できる。
本明細書全体にわたって記載した本発明の特徴、構造、または特性は、1つ以上の実施形態において任意の適切な形式で組み合わされてもよい。例えば、本明細書全体にわたって、「一実施形態」、「一部の実施形態」、「特定の実施形態」、「特定の実施形態(複数)」、または他の同様の言語の使用は、実施形態と併せた記載した特定の特徴、構造、または特性が、本発明の少なくとも1つの実施形態に含まれてもよいことを指す。したがって、本明細書全体にわたって、「一実施形態」、「一部の実施形態」、「特定の実施形態」、「特定の実施形態(複数)」という用語、または他の同様の言語の出現は、必ずしも全て実施形態の同じ群を指すわけではなく、記載した特徴、構造、または特性は、1つ以上の実施形態において任意の適切な形式で組み合わされてもよい。
当業者は、上記の本発明が、異なる順序のステップで、および/または開示されるものとは異なる構造の要素と共に実施されてもよいことを容易に理解するであろう。したがって、本発明はこれらの好ましい実施形態に基づいて記載しているが、本発明の精神および範囲内のままで、特定の修飾、変更、および代替の構造が明らかになることは当業者には明らかであろう。したがって、本発明の境界および範囲を決定するために、添付の特許請求の範囲を参照すべきである。

Claims (11)

  1. 入力を1つまたは複数のハプティック効果に準リアルタイムで自動的に変換するためのコンピュータ実装方法であって、
    前記入力を準リアルタイムで検出するセンサからオーディオ信号を受信するステップであって、前記オーディオ信号が音声及び乗り物のノイズを含むステップと、
    前記音声のみがフィルタリングされたオーディオ信号に残るように、前記フィルタリングされたオーディオ信号を生成するために、乗り物のノイズを表現する前記オーディオ信号の特性を除去するステップと、
    前記フィルタリングされたオーディオ信号を1つまたは複数のハプティック信号に準リアルタイムで自動的に変換するステップと、
    前記1つまたは複数のハプティック信号に基づいて1つまたは複数のハプティック効果を生成するステップと、
    を含む、コンピュータ実装方法。
  2. 前記オーディオ信号の1つまたは複数の特性を識別するステップと、
    1つまたは複数の識別された特性に基づいて前記1つまたは複数のハプティック信号を修正するステップと、
    をさらに含む、請求項1に記載のコンピュータ実装方法。
  3. 前記オーディオ信号の1つまたは複数の特性が、前記オーディオ信号の周波数であり
    前記1つまたは複数のハプティック信号が、周波数ハプティックパラメータである
    請求項2に記載のコンピュータ実装方法。
  4. 前記オーディオ信号は、自動変換を実施するように構成される制御装置によって無線で受信されるステップをさらに含む、請求項1に記載のコンピュータ実装方法。
  5. 前記1つまたは複数のハプティック効果を生成するステップが、ウェアラブルハプティックデバイスによって実施される、請求項1に記載のコンピュータ実装方法。
  6. 前記1つまたは複数のハプティック効果を生成するステップが、前記1つまたは複数のハプティック効果を生成するために前記1つまたは複数のハプティック信号を1つまたは複数のハプティック出力デバイスに送信するステップをさらに含む、請求項1に記載のコンピュータ実装方法。
  7. 前記1つまたは複数のハプティック出力デバイスの少なくとも1つのハプティック出力デバイスがアクチュエータを含む、請求項6に記載のコンピュータ実装方法。
  8. 入力を1つまたは複数のハプティック効果に準リアルタイムで自動的に変換するシステムであって、
    自動ハプティック変換モジュールを記憶するように構成されるメモリと、
    前記メモリに記憶された前記自動ハプティック変換モジュールを実行するように構成されるプロセッサであって、前記プロセッサによって実行された場合に、前記自動ハプティック変換モジュールが前記プロセッサに、
    入力を準リアルタイムで検出するセンサからオーディオ信号を受信させ、前記オーディオ信号は、音声及び乗り物のノイズを含み、
    前記音声のみがフィルタリングされたオーディオ信号に残るように、前記フィルタリングされたオーディオ信号を生成するために、乗り物のノイズを表現する前記オーディオ信号の特性を除去させ、
    前記フィルタリングされたオーディオ信号を1つまたは複数のハプティック信号に準リアルタイムで自動変換させ、
    前記1つまたは複数のハプティック信号に基づいて1つまたは複数のハプティック効果を生成させるプロセッサと、
    を備えるシステム。
  9. 前記自動ハプティック変換モジュールは、前記プロセッサに、前記オーディオ信号の1つまたは複数の特性を識別させ、
    1つまたは複数の識別された特性に基づいて前記1つまたは複数のハプティック信号を修正させるようにさらに構成される、請求項8に記載のシステム。
  10. 前記オーディオ信号の1つまたは複数の特性が、前記オーディオ信号の周波数であり
    前記1つまたは複数のハプティック信号が、周波数ハプティックパラメータである
    請求項9に記載のシステム。
  11. プロセッサにより実行される場合、前記プロセッサに請求項1〜7のいずれか一項に記載の方法を実装させる、記憶された命令を有するコンピュータ可読媒体。
JP2014181041A 2013-09-06 2014-09-05 自動遠隔検出およびハプティック変換システム Active JP6494222B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/019,606 US9443401B2 (en) 2013-09-06 2013-09-06 Automatic remote sensing and haptic conversion system
US14/019,606 2013-09-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019038617A Division JP2019083074A (ja) 2013-09-06 2019-03-04 自動遠隔検出およびハプティック変換システム

Publications (2)

Publication Number Publication Date
JP2015053056A JP2015053056A (ja) 2015-03-19
JP6494222B2 true JP6494222B2 (ja) 2019-04-03

Family

ID=51357695

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014181041A Active JP6494222B2 (ja) 2013-09-06 2014-09-05 自動遠隔検出およびハプティック変換システム
JP2019038617A Pending JP2019083074A (ja) 2013-09-06 2019-03-04 自動遠隔検出およびハプティック変換システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019038617A Pending JP2019083074A (ja) 2013-09-06 2019-03-04 自動遠隔検出およびハプティック変換システム

Country Status (5)

Country Link
US (3) US9443401B2 (ja)
EP (2) EP3379385A3 (ja)
JP (2) JP6494222B2 (ja)
KR (1) KR20150028733A (ja)
CN (1) CN104423586A (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8717152B2 (en) 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
US9715276B2 (en) 2012-04-04 2017-07-25 Immersion Corporation Sound to haptic effect conversion system using multiple actuators
US9368005B2 (en) 2012-08-31 2016-06-14 Immersion Corporation Sound to haptic effect conversion system using mapping
KR101427993B1 (ko) * 2012-12-17 2014-08-08 포항공과대학교 산학협력단 오디오 신호의 햅틱 신호 변환 방법 및 이를 수행하는 장치
US9997032B2 (en) 2013-04-09 2018-06-12 Immersion Corporation Offline haptic conversion system
US9519346B2 (en) 2013-05-17 2016-12-13 Immersion Corporation Low-frequency effects haptic conversion system
US9514620B2 (en) 2013-09-06 2016-12-06 Immersion Corporation Spatialized haptic feedback based on dynamically scaled values
US9443401B2 (en) * 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US10079650B2 (en) 2015-12-04 2018-09-18 Infineon Technologies Ag Robust high speed sensor interface for remote sensors
US9881467B2 (en) * 2016-02-22 2018-01-30 Immersion Corporation Haptic effects conflict avoidance
US10514763B2 (en) * 2016-04-07 2019-12-24 Sony Corporation System, terminal apparatus, method, and recording medium
US10297120B2 (en) * 2016-12-13 2019-05-21 Disney Enterprises, Inc. Haptic effect generation system
US20180288364A1 (en) * 2017-03-30 2018-10-04 Zen-Me Labs Oy Method and system for sensory environment replication
US10334360B2 (en) * 2017-06-12 2019-06-25 Revolabs, Inc Method for accurately calculating the direction of arrival of sound at a microphone array
US10503261B2 (en) * 2017-12-15 2019-12-10 Google Llc Multi-point feedback control for touchpads
US11353967B2 (en) 2018-05-31 2022-06-07 Arkh Litho Holdings, LLC Interacting with a virtual environment using a pointing controller
EP3928187A1 (en) 2019-02-18 2021-12-29 Arkh Litho Holdings, LLC Interacting with a smart device using a pointing controller
US10754428B1 (en) * 2019-02-25 2020-08-25 Facebook Technologies, Llc Systems, methods, and devices for audio-tactile mapping
EP4034974A4 (en) 2019-09-24 2024-01-03 Arkh, Inc. SMART RING
EP4046001A1 (en) * 2019-10-14 2022-08-24 Lofelt GmbH Systems and methods for authoring an audio signal and for transforming the authored audio signal into a haptic data file
US11755111B2 (en) 2020-03-16 2023-09-12 Arkh, Inc. Spatially aware computing hub and environment
USD1009861S1 (en) 2020-09-25 2024-01-02 Arkh, Inc. Smart ring
CN114351613A (zh) * 2022-01-07 2022-04-15 北京工业大学 一种智慧公路交通线性诱导装置

Family Cites Families (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4270226A (en) * 1976-07-22 1981-05-26 Morton Weintraub Remote control system
JPS54155080A (en) * 1978-05-27 1979-12-06 Citizen Watch Co Ltd Pace generator
US5035242A (en) 1990-04-16 1991-07-30 David Franklin Method and apparatus for sound responsive tactile stimulation of deaf individuals
JPH07245793A (ja) * 1994-03-03 1995-09-19 Bodeisonitsuku Kk 簡易装着型体感振動装置
US5684722A (en) * 1994-09-21 1997-11-04 Thorner; Craig Apparatus and method for generating a control signal for a tactile sensation generator
JP3034433B2 (ja) * 1994-10-31 2000-04-17 核燃料サイクル開発機構 構造物の熱設計方法およびその設計に最適な数値計算装置
JPH0951303A (ja) * 1995-08-08 1997-02-18 Kokusai Electric Co Ltd カード型無線受信機
US5892447A (en) * 1996-12-06 1999-04-06 Wilkinson; Milton E. Portable cellular alert system
US6611599B2 (en) * 1997-09-29 2003-08-26 Hewlett-Packard Development Company, L.P. Watermarking of digital object
US6384814B1 (en) * 1998-02-16 2002-05-07 Canon Kabushiki Kaisha Input pen
US6693626B1 (en) * 1999-12-07 2004-02-17 Immersion Corporation Haptic feedback using a keyboard device
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
WO2002037067A1 (fr) * 2000-11-06 2002-05-10 Nsk Ltd. Dispositif et procede diagnostiquant des anomalies pour une installation mecanique
JP3958944B2 (ja) * 2001-07-17 2007-08-15 アルプス電気株式会社 多機能入力装置
US7094164B2 (en) * 2001-09-12 2006-08-22 Pillar Vision Corporation Trajectory detection and feedback system
US6703550B2 (en) * 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
US6783495B2 (en) * 2002-03-19 2004-08-31 Fuji Photo Film Co., Ltd. Ultrasonic diagnosing apparatus
US7308314B2 (en) * 2002-06-06 2007-12-11 Advanced Medical Electronics Method and apparatus for sensory substitution, vision prosthesis, or low-vision enhancement utilizing thermal sensing
AU2003293449A1 (en) * 2002-12-08 2004-06-30 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
US7779166B2 (en) * 2002-12-08 2010-08-17 Immersion Corporation Using haptic effects to enhance information content in communications
US8059088B2 (en) * 2002-12-08 2011-11-15 Immersion Corporation Methods and systems for providing haptic messaging to handheld communication devices
US8830161B2 (en) * 2002-12-08 2014-09-09 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
US20040127198A1 (en) * 2002-12-30 2004-07-01 Roskind James A. Automatically changing a mobile device configuration based on environmental condition
US20050228207A1 (en) * 2003-02-12 2005-10-13 Vincent Ardizzone Magneto-cymatic therapeutic oscillating wand
US6950028B2 (en) * 2003-04-25 2005-09-27 Stephen Eliot Zweig Electronic time-temperature indicator
EP1533678A1 (en) * 2003-11-24 2005-05-25 Sony International (Europe) GmbH Physical feedback channel for entertaining or gaming environments
US20090312817A1 (en) 2003-11-26 2009-12-17 Wicab, Inc. Systems and methods for altering brain and body functions and for treating conditions and diseases of the same
US20060066569A1 (en) * 2003-12-08 2006-03-30 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US7791588B2 (en) * 2003-12-22 2010-09-07 Immersion Corporation System and method for mapping instructions associated with haptic feedback
US7283120B2 (en) * 2004-01-16 2007-10-16 Immersion Corporation Method and apparatus for providing haptic feedback having a position-based component and a predetermined time-based component
JP4046095B2 (ja) * 2004-03-26 2008-02-13 ソニー株式会社 触覚機能付き入力装置、情報入力方法及び電子機器
US20070300142A1 (en) * 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US7307820B2 (en) * 2004-06-21 2007-12-11 Siemens Energy & Automation, Inc. Systems, methods, and device for arc fault detection
US20060017691A1 (en) * 2004-07-23 2006-01-26 Juan Manuel Cruz-Hernandez System and method for controlling audio output associated with haptic effects
US20110191674A1 (en) * 2004-08-06 2011-08-04 Sensable Technologies, Inc. Virtual musical interface in a haptic virtual environment
JP2006154213A (ja) * 2004-11-29 2006-06-15 Ntt Advanced Technology Corp 声の響きの評価方法および評価装置
KR100590576B1 (ko) * 2004-12-28 2006-11-23 삼성전자주식회사 영상의 촉각 제공 장치 및 방법
DE102005011358A1 (de) 2005-03-04 2006-09-07 Jens Dipl.-Ing. Hansen Verfahren und Anordnung zum sensitiven Erfassen von Schallereignissen sowie deren Verwendung
CA2605239A1 (en) * 2005-05-02 2006-11-09 University Of Virginia Patent Foundation Systems, devices, and methods for interpreting movement
US20070016425A1 (en) 2005-07-12 2007-01-18 Koren Ward Device for providing perception of the physical environment
US7938009B2 (en) * 2006-02-03 2011-05-10 Immersion Corporation Haptic device testing
CN104063056B (zh) * 2006-04-06 2018-04-20 意美森公司 用于增强的触觉效果的系统和方法
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US7979146B2 (en) 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8000825B2 (en) * 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US8174512B2 (en) * 2006-06-02 2012-05-08 Immersion Corporation Hybrid haptic device utilizing mechanical and programmable haptic effects
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7890863B2 (en) * 2006-10-04 2011-02-15 Immersion Corporation Haptic effects with proximity sensing
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4467601B2 (ja) * 2007-05-08 2010-05-26 ソニー株式会社 ビート強調装置、音声出力装置、電子機器、およびビート出力方法
US8315652B2 (en) * 2007-05-18 2012-11-20 Immersion Corporation Haptically enabled messaging
WO2008146616A1 (ja) * 2007-05-25 2008-12-04 Nec Corporation 画像音響区間群対応付け装置と方法およびプログラム
US8683378B2 (en) * 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
US8098235B2 (en) * 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
US9019087B2 (en) * 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US8325144B1 (en) * 2007-10-17 2012-12-04 Immersion Corporation Digital envelope modulator for haptic feedback devices
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US9733704B2 (en) * 2008-06-12 2017-08-15 Immersion Corporation User interface impact actuator
KR101556522B1 (ko) * 2008-06-27 2015-10-01 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법
KR101474963B1 (ko) * 2008-07-01 2014-12-19 엘지전자 주식회사 휴대 단말기 및 그 제어방법
EP2741177B1 (en) * 2008-07-15 2019-06-26 Immersion Corporation Systems and Methods for Transmitting Haptic Messages
US8380561B1 (en) * 2008-07-30 2013-02-19 Immersion Corporation Method and apparatus for scoring haptic devices
US7969287B2 (en) * 2008-08-18 2011-06-28 Visteon Global Technologies, Inc. Haptic effect control system
US9400555B2 (en) * 2008-10-10 2016-07-26 Internet Services, Llc System and method for synchronization of haptic data and media data
US8884884B2 (en) * 2008-11-12 2014-11-11 Immersion Corporation Haptic effect generation with an eccentric rotating mass actuator
US8551002B2 (en) * 2008-12-12 2013-10-08 Immersion Corporation Spatial array of sensors mounted on a tool
US8216212B2 (en) * 2009-01-15 2012-07-10 Immersion Corporation Providing haptic feedback to the handle of a tool
US8652046B2 (en) * 2009-01-15 2014-02-18 Immersion Corporation Palpation algorithms for computer-augmented hand tools
US8698736B2 (en) * 2009-03-24 2014-04-15 Immersion Corporation Handheld computer interface with haptic feedback
WO2010141893A2 (en) * 2009-06-05 2010-12-09 Advanced Brain Monitoring, Inc. Systems and methods for controlling position
US10401961B2 (en) * 2009-06-09 2019-09-03 Immersion Corporation Method and apparatus for generating haptic effects using actuators
US8730182B2 (en) * 2009-07-30 2014-05-20 Immersion Corporation Systems and methods for piezo-based haptic feedback
US10156480B2 (en) * 2009-09-03 2018-12-18 Rosemount Inc. Thermowell vibration frequency diagnostic
US9317116B2 (en) * 2009-09-09 2016-04-19 Immersion Corporation Systems and methods for haptically-enhanced text interfaces
GB2474047B (en) * 2009-10-02 2014-12-17 New Transducers Ltd Touch sensitive device
US8610549B2 (en) * 2009-10-16 2013-12-17 Immersion Corporation Systems and methods for providing haptic feedback at multiple resonance frequencies
US8902050B2 (en) * 2009-10-29 2014-12-02 Immersion Corporation Systems and methods for haptic augmentation of voice-to-text conversion
US8392342B2 (en) * 2009-11-18 2013-03-05 Empire Technology Development Llc Method and apparatus for predicting movement of a tool in each of four dimensions and generating feedback during surgical events using a 4D virtual real-time space
US20120194418A1 (en) * 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with user action control and event input based control of eyepiece application
US9128281B2 (en) * 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
JP2011188342A (ja) * 2010-03-10 2011-09-22 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2011209906A (ja) * 2010-03-29 2011-10-20 Shin Etsu Polymer Co Ltd 入力部材およびそれを備える電子機器
WO2011133860A2 (en) * 2010-04-23 2011-10-27 Immersion Corporation Systems and methods for providing haptic effects
KR101108145B1 (ko) * 2010-05-07 2012-02-06 광주과학기술원 고해상도 타일드 디스플레이를 지원하는 햅틱기반 네트워크 가상환경 구현 장치 및 방법
US9367150B2 (en) * 2010-05-20 2016-06-14 Nokia Technologies Oy Apparatus and associated methods
US20120327006A1 (en) * 2010-05-21 2012-12-27 Disney Enterprises, Inc. Using tactile feedback to provide spatial awareness
CN102971689B (zh) * 2010-06-28 2015-10-07 诺基亚公司 触觉表面压缩
JP2012027855A (ja) * 2010-07-27 2012-02-09 Kyocera Corp 触感呈示装置及び触感呈示装置の制御方法
US9448626B2 (en) 2011-02-11 2016-09-20 Immersion Corporation Sound to haptic effect conversion system using amplitude value
US8717152B2 (en) * 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
WO2012125596A2 (en) * 2011-03-12 2012-09-20 Parshionikar Uday Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
US10039672B2 (en) * 2011-03-23 2018-08-07 Ali Mohammad Aghamohammadi Vibro-electro tactile ultrasound hearing device
US8717151B2 (en) * 2011-05-13 2014-05-06 Qualcomm Incorporated Devices and methods for presenting information to a user on a tactile output surface of a mobile device
US9083821B2 (en) 2011-06-03 2015-07-14 Apple Inc. Converting audio to haptic feedback in an electronic device
US8832804B1 (en) * 2011-08-05 2014-09-09 Google Inc. Password pre-verification in client-server applications
US9582178B2 (en) * 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US20130227411A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Sensation enhanced messaging
US8749690B2 (en) * 2011-12-13 2014-06-10 Facebook, Inc. In-context content capture
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
JP6541292B2 (ja) 2012-02-15 2019-07-10 イマージョン コーポレーションImmersion Corporation プリミティブを用いた高解像度ハプティック効果生成
US9715276B2 (en) * 2012-04-04 2017-07-25 Immersion Corporation Sound to haptic effect conversion system using multiple actuators
US8874345B2 (en) * 2012-04-04 2014-10-28 General Electric Company Method and system for identifying an erroneous speed of a vehicle
US9891709B2 (en) * 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20130311881A1 (en) * 2012-05-16 2013-11-21 Immersion Corporation Systems and Methods for Haptically Enabled Metadata
US8860563B2 (en) 2012-06-14 2014-10-14 Immersion Corporation Haptic effect conversion system using granular synthesis
US9245428B2 (en) * 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
US9386616B2 (en) * 2012-08-14 2016-07-05 Lg Electronics Inc. Device and method for performing inter-device communication
US9116546B2 (en) * 2012-08-29 2015-08-25 Immersion Corporation System for haptically representing sensor input
US9368005B2 (en) 2012-08-31 2016-06-14 Immersion Corporation Sound to haptic effect conversion system using mapping
US9342882B2 (en) * 2012-09-06 2016-05-17 Siemens Medical Solutions Usa, Inc. Methods and systems for determining the concentration of a contrast agent
US9092059B2 (en) 2012-10-26 2015-07-28 Immersion Corporation Stream-independent sound to haptic effect conversion system
US20140139451A1 (en) * 2012-11-20 2014-05-22 Vincent Levesque Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture
US9330544B2 (en) * 2012-11-20 2016-05-03 Immersion Corporation System and method for simulated physical interactions with haptic effects
US9128523B2 (en) * 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US9261960B2 (en) 2013-01-24 2016-02-16 Immersion Corporation Haptic sensation recording and playback
US9760278B2 (en) * 2013-03-01 2017-09-12 Altaba INC. Finger expressions for touch screens
US8754757B1 (en) 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
US9202351B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Systems and methods for haptics in vibrating environments and devices
US9866924B2 (en) * 2013-03-14 2018-01-09 Immersion Corporation Systems and methods for enhanced television interaction
US9189098B2 (en) * 2013-03-14 2015-11-17 Immersion Corporation Systems and methods for syncing haptic feedback calls
US9092954B2 (en) * 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
US20140267076A1 (en) * 2013-03-15 2014-09-18 Immersion Corporation Systems and Methods for Parameter Modification of Haptic Effects
KR101666393B1 (ko) * 2013-03-27 2016-10-14 한국전자통신연구원 음향효과를 이용한 촉각효과 재생 장치 및 방법
JP6469963B2 (ja) * 2013-04-22 2019-02-13 イマージョン コーポレーションImmersion Corporation 触覚対応トリガーを有するゲーミング装置
CN109582150A (zh) * 2013-04-26 2019-04-05 意美森公司 利用触觉单元阵列模拟有形用户界面交互和手势
US9524030B2 (en) * 2013-04-26 2016-12-20 Immersion Corporation Haptic feedback for interactions with foldable-bendable displays
US9519346B2 (en) * 2013-05-17 2016-12-13 Immersion Corporation Low-frequency effects haptic conversion system
EP3144780A1 (en) * 2013-06-11 2017-03-22 Immersion Corporation Systems and methods for pressure-based haptic effects
US9729730B2 (en) * 2013-07-02 2017-08-08 Immersion Corporation Systems and methods for perceptual normalization of haptic effects
US10037081B2 (en) * 2013-08-12 2018-07-31 Immersion Corporation Systems and methods for haptic fiddling
US9443401B2 (en) * 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US10599218B2 (en) 2013-09-06 2020-03-24 Immersion Corporation Haptic conversion system using frequency shifting
US9898085B2 (en) 2013-09-06 2018-02-20 Immersion Corporation Haptic conversion system using segmenting and combining
US20150177840A1 (en) * 2013-12-19 2015-06-25 Nokia Corporation Apparatus and associated methods for user input

Also Published As

Publication number Publication date
US9910495B2 (en) 2018-03-06
US20180129291A1 (en) 2018-05-10
KR20150028733A (ko) 2015-03-16
US10416774B2 (en) 2019-09-17
US9443401B2 (en) 2016-09-13
US20150070144A1 (en) 2015-03-12
EP3379385A3 (en) 2019-01-02
CN104423586A (zh) 2015-03-18
EP2846220A1 (en) 2015-03-11
JP2015053056A (ja) 2015-03-19
JP2019083074A (ja) 2019-05-30
US20160342212A1 (en) 2016-11-24
EP3379385A2 (en) 2018-09-26

Similar Documents

Publication Publication Date Title
JP6494222B2 (ja) 自動遠隔検出およびハプティック変換システム
JP6739571B2 (ja) 周波数シフトを用いたハプティック変換システム
JP6615307B2 (ja) 動的ハプティック変換システム
JP6412285B2 (ja) ハプティックワーピングシステム
US20180210552A1 (en) Haptic conversion system using segmenting and combining
US9508236B2 (en) Haptic warping system that transforms a haptic signal into a collection of vibrotactile haptic effect patterns
EP2778843B1 (en) Automatic haptic effect adjustment system
US10748391B2 (en) Haptic signal conversion system
JP2019050558A (ja) 非オーディオデータを用いたヘッドホン上でのハプティックのレンダリング
US20200192480A1 (en) Systems and methods for providing haptic effects based on a user's motion or environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190305

R150 Certificate of patent or registration of utility model

Ref document number: 6494222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250