JP2017126337A - 触覚対応ニューラルインターフェースのためのシステム及び方法 - Google Patents

触覚対応ニューラルインターフェースのためのシステム及び方法 Download PDF

Info

Publication number
JP2017126337A
JP2017126337A JP2017002732A JP2017002732A JP2017126337A JP 2017126337 A JP2017126337 A JP 2017126337A JP 2017002732 A JP2017002732 A JP 2017002732A JP 2017002732 A JP2017002732 A JP 2017002732A JP 2017126337 A JP2017126337 A JP 2017126337A
Authority
JP
Japan
Prior art keywords
haptic
user
signal
sensor
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017002732A
Other languages
English (en)
Other versions
JP7089846B2 (ja
Inventor
ファン マヌエル クルス−エルナンデス、
Juan Manuel Cruz-Hernandez
ファン マヌエル クルス−エルナンデス、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2017126337A publication Critical patent/JP2017126337A/ja
Priority to JP2021133295A priority Critical patent/JP2021193575A/ja
Application granted granted Critical
Publication of JP7089846B2 publication Critical patent/JP7089846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • Biomedical Technology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

【課題】ニューラルインターフェースからのセンサ信号に基づいて、仮想環境における仮想オブジェクトとの相互作用において触覚効果を提示する触覚対応ニューラルインターフェースを提供する。
【解決手段】触覚対応ニューラルインターフェースのためのシステム100は、ニューラルセンサ106、108、110、コンピュータ装置112、触覚出力装置114を備える。ニューラルセンサ106、108、110は、信号神経系に関係付けられる電気信号を検出する。コンピュータ装置112は、検出したセンサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用を決定する。また、コンピュータ装置112は、仮想環境における仮想オブジェクトとの相互作用に基づいて触覚効果を決定し、触覚出力装置114に触覚信号を送信する。更に、触覚出力装置114は、触覚信号を受信して、触覚効果を出力する。
【選択図】図1

Description

本発明は、ユーザインターフェース装置の分野に関する。より詳細には、本発明は、触覚対応ニューラルインターフェースに関する。
コンピュータベースのシステムがより普及してきており、研究者は、ユーザがこうしたシステムと相互作用することができる新しいインターフェースを模索している。最近開発されたインターフェースの一つは、ブレイン・コンピュータ・インターフェース(BCI)等のニューラルインターフェースである。BCIは、ユーザの脳と外部コンピュータ装置との間の直接通信経路を含み得る。一部のBCIは、ユーザの脳又は頭蓋骨に埋め込まれたプローブ又は電極を使用し、これがユーザの脳から外部コンピュータ装置に電気信号を直接送信する。他のBCIは、ユーザの頭の外部(例えば、ユーザの額)に結合されるセンサを使用し、これはユーザの頭蓋骨を通してユーザの脳からの電気信号(例えば、電磁波)を検出して、外部コンピュータ装置にセンサ信号を送信する。ニューラルインターフェースは、触覚機能を含むことによって改善され得る。
本開示の実施形態は、触覚対応ニューラルインターフェースを含む。一実施形態では、本開示のシステムは、神経系に関係付けられる電気信号を検出するように構成されるニューラルインターフェースからセンサ信号を受信するように構成されるプロセッサを備えてもよい。また、プロセッサは、センサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用を決定するように構成されてもよい。また、プロセッサは、仮想環境における仮想オブジェクトとの相互作用に少なくとも部分的に基づいて触覚効果を決定するように構成されてもよい。また、プロセッサは、触覚効果に関係付けられる触覚信号を送信するように構成されてもよい。システムは、触覚信号を受信して、触覚効果を出力するように構成される触覚出力装置を更に備えてもよい。
別の実施形態では、本開示の方法は、神経系に関係付けられる電気信号を検出するように構成されるニューラルインターフェースからセンサ信号を受信するステップを含んでもよい。また、方法は、センサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用を決定するステップを含んでもよい。また、方法は、仮想環境における仮想オブジェクトとの相互作用に少なくとも部分的に基づいて触覚効果を決定するステップを含んでもよい。方法は、触覚効果に関係付けられる触覚信号を触覚出力装置に送信するステップを更に含んでもよい。触覚出力装置は、触覚信号を受信して、触覚効果を出力するように構成されてもよい。更に別の実施形態は、このような方法を実装するためのコンピュータ可読媒体を含む。
こうした例示の実施形態は、本主題を限定し又はその限界を定義するためではなく、その理解を支援するための例示を提供するために言及される。例示の実施形態は、詳細な説明において検討され、そこでは更なる説明が提供される。本明細書を吟味することによって、及び/又は請求項に記載の主題の1つ以上の実施形態を実施することによって、様々な実施形態によってもたらされる利点が更に理解され得る。
本明細書の以下の部分には完全な且つ実施可能な開示がより詳細に説明される。本明細書は以下の添付の図面を参照する。
触覚対応ニューラルインターフェースのためのシステムの例示の実施形態を示す。 一実施形態による触覚対応ニューラルインターフェースのためのシステムを示すブロック図である。 触覚対応ニューラルインターフェースのためのシステムの実施形態を示す。 触覚対応ニューラルインターフェースのためのシステムの別の実施形態を示す。 一実施形態による触覚対応ニューラルインターフェースを提供する方法を実行するためのステップのフローチャートである。
次に、多様な及び代替的な例示の実施形態及び添付の図面を詳細に参照する。各例示は、限定としてではなく、説明目的で提供される。修正及び変更が行われ得ることは、当業者には明らかであろう。例えば、一実施形態の一部として例示され又は記載された特徴は、更なる実施形態をもたらすために別の実施形態において使用されてもよい。従って、本開示は、添付の請求項及び均等物の範囲に入る修正及び変形を含むことが意図されている。
(触覚対応ニューラルインターフェースの例示)
図1は、触覚対応ニューラルインターフェースのためのシステム100の例示の実施形態を示す。システム100は、コンピュータ装置112を含む。また、システム100は、コンピュータ装置112と電気通信(例えば、有線又は無線通信)する1つ以上のニューラルセンサ106、108、110を備える。ニューラルセンサ106、108、110は、ユーザの脳104、脊椎、及び/又は神経等のユーザの神経系の少なくとも一部と電気的に結合するように構成される。ニューラルセンサ106、108、110がユーザの脳104からの脳信号を検出するために配置される場合、システム100はブレイン・コンピュータ・インターフェース(BCI)と呼ばれ得る。しかし、実施形態はブレイン・コンピュータ・インターフェースに限定されず、システム100は、ユーザの神経系の少なくとも一部に伝播する神経信号を検出するために(例えば、ユーザの体の上又は知覚の任意の場所に)配置される任意の数の及び構成のニューラルセンサ106、108、110を備えてもよい。
図1に示される実施形態では、システム100は、ユーザの頭蓋骨の中に配置される及び/又はユーザの脳に直接結合されるニューラルセンサ106(例えば、電極)を備える。一部の実施形態では、ニューラルセンサ106は、ユーザの脳104の一部に直接埋め込まれる。このようなニューラルセンサ106は、ユーザの脳104に接触して、ユーザの脳104から電気信号を直接受信してもよい。追加的に又は代替的に、システム100は、ユーザの頭蓋骨の外部(例えば、ユーザの頭の外側)に結合される1つ以上のニューラルセンサ108、110を備えてもよい。例えば、例示の実施形態では、システム100は、ユーザの額に結合される1つのニューラルセンサ108及びユーザの頭の後部又は上部に結合される別のニューラルセンサ110を備える。このようなニューラルセンサ108、110は、ユーザの頭蓋骨及び/又は頭皮を通してユーザの脳104により出力される電気信号(例えば、神経信号)を検出してもよい。ニューラルセンサ106、108、110は、ユーザの脳104により出力される電気信号に関係付けられる又はユーザの神経系に他のやり方で関係付けられるセンサ信号をコンピュータ装置112に送信するように構成される。
例示の実施形態では、コンピュータ装置112は、ニューラルセンサ106、108、110からセンサ信号を受信して、センサ信号に基づいて1つ以上の触覚効果(例えば、テクスチャ、振動、ストロークの感覚、突き刺すような感覚、及び/又は知覚される摩擦係数の変化)を決定するように構成される。コンピュータ装置112は、触覚効果に関係付けられる1つ以上の触覚信号を1つ以上の触覚出力装置114、116に送信するように構成される。触覚出力装置114、116は、コンピュータ装置112から触覚信号を受信して、触覚効果を出力するように構成される。
一部の実施形態では、コンピュータ装置112は、触覚出力装置114を備えてもよい。このような実施形態では、ユーザ102は、触覚出力装置114により出力される触覚効果を知覚するためにコンピュータ装置112を把持又は保持してもよい。
例えば、一部の実施形態では、コンピュータ装置112は仮想環境を生成する。本明細書で用いられる場合、仮想環境は、部分的に又は全体的に仮想的である環境を含む。例えば、仮想環境は、拡張現実環境、仮想現実環境、ビデオゲーム環境等を含み得る。このような実施形態では、コンピュータ装置112は、仮想軍事ゲーム等のビデオゲームを実行してもよい。コンピュータ装置112は、ディスプレイ上のビデオゲームに関係付けられるコンテンツを表示してもよい。例えば、コンピュータ装置112は、ユーザ102により制御可能な仮想オブジェクト(例えば、キャラクタ、車両、又は武器)と共に、ビデオゲームに関係付けられる仮想戦争地帯を表示してもよい。一部の実施形態では、コンピュータ装置112は、ニューラルセンサ106、108、110からセンサ信号を受信して、センサ信号に基づいて仮想環境内の仮想オブジェクトの相互作用及び/又は操作を決定する。コンピュータ装置112は、仮想環境内で相互作用及び/又は操作を発生させてもよい。従って、ユーザは、ユーザの意識で仮想オブジェクトと相互作用する及び/又はそれを操作することが可能であってもよい。
一部の実施形態では、コンピュータ装置112は、仮想環境内の仮想オブジェクトの相互作用及び/又は操作に基づいて触覚効果を決定して、触覚効果を出力させることができる。例えば、コンピュータ装置112は、ニューラルセンサ106、108、110からセンサ信号を受信し、センサ信号に基づいて、仮想オブジェクトが、例えば、凹凸のある地形を超えて前進すべきであることを決定してもよい。また、例示の実施形態では、コンピュータ装置112は、仮想オブジェクトの移動に関係付けられる触覚効果を決定して出力する。例えば、仮想オブジェクトが凹凸のある地形を横断すると、コンピュータ装置112は、例えば、凹凸のある地形をシミュレートするように構成される1つ以上の振動を決定して出力してもよい。このようにして、ユーザ102は、ユーザの脳104からの信号を介して仮想オブジェクトと相互作用し及び/又はそれを操作して、関連触覚効果を受信することができる。
上記の例示的な実施形態の記載は、単なる例示として提供される。本発明の他の様々な実施形態が本明細書に記載されており、このような実施形態の変形は当業者によって理解されるであろう。本明細書を吟味することによって、及び/又は請求項に記載の主題の1つ以上の実施形態を実施することによって、様々な実施形態によってもたらされる利点が更に理解され得る。
(触覚対応ニューラルインターフェースのための例示のシステム)
図2は、一実施形態による触覚対応ニューラルインターフェース触覚効果のためのシステムを示すブロック図である。システムは、コンピュータ装置201を含む。一部の実施形態では、コンピュータ装置201は、ヘッドマウント型コンピュータ装置、移動装置(例えば、スマートフォン、タブレット、Eリーダ及び/又はラップトップコンピュータ)、デスクトップコンピュータ、又は携帯型ゲーム装置を含む。他の実施形態では、コンピュータ装置201は、装着可能装置(例えば、指輪、靴、アームバンド、袖、ジャケット、眼鏡、手袋、腕時計、リストバンド、ブレスレット、衣類、帽子、ヘッドバンド、及び/又は宝石類)を含んでもよい。
一部の実施形態では、コンピュータ装置201のコンポーネント(例えば、プロセッサ202、ネットワーク装置210、センサ230等)は単一の筐体に組み込まれてもよい。他の実施形態では、コンポーネントは、(例えば、多数の筐体又は場所の間で)分散され且つ互いと電気通信してもよい。コンピュータ装置201は、図2に記載の全てのコンポーネントを含んでもよく又は含まなくてもよい。例えば、一部の実施形態では、コンピュータ装置は、スピーカ22、嗅覚装置234、及びディスプレイ216を含まなくてもよい。
図2に示される実施形態では、コンピュータ装置201は、バス206を介して他のハードウェアと通信しているプロセッサ202を含む。RAM、ROM又はEEPROM等の任意の適切な有形の(及び非一時的な)コンピュータ可読媒体を含み得るメモリ204が、コンピュータ装置201の動作を構成するプログラムコンポーネントを具現化する。図示の実施形態では、コンピュータ装置201は、1つ以上のネットワーク装置210、入力/出力(I/O)インターフェースコンポーネント212、及び記憶装置214を更に含む。
ネットワーク装置210は、ネットワーク接続を容易にする1つ以上の任意のコンポーネントを表し得る。限定されないが、例示には、Ethernet(登録商標)、USB、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、Bluetooth(登録商標)等の無線インターフェース、又は携帯電話ネットワークにアクセスするための無線インターフェース(例えば、CDMA、GSM(登録商標)、UMTS又は他の移動通信ネットワーク)が含まれる。
I/Oコンポーネント212は、1つ以上のディスプレイ216、ゲームコントローラ、キーボード、マウス、ジョイスティック、カメラ、ボタン、スピーカ、マイクロホン、及び/又はデータの入力若しくは出力に使用される他のハードウェア等の装置への有線又は無線接続を容易にするために使用されてもよい。記憶装置214は、コンピュータ装置201に含まれ又はプロセッサ202に結合される磁気、光学、又は他の記憶媒体等の不揮発性記憶装置を表す。
一部の実施形態では、コンピュータ装置201は1つ以上のセンサ230を備える。センサ230は、プロセッサ202にセンサ230の信号を送信するように構成される。センサ230は、例えば、カメラ、ジャイロスコープ、加速度計、GPS(global positioning system)装置、距離センサ、又は深さセンサを含んでもよい。一部の実施形態では、コンピュータ装置201は、センサ230からのセンサ信号に基づいて仮想オブジェクトを操作し及び/又は触覚効果を生成してもよい。
また、コンピュータ装置201は、ディスプレイ216、スピーカ222、及び/又は嗅覚装置234を備えてもよい。ディスプレイ216は、(例えば、プロセッサ202から)映像信号を受信して、1つ以上の画像をユーザに出力するように構成される任意のコンポーネントを含む。ディスプレイ216は、例えば、ヘッドマウント型ディスプレイ、テレビ、プロジェクタ、コンピュータモニタ、及び/又は液晶ディスプレイ(LCD)を含んでもよい。一部の実施形態では、ディスプレイ216は、タッチセンサ面と統合されて、タッチスクリーンディスプレイを形成してもよい。スピーカ222は、(例えば、プロセッサ202から)聴覚信号を受信して、1つ以上の音声を出力するように構成される任意のコンポーネントを含む。嗅覚装置234は、(例えば、プロセッサ202から)嗅覚信号を受信して、ユーザにより知覚可能な1つ以上の匂いを出力するように構成されるコンポーネントを含む。嗅覚装置234は、1つ以上の匂いを生成するために任意の数及び構成の芳香、香水、液体、固体、ゲル、及び/又は気体を含んでもよい。嗅覚装置234は、嗅覚信号を受信して、目標の匂いを生成するために、1つ以上の芳香、香水、液体、固体、ゲル、及び/又は気体を出力してもよい。
また、システムはニューラルセンサ232も備える。ニューラルセンサ232は、ユーザの神経系からの電気信号(例えば、神経信号)を検出して、1つ以上の関連センサ信号をプロセッサ202に送信するように構成される。ニューラルセンサ232は、有線インターフェース又はIEEE802.11、ブルートゥース(登録商標)若しくはラジオインターフェース等の無線インターフェースを介してプロセッサ202と通信してもよい。ニューラルセンサ232は、1つ以上のプローブ、脳波(EEG)電極等の電極、分光センサ、磁気共鳴画像診断装置(例えば、fMRIシステム)、及び/又は容量性センサを含んでもよい。追加的に又は代替的に、ニューラルセンサ232は、バッテリ及び/又は他の電源、プロセッサ、メモリ、電気刺激装置、磁力計、及び/又は他のコンポーネントを備えてもよい。
一部の実施形態では、ニューラルセンサ232は、出力装置を備える。ニューラルセンサ232は、実際に存在せず及び/又はユーザによって物理的に検出されなくてもよい感覚(例えば、味、匂い、視覚、音、及び/又は触感)をユーザに知覚させるために、ユーザの神経系(例えば、ユーザの脳)の少なくとも一部を刺激することが可能であってもよい。例えば、ニューラルセンサ232は、プロセッサ202から触覚信号を受信し、それに応じて、ユーザが実際に物理的には存在しなくてもよい触感を知覚させるように構成されるように、ユーザの脳又は別の体の一部を刺激するように構成されてもよい。このような触感は、見掛けの触覚効果と呼ばれ得る。例えば、ピンが実際にはユーザの腕に刺さっていなくても、ユーザの腕に刺さったピンをユーザに知覚させるように構成されるように、ニューラルセンサ232はユーザの脳又はユーザの腕の神経を刺激してもよい。
一部の実施形態では、ニューラルセンサ232は、追加的に又は代替的に、味、匂い、視覚、音、及び/又は他の感覚をユーザに知覚させるように構成されるように、ユーザの神経系を刺激し得る。例えば、ニューラルセンサ232は、視覚、聴覚、嗅覚、又は他の感覚をユーザに知覚させるためにユーザの脳に1つ以上の電気パルスを加えるように構成される電気刺激装置を備えてもよい。
一部の実施形態では、ニューラルセンサ232は、経頭蓋磁気刺激(TMS)を使用して感覚を生成することができる。例えば、ニューラルセンサ232は、90mmのMagStimTMサークルコイルを含み得る。ニューラルセンサ232は、ユーザの脳の運動皮質領域を刺激するように(例えば、ユーザの頭にぴったりくっついて)配置され得る。プロセッサ202は、(例えば、1つ以上のパルスを含む)電気信号をニューラルセンサ232に送信することができる。一部の実施形態では、プロセッサ202は、刺激装置(例えば、MagstimTM磁気刺激装置)を作動させて、刺激装置により電気信号をニューラルセンサ232に送信させることができる。ニューラルセンサ232は、電気信号に応じて電磁場を生成することができる。電磁場は、例えば、ユーザに体の一部を移動させる又はユーザが体の一部を移動したことを知覚させる、ユーザの脳の運動皮質領域における電流を含んでもよい。一部の実施形態では、プロセッサ202は、刺激装置の最大可能出力(例えば、2.0T)の58%から65%の間でユーザの脳を刺激装置に刺激させるように構成される信号を送信し得る。これは、ユーザに特定の感覚を知覚させてもよい。
システムは、プロセッサ202と通信する1つ以上の触覚出力装置218、220を更に含む。触覚出力装置218、220は、触覚信号に応答して触覚効果を出力するように構成される。一部の実施形態では、触覚出力装置218、220は、例えば、振動、知覚される摩擦係数の変化、シミュレートされるテクスチャ、突き刺すような感覚、又は表面変形を含む触覚効果を出力するように構成される。更に、一部の触覚効果は、同じ又は異なるタイプの複数の触覚出力装置218、220を順番に及び/又は同時に使用してもよい。
一部の実施形態では、触覚出力装置218、220は、コンピュータ装置201又はコンピュータ装置201のコンポーネントを振動させることによって触覚効果を出力してもよい。このような実施形態では、触覚出力装置218、220は、例えば、圧電アクチュエータ、電気モータ、電磁アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマ、ソレノイド、偏心回転質量モータ(ERM)又は線形共振アクチュエータ(LRA)の1つ以上を含んでもよい。
コンピュータ装置201は、内部触覚出力装置218を含んでもよい。追加的に又は代替的に、コンピュータ装置201は、コンピュータ装置201から遠隔に有る触覚出力装置220と有線又は無線通信してもよい。例えば、図2に示される実施形態では、触覚出力装置220は、コンピュータ装置201の外部に有り、イーサネット(登録商標)、USB又はIEEE1394等の有線インターフェースを介してコンピュータ装置201と通信する。他の実施形態では、触覚出力装置220は、IEEE802.11、ブルートゥース(登録商標)又はラジオインターフェース等の無線インターフェースを介してコンピュータ装置201と通信してもよい。一部の実施形態では、触覚出力装置は、例えば、靴、袖、ジャケット、眼鏡、手袋、指輪、腕時計、リストバンド、ブレスレット、衣類、帽子、ベスト、ベルト、ヘルメット、ヘッドバンド、及び/又は宝石類を含む装着可能装置に結合されてもよい。他の実施形態では、触覚出力装置は、ユーザの指、腕、手、足、脚、頭、背中、胸、首等のユーザの体の一部又は他の体の部分に結合されてもよい。
一部の実施形態では、触覚出力装置218、220は、例えば、テクスチャをシミュレートする又は触覚信号に応じて表面で知覚される摩擦係数を変調する触覚効果を出力するように構成されてもよい。このような実施形態では、触覚出力装置218、220は、超音波アクチュエータを含んでもよい。別のこのような実施形態では、触覚出力装置218、220は、触覚効果を出力するために静電引力を使用するように構成される静電アクチュエータを含んでもよい。触覚効果は、テクスチャをシミュレートするか又は表面に沿って知覚される摩擦係数を変調してもよい。このような実施形態では、静電アクチュエータは、静電アクチュエータに近い又はタッチする体の一部と容量結合してもよい。オブジェクトと導電層との間の引力レベルの変化は、シミュレートされるテクスチャ又は表面に沿って知覚される摩擦係数を変化させることができる。
一部の実施形態では、触覚出力装置218、220は、(例えば、コンピュータ装置201又は別の表面を折り曲げ又は変形させるために)変形触覚効果を出力するように構成される流体を含む。例えば、流体は、スマートゲル又はレオロジー流体(例えば、磁性流体又は電気流体)を含んでもよい。刺激に応じて、スマートゲル又はレオロジー流体は、物理的状態を変化させ及び/又は形状を変形させ得る。これは、コンピュータ装置201又は別の表面の変形を引き起こしてもよい。
他の実施形態では、触覚出力装置218、220は、コンピュータ装置201の表面の形状を変形させるためにコンピュータ装置201の表面を物理的に押す及び/又は引くように構成される機械的変形装置を含む。更に、表面を変形させるための他の技術又は方法が用いられ得る。例えば、触覚出力装置218、220は、表面再構成可能な触覚基板(限定されないが、例えば、繊維、ナノチューブ、電気活性ポリマ、圧電要素、又は形状記憶合金を含む)からの接触に基づいて、その表面を変形させ又はそのテクスチャを変化させるように構成される可撓性表面層を含んでもよい。一部の実施形態では、触覚出力装置218、220は、例えば、空気若しくは流体ポケット、材料の局部変形、共振機械要素、圧電性材料、微小電気機械システム(“MEMS”)要素若しくはポンプ、熱流体ポケット、MEMSポンプ、可変多孔性膜(variable porosity membranes)、又は層流変調により変形させられる。
メモリ204に関しては、プログラムコンポーネント224、226、228は、触覚対応ニューラルインターフェースを与えるために一部の実施形態では、装置がどのように構成され得るかを示すように描かれている。この例示では、神経信号解釈モジュール224は、プロセッサ202がニューラルセンサ232からのセンサ信号を解釈するように構成する。例えば、神経信号解釈モジュール224は、例えば、図5に関してより詳細に記載されるように、ニューラルセンサ232からセンサ信号を受信して、センサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用及び/又は特定の入力を決定するためにアルゴリズム及び/又はルックアップテーブルにセンサ信号の1つ以上の特徴を適用してもよい。
一部の実施形態では、神経信号解釈モジュール224は、ルックアップテーブルを含む。コンピュータ装置201は、ルックアップテーブルを使用して、(複数の)ニューラルセンサ232からの1つ以上のセンサ信号の1つ以上の特徴をユーザにより知覚される刺激にマッピングすることが可能であってもよい。例えば、コンピュータ装置201は、ルックアップテーブルを使用して、(複数の)ニューラルセンサ232からの特定のパターンのセンサ信号又は(複数の)ニューラルセンサ232からの1つ以上のセンサ信号の1つ以上の特徴を、特定の刺激(例えば、特定の音、画像、匂い、味、又はユーザにより知覚される他の刺激)にマッピングしてもよい。
一部の実施形態では、神経信号は、(例えば、脳波記録を使用して)記録され、且つルックアップテーブルにおける特定の刺激にマッピングされ得る。例えば、コンピュータ装置201は、既知の(例えば、既定の)画像、音声、匂い、味、及び/又は他の刺激を出力してもよい。ユーザは、刺激を知覚して、刺激に関係付けられるセンサ信号をニューラルセンサ232に送信させてもよい。コンピュータ装置201は、ニューラルセンサ232からセンサ信号を受信して、受信したセンサ信号の1つ以上の特徴を(例えば、ルックアップテーブルにおける)特定の刺激と関係付けてもよい。コンピュータ装置201は、例えば、ルックアップテーブルを構築するために、この処理を任意の回数繰り返してもよい。その後、コンピュータ装置201は、ルックアップテーブルを使用して、ユーザにより知覚される未知の刺激を識別してもよい。
触覚効果決定モジュール226は、生成すべき触覚効果を決定するためにデータを分析するプログラムコンポーネントを表す。特に、触覚効果決定モジュール226は、ニューラルセンサ232からのセンサ信号及び/又は仮想環境で発生するイベントに基づいて、出力すべき触覚効果を決定するコード、及び効果をシミュレートするために提供すべき1つ以上の触覚効果を選択するコードを含んでもよい。例えば、異なる触覚効果が、ニューラルセンサ232からのセンサ信号に基づいて決定される、ユーザの気分(例えば、幸福、悲観、恐怖、ストレス等)に基づいて選択されてもよい。
一部の実施形態では、触覚効果決定モジュール226は、仮想オブジェクトの大きさ、色、場所、動き、及び/又は他の特徴に基づいて、出力すべき触覚効果を決定するコード、及び効果をシミュレートするために提供すべき1つ以上の触覚効果を選択するコードを含んでもよい。例えば、プロセッサ202は、神経信号解釈モジュール224を使用して、仮想オブジェクトが仮想環境内で操作されるべきであること(例えば、仮想スキーヤーが仮想スキー場を特定のやり方で滑降するべきであること)をニューラルセンサ232からのセンサ信号が示すことを決定してもよい。プロセッサ202は、それに応じて、仮想環境内で仮想オブジェクトを移動させてもよい。触覚効果決定モジュール226は、仮想オブジェクトの移動に基づいて、出力する1つ以上の触覚効果を決定してもよい。例えば、触覚効果決定モジュール226は、モーグル、ジャンプ、又は仮想スキー場の他の特徴をシミュレートするように構成される触覚効果を決定してもよい。
触覚効果生成モジュール228は、選択された触覚効果を生成するためにプロセッサ202に触覚信号を触覚出力装置218、220へと送信させるプログラミングを表す。例えば、触覚効果生成モジュール228は、記憶された波形又はコマンドにアクセスして、触覚出力装置218に送信してもよい。別の例示として、触覚効果生成モジュール228は、触覚信号を決定するためのアルゴリズムを含んでもよい。触覚効果生成モジュール228は、触覚効果に対する目標場所を決定するためのアルゴリズムを含んでもよい。目標場所は、触覚効果を出力すべきユーザの体の場所を含んでもよい。
図2にはメモリ204内のプログラムコンポーネントとしてモジュール224,226,及び228が描かれているが、一部の実施形態では、モジュール224,226及び/又は228はハードウェアを含んでもよい。例えば、モジュール224,226及び/又は228は、アナログからデジタルへの変換器、プロセッサ、マイクロコントローラ、比較器、増幅器、トランジスタ、及び他のアナログ又はデジタル回路を含んでもよい。
図3は、触覚対応ニューラルインターフェースのためのシステムの実施形態を示す。ニューラルセンサ304は、ユーザが観ること、聞くこと、匂うこと、感じること、味わうこと、及び/又はユーザの環境における刺激により他のやり方で刺激されることに応じて、コンピュータ装置302に電気信号を送信してもよい。図3においてニューラルセンサ304はユーザの脳から信号を検出するためにユーザの頭に配置されているが、他の実施形態では、ニューラルセンサ304は、ユーザの神経系の他の部分により出力される又は他の部分に伝播する電気信号を検出するためにユーザの体の他の部分(例えば、腕、脚、手、足、背中、脊椎等)に結合され得る。
コンピュータ装置302は、ニューラルセンサ304からのセンサ信号に基づいて1つ以上の入力(例えば、コマンド)を決定するように構成される。例えば、コンピュータ装置302は、センサ信号が振幅、位相、周波数、波形、持続時間、及び/又は特定の入力を表す他の特徴若しくは特徴の組み合わせを含むことを決定してもよい。コンピュータ装置302は、特徴に基づいて入力を決定してもよい。例えば、コンピュータ装置302は、センサ信号の特徴を特定の入力にマッピングするメモリに記憶されているルックアップテーブルを参照することによって入力を決定してもよい。
一部の実施形態では、コンピュータ装置302は、ニューラルセンサ304からのセンサ信号を介してユーザから入力を受信し、及び/又はユーザに関する情報を決定してもよい。例えば、コンピュータ装置302は、ユーザが特定の気分(例えば、幸福、恐怖、興奮、悲観等)を有していること、ユーザが特定の考え方(例えば、創作的、論理的、感情的等)をしていること、ユーザの脳の(複数の)特定の領域が刺激されること(例えば、前頭葉、頭頂葉、側頭葉、後頭葉)、ユーザが聴覚的に、触覚的に、及び/又は視覚的に刺激されていること、及び/又はセンサ信号に基づいてユーザに関する他の情報を決定してもよい。情報は、入力であってもよく、さもなければ入力を含んでもよい。
一部の実施形態では、コンピュータ装置302は、入力に基づいて1つ以上の機能(例えば、デジタル操作)を実行する。機能は、例えば、仮想環境における仮想オブジェクトの操作及び/又は相互作用(例えば、仮想環境でビデオゲームキャラクタを移動させること)、(例えば、インターネットを介して)オブジェクトを購入すること、ウェブページを開くこと、文書の印刷を開始すること、アラート若しくはメッセージを送ること、(例えば、1つ以上のサーバに問い合わせることによって)オブジェクトに関する情報を決定すること、電話を掛けること、写真を撮ること、データを保存すること、プログラムオプション若しくは設定を選択すること、音声を記録すること、音声を出力すること、メディアコンテンツを再生すること、データを送信すること、及び/又はデータを受信することを含んでもよい。
例えば、一部の実施形態では、コンピュータ装置302は、拡張現実アプリケーション、仮想現実アプリケーション、ビデオゲームを実行するように構成され、及び/又はユーザが仮想環境内で1つ以上の仮想オブジェクトと相互作用することができる仮想ユーザインターフェース(例えば、3次元ユーザインターフェース)を生成してもよい。一部の実施形態では、ユーザは、特定の軌道に沿った仮想オブジェクトの移動、仮想オブジェクトとの相互作用、及び/又は仮想オブジェクトの特定の操作を想像することができる。それに応じて、ユーザの脳は電気信号を生成してもよく、これはコンピュータ装置302により受信され且つ解釈され得る。一部の実施形態では、コンピュータ装置302は、特定の軌道に沿って仮想オブジェクトを移動させ、仮想オブジェクトとの相互作用に対する応答を生成し、及び/又はユーザの脳からの電気信号に基づいて特定の態様で仮想オブジェクトを操作してもよい。
一部の実施形態では、コンピュータ装置302は、ニューラルセンサ304からのセンサ信号(例えば、ニューラルセンサ304に関係付けられる1つ以上の入力)に少なくとも部分的に基づいて1つ以上の触覚効果を出力する。例えば、コンピュータ装置302は、ユーザの脳からの電気信号の振幅又は周波数に比例する触覚効果(例えば、振動)を出力してもよい。別の例示として、コンピュータ装置302は、センサ信号に基づいて、ユーザが特定の色又はオブジェクトを観ていること、特定の音声を聴いていること、特定の味を味わっていること、及び/又は特定の匂いを嗅いでいることを決定して、関連触覚効果を出力してもよい。例えば、コンピュータ装置302は、ユーザが血又は赤色を含むオブジェクトを観ていることを決定して、(例えば、危険性を伝えるために)激しい振動を出力してもよい。
一部の実施形態では、コンピュータ装置302は、ユーザにより知覚される1つ以上の感覚を向上させる又は低下させるように構成される触覚効果を出力してもよい。例えば、ユーザは、特定の特徴(例えば、凹凸)を含む表面(例えば、テーブル、椅子、机、道路、床、壁等)と相互作用してもよい。ニューラルセンサ304は、相互作用に関係付けられる電気信号を検出して、関連するセンサ信号をコンピュータ装置302に送信してもよい。コンピュータ装置302は、ユーザがセンサ信号に基づいて凹凸の有る表面にタッチしていることを決定してもよい。コンピュータ装置302は、特定の特徴を向上させるように構成される触覚効果を出力してもよい。例えば、コンピュータ装置302は、ユーザの手又は指に関係付けられる触覚出力装置308を介して、より凹凸の有る表面を感じさせるように構成される激しい振動を出力してもよい。
一部の実施形態では、コンピュータ装置302は、仮想オブジェクト、仮想環境、及び/又は仮想環境内で発生するイベントの特徴に少なくとも部分的に基づいて触覚効果を出力する。イベントは、仮想オブジェクトの存在(例えば、拡張現実アプリケーションにおける仮想家具の存在)、仮想オブジェクトの操作(例えば、仮想オブジェクトの移動又は弾み)、仮想オブジェクトのスケール、場所、方向、色若しくは他の特徴の変化、仮想爆発、砲撃及び/若しくは衝突、ゲームキャラクタ同士の衝突、新しいレベルに進むこと、命を失うこと及び/若しくは仮想キャラクタの死、並びに/又は特定の仮想地形を横断すること等を含んでもよい。
例えば、コンピュータ装置302は、仮想地形、仮想オブジェクトのテクスチャ、仮想オブジェクトの温度、仮想オブジェクトによる衝突又は強打、仮想銃撃等をシミュレートするように構成される1つ以上の触覚効果を出力してもよい。一部の実施形態では、コンピュータ装置302は、靴等の中のユーザの足に関係付けられる触覚出力装置318、及び/又は手袋312等の中のユーザの手に関係付けられる触覚出力装置308を介して触覚効果を出力する。例えば、コンピュータ装置302は、ユーザが(例えば、ユーザの脳で)仮想忍者を制御することができる仮想格闘ゲームを実行してもよい。コンピュータ装置302は、仮想忍者が鋭利な仮想オブジェクト(例えば、仮想刀又は手裏剣)に接触することに応じて突き刺すような感覚を出力してもよい。コンピュータ装置302は、追加的に又は代替的に、仮想忍者が(例えば、オブジェクト、拳又は足による)強打を受けることに応じて衝撃をシミュレートするように構成される触覚効果、及び/又は仮想忍者が温度を含む仮想オブジェクト(例えば、溶岩)に接近することに応じて温度(例えば、熱)をシミュレートするように構成される触覚効果を出力する。
別の例示として、コンピュータ装置302は、ユーザが自身の脳を介して仮想自動車を制御することができる仮想レーシングゲームを実行してもよい。コンピュータ装置302は、仮想自動車が砂、舗装道路、凹凸若しくは窪みの上を走ること及び/又はユーザが試合に勝利若しくは敗北することに応じて1つ以上の触覚効果を出力してもよい。例えば、コンピュータ装置302は、仮想自動車が砂の上を走ることに応じて、(例えば、触覚出力装置318を介して)ユーザの足に砂の感覚をシミュレートするように構成される触覚効果を出力してもよい。コンピュータ装置302は、仮想自動車が凹凸又は窪みの上を走ることに応じて(例えば、触覚出力装置318及び/又は触覚出力装置306を介して)ユーザの足又は胸に激しい振動を出力してもよい。コンピュータ装置302は、(例えば、ユーザの体に結合される及び/又は装着可能品に関係付けられる)任意の数及び組み合わせの触覚出力装置306,308,310,318を介して任意の数の触覚効果を出力し得る。
一部の実施形態では、コンピュータ装置302は、実空間におけるオブジェクトとのユーザ相互作用(例えば、ユーザが手足又は体の一部でオブジェクトに接触すること)に関係付けられる1つ以上の触覚効果を出力する。オブジェクトは、例えば、ボタン、ノブ、スライダ、及び/又はスイッチ(例えば、光スイッチ)を含んでもよい。一部の実施形態では、触覚効果は、ユーザ相互作用を確認するように構成される。例えば、コンピュータ装置302は、ユーザがオブジェクトに接触した又は他のやり方で操作した(例えば、光スイッチを入れた)ことを確認するように構成される振動を(触覚出力装置308を介して)出力してもよい。これは、例えば、1つ以上の病状のためにユーザの手足(例えば、指)の感受性が低下しているユーザが、このようなユーザ相互作用が起こったことを決定することを支援してもよい。
一部の実施形態では、コンピュータ装置302は、実空間における体の一部(例えば、手足)の操作(例えば、移動)に関係付けられる触覚効果を出力してもよい。例えば、ユーザは、(例えば、ユーザの手を新しい場所に移動する又は表面に接触するために)手足を操作しようと試みてもよい。一部の実施形態では、ユーザは、(例えば、ユーザが盲目である場合)体の一部が実際に移動したかどうかが分からない又は検出できない可能性が有る。コンピュータ装置302は、体の一部が動いたことを確認するように構成される第1の触覚効果(例えば、振動)及び/又は体の一部が動かなかったことをユーザに通知するように構成される第2の触覚効果を出力してもよい。
別の例示として、ユーザは、体の一部を使用して、1つ以上のオブジェクト(例えば、テーブル又は椅子)と相互作用してもよい。ユーザは、ある理由で触感を知覚できない場合が有る。例えば、ユーザは神経を損傷している場合が有り、又は手足の全て若しくは一部を失っている場合が有る。これは、ユーザが相互作用及び/又はオブジェクトに関係付けられる触感を直接知覚することを妨げる場合が有る。例えば、ユーザは、オブジェクトに関係付けられるテクスチャ又は他の特徴を物理的に感知することができない場合が有る。コンピュータ装置302は、ユーザに特徴を知覚させるように構成されるように、ニューラルセンサ304にユーザの神経系を刺激させてもよい。例えば、コンピュータ装置302は、ユーザが木のテクスチャを含む表面に接触していることをユーザに知覚させるように構成されるように、ニューラルセンサ304にユーザの脳を刺激させてもよい。
一部の実施形態では、ユーザは、1つ以上のオブジェクト(例えば、長椅子又は壁)と相互作用するために、義肢316等の中間装置を使用してもよい。ユーザは、例えば、手足を失っている場合、中間装置を使用する可能性が有る。中間装置(及び/又は手足の喪失)は、ユーザが相互作用及び/又はオブジェクトに関係付けられる触感を直接知覚することを妨げる場合が有る。例えば、ユーザは、オブジェクトに関係付けられるテクスチャ又は他の特徴を物理的に感知することができない場合が有る。一部の実施形態では、中間装置は、オブジェクトの特徴を検出して、関連するセンサ信号をコンピュータ装置302に送信するように構成されるセンサ320(例えば、義肢316に結合されるカメラ)を備える。例えば、センサ320は、オブジェクトのテクスチャを検出して、関連するセンサ信号をコンピュータ装置302に送信してもよい。コンピュータ装置302は、センサ信号を受信して、ユーザに特徴を知覚させるように構成されるように、ニューラルセンサ304にユーザの神経系を刺激させてもよい。例えば、コンピュータ装置302は、ユーザが煉瓦のテクスチャを含む表面に接触していることをユーザに知覚させるように構成されるように、ニューラルセンサ304にユーザの脳を刺激させてもよい。
一部の実施形態では、コンピュータ装置302は、義肢316の操作の試み及び/又は操作(例えば、移動)に関係付けられる触覚効果を出力してもよい。例えば、ユーザは、(例えば、道に沿って歩くために)義肢316を操作しようとしてもよい。しかし、ユーザは、(例えば、ユーザが盲目である場合)義肢316が実際に移動したかどうかが分からない又は検出できない可能性が有る。コンピュータ装置302は、義肢316が動いたことを確認するように構成される第1の触覚効果(例えば、触覚出力装置310を介する振動)及び/又は義肢316が動かなかったことをユーザに通知するように構成される第2の触覚効果を出力してもよい。
図4は、触覚対応ニューラルインターフェースのためのシステムの別の実施形態を示す。システムは、第1のユーザ402を含む。この実施形態では、ニューラルセンサ404が、第1のユーザの頭に結合され、第1のコンピュータ装置406と電気通信している。また、システムは第2のユーザ408も含む。この実施形態では、ニューラルセンサ410が、第2のユーザの頭に結合され、第2のコンピュータ装置412と電気通信している。ユーザは、同じ物理的場所又は異なる物理的場所(例えば、異なる部屋、家、都市、及び/又は国)に居てもよい。
一部の実施形態では、コンピュータ装置406、412は、有線又は無線インターフェースを介して互いと通信する。コンピュータ装置406、412は、(例えば、ブルートゥース(登録商標)を介して)互いと直接通信し又は互いと間接通信し得る。一部の実施形態では、コンピュータ装置406、412は、ネットワーク414を介して互いと通信する。ネットワーク414は、限定されないが、ダイヤルアップネットワーク、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、公衆交換電話網(PSTN)、セルラネットワーク、WiFiネットワーク、インターネット、イントラネット又は有線及び/若しくは無線通信リンクを含む任意の適切な数又は種類のリンクであってもよい。ネットワーク414は、1つ以上のサブネットワークを含んでもよい。
追加的に又は代替的に、コンピュータ装置406、412は、ネットワーク414を介して1つ以上のリモートサーバ(例えば、クラウドサーバ、ウェブサーバ、又は他のサーバ)、データベース、及び/又はコンピュータ装置と通信してもよい。例えば、コンピュータ装置416は、ビデオゲームを実行してもよい。ユーザ402、408は、ゲームをプレーするために(例えば、脳信号を介して)各コンピュータ装置406、412を操作してもよい。コンピュータ装置406、412は、ゲームプレーを達成するためにコンピュータ装置416へデータを送信し且つコンピュータ装置416からデータを受信してもよい。
一部の実施形態では、1つ以上のコンピュータ装置406、412、416が、仮想環境を生成するように構成されるプログラム(例えば、拡張現実アプリケーション、仮想現実アプリケーション、及び/又はビデオゲーム)を実行してもよい。ユーザ402、408は、仮想環境を介して互いと相互作用可能であってもよい。例えば、コンピュータ装置416は、ユーザ402、408が1つ以上の仮想兵士を制御できる仮想軍事ゲームを実行してもよい。このような実施形態では、各ニューラルセンサ404、410は、各ユーザの神経系から電気信号を検出して、各ユーザのコンピュータ装置406、412に関連するセンサ信号を送信してもよい。コンピュータ装置406、412は、センサ信号に基づいて仮想環境内で同じ仮想オブジェクト又は異なる仮想オブジェクトを操作してもよい。例えば、コンピュータ装置406、412は、センサ信号に基づいて軍事ゲーム内の異なる仮想兵士を操作してもよい。これは、ユーザが脳を使用して仮想オブジェクトを操作することを可能にしてもよい。
コンピュータ装置406、412は、例えば、図3に描かれているように、1つ以上の触覚出力装置と電気通信している。先に検討されたように、一部の実施形態では、ニューラルセンサ404、410は、触覚出力装置であるか又は触覚出力装置を含み得る。コンピュータ装置406、412は、各ユーザ402、408に同じ触覚効果又は異なる触覚効果(例えば、振動、テクスチャ、突き刺すような感覚、及び/又はストロークの感覚)を出力してもよい。例えば、上記の軍事ゲームの実施形態では、両方のユーザの仮想兵士から実質的に等距離の場所で爆発が起こることに応じて、コンピュータ装置406、412はユーザ402、408に同じ触覚効果(例えば、振動)を出力してもよい。コンピュータ装置406は、追加的に又は代替的に、第1のユーザの仮想キャラクタがタスクを行うこと(例えば、仮想武器を発砲すること)に応じてユーザに触覚効果(例えば、振動)を出力してもよく、一方でコンピュータ装置412は、(例えば、第2のユーザの仮想キャラクタが仮想武器を持っておらず及び/又は仮想武器から特定の距離に居るので)触覚効果を出力しなくてもよい。
一部の実施形態では、コンピュータ装置406は、第1のユーザ402ユーザにより知覚される音声、視覚、味、触感、匂い、及び/又は他の感覚に関係付けられる第1のユーザ402の神経系から1つ以上の電気信号を(例えば、ニューラルセンサ404を介して)検出するように構成される。コンピュータ装置406は、感覚に関係付けられるデータを別のコンピュータ装置412に送信するように構成されてもよい。他方のコンピュータ装置412は、データを受信して、データに基づいて第2のユーザ408により知覚可能な1つ以上の感覚を生成してもよい。例えば、コンピュータ装置412は、第2のユーザ408に感覚を知覚させるように構成されるように、ニューラルセンサ410に第2のユーザの脳を刺激させてもよい。従って、2人以上のユーザ402、408が感覚を互いの間で共有することが可能であってもよい。
例えば、ユーザ402は、実空間におけるオブジェクト(例えば、猫等の動物)又は仮想環境におけるオブジェクトと相互作用してもよく、それに応じて、ユーザの脳は、オブジェクト(例えば、毛皮のテクスチャ、猫が喉を鳴らす音、及び/又は視覚的に猫がどのように見えるか)に関係付けられる電気信号を生成してもよい。コンピュータ装置406は、関連データを遠隔コンピュータ装置412に送信してもよい。コンピュータ装置412は、データに基づいて第2のユーザ408に1つ以上の感覚を出力してもよい。例えば、コンピュータ装置412は、オブジェクトのテクスチャ(例えば、猫の毛皮のテクスチャ)をシミュレートするように構成される触覚効果を出力してもよい。追加的に又は代替的に、コンピュータ装置412は、オブジェクトにより作られる音(例えば、猫が喉を鳴らす音)をシミュレートするように構成される音声を出力してもよい。追加的に又は代替的に、コンピュータ装置412は、例えば、オブジェクトがどのように見えるかをシミュレートするように構成される映像を出力してもよい。これは、遠隔ユーザ408が、第1のユーザ402により知覚される1つ以上の感覚及び/又はオブジェクトの1つ以上の特徴を知覚することを可能にしてもよい。
別の例示として、コンピュータ装置412は、拡張現実環境又は仮想現実環境等の仮想環境を(例えば、拡張現実眼鏡又はゴーグル等のディスプレイ409を介して)出力してもよい。一部の実施形態では、ユーザ408は、仮想環境における仮想オブジェクトにタッチする又は他のやり方でそれを操作することができる。例えば、ユーザ408は、手を伸ばして、仮想環境における仮想オブジェクトに対応する実空間における場所にタッチしてもよい。一部の実施形態では、コンピュータ装置412は、(例えば、カメラ、深度センサ、距離センサ等の1つ以上のセンサを介して)仮想オブジェクトの操作を検出するように構成される。コンピュータ装置412は、仮想オブジェクト及び/又は仮想オブジェクトの操作に関係付けられるデータを遠隔コンピュータ装置406に送信してもよい。一部の実施形態では、コンピュータ装置406は、データを受信して、データに基づいて第1のユーザ402に1つ以上の感覚を出力してもよい。例えば、コンピュータ装置406は、仮想オブジェクトのテクスチャ(例えば、仮想ペットのテクスチャ)をシミュレートするように構成される触覚効果を出力してもよい。
更に別の例示として、ユーザ402、408は戦争地帯における兵士であってもよい。各ユーザ402、408は、戦場の異なる部分を探索して、コンピュータ装置406、412を介して、知覚する感覚を共有することが可能であってもよい。例えば、ユーザ402が敵の拠点に侵入すると、コンピュータ装置406は関連データをコンピュータ装置412に送信してもよく、これはユーザ402により知覚される音、味、匂い、視覚及び/又は感覚をシミュレートするように構成される1つ以上の効果を出力してもよい。例えば、コンピュータ装置412は、第1のユーザ402により知覚される砲撃に基づいて音を出力してもよい。追加的に又は代替的に、コンピュータ装置412は、例えば、(第1のユーザ402により知覚される)砲撃が発射された方向を示すように構成される触覚効果(例えば、振動)を出力してもよい。これは、例えば、第2のユーザ408が支援を提供できるように、第1のユーザ402が窮地にあることを第2のユーザ408に迅速に(例えば、実質的に即時に)伝達してもよい。
更に別の例示として、上記の戦争地帯の実施形態では、第1のユーザ402は、敵兵士が(例えば、背後から)第2のユーザ408に接近していることが見えてもよい。コンピュータ装置406は、この映像を示す電気信号を(例えば、ニューラルセンサ404を介して)第1のユーザの脳から検出して、関連データをコンピュータ装置412に送信してもよい。コンピュータ装置412は、ディスプレイ409上の(敵兵士)の視覚、音、及び/又は、例えば、第2のユーザ408に危険を知らせるように構成される触覚効果を出力してもよい。これは、例えば、コンピュータ装置406の物理的ユーザインターフェースコンポーネント(例えば、ボタン、スイッチ、ノブ)と相互作用しなくても、第1のユーザ402が有益な及び潜在的に命を救う情報を第2のユーザ408に迅速に伝達することを可能にする。
(触覚対応ニューラルインターフェースのための例示の方法)
図5は、一実施形態による触覚対応ニューラルインターフェースを提供する方法を実行するためのステップのフローチャートである。一部の実施形態では、図5のステップは、例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行されるプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図5に示される1つ以上のステップは省略され又は異なる順番で行われてもよい。同様に、一部の実施形態では、図5に示されない追加のステップが実行されてもよい。以下のステップは図2に示されたコンピュータ装置201に関して記載されたコンポーネントを参照して記載される。
方法500はステップ502で開始して、プロセッサ202がニューラルセンサ232からセンサ信号を受信する。ニューラルセンサ232は、ユーザの神経系により出力される及び/又はそれに伝播する1つ以上の電気信号(例えば、電磁波)を検出して、関連センサ信号をプロセッサ202に送信するように構成される。センサ信号は、ユーザにより知覚される感覚(例えば、音、視覚、味、触感、匂い等)に関係付けられるデータを含んでもよい。例えば、一実施形態では、データは、ユーザにより知覚されるオブジェクト(例えば、木片)のテクスチャに関係付けられるデータを含んでもよい。
センサ信号は、アナログ信号又はデジタル信号であってもよい。一部の実施形態では、センサ信号は、ユーザの脳により出力される電気信号に関係付けられるデータと共に符号化されてもよい。例えば、ニューラルセンサ232は、センサ信号内のデータを符号化するために、パルス幅変調、周波数変調、振幅変調、及び/又は任意の他の技術を使用してもよい。
方法500はステップ504に進み、プロセッサ202はセンサ信号に基づいて入力を決定する。本明細書で用いられる入力は、ユーザによりプロセッサ202に提供される任意の情報を含む。例えば、入力は、仮想環境における仮想オブジェクトとのユーザ相互作用を含んでもよい。
一部の実施形態では、プロセッサ202は、センサ信号が特定の入力を表す1つ以上の特徴(例えば、振幅、位相、周波数、波形、持続時間、及び/又は他の特徴)を含むことを決定する。一部の実施形態では、プロセッサ202は、センサ信号に基づいて入力を決定するために、神経信号解釈モジュール224に含まれるプログラミングを利用してもよい。例えば、神経信号解釈モジュール224は、ルックアップテーブルを含んでもよい。プロセッサ202は、センサ信号の1つ以上の特徴に基づいて入力を決定するためにルックアップテーブルを参照してもよい。例えば、プロセッサ202は、ルックアップテーブルを参照して、センサ信号の振幅及び/又は周波数(及び/又はセンサ信号内で符号化されたデジタルデータ)に基づいてユーザが特定の触感を知覚することを入力が含むことを決定してもよい。他の実施形態では、プロセッサ202は、センサ信号の1つ以上の特徴に基づいて入力を決定するためにアルゴリズムを適用してもよい。例えば、神経信号解釈モジュール224は、センサ信号に基づいて入力を決定するためにプロセッサ202により使用可能な1つ以上のアルゴリズムを含んでもよい。
プロセッサ202は、センサ信号に基づいて入力を決定するために、任意の数及び組み合わせの技術を使用してもよい。例えば、プロセッサ202は、センサ信号に基づいて入力を決定するために、ルックアップテーブル及びアルゴリズムの組み合わせを使用してもよい。一部の実施形態では、ユーザは「入力プロファイル」を有してもよく、この場合、ユーザは特定のセンサ信号に関係付けられることを希望する入力の「プロファイル」を決定してメモリ204に保存することができる。例えば、一部の実施形態では、ユーザは、利用可能な入力のリストから選択して、こうした入力の1つを、高振幅高周波数センサ信号等の特定のセンサ信号と関係付けることができる。このような実施形態では、プロセッサ202は、センサ信号に基づいて入力を決定するためにユーザの入力プロファイルを参照してもよい。
方法500はステップ506に進み、プロセッサ202は触覚効果を決定する。プロセッサ202は、入力及び/又はセンサ信号の特徴(例えば、タイプ)に少なくとも部分的に基づいて触覚効果を決定する。例えば、一実施形態では、プロセッサ202は、ユーザが凹凸の有るオブジェクトを知覚することに入力が関係付けられる場合に、振動を含む触覚効果を決定してもよい。
一部の実施形態では、プロセッサ202は、イベントに少なくとも部分的に基づいて触覚効果を決定する。イベントは、実空間で、コンピュータ装置で、及び/又は仮想環境内で起こってもよい。例えば、イベントは、プログラムアクティビティ(例えば、ゲームアクティビティ)、コンピュータ装置201との相互作用(例えば、移動装置を傾ける又は動かすこと、タッチスクリーンディスプレイと相互作用すること)、仮想環境における仮想オブジェクトとの相互作用、コンピュータ装置201における状態の変化、データの受信、及び/又はユーザの体の一部(例えば、腕、脚、又は義肢)の移動を含んでもよい。
例えば、プロセッサ202は、センサ信号に基づいて仮想環境内のユーザの仮想キャラクタを操作し及び/又はそれと相互作用してもよい(例えば、移動させてもよい)。プロセッサ202は、操作及び/又は相互作用に少なくとも部分的に基づいて触覚効果を更に決定してもよい。例えば、操作及び/又は相互作用が別の仮想オブジェクト(例えば、木、車両、及び/又は別の仮想キャラクタ)との衝突を生じる場合、プロセッサ202は激しい振動を含む触覚効果を決定してもよい。
一部の実施形態では、コンピュータ装置201は関連する「触覚プロファイル」を記憶してもよく、ここでユーザは特定の入力と関係付けたい触覚効果の「プロファイル」を決定してメモリ204に保存することができる。例えば、一実施形態では、ユーザが特定の映像を見ること、特定の音声を聞くこと、特定の仮想オブジェクトを操作すること等に関係付けられる入力等、ユーザがどの触覚効果を特定の入力と関係付けたいかをオプションのリストから選択することができる。一部の実施形態では、リストは、例えば、パルス振動、低振幅振動、又はシミュレートされるテクスチャ等の触覚効果を含んでもよい。一部の実施形態では、プロセッサ202は、どの触覚効果を生成すべきかを決定するためにユーザの触覚プロファイルを調べてもよい。例えば、ユーザの触覚プロファイルがパルス振動を含む触覚効果と(例えば、仮想軍事ゲームにおける)仮想敵兵士を含む映像を関係付ける場合、ユーザが仮想敵兵士を観るのに応じて、プロセッサ202は、パルス振動を含む触覚効果を決定してもよい。
一部の実施形態では、プロセッサ202は、複数の触覚効果を決定する。複数の触覚効果の各々は、入力及び/又は関連するセンサ信号の異なる特徴に関係付けられてもよい。例えば、プロセッサ202は、入力が決定されたセンサ信号の振幅に基づいて第1の触覚効果(例えば、振動)を決定してもよい。センサ信号の振幅は、ユーザが特定の刺激をどのくらい強く知覚したか(例えば、ボクシングの試合で相手による頭部への強打をユーザがどのくらい強く知覚したか)を示してもよい。また、プロセッサ202は、センサ信号において符号化されたデジタルデータに関係付けられる第2の触覚効果を決定してもよい。デジタルデータは、刺激のタイプ(例えば、頭部への強打)を表してもよい。一部の実施形態では、プロセッサ202は、複数の触覚効果を別のユーザに出力するように構成される遠隔装置に触覚効果に関係付けられる信号を送信してもよい。複数の触覚効果に基づいて、他のユーザは、刺激の1つ以上の特徴(例えば、刺激が頭部への強打であり、ユーザがそれを強く知覚したこと)を決定することが可能であってもよい。
一部の実施形態では、プロセッサ202は、特定の触覚効果が別の触覚効果よりも高い優先度を有しており、それにより高い優先度の効果のみを出力することを決定する。例えば、プロセッサ202は、第1のタイプの刺激に関係付けられる触覚効果が第2のタイプの刺激に関係付けられる別の触覚効果よりも高い優先度を有しており、第1のタイプの刺激に関係付けられる触覚効果のみを出力することを決定してもよい。代替的に、プロセッサ202は、最も強烈な効果のみが出力されるべきであることを決定してもよい。従って、一部の実施形態では、プロセッサは、低い強度の振動及び高い強度の振動を決定するが、高い強度の振動のみを出力してもよい。
方法500はステップ508に進み、プロセッサ202は(例えば、センサ信号に少なくとも部分的に基づいて)聴覚、視覚、嗅覚、味覚及び/又は他の効果を決定する。プロセッサ202は、(例えば、アルゴリズム及び/又はルックアップテーブル等)触覚効果を決定することに関してステップ506に記載された任意の方法を使用して効果を決定してもよい。
例えば、センサ信号は、ユーザが特定の映像を観ること及び/又は対応する音声を聞くことを示してもよい。音声が砲撃を含む場合、プロセッサ202は、ルックアップテーブルを参照して、砲撃を含む聴覚効果を決定してもよい。プロセッサ202は、聴覚効果を遠隔ユーザに出力するように構成される遠隔装置に聴覚効果に関係付けられる信号を送信してもよい。従って、遠隔ユーザは、元のユーザが聞いているものを聞くことができる。
別の例示として、プロセッサ202は、ルックアップテーブルを参照し及び/又はアルゴリズムを適用して、ユーザが恐怖、幸福、ストレス等の特定の気分を有していることを決定してもよい。プロセッサ202は、ユーザの気分を変えるように構成される聴覚、視覚、嗅覚及び/又は他の感覚を決定してもよい。例えば、プロセッサ202は、ユーザを落ち着かせるように構成される映像(例えば、子犬の映像)、ユーザの幸福レベルを高めるように構成される匂い又は味(例えば、アップルパイの匂い又は味)、及び/又はユーザをリラックスさせるように構成される音(例えば、海の音)を決定してもよい。
方法500はステップ510に進み、プロセッサ202は触覚、聴覚、視覚、嗅覚、味覚及び/又は他の効果に関係付けられる信号を送信する。一部の実施形態では、信号は、効果に関係付けられる記憶済みアルゴリズム及び入力パラメータにアクセスすることによって生成されてもよい。例えば、アルゴリズムは、振幅及び周波数パラメータに基づいて(例えば、アクチュエータ又はスピーカに対する)駆動信号を生成するのに使用されるデータを出力してもよい。別の例示として、信号は、触覚出力装置、スピーカ222、ディスプレイ216、嗅覚装置234、味覚装置、及び/又は他の感覚生成装置により復号化されるように構成されるデータを含んでもよい。例えば、触覚出力装置218、200自体が、振幅及び周波数等のパラメータを特定するコマンドに応答してもよい。
プロセッサ202は、触覚出力装置218、220、スピーカ222、ディスプレイ216、嗅覚装置234、味覚装置、及び/又は感覚を生成するように構成される別の装置に信号を送信してもよい。一部の実施形態では、信号は、触覚出力装置に触覚効果を生成させるように構成される触覚信号を含んでもよい。追加的に又は代替的に、信号は、スピーカ222に聴覚効果を出力させるように構成される聴覚信号、ディスプレイ216に視覚効果を出力させるように構成される映像信号、嗅覚装置234に匂いを出力させるように構成される嗅覚信号、及び/又は味覚装置に特定の味を出力させるように構成される味覚信号を含んでもよい。
一部の実施形態では、プロセッサ202は、ニューラルセンサ232に信号を送信する。ニューラルセンサ232は、ユーザに効果(例えば、味、匂い、視覚、音声、及び/又は見掛けの触覚効果)を知覚させるためにユーザの神経系を刺激することが可能であってもよい。例えば、プロセッサ202は、ニューラルセンサ232によって特定の組み合わせの電気パルスをユーザの脳に出力させるように構成されるニューラルセンサ232に高レベルコマンドを送信することができる。電気パルスは、ユーザに1つ以上の効果を知覚させるように構成され得る。
一部の実施形態では、プロセッサ202は、遠隔装置に信号を送信する。遠隔装置は、遠隔ユーザにより使用可能なニューラルインターフェースを備えてもよい。遠隔装置は、信号を受信して、触覚、聴覚、視覚、嗅覚、味覚、及び/又は他の効果を出力するように構成されてもよい。例えば、遠隔装置は、信号を受信して、関連する音、匂い、及び味を遠隔ユーザに出力してもよい。このような実施形態では、遠隔ユーザは、元のユーザにより感知される感覚(又は修正バージョンの感覚)を知覚することが可能であってもよい。
(触覚対応ニューラルインターフェースの利点)
触覚対応ニューラルインターフェースには多くの利点がある。このようなシステムは、ユーザが(例えば、ユーザの脳からの信号を使用して)仮想環境における仮想オブジェクトと相互作用するときにより没入感の有る体験を提供し、それによってユーザ満足度を全体的に向上させることができる。例えば、一部の実施形態では、拡張現実アプリケーションが、カメラデータをオーバレイする仮想犬を出力してもよい。ユーザが仮想犬を撫でることを思い描くのに応じて、触覚対応ニューラルインターフェースは、仮想犬の毛皮をシミュレートするように構成される触覚効果を出力してもよい。結果として、ユーザは、仮想犬をより現実的に知覚することができる。
一部の実施形態では、触覚対応ニューラルインターフェースは、ユーザに確認を提供することができる。例えば、一部の実施形態では、拡張現実アプリケーションが、ボタンを含む仮想オブジェクトを出力してもよい。ユーザが仮想ボタンと相互作用することを思い描くと、コンピュータ装置は、(例えば、ユーザの指に結合される触覚出力装置に)触覚効果を出力してもよく、それによってボタン押し下げを確認する。一部の実施形態では、確認触覚フィードバックは、向上したユーザ体験を提供し得る。
一部の実施形態では、触覚対応ニューラルインターフェースは、ユーザが他のやり方では感じることができないオブジェクトの特徴を知覚できるようにし得る。例えば、ユーザは、義肢を使用してテクスチャの有るオブジェクトと相互作用して、オブジェクトのテクスチャをシミュレートするように構成される触覚フィードバックを受け取ることが可能であり得る。別の例示として、ユーザは、義肢の移動を試行し、移動を確認する及び/又は他のやり方で移動の特徴(例えば、義肢がどのくらい動いたか又は義肢が動かなかったこと)をユーザに通知する触覚フィードバックを受け取ってもよい。
一部の実施形態では、触覚対応ニューラルインターフェースは、例えば、物理的なユーザインターフェース装置(例えば、ボタン、スイッチ、ノブ、キーボード、及び/又はタッチセンサ面)と物理的に相互作用しなくても、高速で複数のユーザが通信することを可能にし得る。例えば、第1のニューラルインターフェースは、第1のユーザが負傷し(例えば、車の事故で又は戦いで傷を負う)及び/又は意識が無いことを検出して、第2のユーザのニューラルインターフェースに関連データを送信することが可能であり得る。第2のユーザのニューラルインターフェースは、第2のユーザに負傷及び/又は緊急事態を通知するなど、第2のユーザの医学的及び/又は生理的状態を第2のユーザに通知するように構成される1つ以上の効果を出力してもよい。これは、例えば、第2のユーザが第1のユーザに援助を提供することを可能にし得る。
一部の実施形態では、あるユーザが、別のユーザにより接触された又は他のやり方で操作されたオブジェクトの特徴を知覚することが可能になり得る。例えば、第1のユーザは、買い物をしており、第2のユーザが気に入るかもしれないと思う衣類(例えば、シャツ、ズボン、靴下、帽子、ジャケット、ドレス、靴等)を見つける場合がある。第1のユーザは、衣服と相互作用して、衣服のテクスチャ及び/又は材料を知覚することができる。第1のユーザのニューラルインターフェースは、相互作用及び/又は衣類に関係付けられるデータを第2のユーザのニューラルインターフェースに送信することができる。第2のユーザのニューラルインターフェースは、第2のユーザに衣類の特徴を見せる、感じさせる、匂わせる、及び/又は他のやり方で感知させるように構成される1つ以上の効果を出力してもよい。これは、第1のユーザが衣類を購入するべきかどうかを第2のユーザが決定することを可能にし得る。従って、ユーザは、例えば、より情報の多い購買決定を行うために、互いの間で感覚を共有することが可能であり得る。
(概論)
上記の方法、システム及び装置は例示である。様々な構成によって、適宜、様々な手続き又はコンポーネントが省略、置換、又は追加されてもよい。例えば、代替的な構成では、方法は記載されたものとは異なる順序で実行されてもよく、及び/又はステージが追加、省略及び/又は結合されてもよい。また、所定の構成に関して記載された機能は、様々な他の構成に結合されてもよい。構成の異なる態様及び要素が、同様に結合されてもよい。また、技術は進歩するものであり、そのため要素の多くは例示であり、本開示又は特許請求の範囲を限定しない。
例示的な構成(実装を含む)の十分な理解を与えるために説明の中で特定の詳細が与えられている。しかしながら、こうした構成は特定の詳細無しで実施されてもよい。例えば、周知の回路、工程、アルゴリズム、構造及び技術が、構成を不明確にするのを避けるために不要な詳細無しで示されている。この説明は、例示的な構成のみを提供するものであり、請求項の範囲、応用性又は構成を限定しない。むしろ、構成の上記説明は、記載された技術を実装するための実施可能な説明を当業者に提供するであろう。本開示の精神又は範囲から逸れることなく、要素の機能及び配置の様々な変更が行われてもよい。
また、構成は、フロー図又はブロック図として描かれる処理として記載されてもよい。各々が連続した工程として操作を説明している場合が有るが、こうした操作の多くは並列的又は同時に行われ得る。更に、操作の順序は並び替えられてもよい。工程は、図面に含まれない追加のステップを有してもよい。更に、方法の例示は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はこれらの任意の組み合わせによって実装されてもよい。ソフトウェア、ファームウェア、ミドルウェア又はマイクロコードで実装される場合、必要なタスクを実行するためのプログラムコード又はコードセグメントは、記憶媒体等の非一時的なコンピュータ可読媒体に記憶されてもよい。プロセッサは、記載されたタスクを実行してもよい。
複数の例示的な構成が記載されているが、本開示の精神から逸脱することなく、様々な修正、代替構造及び均等物が使用されてもよい。例えば、上記の要素は、より大きなシステムのコンポーネントであってもよく、他の規則が本発明のアプリケーションに優先し又はそれを修正してもよい。また、上記の要素が検討される前、間又は後で多くのステップが行われてもよい。従って、先の記載によって請求項の範囲は縛られない。
本明細書における「適合される」又は「構成される」の使用は、追加のタスク又はステップを実行するように適合又は構成される装置を排除しない開放的且つ包括的な言語を意図している。更に、「基づいて」の使用は開放的且つ包括的であることが意図されており、即ち、1つ以上の記載された条件又は値に「基づいて」行われる処理、ステップ、計算、又は他の動作が、実際には、記載されたものを超える追加の条件又は値に基づいてもよい。本明細書に含まれる表題、リスト及び番号は、単に説明を容易にするためのものであって、限定することを意図していない。
本主題の態様に従う実施形態は、デジタル電子回路、コンピュータハードウェア、ファームウェア、ソフトウェア、又はこれらの組み合わせで実装され得る。一実施形態では、コンピュータは、1つ又は複数のプロセッサを備えてもよい。プロセッサは、プロセッサに結合されるRAM(random access memory)等のコンピュータ可読媒体を備え、又はそれへのアクセスを有する。プロセッサは、センササンプリングルーチン、選択ルーチン、及び上述の方法を実行する他のルーチン等、メモリに記憶されたコンピュータ実行可能プログラム命令を実行する。
このようなプロセッサは、マイクロプロセッサ、DSP(digital signal processor)、ASIC(application−specific integrated circuit)、FPGA(field programmable gate array)、及び状態機械を含む。このようなプロセッサは、PLC、PIC(programmable interrupt controller)、PLD(programmable logic device)、PROM(programmable read−only memory)、EPROM又はEEPROM(electronically programmable read−only memory)、又は他の類似の装置等のプログラム可能電子装置を更に備えてもよい。
このようなプロセッサは、媒体、例えば、プロセッサによって実行されると、プロセッサによって遂行又は支援される本明細書に記載のステップをプロセッサに実行させることができる命令を記憶し得る有形のコンピュータ可読媒体を備え、又はこれと通信してもよい。コンピュータ可読媒体の実施形態は、限定されないが、プロセッサ、例えばウェブサーバのプロセッサにコンピュータ可読命令を提供することができる全ての電子、光学、磁気、又は他の記憶装置を備えてもよい。媒体の他の例は、限定されないが、フロッピーディスク、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成プロセッサ、全ての光学媒体、全ての磁気テープ若しくは他の磁気媒体、又はコンピュータプロセッサが読み取り可能な任意の他の媒体を含む。また、様々な他の装置は、ルータ、プライベート若しくはパブリックネットワーク、又は他の伝送装置等のコンピュータ可読媒体を含んでもよい。記載されたプロセッサ及び処理は、1つ以上の構造内に有ってもよく、1つ以上の構造を通じて分散されてもよい。プロセッサは、本明細書に記載の1つ以上の方法(又は方法の一部)を実行するためのコードを備えてもよい。
本主題はその特定の実施形態に関して詳細に記載されているが、上記のことを理解すると、このような実施形態の変形、変化、及び均等物を当業者であれば容易に生み出し得ることが理解されるであろう。従って、本開示は、限定ではなく例示を目的として提示されており、当業者には容易に明らかとなる本主題への修正、変更及び/又は追加を含むことを排除しないことが理解されるべきである。

Claims (23)

  1. プロセッサと、
    触覚信号を受信し、且つ触覚効果を出力するように構成される触覚出力装置と
    を備え、
    前記プロセッサは、
    神経系に関係付けられる電気信号を検出するように構成されるニューラルインターフェースからセンサ信号を受信し、
    前記センサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用を決定し、
    前記仮想環境における前記仮想オブジェクトとの前記相互作用に少なくとも部分的に基づいて前記触覚効果を決定し、且つ
    前記触覚効果に関係付けられる前記触覚信号を送信する
    ように構成される、システム。
  2. 前記ニューラルインターフェースは、前記神経系に関係付けられる前記電気信号を検出し且つ前記センサ信号を送信するように構成されるセンサを備え、前記センサは、脳波(EEG)電極、分光センサ、磁気共鳴画像診断装置、又は容量性センサの少なくとも1つを含む、請求項1に記載のシステム。
  3. 前記プロセッサは、
    前記センサ信号に少なくとも部分的に基づいて聴覚効果を決定し、且つ
    前記聴覚効果をスピーカに出力させるように構成される聴覚信号を送信する
    ように更に構成される、請求項2に記載のシステム。
  4. 前記プロセッサは、
    前記センサ信号に少なくとも部分的に基づいて視覚効果を決定し、且つ
    前記視覚効果をディスプレイに出力させるように構成される表示信号を送信する
    ように更に構成される、請求項3に記載のシステム。
  5. 前記仮想環境は拡張現実環境を含み、前記プロセッサは、前記拡張現実環境におけるイベントに少なくとも部分的に基づいて前記触覚効果を決定するように更に構成される、請求項1に記載のシステム。
  6. 前記触覚効果は第1の触覚効果であり、
    前記プロセッサは、
    前記センサ信号に基づいて体の一部の移動を決定し、且つ
    前記移動に少なくとも部分的に基づいて第2の触覚効果を決定する
    ように更に構成される、請求項1に記載のシステム。
  7. 前記第2の触覚効果は、前記体の一部の前記移動を確認する又は前記体の一部により接触される表面の特徴をシミュレートするように構成される、請求項6に記載のシステム。
  8. 前記ニューラルインターフェースは第1のニューラルインターフェースであり、前記プロセッサは、遠隔ユーザにより使用可能な第2のニューラルインターフェースを備える遠隔装置に前記触覚信号を送信するように更に構成され、前記触覚信号は前記遠隔装置に前記触覚効果を出力させるように構成される、請求項1に記載のシステム。
  9. 神経系に関係付けられる電気信号を検出するように構成されるニューラルインターフェースからセンサ信号を受信するステップと、
    前記センサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用を決定するステップと、
    前記仮想環境における前記仮想オブジェクトとの前記相互作用に少なくとも部分的に基づいて触覚効果を決定するステップと、
    前記触覚効果に関係付けられる触覚信号を触覚出力装置に送信するステップであって、前記触覚出力装置は前記触覚信号を受信し且つ前記触覚効果を出力するように構成されるステップと
    を含む、方法。
  10. 前記ニューラルインターフェースは、前記神経系に関係付けられる前記電気信号を検出し且つ前記センサ信号を送信するように構成されるセンサを備え、前記センサは、脳波(EEG)電極、分光センサ、磁気共鳴画像診断装置、又は容量性センサの少なくとも1つを含む、請求項9に記載の方法。
  11. 前記センサ信号に少なくとも部分的に基づいて聴覚効果を決定するステップと、
    前記聴覚効果をスピーカに出力させるように構成される聴覚信号を送信するステップと
    を更に含む、請求項10に記載の方法。
  12. 前記センサ信号に少なくとも部分的に基づいて視覚効果を決定するステップと、
    前記視覚効果をディスプレイに出力させるように構成される表示信号を送信するステップと
    を更に含む、請求項11に記載の方法。
  13. 前記仮想環境は拡張現実環境を含み、前記触覚効果は前記拡張現実環境におけるイベントに少なくとも部分的に基づく、請求項9に記載の方法。
  14. 前記触覚効果は第1の触覚効果であり、
    前記センサ信号に基づいて体の一部の移動を決定するステップと、
    前記移動に少なくとも部分的に基づいて第2の触覚効果を決定するステップと
    を更に含む、請求項9に記載の方法。
  15. 前記第2の触覚効果は、前記体の一部の前記移動を確認する又は前記体の一部により接触される表面の特徴をシミュレートするように構成される、請求項14に記載の方法。
  16. 前記ニューラルインターフェースは第1のニューラルインターフェースであり、
    第2のニューラルインターフェースを備える遠隔装置に前記触覚信号を送信するステップであって、前記触覚信号は前記遠隔装置に前記触覚効果を出力させるように構成されるステップ
    を更に含む、請求項9に記載の方法。
  17. プロセッサにより実行されると、前記プロセッサに、
    神経系に関係付けられる電気信号を検出するように構成されるニューラルインターフェースからセンサ信号を受信すること、
    前記センサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用を決定すること、
    前記仮想環境における前記仮想オブジェクトとの前記相互作用に少なくとも部分的に基づいて触覚効果を決定すること、及び
    前記触覚効果に関係付けられる触覚信号を触覚出力装置に送信することであって、前記触覚出力装置は前記触覚信号を受信し且つ前記触覚効果を出力するように構成されること
    を行わせるように構成されるプログラムコードを含む、非一時的なコンピュータ可読媒体。
  18. 前記ニューラルインターフェースは、前記触覚出力装置を備える、請求項17に記載の非一時的なコンピュータ可読媒体。
  19. 前記プロセッサにより実行されると、前記プロセッサに
    前記センサ信号に少なくとも部分的に基づいて聴覚効果を決定すること、及び
    前記聴覚効果をスピーカに出力させるように構成される聴覚信号を送信すること
    を行わせるように構成されるプログラムコードを更に含む、請求項18に記載の非一時的なコンピュータ可読媒体。
  20. 前記プロセッサにより実行されると、前記プロセッサに
    前記センサ信号に少なくとも部分的に基づいて視覚効果を決定すること、及び
    前記視覚効果をディスプレイに出力させるように構成される表示信号を送信すること
    を行わせるように構成されるプログラムコードを更に含む、請求項19に記載の非一時的なコンピュータ可読媒体。
  21. 前記仮想環境は拡張現実環境を含み、前記触覚効果は前記拡張現実環境におけるイベントに少なくとも部分的に基づく、請求項17に記載の非一時的なコンピュータ可読媒体。
  22. 前記触覚効果は第1の触覚効果であり、前記プロセッサにより実行されると、前記プロセッサに
    前記センサ信号に基づいて体の一部の移動を決定すること、及び
    前記移動に少なくとも部分的に基づいて第2の触覚効果を決定することであって、前記第2の触覚効果は、前記体の一部の前記移動を確認する又は前記体の一部により接触される表面の特徴をシミュレートするように構成されること
    を行わせるように構成されるプログラムコードを更に含む、請求項17に記載の非一時的なコンピュータ可読媒体。
  23. 前記ニューラルインターフェースは第1のニューラルインターフェースであり、前記プロセッサにより実行されると、前記プロセッサに
    第2のニューラルインターフェースを備える遠隔装置に前記触覚信号を送信することであって、前記触覚信号は前記遠隔装置に前記触覚効果を出力させるように構成されること
    を行わせるように構成されるプログラムコードを更に含む、請求項17に記載の非一時的なコンピュータ可読媒体。
JP2017002732A 2016-01-13 2017-01-11 触覚対応ニューラルインターフェースのためのシステム及び方法 Active JP7089846B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021133295A JP2021193575A (ja) 2016-01-13 2021-08-18 触覚対応ニューラルインターフェースのためのシステム及び方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/994,720 US10031580B2 (en) 2016-01-13 2016-01-13 Systems and methods for haptically-enabled neural interfaces
US14/994,720 2016-01-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021133295A Division JP2021193575A (ja) 2016-01-13 2021-08-18 触覚対応ニューラルインターフェースのためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2017126337A true JP2017126337A (ja) 2017-07-20
JP7089846B2 JP7089846B2 (ja) 2022-06-23

Family

ID=57850900

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017002732A Active JP7089846B2 (ja) 2016-01-13 2017-01-11 触覚対応ニューラルインターフェースのためのシステム及び方法
JP2021133295A Pending JP2021193575A (ja) 2016-01-13 2021-08-18 触覚対応ニューラルインターフェースのためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021133295A Pending JP2021193575A (ja) 2016-01-13 2021-08-18 触覚対応ニューラルインターフェースのためのシステム及び方法

Country Status (5)

Country Link
US (3) US10031580B2 (ja)
EP (1) EP3193241A1 (ja)
JP (2) JP7089846B2 (ja)
KR (1) KR20170085000A (ja)
CN (1) CN106990834A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022509752A (ja) * 2018-10-29 2022-01-24 コグニクソン 拡張現実のための脳コンピュータ・インターフェース

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9857590B2 (en) * 2014-10-11 2018-01-02 Floyd Steven Hall, Jr. Method and system for press-on displays for fashionable eyewear and nosewear
JP6668811B2 (ja) * 2016-02-23 2020-03-18 セイコーエプソン株式会社 訓練装置、訓練方法、プログラム
US10551909B2 (en) * 2016-04-07 2020-02-04 Qubit Cross Llc Virtual reality system capable of communicating sensory information
US11064915B2 (en) * 2016-10-27 2021-07-20 Norman L Johnson Functional reach assessment device and method
JP6613267B2 (ja) 2017-06-02 2019-11-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6837921B2 (ja) * 2017-06-02 2021-03-03 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6653293B2 (ja) 2017-06-05 2020-02-26 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
KR102150282B1 (ko) * 2017-07-13 2020-09-01 한국전자통신연구원 멀티미디어 콘텐츠와 연관되는 후각 정보 생성 장치 및 방법
CN107596682A (zh) * 2017-09-29 2018-01-19 广州云友网络科技有限公司 一种vr虚拟互动滑雪的实现方法和系统
KR101824848B1 (ko) * 2017-11-07 2018-02-01 전윤재 육류 가공시 속재료를 넣기 위한 삽입기구
US10916059B2 (en) * 2017-12-06 2021-02-09 Universal City Studios Llc Interactive video game system having an augmented virtual representation
KR102387573B1 (ko) 2017-12-12 2022-04-18 삼성전자주식회사 내부 장치, 외부 장치, 사용자 단말 및 전자 장치 및 이들의 동작 방법
US10551921B2 (en) * 2018-03-23 2020-02-04 Abl Ip Holding Llc Electroencephalography control of controllable device
US10866638B2 (en) * 2018-03-23 2020-12-15 Abl Ip Holding Llc Neural control of controllable device
US10682069B2 (en) * 2018-03-23 2020-06-16 Abl Ip Holding Llc User preference and user hierarchy in an electroencephalography based control system
US10682099B2 (en) * 2018-03-23 2020-06-16 Abl Ip Holding Llc Training of an electroencephalography based control system
US10684689B2 (en) * 2018-04-20 2020-06-16 Immersion Corporation Cross-platform dynamic haptic effect design tool for augmented or virtual reality environments
US10572017B2 (en) * 2018-04-20 2020-02-25 Immersion Corporation Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments
US20190391647A1 (en) * 2018-06-25 2019-12-26 Immersion Corporation Real-world haptic interactions for a virtual reality user
US11294467B2 (en) * 2018-12-18 2022-04-05 Immersion Corporation Systems and methods for integrating environmental haptics in virtual reality
US11086398B2 (en) * 2019-06-07 2021-08-10 Microsoft Technology Licensing, Llc Haptic rendering
US20210056391A1 (en) * 2019-08-20 2021-02-25 Mind Machine Learning, Inc. Systems and Methods for Simulating Sense Data and Creating Perceptions
US11079874B2 (en) * 2019-11-19 2021-08-03 Cirrus Logic, Inc. Virtual button characterization engine
CN112083803B (zh) * 2020-08-28 2023-11-28 西交利物浦大学 一种虚拟现实环境下模拟重量和重心的设备和方法
WO2022139643A1 (en) * 2020-12-22 2022-06-30 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices related to extended reality
KR102318215B1 (ko) 2021-04-12 2021-10-27 (주)이지템 가상 심박동 기기 및 그 기기의 구동 방법

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014082A (ja) * 1999-06-25 2001-01-19 Sentan Kagaku Gijutsu Incubation Center:Kk 神経インターフェイスシステム
US20060264774A1 (en) * 2005-08-25 2006-11-23 Outland Research, Llc Neurologically Controlled Access to an Electronic Information Resource
JP2009060946A (ja) * 2007-09-04 2009-03-26 Univ Of Tsukuba 装着式動作補助装置及びその制御方法及びプログラム
JP2010540088A (ja) * 2007-09-27 2010-12-24 イマージョン コーポレーション 触覚フィードバックによる生物学的感知
JP2012524636A (ja) * 2009-04-24 2012-10-18 アドバンスド ブレイン モニタリング,インコーポレイテッド 適応的行動トレーナー
JP2014209329A (ja) * 2013-03-15 2014-11-06 イマージョンコーポレーションImmersion Corporation 触覚効果のパラメータを修正するためのシステムおよび方法
WO2015044851A2 (en) * 2013-09-25 2015-04-02 Mindmaze Sa Physiological parameter measurement and feedback system
CN204360325U (zh) * 2015-01-15 2015-05-27 深圳市掌网立体时代视讯技术有限公司 一种头戴式多通道交互系统
JP2015130168A (ja) * 2013-12-31 2015-07-16 イマージョン コーポレーションImmersion Corporation 摩擦拡張制御、及び、タッチコントロールパネルのボタンを摩擦拡張制御部へと変換する方法
JP2015172943A (ja) * 2007-09-14 2015-10-01 国立研究開発法人産業技術総合研究所 バーチャルリアリティ環境生成装置及びコントローラ装置
US20150346810A1 (en) * 2014-06-03 2015-12-03 Otoy, Inc. Generating And Providing Immersive Experiences To Users Isolated From External Stimuli

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0743839A4 (en) * 1994-02-09 1999-02-10 Univ Iowa Res Found HUMAN GROUND BRAIN CORNEAL PROSTHESIS
JP2000501033A (ja) 1995-11-30 2000-02-02 ヴァーチャル テクノロジーズ インコーポレイテッド 触覚をフィードバックする人間/機械インターフェース
US6028593A (en) 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US8508469B1 (en) 1995-12-01 2013-08-13 Immersion Corporation Networked applications including haptic feedback
US7305268B2 (en) * 2000-07-13 2007-12-04 Northstar Neurscience, Inc. Systems and methods for automatically optimizing stimulus parameters and electrode configurations for neuro-stimulators
CN1254296C (zh) 2001-05-11 2006-05-03 皇家菲利浦电子有限公司 一种标示语言启动的装置和操作一组装置的方法
JP2006323649A (ja) * 2005-05-19 2006-11-30 Mitsubishi Electric Corp 味発生装置および香り発生装置および感覚発生装置
CN104063056B (zh) * 2006-04-06 2018-04-20 意美森公司 用于增强的触觉效果的系统和方法
GB2467461B (en) 2007-09-14 2012-03-07 Nat Inst Of Advanced Ind Scien Virtual reality environment generating apparatus and controller apparatus
WO2009042170A1 (en) 2007-09-26 2009-04-02 Medtronic, Inc. Therapy program selection
JP5477740B2 (ja) * 2009-11-02 2014-04-23 独立行政法人情報通信研究機構 多感覚インタラクションシステム
EP2552304B1 (en) 2010-03-31 2015-09-23 Agency For Science, Technology And Research Brain-computer interface system and method
KR101505060B1 (ko) * 2010-08-24 2015-03-26 한국전자통신연구원 가상 현실 연동 서비스 제공 시스템 및 그 방법
US9128523B2 (en) * 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US9390630B2 (en) * 2013-05-03 2016-07-12 John James Daniels Accelerated learning, entertainment and cognitive therapy using augmented reality comprising combined haptic, auditory, and visual stimulation
JP5486123B1 (ja) * 2013-10-12 2014-05-07 純馬 青木 匂い呈示装置および方法
US9955895B2 (en) * 2013-11-05 2018-05-01 The Research Foundation For The State University Of New York Wearable head-mounted, glass-style computing devices with EOG acquisition and analysis for human-computer interfaces
US20150187188A1 (en) 2013-12-30 2015-07-02 Aliphcom Communications using tactile stimuli on wearable devices
US10437341B2 (en) 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
US10067566B2 (en) * 2014-03-19 2018-09-04 Immersion Corporation Systems and methods for a shared haptic experience
KR20160138137A (ko) 2014-03-21 2016-12-02 임머숀 코퍼레이션 햅틱적으로 인에이블되는 곡면형 디바이스들을 위한 시스템 및 방법
US9690370B2 (en) 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
US10613627B2 (en) 2014-05-12 2020-04-07 Immersion Corporation Systems and methods for providing haptic feedback for remote interactions
US9830781B2 (en) 2014-06-13 2017-11-28 Verily Life Sciences Llc Multipurpose contacts for delivering electro-haptic feedback to a wearer
US9655532B2 (en) * 2015-06-19 2017-05-23 Michael Blake Wearable physiological monitoring and notification system based on real-time heart rate variability analysis

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014082A (ja) * 1999-06-25 2001-01-19 Sentan Kagaku Gijutsu Incubation Center:Kk 神経インターフェイスシステム
US20060264774A1 (en) * 2005-08-25 2006-11-23 Outland Research, Llc Neurologically Controlled Access to an Electronic Information Resource
JP2009060946A (ja) * 2007-09-04 2009-03-26 Univ Of Tsukuba 装着式動作補助装置及びその制御方法及びプログラム
JP2015172943A (ja) * 2007-09-14 2015-10-01 国立研究開発法人産業技術総合研究所 バーチャルリアリティ環境生成装置及びコントローラ装置
JP2010540088A (ja) * 2007-09-27 2010-12-24 イマージョン コーポレーション 触覚フィードバックによる生物学的感知
JP2012524636A (ja) * 2009-04-24 2012-10-18 アドバンスド ブレイン モニタリング,インコーポレイテッド 適応的行動トレーナー
JP2014209329A (ja) * 2013-03-15 2014-11-06 イマージョンコーポレーションImmersion Corporation 触覚効果のパラメータを修正するためのシステムおよび方法
WO2015044851A2 (en) * 2013-09-25 2015-04-02 Mindmaze Sa Physiological parameter measurement and feedback system
JP2015130168A (ja) * 2013-12-31 2015-07-16 イマージョン コーポレーションImmersion Corporation 摩擦拡張制御、及び、タッチコントロールパネルのボタンを摩擦拡張制御部へと変換する方法
US20150346810A1 (en) * 2014-06-03 2015-12-03 Otoy, Inc. Generating And Providing Immersive Experiences To Users Isolated From External Stimuli
CN204360325U (zh) * 2015-01-15 2015-05-27 深圳市掌网立体时代视讯技术有限公司 一种头戴式多通道交互系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHIN ET AL.: "Online performance evaluation of motor imagery BCI with augmented-reality virtual hand feedback", IN: 2010 ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY[ONLINE], JPN6020050723, 2010, pages 3341 - 3344, XP032109608, ISSN: 0004488379, DOI: 10.1109/IEMBS.2010.5627911 *
LEEB ET AL.: "Self-Paced (Asynchronous) BCI Control of a Wheelchair in Virtual Environments: A Case Study with a T", COMPUTATIONAL INTELLIGENCE AND NEURTOSCIENCE[ONLINE], vol. Volume 2007, Article ID 79642, JPN6020050726, 2007, pages 1 - 8, ISSN: 0004419632 *
LOTTE ET AL., COMBINING BCI WITH VIRTUAL REALITY: TOWARDS NEW APPLICATIONS AND IMPROVED[ONLINE], JPN6020050724, 2012, pages 197 - 220, ISSN: 0004488380 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022509752A (ja) * 2018-10-29 2022-01-24 コグニクソン 拡張現実のための脳コンピュータ・インターフェース

Also Published As

Publication number Publication date
JP7089846B2 (ja) 2022-06-23
KR20170085000A (ko) 2017-07-21
US10386924B2 (en) 2019-08-20
US20200057500A1 (en) 2020-02-20
CN106990834A (zh) 2017-07-28
JP2021193575A (ja) 2021-12-23
US20170199569A1 (en) 2017-07-13
US10031580B2 (en) 2018-07-24
US11237633B2 (en) 2022-02-01
US20180341331A1 (en) 2018-11-29
EP3193241A1 (en) 2017-07-19

Similar Documents

Publication Publication Date Title
JP7089846B2 (ja) 触覚対応ニューラルインターフェースのためのシステム及び方法
US20230381059A1 (en) Wearable Devices, Systems, Methods and Architectures for Sensory Stimulation and Manipulation and Physiological Data Acquisition
US20170131775A1 (en) System and method of haptic feedback by referral of sensation
US10437335B2 (en) Wearable electronic, multi-sensory, human/machine, human/human interfaces
US10695574B2 (en) Sensory input through non-invasive brain stimulation
US10297122B2 (en) Wearable haptic effects with permissions settings
KR101630864B1 (ko) 감정을 전달하는 방법 및 시스템
US20170011602A1 (en) Wearable haptic feedback devices and methods of fabricating wearable haptic feedback devices
US11294451B2 (en) Virtual reality system capable of communicating sensory information
US11467668B2 (en) System and method for representing virtual object information with haptic stimulation
EP3328267B1 (en) System for provoking a physiological response
US11809629B1 (en) Wearable electronic device for inducing transient sensory events as user feedback
Longo et al. Using brain-computer interface to control an avatar in a virtual reality environment
JP7017777B2 (ja) 情報処理装置、情報処理方法、および、情報処理装置用プログラム
Lloyd In touch with the future: the sense of touch from cognitive neuroscience to virtual reality
US12001608B2 (en) System and method for representing virtual object information with haptic stimulation
US20230400923A1 (en) Wearable Electronic Device for Inducing Transient Sensory Events as User Feedback
CN115220571A (zh) 一种基于人机交互的沉浸式训练系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210422

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210818

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211222

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220301

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20220329

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220405

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220517

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R150 Certificate of patent or registration of utility model

Ref document number: 7089846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150