JP2021193575A - 触覚対応ニューラルインターフェースのためのシステム及び方法 - Google Patents

触覚対応ニューラルインターフェースのためのシステム及び方法 Download PDF

Info

Publication number
JP2021193575A
JP2021193575A JP2021133295A JP2021133295A JP2021193575A JP 2021193575 A JP2021193575 A JP 2021193575A JP 2021133295 A JP2021133295 A JP 2021133295A JP 2021133295 A JP2021133295 A JP 2021133295A JP 2021193575 A JP2021193575 A JP 2021193575A
Authority
JP
Japan
Prior art keywords
tactile
user
signal
sensor
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021133295A
Other languages
English (en)
Inventor
ファン マヌエル クルス−エルナンデス、
Juan Manuel Cruz-Hernandez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2021193575A publication Critical patent/JP2021193575A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Abstract

【課題】ニューラルインターフェースに、触覚機能を含めることによって改善するシステム、方法及びコンピュータ可読媒体を提供する。【解決手段】コンピュータ装置112は、プロセッサと、プロセッサによって実行可能なプログラムコードを含むメモリと、を備える。プログラムコードは、プロセッサに、仮想環境における仮想オブジェクトとの相互作用を決定することと、相互作用に少なくとも部分的に基づいて、ユーザが刺激(味、匂い又は音)を知覚するべきことを決定することと、刺激をユーザに知覚させるように、ニューラルインターフェースによってユーザの神経系を刺激することと、を行わせる。【選択図】図1

Description

本発明は、ユーザインターフェース装置の分野に関する。より詳細には、本発明は、触
覚対応ニューラルインターフェースに関する。
コンピュータベースのシステムがより普及してきており、研究者は、ユーザがこうした
システムと相互作用することができる新しいインターフェースを模索している。最近開発
されたインターフェースの一つは、ブレイン・コンピュータ・インターフェース(BCI
)等のニューラルインターフェースである。BCIは、ユーザの脳と外部コンピュータ装
置との間の直接通信経路を含み得る。一部のBCIは、ユーザの脳又は頭蓋骨に埋め込ま
れたプローブ又は電極を使用し、これがユーザの脳から外部コンピュータ装置に電気信号
を直接送信する。他のBCIは、ユーザの頭の外部(例えば、ユーザの額)に結合される
センサを使用し、これはユーザの頭蓋骨を通してユーザの脳からの電気信号(例えば、電
磁波)を検出して、外部コンピュータ装置にセンサ信号を送信する。ニューラルインター
フェースは、触覚機能を含むことによって改善され得る。
本開示の実施形態は、触覚対応ニューラルインターフェースを含む。一実施形態では、
本開示のシステムは、神経系に関係付けられる電気信号を検出するように構成されるニュ
ーラルインターフェースからセンサ信号を受信するように構成されるプロセッサを備えて
もよい。また、プロセッサは、センサ信号に基づいて仮想環境における仮想オブジェクト
との相互作用を決定するように構成されてもよい。また、プロセッサは、仮想環境におけ
る仮想オブジェクトとの相互作用に少なくとも部分的に基づいて触覚効果を決定するよう
に構成されてもよい。また、プロセッサは、触覚効果に関係付けられる触覚信号を送信す
るように構成されてもよい。システムは、触覚信号を受信して、触覚効果を出力するよう
に構成される触覚出力装置を更に備えてもよい。
別の実施形態では、本開示の方法は、神経系に関係付けられる電気信号を検出するよう
に構成されるニューラルインターフェースからセンサ信号を受信するステップを含んでも
よい。また、方法は、センサ信号に基づいて仮想環境における仮想オブジェクトとの相互
作用を決定するステップを含んでもよい。また、方法は、仮想環境における仮想オブジェ
クトとの相互作用に少なくとも部分的に基づいて触覚効果を決定するステップを含んでも
よい。方法は、触覚効果に関係付けられる触覚信号を触覚出力装置に送信するステップを
更に含んでもよい。触覚出力装置は、触覚信号を受信して、触覚効果を出力するように構
成されてもよい。更に別の実施形態は、このような方法を実装するためのコンピュータ可
読媒体を含む。
こうした例示の実施形態は、本主題を限定し又はその限界を定義するためではなく、そ
の理解を支援するための例示を提供するために言及される。例示の実施形態は、詳細な説
明において検討され、そこでは更なる説明が提供される。本明細書を吟味することによっ
て、及び/又は請求項に記載の主題の1つ以上の実施形態を実施することによって、様々
な実施形態によってもたらされる利点が更に理解され得る。
本明細書の以下の部分には完全な且つ実施可能な開示がより詳細に説明される。本明細
書は以下の添付の図面を参照する。
触覚対応ニューラルインターフェースのためのシステムの例示の実施形態を示す。 一実施形態による触覚対応ニューラルインターフェースのためのシステムを示すブロック図である。 触覚対応ニューラルインターフェースのためのシステムの実施形態を示す。 触覚対応ニューラルインターフェースのためのシステムの別の実施形態を示す。 一実施形態による触覚対応ニューラルインターフェースを提供する方法を実行するためのステップのフローチャートである。
次に、多様な及び代替的な例示の実施形態及び添付の図面を詳細に参照する。各例示は
、限定としてではなく、説明目的で提供される。修正及び変更が行われ得ることは、当業
者には明らかであろう。例えば、一実施形態の一部として例示され又は記載された特徴は
、更なる実施形態をもたらすために別の実施形態において使用されてもよい。従って、本
開示は、添付の請求項及び均等物の範囲に入る修正及び変形を含むことが意図されている
(触覚対応ニューラルインターフェースの例示)
図1は、触覚対応ニューラルインターフェースのためのシステム100の例示の実施形
態を示す。システム100は、コンピュータ装置112を含む。また、システム100は
、コンピュータ装置112と電気通信(例えば、有線又は無線通信)する1つ以上のニュ
ーラルセンサ106、108、110を備える。ニューラルセンサ106、108、11
0は、ユーザの脳104、脊椎、及び/又は神経等のユーザの神経系の少なくとも一部と
電気的に結合するように構成される。ニューラルセンサ106、108、110がユーザ
の脳104からの脳信号を検出するために配置される場合、システム100はブレイン・
コンピュータ・インターフェース(BCI)と呼ばれ得る。しかし、実施形態はブレイン
・コンピュータ・インターフェースに限定されず、システム100は、ユーザの神経系の
少なくとも一部に伝播する神経信号を検出するために(例えば、ユーザの体の上又は知覚
の任意の場所に)配置される任意の数の及び構成のニューラルセンサ106、108、1
10を備えてもよい。
図1に示される実施形態では、システム100は、ユーザの頭蓋骨の中に配置される及
び/又はユーザの脳に直接結合されるニューラルセンサ106(例えば、電極)を備える
。一部の実施形態では、ニューラルセンサ106は、ユーザの脳104の一部に直接埋め
込まれる。このようなニューラルセンサ106は、ユーザの脳104に接触して、ユーザ
の脳104から電気信号を直接受信してもよい。追加的に又は代替的に、システム100
は、ユーザの頭蓋骨の外部(例えば、ユーザの頭の外側)に結合される1つ以上のニュー
ラルセンサ108、110を備えてもよい。例えば、例示の実施形態では、システム10
0は、ユーザの額に結合される1つのニューラルセンサ108及びユーザの頭の後部又は
上部に結合される別のニューラルセンサ110を備える。このようなニューラルセンサ1
08、110は、ユーザの頭蓋骨及び/又は頭皮を通してユーザの脳104により出力さ
れる電気信号(例えば、神経信号)を検出してもよい。ニューラルセンサ106、108
、110は、ユーザの脳104により出力される電気信号に関係付けられる又はユーザの
神経系に他のやり方で関係付けられるセンサ信号をコンピュータ装置112に送信するよ
うに構成される。
例示の実施形態では、コンピュータ装置112は、ニューラルセンサ106、108、
110からセンサ信号を受信して、センサ信号に基づいて1つ以上の触覚効果(例えば、
テクスチャ、振動、ストロークの感覚、突き刺すような感覚、及び/又は知覚される摩擦
係数の変化)を決定するように構成される。コンピュータ装置112は、触覚効果に関係
付けられる1つ以上の触覚信号を1つ以上の触覚出力装置114、116に送信するよう
に構成される。触覚出力装置114、116は、コンピュータ装置112から触覚信号を
受信して、触覚効果を出力するように構成される。
一部の実施形態では、コンピュータ装置112は、触覚出力装置114を備えてもよい
。このような実施形態では、ユーザ102は、触覚出力装置114により出力される触覚
効果を知覚するためにコンピュータ装置112を把持又は保持してもよい。
例えば、一部の実施形態では、コンピュータ装置112は仮想環境を生成する。本明細
書で用いられる場合、仮想環境は、部分的に又は全体的に仮想的である環境を含む。例え
ば、仮想環境は、拡張現実環境、仮想現実環境、ビデオゲーム環境等を含み得る。このよ
うな実施形態では、コンピュータ装置112は、仮想軍事ゲーム等のビデオゲームを実行
してもよい。コンピュータ装置112は、ディスプレイ上のビデオゲームに関係付けられ
るコンテンツを表示してもよい。例えば、コンピュータ装置112は、ユーザ102によ
り制御可能な仮想オブジェクト(例えば、キャラクタ、車両、又は武器)と共に、ビデオ
ゲームに関係付けられる仮想戦争地帯を表示してもよい。一部の実施形態では、コンピュ
ータ装置112は、ニューラルセンサ106、108、110からセンサ信号を受信して
、センサ信号に基づいて仮想環境内の仮想オブジェクトの相互作用及び/又は操作を決定
する。コンピュータ装置112は、仮想環境内で相互作用及び/又は操作を発生させても
よい。従って、ユーザは、ユーザの意識で仮想オブジェクトと相互作用する及び/又はそ
れを操作することが可能であってもよい。
一部の実施形態では、コンピュータ装置112は、仮想環境内の仮想オブジェクトの相
互作用及び/又は操作に基づいて触覚効果を決定して、触覚効果を出力させることができ
る。例えば、コンピュータ装置112は、ニューラルセンサ106、108、110から
センサ信号を受信し、センサ信号に基づいて、仮想オブジェクトが、例えば、凹凸のある
地形を超えて前進すべきであることを決定してもよい。また、例示の実施形態では、コン
ピュータ装置112は、仮想オブジェクトの移動に関係付けられる触覚効果を決定して出
力する。例えば、仮想オブジェクトが凹凸のある地形を横断すると、コンピュータ装置1
12は、例えば、凹凸のある地形をシミュレートするように構成される1つ以上の振動を
決定して出力してもよい。このようにして、ユーザ102は、ユーザの脳104からの信
号を介して仮想オブジェクトと相互作用し及び/又はそれを操作して、関連触覚効果を受
信することができる。
上記の例示的な実施形態の記載は、単なる例示として提供される。本発明の他の様々な
実施形態が本明細書に記載されており、このような実施形態の変形は当業者によって理解
されるであろう。本明細書を吟味することによって、及び/又は請求項に記載の主題の1
つ以上の実施形態を実施することによって、様々な実施形態によってもたらされる利点が
更に理解され得る。
(触覚対応ニューラルインターフェースのための例示のシステム)
図2は、一実施形態による触覚対応ニューラルインターフェース触覚効果のためのシス
テムを示すブロック図である。システムは、コンピュータ装置201を含む。一部の実施
形態では、コンピュータ装置201は、ヘッドマウント型コンピュータ装置、移動装置(
例えば、スマートフォン、タブレット、Eリーダ及び/又はラップトップコンピュータ)
、デスクトップコンピュータ、又は携帯型ゲーム装置を含む。他の実施形態では、コンピ
ュータ装置201は、装着可能装置(例えば、指輪、靴、アームバンド、袖、ジャケット
、眼鏡、手袋、腕時計、リストバンド、ブレスレット、衣類、帽子、ヘッドバンド、及び
/又は宝石類)を含んでもよい。
一部の実施形態では、コンピュータ装置201のコンポーネント(例えば、プロセッサ
202、ネットワーク装置210、センサ230等)は単一の筐体に組み込まれてもよい
。他の実施形態では、コンポーネントは、(例えば、多数の筐体又は場所の間で)分散さ
れ且つ互いと電気通信してもよい。コンピュータ装置201は、図2に記載の全てのコン
ポーネントを含んでもよく又は含まなくてもよい。例えば、一部の実施形態では、コンピ
ュータ装置は、スピーカ22、嗅覚装置234、及びディスプレイ216を含まなくても
よい。
図2に示される実施形態では、コンピュータ装置201は、バス206を介して他のハ
ードウェアと通信しているプロセッサ202を含む。RAM、ROM又はEEPROM等
の任意の適切な有形の(及び非一時的な)コンピュータ可読媒体を含み得るメモリ204
が、コンピュータ装置201の動作を構成するプログラムコンポーネントを具現化する。
図示の実施形態では、コンピュータ装置201は、1つ以上のネットワーク装置210、
入力/出力(I/O)インターフェースコンポーネント212、及び記憶装置214を更
に含む。
ネットワーク装置210は、ネットワーク接続を容易にする1つ以上の任意のコンポー
ネントを表し得る。限定されないが、例示には、Ethernet(登録商標)、USB
、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、Bl
uetooth(登録商標)等の無線インターフェース、又は携帯電話ネットワークにア
クセスするための無線インターフェース(例えば、CDMA、GSM(登録商標)、UM
TS又は他の移動通信ネットワーク)が含まれる。
I/Oコンポーネント212は、1つ以上のディスプレイ216、ゲームコントローラ
、キーボード、マウス、ジョイスティック、カメラ、ボタン、スピーカ、マイクロホン、
及び/又はデータの入力若しくは出力に使用される他のハードウェア等の装置への有線又
は無線接続を容易にするために使用されてもよい。記憶装置214は、コンピュータ装置
201に含まれ又はプロセッサ202に結合される磁気、光学、又は他の記憶媒体等の不
揮発性記憶装置を表す。
一部の実施形態では、コンピュータ装置201は1つ以上のセンサ230を備える。セ
ンサ230は、プロセッサ202にセンサ230の信号を送信するように構成される。セ
ンサ230は、例えば、カメラ、ジャイロスコープ、加速度計、GPS(global
positioning system)装置、距離センサ、又は深さセンサを含んでも
よい。一部の実施形態では、コンピュータ装置201は、センサ230からのセンサ信号
に基づいて仮想オブジェクトを操作し及び/又は触覚効果を生成してもよい。
また、コンピュータ装置201は、ディスプレイ216、スピーカ222、及び/又は
嗅覚装置234を備えてもよい。ディスプレイ216は、(例えば、プロセッサ202か
ら)映像信号を受信して、1つ以上の画像をユーザに出力するように構成される任意のコ
ンポーネントを含む。ディスプレイ216は、例えば、ヘッドマウント型ディスプレイ、
テレビ、プロジェクタ、コンピュータモニタ、及び/又は液晶ディスプレイ(LCD)を
含んでもよい。一部の実施形態では、ディスプレイ216は、タッチセンサ面と統合され
て、タッチスクリーンディスプレイを形成してもよい。スピーカ222は、(例えば、プ
ロセッサ202から)聴覚信号を受信して、1つ以上の音声を出力するように構成される
任意のコンポーネントを含む。嗅覚装置234は、(例えば、プロセッサ202から)嗅
覚信号を受信して、ユーザにより知覚可能な1つ以上の匂いを出力するように構成される
コンポーネントを含む。嗅覚装置234は、1つ以上の匂いを生成するために任意の数及
び構成の芳香、香水、液体、固体、ゲル、及び/又は気体を含んでもよい。嗅覚装置23
4は、嗅覚信号を受信して、目標の匂いを生成するために、1つ以上の芳香、香水、液体
、固体、ゲル、及び/又は気体を出力してもよい。
また、システムはニューラルセンサ232も備える。ニューラルセンサ232は、ユー
ザの神経系からの電気信号(例えば、神経信号)を検出して、1つ以上の関連センサ信号
をプロセッサ202に送信するように構成される。ニューラルセンサ232は、有線イン
ターフェース又はIEEE802.11、ブルートゥース(登録商標)若しくはラジオイ
ンターフェース等の無線インターフェースを介してプロセッサ202と通信してもよい。
ニューラルセンサ232は、1つ以上のプローブ、脳波(EEG)電極等の電極、分光セ
ンサ、磁気共鳴画像診断装置(例えば、fMRIシステム)、及び/又は容量性センサを
含んでもよい。追加的に又は代替的に、ニューラルセンサ232は、バッテリ及び/又は
他の電源、プロセッサ、メモリ、電気刺激装置、磁力計、及び/又は他のコンポーネント
を備えてもよい。
一部の実施形態では、ニューラルセンサ232は、出力装置を備える。ニューラルセン
サ232は、実際に存在せず及び/又はユーザによって物理的に検出されなくてもよい感
覚(例えば、味、匂い、視覚、音、及び/又は触感)をユーザに知覚させるために、ユー
ザの神経系(例えば、ユーザの脳)の少なくとも一部を刺激することが可能であってもよ
い。例えば、ニューラルセンサ232は、プロセッサ202から触覚信号を受信し、それ
に応じて、ユーザが実際に物理的には存在しなくてもよい触感を知覚させるように構成さ
れるように、ユーザの脳又は別の体の一部を刺激するように構成されてもよい。このよう
な触感は、見掛けの触覚効果と呼ばれ得る。例えば、ピンが実際にはユーザの腕に刺さっ
ていなくても、ユーザの腕に刺さったピンをユーザに知覚させるように構成されるように
、ニューラルセンサ232はユーザの脳又はユーザの腕の神経を刺激してもよい。
一部の実施形態では、ニューラルセンサ232は、追加的に又は代替的に、味、匂い、
視覚、音、及び/又は他の感覚をユーザに知覚させるように構成されるように、ユーザの
神経系を刺激し得る。例えば、ニューラルセンサ232は、視覚、聴覚、嗅覚、又は他の
感覚をユーザに知覚させるためにユーザの脳に1つ以上の電気パルスを加えるように構成
される電気刺激装置を備えてもよい。
一部の実施形態では、ニューラルセンサ232は、経頭蓋磁気刺激(TMS)を使用し
て感覚を生成することができる。例えば、ニューラルセンサ232は、90mmのMag
StimTMサークルコイルを含み得る。ニューラルセンサ232は、ユーザの脳の運動皮
質領域を刺激するように(例えば、ユーザの頭にぴったりくっついて)配置され得る。プ
ロセッサ202は、(例えば、1つ以上のパルスを含む)電気信号をニューラルセンサ2
32に送信することができる。一部の実施形態では、プロセッサ202は、刺激装置(例
えば、MagstimTM磁気刺激装置)を作動させて、刺激装置により電気信号をニュー
ラルセンサ232に送信させることができる。ニューラルセンサ232は、電気信号に応
じて電磁場を生成することができる。電磁場は、例えば、ユーザに体の一部を移動させる
又はユーザが体の一部を移動したことを知覚させる、ユーザの脳の運動皮質領域における
電流を含んでもよい。一部の実施形態では、プロセッサ202は、刺激装置の最大可能出
力(例えば、2.0T)の58%から65%の間でユーザの脳を刺激装置に刺激させるよ
うに構成される信号を送信し得る。これは、ユーザに特定の感覚を知覚させてもよい。
システムは、プロセッサ202と通信する1つ以上の触覚出力装置218、220を更
に含む。触覚出力装置218、220は、触覚信号に応答して触覚効果を出力するように
構成される。一部の実施形態では、触覚出力装置218、220は、例えば、振動、知覚
される摩擦係数の変化、シミュレートされるテクスチャ、突き刺すような感覚、又は表面
変形を含む触覚効果を出力するように構成される。更に、一部の触覚効果は、同じ又は異
なるタイプの複数の触覚出力装置218、220を順番に及び/又は同時に使用してもよ
い。
一部の実施形態では、触覚出力装置218、220は、コンピュータ装置201又はコ
ンピュータ装置201のコンポーネントを振動させることによって触覚効果を出力しても
よい。このような実施形態では、触覚出力装置218、220は、例えば、圧電アクチュ
エータ、電気モータ、電磁アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマ
、ソレノイド、偏心回転質量モータ(ERM)又は線形共振アクチュエータ(LRA)の
1つ以上を含んでもよい。
コンピュータ装置201は、内部触覚出力装置218を含んでもよい。追加的に又は代
替的に、コンピュータ装置201は、コンピュータ装置201から遠隔に有る触覚出力装
置220と有線又は無線通信してもよい。例えば、図2に示される実施形態では、触覚出
力装置220は、コンピュータ装置201の外部に有り、イーサネット(登録商標)、U
SB又はIEEE1394等の有線インターフェースを介してコンピュータ装置201と
通信する。他の実施形態では、触覚出力装置220は、IEEE802.11、ブルート
ゥース(登録商標)又はラジオインターフェース等の無線インターフェースを介してコン
ピュータ装置201と通信してもよい。一部の実施形態では、触覚出力装置は、例えば、
靴、袖、ジャケット、眼鏡、手袋、指輪、腕時計、リストバンド、ブレスレット、衣類、
帽子、ベスト、ベルト、ヘルメット、ヘッドバンド、及び/又は宝石類を含む装着可能装
置に結合されてもよい。他の実施形態では、触覚出力装置は、ユーザの指、腕、手、足、
脚、頭、背中、胸、首等のユーザの体の一部又は他の体の部分に結合されてもよい。
一部の実施形態では、触覚出力装置218、220は、例えば、テクスチャをシミュレ
ートする又は触覚信号に応じて表面で知覚される摩擦係数を変調する触覚効果を出力する
ように構成されてもよい。このような実施形態では、触覚出力装置218、220は、超
音波アクチュエータを含んでもよい。別のこのような実施形態では、触覚出力装置218
、220は、触覚効果を出力するために静電引力を使用するように構成される静電アクチ
ュエータを含んでもよい。触覚効果は、テクスチャをシミュレートするか又は表面に沿っ
て知覚される摩擦係数を変調してもよい。このような実施形態では、静電アクチュエータ
は、静電アクチュエータに近い又はタッチする体の一部と容量結合してもよい。オブジェ
クトと導電層との間の引力レベルの変化は、シミュレートされるテクスチャ又は表面に沿
って知覚される摩擦係数を変化させることができる。
一部の実施形態では、触覚出力装置218、220は、(例えば、コンピュータ装置2
01又は別の表面を折り曲げ又は変形させるために)変形触覚効果を出力するように構成
される流体を含む。例えば、流体は、スマートゲル又はレオロジー流体(例えば、磁性流
体又は電気流体)を含んでもよい。刺激に応じて、スマートゲル又はレオロジー流体は、
物理的状態を変化させ及び/又は形状を変形させ得る。これは、コンピュータ装置201
又は別の表面の変形を引き起こしてもよい。
他の実施形態では、触覚出力装置218、220は、コンピュータ装置201の表面の
形状を変形させるためにコンピュータ装置201の表面を物理的に押す及び/又は引くよ
うに構成される機械的変形装置を含む。更に、表面を変形させるための他の技術又は方法
が用いられ得る。例えば、触覚出力装置218、220は、表面再構成可能な触覚基板(
限定されないが、例えば、繊維、ナノチューブ、電気活性ポリマ、圧電要素、又は形状記
憶合金を含む)からの接触に基づいて、その表面を変形させ又はそのテクスチャを変化さ
せるように構成される可撓性表面層を含んでもよい。一部の実施形態では、触覚出力装置
218、220は、例えば、空気若しくは流体ポケット、材料の局部変形、共振機械要素
、圧電性材料、微小電気機械システム(“MEMS”)要素若しくはポンプ、熱流体ポケ
ット、MEMSポンプ、可変多孔性膜(variable porosity memb
ranes)、又は層流変調により変形させられる。
メモリ204に関しては、プログラムコンポーネント224、226、228は、触覚
対応ニューラルインターフェースを与えるために一部の実施形態では、装置がどのように
構成され得るかを示すように描かれている。この例示では、神経信号解釈モジュール22
4は、プロセッサ202がニューラルセンサ232からのセンサ信号を解釈するように構
成する。例えば、神経信号解釈モジュール224は、例えば、図5に関してより詳細に記
載されるように、ニューラルセンサ232からセンサ信号を受信して、センサ信号に基づ
いて仮想環境における仮想オブジェクトとの相互作用及び/又は特定の入力を決定するた
めにアルゴリズム及び/又はルックアップテーブルにセンサ信号の1つ以上の特徴を適用
してもよい。
一部の実施形態では、神経信号解釈モジュール224は、ルックアップテーブルを含む
。コンピュータ装置201は、ルックアップテーブルを使用して、(複数の)ニューラル
センサ232からの1つ以上のセンサ信号の1つ以上の特徴をユーザにより知覚される刺
激にマッピングすることが可能であってもよい。例えば、コンピュータ装置201は、ル
ックアップテーブルを使用して、(複数の)ニューラルセンサ232からの特定のパター
ンのセンサ信号又は(複数の)ニューラルセンサ232からの1つ以上のセンサ信号の1
つ以上の特徴を、特定の刺激(例えば、特定の音、画像、匂い、味、又はユーザにより知
覚される他の刺激)にマッピングしてもよい。
一部の実施形態では、神経信号は、(例えば、脳波記録を使用して)記録され、且つル
ックアップテーブルにおける特定の刺激にマッピングされ得る。例えば、コンピュータ装
置201は、既知の(例えば、既定の)画像、音声、匂い、味、及び/又は他の刺激を出
力してもよい。ユーザは、刺激を知覚して、刺激に関係付けられるセンサ信号をニューラ
ルセンサ232に送信させてもよい。コンピュータ装置201は、ニューラルセンサ23
2からセンサ信号を受信して、受信したセンサ信号の1つ以上の特徴を(例えば、ルック
アップテーブルにおける)特定の刺激と関係付けてもよい。コンピュータ装置201は、
例えば、ルックアップテーブルを構築するために、この処理を任意の回数繰り返してもよ
い。その後、コンピュータ装置201は、ルックアップテーブルを使用して、ユーザによ
り知覚される未知の刺激を識別してもよい。
触覚効果決定モジュール226は、生成すべき触覚効果を決定するためにデータを分析
するプログラムコンポーネントを表す。特に、触覚効果決定モジュール226は、ニュー
ラルセンサ232からのセンサ信号及び/又は仮想環境で発生するイベントに基づいて、
出力すべき触覚効果を決定するコード、及び効果をシミュレートするために提供すべき1
つ以上の触覚効果を選択するコードを含んでもよい。例えば、異なる触覚効果が、ニュー
ラルセンサ232からのセンサ信号に基づいて決定される、ユーザの気分(例えば、幸福
、悲観、恐怖、ストレス等)に基づいて選択されてもよい。
一部の実施形態では、触覚効果決定モジュール226は、仮想オブジェクトの大きさ、
色、場所、動き、及び/又は他の特徴に基づいて、出力すべき触覚効果を決定するコード
、及び効果をシミュレートするために提供すべき1つ以上の触覚効果を選択するコードを
含んでもよい。例えば、プロセッサ202は、神経信号解釈モジュール224を使用して
、仮想オブジェクトが仮想環境内で操作されるべきであること(例えば、仮想スキーヤー
が仮想スキー場を特定のやり方で滑降するべきであること)をニューラルセンサ232か
らのセンサ信号が示すことを決定してもよい。プロセッサ202は、それに応じて、仮想
環境内で仮想オブジェクトを移動させてもよい。触覚効果決定モジュール226は、仮想
オブジェクトの移動に基づいて、出力する1つ以上の触覚効果を決定してもよい。例えば
、触覚効果決定モジュール226は、モーグル、ジャンプ、又は仮想スキー場の他の特徴
をシミュレートするように構成される触覚効果を決定してもよい。
触覚効果生成モジュール228は、選択された触覚効果を生成するためにプロセッサ2
02に触覚信号を触覚出力装置218、220へと送信させるプログラミングを表す。例
えば、触覚効果生成モジュール228は、記憶された波形又はコマンドにアクセスして、
触覚出力装置218に送信してもよい。別の例示として、触覚効果生成モジュール228
は、触覚信号を決定するためのアルゴリズムを含んでもよい。触覚効果生成モジュール2
28は、触覚効果に対する目標場所を決定するためのアルゴリズムを含んでもよい。目標
場所は、触覚効果を出力すべきユーザの体の場所を含んでもよい。
図2にはメモリ204内のプログラムコンポーネントとしてモジュール224,226
,及び228が描かれているが、一部の実施形態では、モジュール224,226及び/
又は228はハードウェアを含んでもよい。例えば、モジュール224,226及び/又
は228は、アナログからデジタルへの変換器、プロセッサ、マイクロコントローラ、比
較器、増幅器、トランジスタ、及び他のアナログ又はデジタル回路を含んでもよい。
図3は、触覚対応ニューラルインターフェースのためのシステムの実施形態を示す。ニ
ューラルセンサ304は、ユーザが観ること、聞くこと、匂うこと、感じること、味わう
こと、及び/又はユーザの環境における刺激により他のやり方で刺激されることに応じて
、コンピュータ装置302に電気信号を送信してもよい。図3においてニューラルセンサ
304はユーザの脳から信号を検出するためにユーザの頭に配置されているが、他の実施
形態では、ニューラルセンサ304は、ユーザの神経系の他の部分により出力される又は
他の部分に伝播する電気信号を検出するためにユーザの体の他の部分(例えば、腕、脚、
手、足、背中、脊椎等)に結合され得る。
コンピュータ装置302は、ニューラルセンサ304からのセンサ信号に基づいて1つ
以上の入力(例えば、コマンド)を決定するように構成される。例えば、コンピュータ装
置302は、センサ信号が振幅、位相、周波数、波形、持続時間、及び/又は特定の入力
を表す他の特徴若しくは特徴の組み合わせを含むことを決定してもよい。コンピュータ装
置302は、特徴に基づいて入力を決定してもよい。例えば、コンピュータ装置302は
、センサ信号の特徴を特定の入力にマッピングするメモリに記憶されているルックアップ
テーブルを参照することによって入力を決定してもよい。
一部の実施形態では、コンピュータ装置302は、ニューラルセンサ304からのセン
サ信号を介してユーザから入力を受信し、及び/又はユーザに関する情報を決定してもよ
い。例えば、コンピュータ装置302は、ユーザが特定の気分(例えば、幸福、恐怖、興
奮、悲観等)を有していること、ユーザが特定の考え方(例えば、創作的、論理的、感情
的等)をしていること、ユーザの脳の(複数の)特定の領域が刺激されること(例えば、
前頭葉、頭頂葉、側頭葉、後頭葉)、ユーザが聴覚的に、触覚的に、及び/又は視覚的に
刺激されていること、及び/又はセンサ信号に基づいてユーザに関する他の情報を決定し
てもよい。情報は、入力であってもよく、さもなければ入力を含んでもよい。
一部の実施形態では、コンピュータ装置302は、入力に基づいて1つ以上の機能(例
えば、デジタル操作)を実行する。機能は、例えば、仮想環境における仮想オブジェクト
の操作及び/又は相互作用(例えば、仮想環境でビデオゲームキャラクタを移動させるこ
と)、(例えば、インターネットを介して)オブジェクトを購入すること、ウェブページ
を開くこと、文書の印刷を開始すること、アラート若しくはメッセージを送ること、(例
えば、1つ以上のサーバに問い合わせることによって)オブジェクトに関する情報を決定
すること、電話を掛けること、写真を撮ること、データを保存すること、プログラムオプ
ション若しくは設定を選択すること、音声を記録すること、音声を出力すること、メディ
アコンテンツを再生すること、データを送信すること、及び/又はデータを受信すること
を含んでもよい。
例えば、一部の実施形態では、コンピュータ装置302は、拡張現実アプリケーション
、仮想現実アプリケーション、ビデオゲームを実行するように構成され、及び/又はユー
ザが仮想環境内で1つ以上の仮想オブジェクトと相互作用することができる仮想ユーザイ
ンターフェース(例えば、3次元ユーザインターフェース)を生成してもよい。一部の実
施形態では、ユーザは、特定の軌道に沿った仮想オブジェクトの移動、仮想オブジェクト
との相互作用、及び/又は仮想オブジェクトの特定の操作を想像することができる。それ
に応じて、ユーザの脳は電気信号を生成してもよく、これはコンピュータ装置302によ
り受信され且つ解釈され得る。一部の実施形態では、コンピュータ装置302は、特定の
軌道に沿って仮想オブジェクトを移動させ、仮想オブジェクトとの相互作用に対する応答
を生成し、及び/又はユーザの脳からの電気信号に基づいて特定の態様で仮想オブジェク
トを操作してもよい。
一部の実施形態では、コンピュータ装置302は、ニューラルセンサ304からのセン
サ信号(例えば、ニューラルセンサ304に関係付けられる1つ以上の入力)に少なくと
も部分的に基づいて1つ以上の触覚効果を出力する。例えば、コンピュータ装置302は
、ユーザの脳からの電気信号の振幅又は周波数に比例する触覚効果(例えば、振動)を出
力してもよい。別の例示として、コンピュータ装置302は、センサ信号に基づいて、ユ
ーザが特定の色又はオブジェクトを観ていること、特定の音声を聴いていること、特定の
味を味わっていること、及び/又は特定の匂いを嗅いでいることを決定して、関連触覚効
果を出力してもよい。例えば、コンピュータ装置302は、ユーザが血又は赤色を含むオ
ブジェクトを観ていることを決定して、(例えば、危険性を伝えるために)激しい振動を
出力してもよい。
一部の実施形態では、コンピュータ装置302は、ユーザにより知覚される1つ以上の
感覚を向上させる又は低下させるように構成される触覚効果を出力してもよい。例えば、
ユーザは、特定の特徴(例えば、凹凸)を含む表面(例えば、テーブル、椅子、机、道路
、床、壁等)と相互作用してもよい。ニューラルセンサ304は、相互作用に関係付けら
れる電気信号を検出して、関連するセンサ信号をコンピュータ装置302に送信してもよ
い。コンピュータ装置302は、ユーザがセンサ信号に基づいて凹凸の有る表面にタッチ
していることを決定してもよい。コンピュータ装置302は、特定の特徴を向上させるよ
うに構成される触覚効果を出力してもよい。例えば、コンピュータ装置302は、ユーザ
の手又は指に関係付けられる触覚出力装置308を介して、より凹凸の有る表面を感じさ
せるように構成される激しい振動を出力してもよい。
一部の実施形態では、コンピュータ装置302は、仮想オブジェクト、仮想環境、及び
/又は仮想環境内で発生するイベントの特徴に少なくとも部分的に基づいて触覚効果を出
力する。イベントは、仮想オブジェクトの存在(例えば、拡張現実アプリケーションにお
ける仮想家具の存在)、仮想オブジェクトの操作(例えば、仮想オブジェクトの移動又は
弾み)、仮想オブジェクトのスケール、場所、方向、色若しくは他の特徴の変化、仮想爆
発、砲撃及び/若しくは衝突、ゲームキャラクタ同士の衝突、新しいレベルに進むこと、
命を失うこと及び/若しくは仮想キャラクタの死、並びに/又は特定の仮想地形を横断す
ること等を含んでもよい。
例えば、コンピュータ装置302は、仮想地形、仮想オブジェクトのテクスチャ、仮想
オブジェクトの温度、仮想オブジェクトによる衝突又は強打、仮想銃撃等をシミュレート
するように構成される1つ以上の触覚効果を出力してもよい。一部の実施形態では、コン
ピュータ装置302は、靴等の中のユーザの足に関係付けられる触覚出力装置318、及
び/又は手袋312等の中のユーザの手に関係付けられる触覚出力装置308を介して触
覚効果を出力する。例えば、コンピュータ装置302は、ユーザが(例えば、ユーザの脳
で)仮想忍者を制御することができる仮想格闘ゲームを実行してもよい。コンピュータ装
置302は、仮想忍者が鋭利な仮想オブジェクト(例えば、仮想刀又は手裏剣)に接触す
ることに応じて突き刺すような感覚を出力してもよい。コンピュータ装置302は、追加
的に又は代替的に、仮想忍者が(例えば、オブジェクト、拳又は足による)強打を受ける
ことに応じて衝撃をシミュレートするように構成される触覚効果、及び/又は仮想忍者が
温度を含む仮想オブジェクト(例えば、溶岩)に接近することに応じて温度(例えば、熱
)をシミュレートするように構成される触覚効果を出力する。
別の例示として、コンピュータ装置302は、ユーザが自身の脳を介して仮想自動車を
制御することができる仮想レーシングゲームを実行してもよい。コンピュータ装置302
は、仮想自動車が砂、舗装道路、凹凸若しくは窪みの上を走ること及び/又はユーザが試
合に勝利若しくは敗北することに応じて1つ以上の触覚効果を出力してもよい。例えば、
コンピュータ装置302は、仮想自動車が砂の上を走ることに応じて、(例えば、触覚出
力装置318を介して)ユーザの足に砂の感覚をシミュレートするように構成される触覚
効果を出力してもよい。コンピュータ装置302は、仮想自動車が凹凸又は窪みの上を走
ることに応じて(例えば、触覚出力装置318及び/又は触覚出力装置306を介して)
ユーザの足又は胸に激しい振動を出力してもよい。コンピュータ装置302は、(例えば
、ユーザの体に結合される及び/又は装着可能品に関係付けられる)任意の数及び組み合
わせの触覚出力装置306,308,310,318を介して任意の数の触覚効果を出力
し得る。
一部の実施形態では、コンピュータ装置302は、実空間におけるオブジェクトとのユ
ーザ相互作用(例えば、ユーザが手足又は体の一部でオブジェクトに接触すること)に関
係付けられる1つ以上の触覚効果を出力する。オブジェクトは、例えば、ボタン、ノブ、
スライダ、及び/又はスイッチ(例えば、光スイッチ)を含んでもよい。一部の実施形態
では、触覚効果は、ユーザ相互作用を確認するように構成される。例えば、コンピュータ
装置302は、ユーザがオブジェクトに接触した又は他のやり方で操作した(例えば、光
スイッチを入れた)ことを確認するように構成される振動を(触覚出力装置308を介し
て)出力してもよい。これは、例えば、1つ以上の病状のためにユーザの手足(例えば、
指)の感受性が低下しているユーザが、このようなユーザ相互作用が起こったことを決定
することを支援してもよい。
一部の実施形態では、コンピュータ装置302は、実空間における体の一部(例えば、
手足)の操作(例えば、移動)に関係付けられる触覚効果を出力してもよい。例えば、ユ
ーザは、(例えば、ユーザの手を新しい場所に移動する又は表面に接触するために)手足
を操作しようと試みてもよい。一部の実施形態では、ユーザは、(例えば、ユーザが盲目
である場合)体の一部が実際に移動したかどうかが分からない又は検出できない可能性が
有る。コンピュータ装置302は、体の一部が動いたことを確認するように構成される第
1の触覚効果(例えば、振動)及び/又は体の一部が動かなかったことをユーザに通知す
るように構成される第2の触覚効果を出力してもよい。
別の例示として、ユーザは、体の一部を使用して、1つ以上のオブジェクト(例えば、
テーブル又は椅子)と相互作用してもよい。ユーザは、ある理由で触感を知覚できない場
合が有る。例えば、ユーザは神経を損傷している場合が有り、又は手足の全て若しくは一
部を失っている場合が有る。これは、ユーザが相互作用及び/又はオブジェクトに関係付
けられる触感を直接知覚することを妨げる場合が有る。例えば、ユーザは、オブジェクト
に関係付けられるテクスチャ又は他の特徴を物理的に感知することができない場合が有る
。コンピュータ装置302は、ユーザに特徴を知覚させるように構成されるように、ニュ
ーラルセンサ304にユーザの神経系を刺激させてもよい。例えば、コンピュータ装置3
02は、ユーザが木のテクスチャを含む表面に接触していることをユーザに知覚させるよ
うに構成されるように、ニューラルセンサ304にユーザの脳を刺激させてもよい。
一部の実施形態では、ユーザは、1つ以上のオブジェクト(例えば、長椅子又は壁)と
相互作用するために、義肢316等の中間装置を使用してもよい。ユーザは、例えば、手
足を失っている場合、中間装置を使用する可能性が有る。中間装置(及び/又は手足の喪
失)は、ユーザが相互作用及び/又はオブジェクトに関係付けられる触感を直接知覚する
ことを妨げる場合が有る。例えば、ユーザは、オブジェクトに関係付けられるテクスチャ
又は他の特徴を物理的に感知することができない場合が有る。一部の実施形態では、中間
装置は、オブジェクトの特徴を検出して、関連するセンサ信号をコンピュータ装置302
に送信するように構成されるセンサ320(例えば、義肢316に結合されるカメラ)を
備える。例えば、センサ320は、オブジェクトのテクスチャを検出して、関連するセン
サ信号をコンピュータ装置302に送信してもよい。コンピュータ装置302は、センサ
信号を受信して、ユーザに特徴を知覚させるように構成されるように、ニューラルセンサ
304にユーザの神経系を刺激させてもよい。例えば、コンピュータ装置302は、ユー
ザが煉瓦のテクスチャを含む表面に接触していることをユーザに知覚させるように構成さ
れるように、ニューラルセンサ304にユーザの脳を刺激させてもよい。
一部の実施形態では、コンピュータ装置302は、義肢316の操作の試み及び/又は
操作(例えば、移動)に関係付けられる触覚効果を出力してもよい。例えば、ユーザは、
(例えば、道に沿って歩くために)義肢316を操作しようとしてもよい。しかし、ユー
ザは、(例えば、ユーザが盲目である場合)義肢316が実際に移動したかどうかが分か
らない又は検出できない可能性が有る。コンピュータ装置302は、義肢316が動いた
ことを確認するように構成される第1の触覚効果(例えば、触覚出力装置310を介する
振動)及び/又は義肢316が動かなかったことをユーザに通知するように構成される第
2の触覚効果を出力してもよい。
図4は、触覚対応ニューラルインターフェースのためのシステムの別の実施形態を示す
。システムは、第1のユーザ402を含む。この実施形態では、ニューラルセンサ404
が、第1のユーザの頭に結合され、第1のコンピュータ装置406と電気通信している。
また、システムは第2のユーザ408も含む。この実施形態では、ニューラルセンサ41
0が、第2のユーザの頭に結合され、第2のコンピュータ装置412と電気通信している
。ユーザは、同じ物理的場所又は異なる物理的場所(例えば、異なる部屋、家、都市、及
び/又は国)に居てもよい。
一部の実施形態では、コンピュータ装置406、412は、有線又は無線インターフェ
ースを介して互いと通信する。コンピュータ装置406、412は、(例えば、ブルート
ゥース(登録商標)を介して)互いと直接通信し又は互いと間接通信し得る。一部の実施
形態では、コンピュータ装置406、412は、ネットワーク414を介して互いと通信
する。ネットワーク414は、限定されないが、ダイヤルアップネットワーク、ローカル
エリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、公衆交換電話網
(PSTN)、セルラネットワーク、WiFiネットワーク、インターネット、イントラ
ネット又は有線及び/若しくは無線通信リンクを含む任意の適切な数又は種類のリンクで
あってもよい。ネットワーク414は、1つ以上のサブネットワークを含んでもよい。
追加的に又は代替的に、コンピュータ装置406、412は、ネットワーク414を介
して1つ以上のリモートサーバ(例えば、クラウドサーバ、ウェブサーバ、又は他のサー
バ)、データベース、及び/又はコンピュータ装置と通信してもよい。例えば、コンピュ
ータ装置416は、ビデオゲームを実行してもよい。ユーザ402、408は、ゲームを
プレーするために(例えば、脳信号を介して)各コンピュータ装置406、412を操作
してもよい。コンピュータ装置406、412は、ゲームプレーを達成するためにコンピ
ュータ装置416へデータを送信し且つコンピュータ装置416からデータを受信しても
よい。
一部の実施形態では、1つ以上のコンピュータ装置406、412、416が、仮想環
境を生成するように構成されるプログラム(例えば、拡張現実アプリケーション、仮想現
実アプリケーション、及び/又はビデオゲーム)を実行してもよい。ユーザ402、40
8は、仮想環境を介して互いと相互作用可能であってもよい。例えば、コンピュータ装置
416は、ユーザ402、408が1つ以上の仮想兵士を制御できる仮想軍事ゲームを実
行してもよい。このような実施形態では、各ニューラルセンサ404、410は、各ユー
ザの神経系から電気信号を検出して、各ユーザのコンピュータ装置406、412に関連
するセンサ信号を送信してもよい。コンピュータ装置406、412は、センサ信号に基
づいて仮想環境内で同じ仮想オブジェクト又は異なる仮想オブジェクトを操作してもよい
。例えば、コンピュータ装置406、412は、センサ信号に基づいて軍事ゲーム内の異
なる仮想兵士を操作してもよい。これは、ユーザが脳を使用して仮想オブジェクトを操作
することを可能にしてもよい。
コンピュータ装置406、412は、例えば、図3に描かれているように、1つ以上の
触覚出力装置と電気通信している。先に検討されたように、一部の実施形態では、ニュー
ラルセンサ404、410は、触覚出力装置であるか又は触覚出力装置を含み得る。コン
ピュータ装置406、412は、各ユーザ402、408に同じ触覚効果又は異なる触覚
効果(例えば、振動、テクスチャ、突き刺すような感覚、及び/又はストロークの感覚)
を出力してもよい。例えば、上記の軍事ゲームの実施形態では、両方のユーザの仮想兵士
から実質的に等距離の場所で爆発が起こることに応じて、コンピュータ装置406、41
2はユーザ402、408に同じ触覚効果(例えば、振動)を出力してもよい。コンピュ
ータ装置406は、追加的に又は代替的に、第1のユーザの仮想キャラクタがタスクを行
うこと(例えば、仮想武器を発砲すること)に応じてユーザに触覚効果(例えば、振動)
を出力してもよく、一方でコンピュータ装置412は、(例えば、第2のユーザの仮想キ
ャラクタが仮想武器を持っておらず及び/又は仮想武器から特定の距離に居るので)触覚
効果を出力しなくてもよい。
一部の実施形態では、コンピュータ装置406は、第1のユーザ402ユーザにより知
覚される音声、視覚、味、触感、匂い、及び/又は他の感覚に関係付けられる第1のユー
ザ402の神経系から1つ以上の電気信号を(例えば、ニューラルセンサ404を介して
)検出するように構成される。コンピュータ装置406は、感覚に関係付けられるデータ
を別のコンピュータ装置412に送信するように構成されてもよい。他方のコンピュータ
装置412は、データを受信して、データに基づいて第2のユーザ408により知覚可能
な1つ以上の感覚を生成してもよい。例えば、コンピュータ装置412は、第2のユーザ
408に感覚を知覚させるように構成されるように、ニューラルセンサ410に第2のユ
ーザの脳を刺激させてもよい。従って、2人以上のユーザ402、408が感覚を互いの
間で共有することが可能であってもよい。
例えば、ユーザ402は、実空間におけるオブジェクト(例えば、猫等の動物)又は仮
想環境におけるオブジェクトと相互作用してもよく、それに応じて、ユーザの脳は、オブ
ジェクト(例えば、毛皮のテクスチャ、猫が喉を鳴らす音、及び/又は視覚的に猫がどの
ように見えるか)に関係付けられる電気信号を生成してもよい。コンピュータ装置406
は、関連データを遠隔コンピュータ装置412に送信してもよい。コンピュータ装置41
2は、データに基づいて第2のユーザ408に1つ以上の感覚を出力してもよい。例えば
、コンピュータ装置412は、オブジェクトのテクスチャ(例えば、猫の毛皮のテクスチ
ャ)をシミュレートするように構成される触覚効果を出力してもよい。追加的に又は代替
的に、コンピュータ装置412は、オブジェクトにより作られる音(例えば、猫が喉を鳴
らす音)をシミュレートするように構成される音声を出力してもよい。追加的に又は代替
的に、コンピュータ装置412は、例えば、オブジェクトがどのように見えるかをシミュ
レートするように構成される映像を出力してもよい。これは、遠隔ユーザ408が、第1
のユーザ402により知覚される1つ以上の感覚及び/又はオブジェクトの1つ以上の特
徴を知覚することを可能にしてもよい。
別の例示として、コンピュータ装置412は、拡張現実環境又は仮想現実環境等の仮想
環境を(例えば、拡張現実眼鏡又はゴーグル等のディスプレイ409を介して)出力して
もよい。一部の実施形態では、ユーザ408は、仮想環境における仮想オブジェクトにタ
ッチする又は他のやり方でそれを操作することができる。例えば、ユーザ408は、手を
伸ばして、仮想環境における仮想オブジェクトに対応する実空間における場所にタッチし
てもよい。一部の実施形態では、コンピュータ装置412は、(例えば、カメラ、深度セ
ンサ、距離センサ等の1つ以上のセンサを介して)仮想オブジェクトの操作を検出するよ
うに構成される。コンピュータ装置412は、仮想オブジェクト及び/又は仮想オブジェ
クトの操作に関係付けられるデータを遠隔コンピュータ装置406に送信してもよい。一
部の実施形態では、コンピュータ装置406は、データを受信して、データに基づいて第
1のユーザ402に1つ以上の感覚を出力してもよい。例えば、コンピュータ装置406
は、仮想オブジェクトのテクスチャ(例えば、仮想ペットのテクスチャ)をシミュレート
するように構成される触覚効果を出力してもよい。
更に別の例示として、ユーザ402、408は戦争地帯における兵士であってもよい。
各ユーザ402、408は、戦場の異なる部分を探索して、コンピュータ装置406、4
12を介して、知覚する感覚を共有することが可能であってもよい。例えば、ユーザ40
2が敵の拠点に侵入すると、コンピュータ装置406は関連データをコンピュータ装置4
12に送信してもよく、これはユーザ402により知覚される音、味、匂い、視覚及び/
又は感覚をシミュレートするように構成される1つ以上の効果を出力してもよい。例えば
、コンピュータ装置412は、第1のユーザ402により知覚される砲撃に基づいて音を
出力してもよい。追加的に又は代替的に、コンピュータ装置412は、例えば、(第1の
ユーザ402により知覚される)砲撃が発射された方向を示すように構成される触覚効果
(例えば、振動)を出力してもよい。これは、例えば、第2のユーザ408が支援を提供
できるように、第1のユーザ402が窮地にあることを第2のユーザ408に迅速に(例
えば、実質的に即時に)伝達してもよい。
更に別の例示として、上記の戦争地帯の実施形態では、第1のユーザ402は、敵兵士
が(例えば、背後から)第2のユーザ408に接近していることが見えてもよい。コンピ
ュータ装置406は、この映像を示す電気信号を(例えば、ニューラルセンサ404を介
して)第1のユーザの脳から検出して、関連データをコンピュータ装置412に送信して
もよい。コンピュータ装置412は、ディスプレイ409上の(敵兵士)の視覚、音、及
び/又は、例えば、第2のユーザ408に危険を知らせるように構成される触覚効果を出
力してもよい。これは、例えば、コンピュータ装置406の物理的ユーザインターフェー
スコンポーネント(例えば、ボタン、スイッチ、ノブ)と相互作用しなくても、第1のユ
ーザ402が有益な及び潜在的に命を救う情報を第2のユーザ408に迅速に伝達するこ
とを可能にする。
(触覚対応ニューラルインターフェースのための例示の方法)
図5は、一実施形態による触覚対応ニューラルインターフェースを提供する方法を実行
するためのステップのフローチャートである。一部の実施形態では、図5のステップは、
例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行される
プログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群の
プロセッサによって実装されてもよい。一部の実施形態では、図5に示される1つ以上の
ステップは省略され又は異なる順番で行われてもよい。同様に、一部の実施形態では、図
5に示されない追加のステップが実行されてもよい。以下のステップは図2に示されたコ
ンピュータ装置201に関して記載されたコンポーネントを参照して記載される。
方法500はステップ502で開始して、プロセッサ202がニューラルセンサ232
からセンサ信号を受信する。ニューラルセンサ232は、ユーザの神経系により出力され
る及び/又はそれに伝播する1つ以上の電気信号(例えば、電磁波)を検出して、関連セ
ンサ信号をプロセッサ202に送信するように構成される。センサ信号は、ユーザにより
知覚される感覚(例えば、音、視覚、味、触感、匂い等)に関係付けられるデータを含ん
でもよい。例えば、一実施形態では、データは、ユーザにより知覚されるオブジェクト(
例えば、木片)のテクスチャに関係付けられるデータを含んでもよい。
センサ信号は、アナログ信号又はデジタル信号であってもよい。一部の実施形態では、
センサ信号は、ユーザの脳により出力される電気信号に関係付けられるデータと共に符号
化されてもよい。例えば、ニューラルセンサ232は、センサ信号内のデータを符号化す
るために、パルス幅変調、周波数変調、振幅変調、及び/又は任意の他の技術を使用して
もよい。
方法500はステップ504に進み、プロセッサ202はセンサ信号に基づいて入力を
決定する。本明細書で用いられる入力は、ユーザによりプロセッサ202に提供される任
意の情報を含む。例えば、入力は、仮想環境における仮想オブジェクトとのユーザ相互作
用を含んでもよい。
一部の実施形態では、プロセッサ202は、センサ信号が特定の入力を表す1つ以上の
特徴(例えば、振幅、位相、周波数、波形、持続時間、及び/又は他の特徴)を含むこと
を決定する。一部の実施形態では、プロセッサ202は、センサ信号に基づいて入力を決
定するために、神経信号解釈モジュール224に含まれるプログラミングを利用してもよ
い。例えば、神経信号解釈モジュール224は、ルックアップテーブルを含んでもよい。
プロセッサ202は、センサ信号の1つ以上の特徴に基づいて入力を決定するためにルッ
クアップテーブルを参照してもよい。例えば、プロセッサ202は、ルックアップテーブ
ルを参照して、センサ信号の振幅及び/又は周波数(及び/又はセンサ信号内で符号化さ
れたデジタルデータ)に基づいてユーザが特定の触感を知覚することを入力が含むことを
決定してもよい。他の実施形態では、プロセッサ202は、センサ信号の1つ以上の特徴
に基づいて入力を決定するためにアルゴリズムを適用してもよい。例えば、神経信号解釈
モジュール224は、センサ信号に基づいて入力を決定するためにプロセッサ202によ
り使用可能な1つ以上のアルゴリズムを含んでもよい。
プロセッサ202は、センサ信号に基づいて入力を決定するために、任意の数及び組み
合わせの技術を使用してもよい。例えば、プロセッサ202は、センサ信号に基づいて入
力を決定するために、ルックアップテーブル及びアルゴリズムの組み合わせを使用しても
よい。一部の実施形態では、ユーザは「入力プロファイル」を有してもよく、この場合、
ユーザは特定のセンサ信号に関係付けられることを希望する入力の「プロファイル」を決
定してメモリ204に保存することができる。例えば、一部の実施形態では、ユーザは、
利用可能な入力のリストから選択して、こうした入力の1つを、高振幅高周波数センサ信
号等の特定のセンサ信号と関係付けることができる。このような実施形態では、プロセッ
サ202は、センサ信号に基づいて入力を決定するためにユーザの入力プロファイルを参
照してもよい。
方法500はステップ506に進み、プロセッサ202は触覚効果を決定する。プロセ
ッサ202は、入力及び/又はセンサ信号の特徴(例えば、タイプ)に少なくとも部分的
に基づいて触覚効果を決定する。例えば、一実施形態では、プロセッサ202は、ユーザ
が凹凸の有るオブジェクトを知覚することに入力が関係付けられる場合に、振動を含む触
覚効果を決定してもよい。
一部の実施形態では、プロセッサ202は、イベントに少なくとも部分的に基づいて触
覚効果を決定する。イベントは、実空間で、コンピュータ装置で、及び/又は仮想環境内
で起こってもよい。例えば、イベントは、プログラムアクティビティ(例えば、ゲームア
クティビティ)、コンピュータ装置201との相互作用(例えば、移動装置を傾ける又は
動かすこと、タッチスクリーンディスプレイと相互作用すること)、仮想環境における仮
想オブジェクトとの相互作用、コンピュータ装置201における状態の変化、データの受
信、及び/又はユーザの体の一部(例えば、腕、脚、又は義肢)の移動を含んでもよい。
例えば、プロセッサ202は、センサ信号に基づいて仮想環境内のユーザの仮想キャラ
クタを操作し及び/又はそれと相互作用してもよい(例えば、移動させてもよい)。プロ
セッサ202は、操作及び/又は相互作用に少なくとも部分的に基づいて触覚効果を更に
決定してもよい。例えば、操作及び/又は相互作用が別の仮想オブジェクト(例えば、木
、車両、及び/又は別の仮想キャラクタ)との衝突を生じる場合、プロセッサ202は激
しい振動を含む触覚効果を決定してもよい。
一部の実施形態では、コンピュータ装置201は関連する「触覚プロファイル」を記憶
してもよく、ここでユーザは特定の入力と関係付けたい触覚効果の「プロファイル」を決
定してメモリ204に保存することができる。例えば、一実施形態では、ユーザが特定の
映像を見ること、特定の音声を聞くこと、特定の仮想オブジェクトを操作すること等に関
係付けられる入力等、ユーザがどの触覚効果を特定の入力と関係付けたいかをオプション
のリストから選択することができる。一部の実施形態では、リストは、例えば、パルス振
動、低振幅振動、又はシミュレートされるテクスチャ等の触覚効果を含んでもよい。一部
の実施形態では、プロセッサ202は、どの触覚効果を生成すべきかを決定するためにユ
ーザの触覚プロファイルを調べてもよい。例えば、ユーザの触覚プロファイルがパルス振
動を含む触覚効果と(例えば、仮想軍事ゲームにおける)仮想敵兵士を含む映像を関係付
ける場合、ユーザが仮想敵兵士を観るのに応じて、プロセッサ202は、パルス振動を含
む触覚効果を決定してもよい。
一部の実施形態では、プロセッサ202は、複数の触覚効果を決定する。複数の触覚効
果の各々は、入力及び/又は関連するセンサ信号の異なる特徴に関係付けられてもよい。
例えば、プロセッサ202は、入力が決定されたセンサ信号の振幅に基づいて第1の触覚
効果(例えば、振動)を決定してもよい。センサ信号の振幅は、ユーザが特定の刺激をど
のくらい強く知覚したか(例えば、ボクシングの試合で相手による頭部への強打をユーザ
がどのくらい強く知覚したか)を示してもよい。また、プロセッサ202は、センサ信号
において符号化されたデジタルデータに関係付けられる第2の触覚効果を決定してもよい
。デジタルデータは、刺激のタイプ(例えば、頭部への強打)を表してもよい。一部の実
施形態では、プロセッサ202は、複数の触覚効果を別のユーザに出力するように構成さ
れる遠隔装置に触覚効果に関係付けられる信号を送信してもよい。複数の触覚効果に基づ
いて、他のユーザは、刺激の1つ以上の特徴(例えば、刺激が頭部への強打であり、ユー
ザがそれを強く知覚したこと)を決定することが可能であってもよい。
一部の実施形態では、プロセッサ202は、特定の触覚効果が別の触覚効果よりも高い
優先度を有しており、それにより高い優先度の効果のみを出力することを決定する。例え
ば、プロセッサ202は、第1のタイプの刺激に関係付けられる触覚効果が第2のタイプ
の刺激に関係付けられる別の触覚効果よりも高い優先度を有しており、第1のタイプの刺
激に関係付けられる触覚効果のみを出力することを決定してもよい。代替的に、プロセッ
サ202は、最も強烈な効果のみが出力されるべきであることを決定してもよい。従って
、一部の実施形態では、プロセッサは、低い強度の振動及び高い強度の振動を決定するが
、高い強度の振動のみを出力してもよい。
方法500はステップ508に進み、プロセッサ202は(例えば、センサ信号に少な
くとも部分的に基づいて)聴覚、視覚、嗅覚、味覚及び/又は他の効果を決定する。プロ
セッサ202は、(例えば、アルゴリズム及び/又はルックアップテーブル等)触覚効果
を決定することに関してステップ506に記載された任意の方法を使用して効果を決定し
てもよい。
例えば、センサ信号は、ユーザが特定の映像を観ること及び/又は対応する音声を聞く
ことを示してもよい。音声が砲撃を含む場合、プロセッサ202は、ルックアップテーブ
ルを参照して、砲撃を含む聴覚効果を決定してもよい。プロセッサ202は、聴覚効果を
遠隔ユーザに出力するように構成される遠隔装置に聴覚効果に関係付けられる信号を送信
してもよい。従って、遠隔ユーザは、元のユーザが聞いているものを聞くことができる。
別の例示として、プロセッサ202は、ルックアップテーブルを参照し及び/又はアル
ゴリズムを適用して、ユーザが恐怖、幸福、ストレス等の特定の気分を有していることを
決定してもよい。プロセッサ202は、ユーザの気分を変えるように構成される聴覚、視
覚、嗅覚及び/又は他の感覚を決定してもよい。例えば、プロセッサ202は、ユーザを
落ち着かせるように構成される映像(例えば、子犬の映像)、ユーザの幸福レベルを高め
るように構成される匂い又は味(例えば、アップルパイの匂い又は味)、及び/又はユー
ザをリラックスさせるように構成される音(例えば、海の音)を決定してもよい。
方法500はステップ510に進み、プロセッサ202は触覚、聴覚、視覚、嗅覚、味
覚及び/又は他の効果に関係付けられる信号を送信する。一部の実施形態では、信号は、
効果に関係付けられる記憶済みアルゴリズム及び入力パラメータにアクセスすることによ
って生成されてもよい。例えば、アルゴリズムは、振幅及び周波数パラメータに基づいて
(例えば、アクチュエータ又はスピーカに対する)駆動信号を生成するのに使用されるデ
ータを出力してもよい。別の例示として、信号は、触覚出力装置、スピーカ222、ディ
スプレイ216、嗅覚装置234、味覚装置、及び/又は他の感覚生成装置により復号化
されるように構成されるデータを含んでもよい。例えば、触覚出力装置218、200自
体が、振幅及び周波数等のパラメータを特定するコマンドに応答してもよい。
プロセッサ202は、触覚出力装置218、220、スピーカ222、ディスプレイ2
16、嗅覚装置234、味覚装置、及び/又は感覚を生成するように構成される別の装置
に信号を送信してもよい。一部の実施形態では、信号は、触覚出力装置に触覚効果を生成
させるように構成される触覚信号を含んでもよい。追加的に又は代替的に、信号は、スピ
ーカ222に聴覚効果を出力させるように構成される聴覚信号、ディスプレイ216に視
覚効果を出力させるように構成される映像信号、嗅覚装置234に匂いを出力させるよう
に構成される嗅覚信号、及び/又は味覚装置に特定の味を出力させるように構成される味
覚信号を含んでもよい。
一部の実施形態では、プロセッサ202は、ニューラルセンサ232に信号を送信する
。ニューラルセンサ232は、ユーザに効果(例えば、味、匂い、視覚、音声、及び/又
は見掛けの触覚効果)を知覚させるためにユーザの神経系を刺激することが可能であって
もよい。例えば、プロセッサ202は、ニューラルセンサ232によって特定の組み合わ
せの電気パルスをユーザの脳に出力させるように構成されるニューラルセンサ232に高
レベルコマンドを送信することができる。電気パルスは、ユーザに1つ以上の効果を知覚
させるように構成され得る。
一部の実施形態では、プロセッサ202は、遠隔装置に信号を送信する。遠隔装置は、
遠隔ユーザにより使用可能なニューラルインターフェースを備えてもよい。遠隔装置は、
信号を受信して、触覚、聴覚、視覚、嗅覚、味覚、及び/又は他の効果を出力するように
構成されてもよい。例えば、遠隔装置は、信号を受信して、関連する音、匂い、及び味を
遠隔ユーザに出力してもよい。このような実施形態では、遠隔ユーザは、元のユーザによ
り感知される感覚(又は修正バージョンの感覚)を知覚することが可能であってもよい。
(触覚対応ニューラルインターフェースの利点)
触覚対応ニューラルインターフェースには多くの利点がある。このようなシステムは、
ユーザが(例えば、ユーザの脳からの信号を使用して)仮想環境における仮想オブジェク
トと相互作用するときにより没入感の有る体験を提供し、それによってユーザ満足度を全
体的に向上させることができる。例えば、一部の実施形態では、拡張現実アプリケーショ
ンが、カメラデータをオーバレイする仮想犬を出力してもよい。ユーザが仮想犬を撫でる
ことを思い描くのに応じて、触覚対応ニューラルインターフェースは、仮想犬の毛皮をシ
ミュレートするように構成される触覚効果を出力してもよい。結果として、ユーザは、仮
想犬をより現実的に知覚することができる。
一部の実施形態では、触覚対応ニューラルインターフェースは、ユーザに確認を提供す
ることができる。例えば、一部の実施形態では、拡張現実アプリケーションが、ボタンを
含む仮想オブジェクトを出力してもよい。ユーザが仮想ボタンと相互作用することを思い
描くと、コンピュータ装置は、(例えば、ユーザの指に結合される触覚出力装置に)触覚
効果を出力してもよく、それによってボタン押し下げを確認する。一部の実施形態では、
確認触覚フィードバックは、向上したユーザ体験を提供し得る。
一部の実施形態では、触覚対応ニューラルインターフェースは、ユーザが他のやり方で
は感じることができないオブジェクトの特徴を知覚できるようにし得る。例えば、ユーザ
は、義肢を使用してテクスチャの有るオブジェクトと相互作用して、オブジェクトのテク
スチャをシミュレートするように構成される触覚フィードバックを受け取ることが可能で
あり得る。別の例示として、ユーザは、義肢の移動を試行し、移動を確認する及び/又は
他のやり方で移動の特徴(例えば、義肢がどのくらい動いたか又は義肢が動かなかったこ
と)をユーザに通知する触覚フィードバックを受け取ってもよい。
一部の実施形態では、触覚対応ニューラルインターフェースは、例えば、物理的なユー
ザインターフェース装置(例えば、ボタン、スイッチ、ノブ、キーボード、及び/又はタ
ッチセンサ面)と物理的に相互作用しなくても、高速で複数のユーザが通信することを可
能にし得る。例えば、第1のニューラルインターフェースは、第1のユーザが負傷し(例
えば、車の事故で又は戦いで傷を負う)及び/又は意識が無いことを検出して、第2のユ
ーザのニューラルインターフェースに関連データを送信することが可能であり得る。第2
のユーザのニューラルインターフェースは、第2のユーザに負傷及び/又は緊急事態を通
知するなど、第2のユーザの医学的及び/又は生理的状態を第2のユーザに通知するよう
に構成される1つ以上の効果を出力してもよい。これは、例えば、第2のユーザが第1の
ユーザに援助を提供することを可能にし得る。
一部の実施形態では、あるユーザが、別のユーザにより接触された又は他のやり方で操
作されたオブジェクトの特徴を知覚することが可能になり得る。例えば、第1のユーザは
、買い物をしており、第2のユーザが気に入るかもしれないと思う衣類(例えば、シャツ
、ズボン、靴下、帽子、ジャケット、ドレス、靴等)を見つける場合がある。第1のユー
ザは、衣服と相互作用して、衣服のテクスチャ及び/又は材料を知覚することができる。
第1のユーザのニューラルインターフェースは、相互作用及び/又は衣類に関係付けられ
るデータを第2のユーザのニューラルインターフェースに送信することができる。第2の
ユーザのニューラルインターフェースは、第2のユーザに衣類の特徴を見せる、感じさせ
る、匂わせる、及び/又は他のやり方で感知させるように構成される1つ以上の効果を出
力してもよい。これは、第1のユーザが衣類を購入するべきかどうかを第2のユーザが決
定することを可能にし得る。従って、ユーザは、例えば、より情報の多い購買決定を行う
ために、互いの間で感覚を共有することが可能であり得る。
(概論)
上記の方法、システム及び装置は例示である。様々な構成によって、適宜、様々な手続
き又はコンポーネントが省略、置換、又は追加されてもよい。例えば、代替的な構成では
、方法は記載されたものとは異なる順序で実行されてもよく、及び/又はステージが追加
、省略及び/又は結合されてもよい。また、所定の構成に関して記載された機能は、様々
な他の構成に結合されてもよい。構成の異なる態様及び要素が、同様に結合されてもよい
。また、技術は進歩するものであり、そのため要素の多くは例示であり、本開示又は特許
請求の範囲を限定しない。
例示的な構成(実装を含む)の十分な理解を与えるために説明の中で特定の詳細が与え
られている。しかしながら、こうした構成は特定の詳細無しで実施されてもよい。例えば
、周知の回路、工程、アルゴリズム、構造及び技術が、構成を不明確にするのを避けるた
めに不要な詳細無しで示されている。この説明は、例示的な構成のみを提供するものであ
り、請求項の範囲、応用性又は構成を限定しない。むしろ、構成の上記説明は、記載され
た技術を実装するための実施可能な説明を当業者に提供するであろう。本開示の精神又は
範囲から逸れることなく、要素の機能及び配置の様々な変更が行われてもよい。
また、構成は、フロー図又はブロック図として描かれる処理として記載されてもよい。
各々が連続した工程として操作を説明している場合が有るが、こうした操作の多くは並列
的又は同時に行われ得る。更に、操作の順序は並び替えられてもよい。工程は、図面に含
まれない追加のステップを有してもよい。更に、方法の例示は、ハードウェア、ソフトウ
ェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はこ
れらの任意の組み合わせによって実装されてもよい。ソフトウェア、ファームウェア、ミ
ドルウェア又はマイクロコードで実装される場合、必要なタスクを実行するためのプログ
ラムコード又はコードセグメントは、記憶媒体等の非一時的なコンピュータ可読媒体に記
憶されてもよい。プロセッサは、記載されたタスクを実行してもよい。
複数の例示的な構成が記載されているが、本開示の精神から逸脱することなく、様々な
修正、代替構造及び均等物が使用されてもよい。例えば、上記の要素は、より大きなシス
テムのコンポーネントであってもよく、他の規則が本発明のアプリケーションに優先し又
はそれを修正してもよい。また、上記の要素が検討される前、間又は後で多くのステップ
が行われてもよい。従って、先の記載によって請求項の範囲は縛られない。
本明細書における「適合される」又は「構成される」の使用は、追加のタスク又はステ
ップを実行するように適合又は構成される装置を排除しない開放的且つ包括的な言語を意
図している。更に、「基づいて」の使用は開放的且つ包括的であることが意図されており
、即ち、1つ以上の記載された条件又は値に「基づいて」行われる処理、ステップ、計算
、又は他の動作が、実際には、記載されたものを超える追加の条件又は値に基づいてもよ
い。本明細書に含まれる表題、リスト及び番号は、単に説明を容易にするためのものであ
って、限定することを意図していない。
本主題の態様に従う実施形態は、デジタル電子回路、コンピュータハードウェア、ファ
ームウェア、ソフトウェア、又はこれらの組み合わせで実装され得る。一実施形態では、
コンピュータは、1つ又は複数のプロセッサを備えてもよい。プロセッサは、プロセッサ
に結合されるRAM(random access memory)等のコンピュータ可
読媒体を備え、又はそれへのアクセスを有する。プロセッサは、センササンプリングルー
チン、選択ルーチン、及び上述の方法を実行する他のルーチン等、メモリに記憶されたコ
ンピュータ実行可能プログラム命令を実行する。
このようなプロセッサは、マイクロプロセッサ、DSP(digital signa
l processor)、ASIC(application−specific i
ntegrated circuit)、FPGA(field programmab
le gate array)、及び状態機械を含む。このようなプロセッサは、PLC
、PIC(programmable interrupt controller)、
PLD(programmable logic device)、PROM(prog
rammable read−only memory)、EPROM又はEEPROM
(electronically programmable read−only m
emory)、又は他の類似の装置等のプログラム可能電子装置を更に備えてもよい。
このようなプロセッサは、媒体、例えば、プロセッサによって実行されると、プロセッ
サによって遂行又は支援される本明細書に記載のステップをプロセッサに実行させること
ができる命令を記憶し得る有形のコンピュータ可読媒体を備え、又はこれと通信してもよ
い。コンピュータ可読媒体の実施形態は、限定されないが、プロセッサ、例えばウェブサ
ーバのプロセッサにコンピュータ可読命令を提供することができる全ての電子、光学、磁
気、又は他の記憶装置を備えてもよい。媒体の他の例は、限定されないが、フロッピーデ
ィスク、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成
プロセッサ、全ての光学媒体、全ての磁気テープ若しくは他の磁気媒体、又はコンピュー
タプロセッサが読み取り可能な任意の他の媒体を含む。また、様々な他の装置は、ルータ
、プライベート若しくはパブリックネットワーク、又は他の伝送装置等のコンピュータ可
読媒体を含んでもよい。記載されたプロセッサ及び処理は、1つ以上の構造内に有っても
よく、1つ以上の構造を通じて分散されてもよい。プロセッサは、本明細書に記載の1つ
以上の方法(又は方法の一部)を実行するためのコードを備えてもよい。
本主題はその特定の実施形態に関して詳細に記載されているが、上記のことを理解する
と、このような実施形態の変形、変化、及び均等物を当業者であれば容易に生み出し得る
ことが理解されるであろう。従って、本開示は、限定ではなく例示を目的として提示され
ており、当業者には容易に明らかとなる本主題への修正、変更及び/又は追加を含むこと
を排除しないことが理解されるべきである。

Claims (23)

  1. プロセッサと、
    触覚信号を受信し、且つ触覚効果を出力するように構成される触覚出力装置と
    を備え、
    前記プロセッサは、
    神経系に関係付けられる電気信号を検出するように構成されるニューラルインターフェ
    ースからセンサ信号を受信し、
    前記センサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用を決定し、
    前記仮想環境における前記仮想オブジェクトとの前記相互作用に少なくとも部分的に基
    づいて前記触覚効果を決定し、且つ
    前記触覚効果に関係付けられる前記触覚信号を送信する
    ように構成される、システム。
  2. 前記ニューラルインターフェースは、前記神経系に関係付けられる前記電気信号を検出
    し且つ前記センサ信号を送信するように構成されるセンサを備え、前記センサは、脳波(
    EEG)電極、分光センサ、磁気共鳴画像診断装置、又は容量性センサの少なくとも1つ
    を含む、請求項1に記載のシステム。
  3. 前記プロセッサは、
    前記センサ信号に少なくとも部分的に基づいて聴覚効果を決定し、且つ
    前記聴覚効果をスピーカに出力させるように構成される聴覚信号を送信する
    ように更に構成される、請求項2に記載のシステム。
  4. 前記プロセッサは、
    前記センサ信号に少なくとも部分的に基づいて視覚効果を決定し、且つ
    前記視覚効果をディスプレイに出力させるように構成される表示信号を送信する
    ように更に構成される、請求項3に記載のシステム。
  5. 前記仮想環境は拡張現実環境を含み、前記プロセッサは、前記拡張現実環境におけるイ
    ベントに少なくとも部分的に基づいて前記触覚効果を決定するように更に構成される、請
    求項1に記載のシステム。
  6. 前記触覚効果は第1の触覚効果であり、
    前記プロセッサは、
    前記センサ信号に基づいて体の一部の移動を決定し、且つ
    前記移動に少なくとも部分的に基づいて第2の触覚効果を決定する
    ように更に構成される、請求項1に記載のシステム。
  7. 前記第2の触覚効果は、前記体の一部の前記移動を確認する又は前記体の一部により接
    触される表面の特徴をシミュレートするように構成される、請求項6に記載のシステム。
  8. 前記ニューラルインターフェースは第1のニューラルインターフェースであり、前記プ
    ロセッサは、遠隔ユーザにより使用可能な第2のニューラルインターフェースを備える遠
    隔装置に前記触覚信号を送信するように更に構成され、前記触覚信号は前記遠隔装置に前
    記触覚効果を出力させるように構成される、請求項1に記載のシステム。
  9. 神経系に関係付けられる電気信号を検出するように構成されるニューラルインターフェ
    ースからセンサ信号を受信するステップと、
    前記センサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用を決定する
    ステップと、
    前記仮想環境における前記仮想オブジェクトとの前記相互作用に少なくとも部分的に基
    づいて触覚効果を決定するステップと、
    前記触覚効果に関係付けられる触覚信号を触覚出力装置に送信するステップであって、
    前記触覚出力装置は前記触覚信号を受信し且つ前記触覚効果を出力するように構成される
    ステップと
    を含む、方法。
  10. 前記ニューラルインターフェースは、前記神経系に関係付けられる前記電気信号を検出
    し且つ前記センサ信号を送信するように構成されるセンサを備え、前記センサは、脳波(
    EEG)電極、分光センサ、磁気共鳴画像診断装置、又は容量性センサの少なくとも1つ
    を含む、請求項9に記載の方法。
  11. 前記センサ信号に少なくとも部分的に基づいて聴覚効果を決定するステップと、
    前記聴覚効果をスピーカに出力させるように構成される聴覚信号を送信するステップと
    を更に含む、請求項10に記載の方法。
  12. 前記センサ信号に少なくとも部分的に基づいて視覚効果を決定するステップと、
    前記視覚効果をディスプレイに出力させるように構成される表示信号を送信するステッ
    プと
    を更に含む、請求項11に記載の方法。
  13. 前記仮想環境は拡張現実環境を含み、前記触覚効果は前記拡張現実環境におけるイベン
    トに少なくとも部分的に基づく、請求項9に記載の方法。
  14. 前記触覚効果は第1の触覚効果であり、
    前記センサ信号に基づいて体の一部の移動を決定するステップと、
    前記移動に少なくとも部分的に基づいて第2の触覚効果を決定するステップと
    を更に含む、請求項9に記載の方法。
  15. 前記第2の触覚効果は、前記体の一部の前記移動を確認する又は前記体の一部により接
    触される表面の特徴をシミュレートするように構成される、請求項14に記載の方法。
  16. 前記ニューラルインターフェースは第1のニューラルインターフェースであり、
    第2のニューラルインターフェースを備える遠隔装置に前記触覚信号を送信するステッ
    プであって、前記触覚信号は前記遠隔装置に前記触覚効果を出力させるように構成される
    ステップ
    を更に含む、請求項9に記載の方法。
  17. プロセッサにより実行されると、前記プロセッサに、
    神経系に関係付けられる電気信号を検出するように構成されるニューラルインターフェ
    ースからセンサ信号を受信すること、
    前記センサ信号に基づいて仮想環境における仮想オブジェクトとの相互作用を決定する
    こと、
    前記仮想環境における前記仮想オブジェクトとの前記相互作用に少なくとも部分的に基
    づいて触覚効果を決定すること、及び
    前記触覚効果に関係付けられる触覚信号を触覚出力装置に送信することであって、前記
    触覚出力装置は前記触覚信号を受信し且つ前記触覚効果を出力するように構成されること
    を行わせるように構成されるプログラムコードを含む、非一時的なコンピュータ可読媒
    体。
  18. 前記ニューラルインターフェースは、前記触覚出力装置を備える、請求項17に記載の
    非一時的なコンピュータ可読媒体。
  19. 前記プロセッサにより実行されると、前記プロセッサに
    前記センサ信号に少なくとも部分的に基づいて聴覚効果を決定すること、及び
    前記聴覚効果をスピーカに出力させるように構成される聴覚信号を送信すること
    を行わせるように構成されるプログラムコードを更に含む、請求項18に記載の非一時
    的なコンピュータ可読媒体。
  20. 前記プロセッサにより実行されると、前記プロセッサに
    前記センサ信号に少なくとも部分的に基づいて視覚効果を決定すること、及び
    前記視覚効果をディスプレイに出力させるように構成される表示信号を送信すること
    を行わせるように構成されるプログラムコードを更に含む、請求項19に記載の非一時
    的なコンピュータ可読媒体。
  21. 前記仮想環境は拡張現実環境を含み、前記触覚効果は前記拡張現実環境におけるイベン
    トに少なくとも部分的に基づく、請求項17に記載の非一時的なコンピュータ可読媒体。
  22. 前記触覚効果は第1の触覚効果であり、前記プロセッサにより実行されると、前記プロ
    セッサに
    前記センサ信号に基づいて体の一部の移動を決定すること、及び
    前記移動に少なくとも部分的に基づいて第2の触覚効果を決定することであって、前記
    第2の触覚効果は、前記体の一部の前記移動を確認する又は前記体の一部により接触され
    る表面の特徴をシミュレートするように構成されること
    を行わせるように構成されるプログラムコードを更に含む、請求項17に記載の非一時
    的なコンピュータ可読媒体。
  23. 前記ニューラルインターフェースは第1のニューラルインターフェースであり、前記プ
    ロセッサにより実行されると、前記プロセッサに
    第2のニューラルインターフェースを備える遠隔装置に前記触覚信号を送信することで
    あって、前記触覚信号は前記遠隔装置に前記触覚効果を出力させるように構成されること
    を行わせるように構成されるプログラムコードを更に含む、請求項17に記載の非一時
    的なコンピュータ可読媒体。
JP2021133295A 2016-01-13 2021-08-18 触覚対応ニューラルインターフェースのためのシステム及び方法 Pending JP2021193575A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/994,720 2016-01-13
US14/994,720 US10031580B2 (en) 2016-01-13 2016-01-13 Systems and methods for haptically-enabled neural interfaces
JP2017002732A JP7089846B2 (ja) 2016-01-13 2017-01-11 触覚対応ニューラルインターフェースのためのシステム及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017002732A Division JP7089846B2 (ja) 2016-01-13 2017-01-11 触覚対応ニューラルインターフェースのためのシステム及び方法

Publications (1)

Publication Number Publication Date
JP2021193575A true JP2021193575A (ja) 2021-12-23

Family

ID=57850900

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017002732A Active JP7089846B2 (ja) 2016-01-13 2017-01-11 触覚対応ニューラルインターフェースのためのシステム及び方法
JP2021133295A Pending JP2021193575A (ja) 2016-01-13 2021-08-18 触覚対応ニューラルインターフェースのためのシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017002732A Active JP7089846B2 (ja) 2016-01-13 2017-01-11 触覚対応ニューラルインターフェースのためのシステム及び方法

Country Status (5)

Country Link
US (3) US10031580B2 (ja)
EP (1) EP3193241A1 (ja)
JP (2) JP7089846B2 (ja)
KR (1) KR20170085000A (ja)
CN (1) CN106990834A (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9857590B2 (en) * 2014-10-11 2018-01-02 Floyd Steven Hall, Jr. Method and system for press-on displays for fashionable eyewear and nosewear
JP6668811B2 (ja) * 2016-02-23 2020-03-18 セイコーエプソン株式会社 訓練装置、訓練方法、プログラム
US10551909B2 (en) * 2016-04-07 2020-02-04 Qubit Cross Llc Virtual reality system capable of communicating sensory information
US11064915B2 (en) * 2016-10-27 2021-07-20 Norman L Johnson Functional reach assessment device and method
US10990175B2 (en) * 2018-10-29 2021-04-27 Cognixion Brain computer interface for augmented reality
JP6837921B2 (ja) * 2017-06-02 2021-03-03 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6613267B2 (ja) 2017-06-02 2019-11-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6653293B2 (ja) 2017-06-05 2020-02-26 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
KR102150282B1 (ko) * 2017-07-13 2020-09-01 한국전자통신연구원 멀티미디어 콘텐츠와 연관되는 후각 정보 생성 장치 및 방법
CN107596682A (zh) * 2017-09-29 2018-01-19 广州云友网络科技有限公司 一种vr虚拟互动滑雪的实现方法和系统
KR101824848B1 (ko) * 2017-11-07 2018-02-01 전윤재 육류 가공시 속재료를 넣기 위한 삽입기구
US10916059B2 (en) * 2017-12-06 2021-02-09 Universal City Studios Llc Interactive video game system having an augmented virtual representation
KR102387573B1 (ko) 2017-12-12 2022-04-18 삼성전자주식회사 내부 장치, 외부 장치, 사용자 단말 및 전자 장치 및 이들의 동작 방법
US10682069B2 (en) * 2018-03-23 2020-06-16 Abl Ip Holding Llc User preference and user hierarchy in an electroencephalography based control system
US10682099B2 (en) * 2018-03-23 2020-06-16 Abl Ip Holding Llc Training of an electroencephalography based control system
US10866638B2 (en) * 2018-03-23 2020-12-15 Abl Ip Holding Llc Neural control of controllable device
US10551921B2 (en) * 2018-03-23 2020-02-04 Abl Ip Holding Llc Electroencephalography control of controllable device
US10684689B2 (en) * 2018-04-20 2020-06-16 Immersion Corporation Cross-platform dynamic haptic effect design tool for augmented or virtual reality environments
US10572017B2 (en) * 2018-04-20 2020-02-25 Immersion Corporation Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments
US20190391647A1 (en) * 2018-06-25 2019-12-26 Immersion Corporation Real-world haptic interactions for a virtual reality user
US11294467B2 (en) * 2018-12-18 2022-04-05 Immersion Corporation Systems and methods for integrating environmental haptics in virtual reality
US11086398B2 (en) * 2019-06-07 2021-08-10 Microsoft Technology Licensing, Llc Haptic rendering
US20210056391A1 (en) * 2019-08-20 2021-02-25 Mind Machine Learning, Inc. Systems and Methods for Simulating Sense Data and Creating Perceptions
US11079874B2 (en) * 2019-11-19 2021-08-03 Cirrus Logic, Inc. Virtual button characterization engine
CN112083803B (zh) * 2020-08-28 2023-11-28 西交利物浦大学 一种虚拟现实环境下模拟重量和重心的设备和方法
US20220404620A1 (en) * 2020-12-22 2022-12-22 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices related to extended reality
KR102318215B1 (ko) 2021-04-12 2021-10-27 (주)이지템 가상 심박동 기기 및 그 기기의 구동 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09508553A (ja) * 1994-02-09 1997-09-02 ユニヴァーシティ オブ アイオワ リサーチ ファンデーション ヒト大脳皮質神経補てつ物
JP2006323649A (ja) * 2005-05-19 2006-11-30 Mitsubishi Electric Corp 味発生装置および香り発生装置および感覚発生装置
JP2011096171A (ja) * 2009-11-02 2011-05-12 National Institute Of Information & Communication Technology 多感覚インタラクションシステム
US20120050325A1 (en) * 2010-08-24 2012-03-01 Electronics And Telecommunications Research Institute System and method for providing virtual reality linking service
JP2015075752A (ja) * 2013-10-12 2015-04-20 純馬 青木 匂い呈示装置および方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0864145A4 (en) * 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
US8508469B1 (en) 1995-12-01 2013-08-13 Immersion Corporation Networked applications including haptic feedback
US6028593A (en) 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
JP2001014082A (ja) * 1999-06-25 2001-01-19 Sentan Kagaku Gijutsu Incubation Center:Kk 神経インターフェイスシステム
US7305268B2 (en) * 2000-07-13 2007-12-04 Northstar Neurscience, Inc. Systems and methods for automatically optimizing stimulus parameters and electrode configurations for neuro-stimulators
JP4601257B2 (ja) 2001-05-11 2010-12-22 エーエムビーエックス ユーケー リミテッド マークアップ言語対応デバイスおよびデバイス操作方法
US20060264774A1 (en) * 2005-08-25 2006-11-23 Outland Research, Llc Neurologically Controlled Access to an Electronic Information Resource
CN104063056B (zh) * 2006-04-06 2018-04-20 意美森公司 用于增强的触觉效果的系统和方法
JP5244348B2 (ja) * 2007-09-04 2013-07-24 国立大学法人 筑波大学 装着式動作補助装置及びその制御方法
GB2467461B (en) 2007-09-14 2012-03-07 Nat Inst Of Advanced Ind Scien Virtual reality environment generating apparatus and controller apparatus
WO2009035100A1 (ja) 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology バーチャルリアリティ環境生成装置及びコントローラ装置
EP2207590A1 (en) 2007-09-26 2010-07-21 Medtronic, INC. Therapy program selection
US20090088659A1 (en) * 2007-09-27 2009-04-02 Immersion Corporation Biological Sensing With Haptic Feedback
US9173582B2 (en) * 2009-04-24 2015-11-03 Advanced Brain Monitoring, Inc. Adaptive performance trainer
US9538934B2 (en) * 2010-03-31 2017-01-10 Agency For Science, Technology And Research Brain-computer interface system and method
US9128523B2 (en) * 2012-12-20 2015-09-08 Amazon Technologies, Inc. Dynamically generating haptic effects from audio data
US20140267076A1 (en) * 2013-03-15 2014-09-18 Immersion Corporation Systems and Methods for Parameter Modification of Haptic Effects
US9390630B2 (en) * 2013-05-03 2016-07-12 John James Daniels Accelerated learning, entertainment and cognitive therapy using augmented reality comprising combined haptic, auditory, and visual stimulation
US20160235323A1 (en) * 2013-09-25 2016-08-18 Mindmaze Sa Physiological parameter measurement and feedback system
US9955895B2 (en) * 2013-11-05 2018-05-01 The Research Foundation For The State University Of New York Wearable head-mounted, glass-style computing devices with EOG acquisition and analysis for human-computer interfaces
US20150187188A1 (en) 2013-12-30 2015-07-02 Aliphcom Communications using tactile stimuli on wearable devices
JP2015130168A (ja) 2013-12-31 2015-07-16 イマージョン コーポレーションImmersion Corporation 摩擦拡張制御、及び、タッチコントロールパネルのボタンを摩擦拡張制御部へと変換する方法
US10437341B2 (en) 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
US10067566B2 (en) * 2014-03-19 2018-09-04 Immersion Corporation Systems and methods for a shared haptic experience
KR20160138137A (ko) * 2014-03-21 2016-12-02 임머숀 코퍼레이션 햅틱적으로 인에이블되는 곡면형 디바이스들을 위한 시스템 및 방법
US9690370B2 (en) 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
US10613627B2 (en) 2014-05-12 2020-04-07 Immersion Corporation Systems and methods for providing haptic feedback for remote interactions
US10409361B2 (en) 2014-06-03 2019-09-10 Otoy, Inc. Generating and providing immersive experiences to users isolated from external stimuli
US9830781B2 (en) 2014-06-13 2017-11-28 Verily Life Sciences Llc Multipurpose contacts for delivering electro-haptic feedback to a wearer
CN204360325U (zh) * 2015-01-15 2015-05-27 深圳市掌网立体时代视讯技术有限公司 一种头戴式多通道交互系统
US9655532B2 (en) * 2015-06-19 2017-05-23 Michael Blake Wearable physiological monitoring and notification system based on real-time heart rate variability analysis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09508553A (ja) * 1994-02-09 1997-09-02 ユニヴァーシティ オブ アイオワ リサーチ ファンデーション ヒト大脳皮質神経補てつ物
JP2006323649A (ja) * 2005-05-19 2006-11-30 Mitsubishi Electric Corp 味発生装置および香り発生装置および感覚発生装置
JP2011096171A (ja) * 2009-11-02 2011-05-12 National Institute Of Information & Communication Technology 多感覚インタラクションシステム
US20120050325A1 (en) * 2010-08-24 2012-03-01 Electronics And Telecommunications Research Institute System and method for providing virtual reality linking service
JP2015075752A (ja) * 2013-10-12 2015-04-20 純馬 青木 匂い呈示装置および方法

Also Published As

Publication number Publication date
CN106990834A (zh) 2017-07-28
US10386924B2 (en) 2019-08-20
US20200057500A1 (en) 2020-02-20
US10031580B2 (en) 2018-07-24
US20170199569A1 (en) 2017-07-13
US11237633B2 (en) 2022-02-01
US20180341331A1 (en) 2018-11-29
JP2017126337A (ja) 2017-07-20
KR20170085000A (ko) 2017-07-21
EP3193241A1 (en) 2017-07-19
JP7089846B2 (ja) 2022-06-23

Similar Documents

Publication Publication Date Title
JP7089846B2 (ja) 触覚対応ニューラルインターフェースのためのシステム及び方法
US20170131775A1 (en) System and method of haptic feedback by referral of sensation
US20230381059A1 (en) Wearable Devices, Systems, Methods and Architectures for Sensory Stimulation and Manipulation and Physiological Data Acquisition
KR102427212B1 (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US10695574B2 (en) Sensory input through non-invasive brain stimulation
US10297122B2 (en) Wearable haptic effects with permissions settings
KR101630864B1 (ko) 감정을 전달하는 방법 및 시스템
US11294451B2 (en) Virtual reality system capable of communicating sensory information
US11467668B2 (en) System and method for representing virtual object information with haptic stimulation
EP3328267B1 (en) System for provoking a physiological response
US11809629B1 (en) Wearable electronic device for inducing transient sensory events as user feedback
Longo et al. Using brain-computer interface to control an avatar in a virtual reality environment
JP7017777B2 (ja) 情報処理装置、情報処理方法、および、情報処理装置用プログラム
Lloyd In touch with the future: the sense of touch from cognitive neuroscience to virtual reality
Patrão et al. Development of mixed reality systems to support therapies
US20230400923A1 (en) Wearable Electronic Device for Inducing Transient Sensory Events as User Feedback
CN115220571A (zh) 一种基于人机交互的沉浸式训练系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207