JP6040342B2 - 思考を介した拡張現実における仮想オブジェクトの操作 - Google Patents
思考を介した拡張現実における仮想オブジェクトの操作 Download PDFInfo
- Publication number
- JP6040342B2 JP6040342B2 JP2016518383A JP2016518383A JP6040342B2 JP 6040342 B2 JP6040342 B2 JP 6040342B2 JP 2016518383 A JP2016518383 A JP 2016518383A JP 2016518383 A JP2016518383 A JP 2016518383A JP 6040342 B2 JP6040342 B2 JP 6040342B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- user
- display
- electroencephalogram
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title description 19
- 230000000007 visual effect Effects 0.000 claims description 86
- 230000008859 change Effects 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 30
- 230000007177 brain activity Effects 0.000 claims description 28
- 238000004891 communication Methods 0.000 claims description 15
- 239000003607 modifier Substances 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 8
- 238000012800 visualization Methods 0.000 description 32
- 230000009471 action Effects 0.000 description 27
- 230000000875 corresponding effect Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 210000004556 brain Anatomy 0.000 description 12
- 238000012545 processing Methods 0.000 description 6
- 230000004424 eye movement Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 210000001097 facial muscle Anatomy 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 241000282320 Panthera leo Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000004761 scalp Anatomy 0.000 description 3
- 241000282373 Panthera pardus Species 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/535—Tracking the activity of the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72457—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
Description
本出願は、2013年6月3日に申請された米国出願第13/909,042号に対する優先を主張する国際出願であり、上記米国出願は、その全体を本明細書において参照により援用される。
特定の実施形態が、ロジック、又は複数のコンポーネント、モジュール若しくはメカニズムを含むものとして説明されている。モジュールは、ソフトウェアモジュール(例えば、マシン可読媒体上に、又は送信信号内に具現化されたコード)又はハードウェアモジュールのいずれかを構成することができる。ハードウェアモジュールは、特定の動作を実行することができる有形ユニットであり、特定の方式で構成され又は配置されることができる。複数の実施形態例において、1つ以上のコンピュータシステム(例えば、スタンドアロンコンピュータシステム、クライアントコンピュータシステム、又はサーバコンピュータシステム)、又はコンピュータシステムの1つ以上のハードウェアモジュール(例えば、プロセッサ、又はプロセッサのグループ)が、ソフトウェア(例えば、アプリケーション、又はアプリケーションの一部)によって、本明細書に説明された特定の動作を実行するように動作するハードウェアモジュールとして構成されることができる。
実施形態例は、デジタル電子回路において、若しくはコンピュータハードウェア、ファームウェア、ソフトウェアにおいて、又はこれらの組み合わせにおいて実施することができる。実施形態例は、コンピュータプログラムプロダクトを用いて実施されてもよい。コンピュータプログラムプロダクトは、例えば、情報担体の中に有形に具現化されたコンピュータプログラムである。情報担体は、例えば、データ処理装置による実行のため又はデータ処理装置の動作を制御するためのマシン可読媒体である。データ処理装置は、例えば、プログラマブルプロセッサ、コンピュータ、又は複数のコンピュータである。
図13は、コンピュータシステム1300の例示的形態におけるマシンのブロック図であり、コンピュータシステム1300内で、本明細書に論じられた方法論のうち任意の1つ以上をマシンに実行させる命令を実行することができる。代替的な実施形態において、マシンはスタンドアロン装置として動作し、あるいは他のマシンに接続され(例えば、ネットワーク化され)てもよい。ネットワーク化されたデプロイにおいて、マシンは、サーバ‐クライアントネットワーク環境でのサーバ又はクライアントの能力において、又はピアツーピア(又は分散)ネットワーク環境でのピアマシンとして動作することができる。マシンは、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、パーソナルデジタルアシスタント(PDA)、セルラー電話、ウェブ電化製品、ネットワークルータ、スイッチ、若しくはブリッジ、又はマシンにより取られるべきアクションを規定する命令を(順次に又はその他の方法で)実行することができる任意のマシンであってよい。さらに、単一のマシンだけが例示されているが、用語「マシン」は、本明細書に論じられた方法論のうち任意の1つ以上を実行するように命令のセット(又は複数のセット)を個々に又は一緒に実行するマシンの任意の集合をさらに含むものとする。
ディスクドライブユニット1316はマシン可読媒体1322を含み、このマシン可読媒体1322上に、本明細書に説明された方法論又は機能のうち任意の1つ以上を具現化し又はこれらにより利用されるデータ構造及び命令1324の1つ以上のセット(例えば、ソフトウェア)が記憶される。命令1324はさらに、コンピュータシステム1300による命令1324の実行の間、メインメモリ1304内及び/又はプロセッサ1302内に、完全に又は少なくとも部分的に存在することがあり、メインメモリ1304及びプロセッサ1302がさらにマシン可読媒体を構成することがある。命令1324はさらに、完全に又は少なくとも部分的に、スタティックメモリ1306内に存在することがある。
さらに、命令1324は、ネットワーク1326を通じて送信媒体を用いて送信され、あるいは受信されてもよい。命令1324は、ネットワークインターフェース装置1320と多数の周知の転送プロトコル(例えば、HTTP)のうち任意のものとを用いて送信することができる。通信ネットワークの例には、LAN、WAN、インターネット、携帯電話網、POTSネットワーク、及びワイヤレスデータネットワーク(例えば、WiFi及びWiMaxネットワーク)が含まれる。用語「送信媒体」には、マシンが実行する命令を記憶し、エンコードし又は伝えることができる任意の無形媒体を含むものとし、上記のソフトウェアの通信を容易にするためのデジタル若しくはアナログ通信信号又は他の無形媒体が含まれる。
Claims (20)
- 装置であって、
当該装置のユーザに結合されて脳波データを生成する脳波検査(EEG)脳波センサと、
前記ユーザの心拍データを生成する心拍センサと、
当該装置の地理的場所を決定する場所センサと、
物理オブジェクトから参照識別子を捕捉するように構成されたカメラと、
前記参照識別子に基づいて第1の仮想オブジェクトを表示するように構成されたディスプレイと、
前記ディスプレイ上での前記ユーザの注視を決定するアイトラッキングセンサと、
少なくとも1つのハードウェアプロセッサを用いて実施され、
当該装置のユーザの脳活動データを受信することであって、前記脳活動データは、前記ディスプレイに前記第1の仮想オブジェクトを表示することに応答して生成され、
前記参照識別子及び前記脳活動データをネットワークを介してリモートサーバに通信することであって、前記リモートサーバは、前記参照識別子に関連付けられた複数の仮想オブジェクトを識別し、前記複数の仮想オブジェクトに基づいて複数の脳波パターンを取り出し、各脳波パターンは対応する仮想オブジェクトに関連付けられ、前記ユーザの脳活動データを前記複数の脳波パターンと比較し、前記複数の仮想オブジェクトから第2の仮想オブジェクトを識別し、前記第2の仮想オブジェクトは前記複数の脳波パターンからの脳波パターンに関連付けられ、前記脳波パターンは前記脳活動データに対応する、ように構成され、
前記第2の仮想オブジェクトを識別する前記リモートサーバからの通信を受信し、
前記ディスプレイに前記第1の仮想オブジェクトと共に前記第2の仮想オブジェクトを表示し、
前記物理オブジェクトに対する当該装置の位置に基づいて、前記ディスプレイの中の前記第1及び第2の仮想オブジェクトのビューを調整する
ように構成された仮想オブジェクト生成モジュールと、
前記脳波データと、心拍データと、当該装置の地理的場所と、前記ユーザの注視とに基づいて、前記ユーザの心理状態を識別するように構成された電波アプリケーションと、
を含む装置。 - 複数の仮想オブジェクトモデルを対応参照識別子と共に記憶するように構成された記憶装置、
をさらに含み、
前記仮想オブジェクト生成モジュールは、前記参照識別子が前記記憶装置に記憶されたいずれかの参照識別子に対応するかを決定し、前記記憶装置からの前記参照識別子に対応する仮想オブジェクトモデルにアクセスし、前記仮想オブジェクトモデルを用いて前記仮想オブジェクトを生成するように構成される、
請求項1に記載の装置。 - 前記仮想オブジェクト生成モジュールは、前記リモートサーバから前記参照識別子に対応する仮想オブジェクトモデルを受信し、前記仮想オブジェクトモデルを用いて前記仮想オブジェクトを生成するように構成される、請求項1に記載の装置。
- 前記ユーザに関連付けられたソーシャルネットワーク情報にアクセスするように構成されたソーシャルネットワークモジュール、
をさらに含み、
前記電波アプリケーションは、前記ユーザに関連付けられた前記ソーシャルネットワーク情報に基づいて、前記ユーザの心理状態をさらに識別する、
請求項1に記載の装置。 - 仮想風景のディスプレイの中の焦点領域と前記仮想オブジェクトの特徴とを決定し、前記ユーザの脳活動データにおける変化に応答して前記焦点領域の中の前記仮想オブジェクトの特徴の状態を変更するように構成された視覚的ジェスチャモジュール、
をさらに含む請求項1に記載の装置。 - 前記プロセッサに結合された記憶装置、
をさらに含み、
前記記憶装置は、視覚的参照と、視覚的参照と前記ユーザからの電波の対応する強度及びパターンとの組み合わせに関連付けられた仮想オブジェクトと、該仮想オブジェクトの特徴と、を記憶するように構成されたデータベースを含み、前記仮想オブジェクトの特徴は、前記ユーザの電波の強度及びパターンにおける変化に応答して状態を変更するように構成される、
請求項5に記載の装置。 - 前記焦点領域は、前記ディスプレイの予め定義された部分に対応し、前記特徴の状態は、前記特徴が前記ディスプレイの予め定義された部分内に位置することに応答して変わり、前記ディスプレイの予め定義された部分は、前記ディスプレイに対して中央の領域、前記ディスプレイの端部に隣接する領域、前記ディスプレイのコーナーに隣接する領域、又はディスプレイ領域のユーザ定義された部分のうち、少なくとも1つを含む、請求項5に記載の装置。
- 前記特徴の状態は、前記特徴が時間閾値を超える時間の間、前記ディスプレイの予め定義された部分内に位置することに応答して、変わる、請求項7に記載の装置。
- 前記視覚的ジェスチャモジュールは、焦点領域検出器と特徴状態修正器とを含み、
前記焦点領域検出器は、前記ディスプレイの焦点領域の中の3次元の仮想オブジェクトの特徴の存在を検出するように構成され、
前記特徴状態修正器は、前記特徴が前記焦点領域の中に存在することに応答して前記特徴の状態を変更するように構成される、
請求項5に記載の装置。 - 前記特徴状態修正器は、前記焦点領域の中の前記仮想オブジェクトの第1のコンポーネントを前記焦点領域の中の前記仮想オブジェクトの第2のコンポーネントで置換することによって前記特徴の状態を変更するように構成される、請求項9に記載の装置。
- コンピューティング装置を用いて、物理オブジェクトから参照識別子を捕捉するステップと、
前記コンピューティング装置のディスプレイに第1の仮想オブジェクトを表示するステップであって、前記第1の仮想オブジェクトは前記参照識別子に基づく、ステップと、
前記コンピューティング装置のユーザの脳活動データを受信するステップであって、前記脳活動データは、前記コンピューティング装置の前記ディスプレイに前記第1の仮想オブジェクトを表示することに応答して生成される、ステップと、
前記参照識別子及び前記脳活動データをネットワークを介してリモートサーバに通信するステップであって、前記リモートサーバは、前記参照識別子に関連付けられた複数の仮想オブジェクトを識別し、前記複数の仮想オブジェクトに基づいて複数の脳波パターンを取り出し、各脳波パターンは対応する仮想オブジェクトに関連付けられ、前記ユーザの脳活動データを前記複数の脳波パターンと比較し、前記複数の仮想オブジェクトから第2の仮想オブジェクトを識別し、前記第2の仮想オブジェクトは前記複数の脳波パターンからの脳波パターンに関連付けられ、前記脳波パターンは前記脳活動データに対応する、ように構成される、ステップと、
前記第2の仮想オブジェクトを識別する前記リモートサーバからの通信を受信するステップと、
前記ディスプレイに前記第1の仮想オブジェクトと共に前記第2の仮想オブジェクトを表示するステップと、
前記物理オブジェクトに対する前記コンピューティング装置の位置に基づいて、前記ディスプレイの中の前記第1及び第2の仮想オブジェクトのビューを調整するステップと、
前記ユーザに結合された脳波検査(EEG)脳波センサを用いて脳波データを生成するステップと、
心拍センサを用いて前記ユーザの心拍データを生成するステップと、
アイトラッキングセンサを用いて前記ディスプレイ上での前記ユーザの注視を決定するステップと、
前記コンピューティング装置の地理的場所を決定するステップと、
前記脳波データと、前記心拍データと、前記ユーザの注視と、前記コンピューティング装置の地理的場所とに基づいて、前記ユーザの心理状態を識別するステップと、
を含む方法。 - 前記コンピューティング装置の記憶装置に、複数の仮想オブジェクトモデルを対応参照識別子と共に記憶するステップと、
前記参照識別子が前記記憶装置に記憶されたいずれかの参照識別子に対応するかを決定するステップと、
前記記憶装置からの前記参照識別子に対応する仮想オブジェクトモデルにアクセスするステップと、
前記仮想オブジェクトモデルを用いて前記仮想オブジェクトを生成するステップと、
をさらに含む請求項11に記載の方法。 - 前記リモートサーバから前記参照識別子に対応する仮想オブジェクトモデルを受信するステップと、
前記仮想オブジェクトモデルを用いて前記仮想オブジェクトを生成するステップと、
をさらに含む請求項11に記載の方法。 - 前記ユーザに関連付けられたソーシャルネットワーク情報にアクセスするステップと、
前記ユーザに関連付けられた前記ソーシャルネットワーク情報に基づいて、前記ユーザの心理状態を識別するステップと、
をさらに含む請求項11に記載の方法。 - 前記ディスプレイの中の焦点領域と前記仮想オブジェクトの特徴とを決定するステップと、
前記特徴が前記ディスプレイの焦点領域の中にあること、又は前記ユーザの脳活動データにおける変化に応答して、前記仮想オブジェクトの特徴の状態を変更するステップと、
をさらに含む請求項11に記載の方法。 - データベースに、視覚的参照と、視覚的参照と前記ユーザからの電波の対応する強度及びパターンとの組み合わせに関連付けられた仮想オブジェクトと、該仮想オブジェクトの特徴とを記憶するステップであって、前記仮想オブジェクトの特徴は、前記ユーザの脳活動データにおける変化に応答して状態を変更するように構成される、ステップ、
をさらに含む請求項13に記載の方法。 - 前記焦点領域が、前記ディスプレイの予め定義された部分に対応し、前記特徴の状態は、前記特徴が前記ディスプレイの予め定義された部分内に位置することに応答して変わり、前記ディスプレイの予め定義された部分は、前記ディスプレイに対して中央の領域、前記ディスプレイの端部に隣接する領域、前記ディスプレイのコーナーに隣接する領域、又はディスプレイ領域のユーザ定義された部分のうち、少なくとも1つを含む、請求項15に記載の方法。
- 前記特徴が時間閾値を超える時間の間、前記ディスプレイの予め定義された部分内に位置することに応答して、前記特徴の状態を変更するステップ、
をさらに含む請求項16に記載の方法。 - 前記ディスプレイの焦点領域の中の前記仮想オブジェクトの特徴の存在を検出するステップと、
前記特徴が前記焦点領域の中に存在することに応答して前記特徴の状態を変更するステップと、
をさらに含む請求項13に記載の方法。 - マシンの1以上のプロセッサにより実行されるときに、前記マシンに、
物理オブジェクトから参照識別子を捕捉するステップと、
ディスプレイに第1の仮想オブジェクトを表示するステップであって、前記第1の仮想オブジェクトは前記参照識別子に基づく、ステップと、
ユーザの脳活動データを受信するステップであって、前記脳活動データは、前記ディスプレイに前記第1の仮想オブジェクトを表示することに応答して生成される、ステップと、
前記参照識別子及び前記脳活動データをネットワークを介してリモートサーバに通信するステップであって、前記リモートサーバは、前記参照識別子に関連付けられた複数の仮想オブジェクトを識別し、前記複数の仮想オブジェクトに基づいて複数の脳波パターンを取り出し、各脳波パターンは対応する仮想オブジェクトに関連付けられ、前記ユーザの脳活動データを前記複数の脳波パターンと比較し、前記複数の仮想オブジェクトから第2の仮想オブジェクトを識別し、前記第2の仮想オブジェクトは前記複数の脳波パターンからの脳波パターンに関連付けられ、前記脳波パターンは前記脳活動データに対応する、ように構成される、ステップと、
前記第2の仮想オブジェクトを識別する前記リモートサーバからの通信を受信するステップと、
前記ディスプレイに前記第1の仮想オブジェクトと共に前記第2の仮想オブジェクトを表示するステップと、
前記物理オブジェクトに対する前記マシンの位置に基づいて、前記ディスプレイの中の前記第1及び第2の仮想オブジェクトのビューを調整するステップと、
前記ユーザに結合された脳波検査(EEG)脳波センサを用いて脳波データを生成するステップと、
心拍センサを用いて前記ユーザの心拍データを生成するステップと、
アイトラッキングセンサを用いて前記ディスプレイ上での前記ユーザの注視を決定するステップと、
前記マシンの地理的場所を決定するステップと、
前記脳波データと、前記心拍データと、前記ユーザの注視と、前記マシンの地理的場所とに基づいて、前記ユーザの心理状態を識別するステップと、
を含む動作を実行させる命令を含むコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/909,042 | 2013-06-03 | ||
US13/909,042 US9354702B2 (en) | 2013-06-03 | 2013-06-03 | Manipulation of virtual object in augmented reality via thought |
PCT/US2014/040552 WO2014197392A1 (en) | 2013-06-03 | 2014-06-02 | Manipulation of virtual object in augmented reality via thought |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016521881A JP2016521881A (ja) | 2016-07-25 |
JP6040342B2 true JP6040342B2 (ja) | 2016-12-07 |
Family
ID=51984517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016518383A Active JP6040342B2 (ja) | 2013-06-03 | 2014-06-02 | 思考を介した拡張現実における仮想オブジェクトの操作 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9354702B2 (ja) |
EP (1) | EP3005037A4 (ja) |
JP (1) | JP6040342B2 (ja) |
KR (1) | KR101694089B1 (ja) |
AU (1) | AU2014275189B2 (ja) |
WO (1) | WO2014197392A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9996155B2 (en) | 2013-06-03 | 2018-06-12 | Daqri, Llc | Manipulation of virtual object in augmented reality via thought |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9814426B2 (en) | 2012-06-14 | 2017-11-14 | Medibotics Llc | Mobile wearable electromagnetic brain activity monitor |
CN103970260B (zh) * | 2013-01-31 | 2017-06-06 | 华为技术有限公司 | 一种非接触式手势控制方法及电子终端设备 |
US9383819B2 (en) | 2013-06-03 | 2016-07-05 | Daqri, Llc | Manipulation of virtual object in augmented reality via intent |
US10074401B1 (en) * | 2014-09-12 | 2018-09-11 | Amazon Technologies, Inc. | Adjusting playback of images using sensor data |
US10332283B2 (en) * | 2014-09-16 | 2019-06-25 | Nokia Of America Corporation | Visualized re-physicalization of captured physical signals and/or physical states |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
US9977241B2 (en) | 2015-03-17 | 2018-05-22 | Seiko Epson Corporation | Head-mounted display device, control method for head-mounted display device, and computer program |
US20160374616A1 (en) * | 2015-06-24 | 2016-12-29 | Daqri, Llc | Electrode contact quality |
JP6586818B2 (ja) * | 2015-08-21 | 2019-10-09 | オムロンヘルスケア株式会社 | 診療支援装置、診療支援方法、診療支援プログラム、生体情報測定装置 |
DE102015226581B4 (de) * | 2015-12-22 | 2022-03-17 | Audi Ag | Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System |
CN105528084A (zh) * | 2016-01-21 | 2016-04-27 | 京东方科技集团股份有限公司 | 一种显示控制装置及其控制方法、显示控制系统 |
US10203751B2 (en) | 2016-05-11 | 2019-02-12 | Microsoft Technology Licensing, Llc | Continuous motion controls operable using neurological data |
US9864431B2 (en) | 2016-05-11 | 2018-01-09 | Microsoft Technology Licensing, Llc | Changing an application state using neurological data |
KR20180067984A (ko) | 2016-12-13 | 2018-06-21 | 현대자동차주식회사 | 마일드 하이브리드 차량의 mhsg 제어 방법 및 장치 |
KR102394561B1 (ko) | 2016-12-13 | 2022-05-04 | 현대자동차 주식회사 | 마일드 하이브리드 차량의 엔진 시동 장치 및 방법 |
US10963774B2 (en) | 2017-01-09 | 2021-03-30 | Microsoft Technology Licensing, Llc | Systems and methods for artificial intelligence interface generation, evolution, and/or adjustment |
US10625170B2 (en) * | 2017-03-09 | 2020-04-21 | Lumena Inc. | Immersive device |
US11058961B2 (en) * | 2017-03-09 | 2021-07-13 | Kaleb Matson | Immersive device |
US10877647B2 (en) | 2017-03-21 | 2020-12-29 | Hewlett-Packard Development Company, L.P. | Estimations within displays |
EP3629912A4 (en) * | 2017-05-30 | 2021-03-03 | InteraXon Inc. | PORTABLE COMPUTER DEVICE WITH ELECTROPHYSIOLOGICAL SENSORS |
US10102659B1 (en) | 2017-09-18 | 2018-10-16 | Nicholas T. Hariton | Systems and methods for utilizing a device as a marker for augmented reality content |
CN107613121B (zh) * | 2017-09-19 | 2020-05-12 | 华南理工大学 | 一种基于eog的移动通讯拨号方法 |
US10105601B1 (en) | 2017-10-27 | 2018-10-23 | Nicholas T. Hariton | Systems and methods for rendering a virtual content object in an augmented reality environment |
US10636188B2 (en) | 2018-02-09 | 2020-04-28 | Nicholas T. Hariton | Systems and methods for utilizing a living entity as a marker for augmented reality content |
CN108762476B (zh) * | 2018-03-21 | 2021-04-09 | Oppo广东移动通信有限公司 | 设备提示方法及相关产品 |
US10551921B2 (en) * | 2018-03-23 | 2020-02-04 | Abl Ip Holding Llc | Electroencephalography control of controllable device |
US10682069B2 (en) * | 2018-03-23 | 2020-06-16 | Abl Ip Holding Llc | User preference and user hierarchy in an electroencephalography based control system |
US10682099B2 (en) * | 2018-03-23 | 2020-06-16 | Abl Ip Holding Llc | Training of an electroencephalography based control system |
US10866638B2 (en) * | 2018-03-23 | 2020-12-15 | Abl Ip Holding Llc | Neural control of controllable device |
US10198871B1 (en) | 2018-04-27 | 2019-02-05 | Nicholas T. Hariton | Systems and methods for generating and facilitating access to a personalized augmented rendering of a user |
KR102581146B1 (ko) * | 2018-11-23 | 2023-09-21 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US10586396B1 (en) | 2019-04-30 | 2020-03-10 | Nicholas T. Hariton | Systems, methods, and storage media for conveying virtual content in an augmented reality environment |
WO2021215266A1 (ja) * | 2020-04-23 | 2021-10-28 | ソニーグループ株式会社 | 制御装置、及び制御方法 |
CN113747113A (zh) * | 2020-05-29 | 2021-12-03 | 北京小米移动软件有限公司 | 图像显示方法及装置、电子设备、计算机可读存储介质 |
EP4202610A1 (en) | 2021-12-27 | 2023-06-28 | Koninklijke KPN N.V. | Affect-based rendering of content data |
KR20230165612A (ko) * | 2022-05-27 | 2023-12-05 | 주식회사 케이티앤지 | 가상 연기 구현 방법 및 장치 |
Family Cites Families (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US935470A (en) * | 1908-12-08 | 1909-09-28 | Andrew Davis | Drilling-machine table. |
US5759044A (en) | 1990-02-22 | 1998-06-02 | Redmond Productions | Methods and apparatus for generating and processing synthetic and absolute real time environments |
FI111892B (fi) * | 1997-04-22 | 2003-09-30 | Nokia Oy Ab | Monitoiminen viestinlaite |
US20020044152A1 (en) * | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
AU2002224398A1 (en) | 2000-10-19 | 2002-04-29 | Bernhard Dohrmann | Apparatus and method for delivery of instructional information |
US9153074B2 (en) * | 2011-07-18 | 2015-10-06 | Dylan T X Zhou | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command |
WO2006012678A1 (en) * | 2004-08-03 | 2006-02-09 | Silverbrook Research Pty Ltd | Walk-up printing |
US7788075B2 (en) * | 2004-08-16 | 2010-08-31 | Mcw Research Foundation | System and method for sensory defect simulation |
US8614676B2 (en) | 2007-04-24 | 2013-12-24 | Kuo-Ching Chiang | User motion detection mouse for electronic device |
US20080191864A1 (en) * | 2005-03-31 | 2008-08-14 | Ronen Wolfson | Interactive Surface and Display System |
WO2006121956A1 (en) | 2005-05-09 | 2006-11-16 | Infinite Z, Inc. | Biofeedback eyewear system |
US11428937B2 (en) * | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8209620B2 (en) | 2006-01-31 | 2012-06-26 | Accenture Global Services Limited | System for storage and navigation of application states and interactions |
US9101279B2 (en) | 2006-02-15 | 2015-08-11 | Virtual Video Reality By Ritchey, Llc | Mobile user borne brain activity data and surrounding environment data correlation system |
US20080050711A1 (en) * | 2006-08-08 | 2008-02-28 | Doswell Jayfus T | Modulating Computer System Useful for Enhancing Learning |
US20080218472A1 (en) | 2007-03-05 | 2008-09-11 | Emotiv Systems Pty., Ltd. | Interface to convert mental states and facial expressions to application input |
US10198958B2 (en) | 2007-05-04 | 2019-02-05 | Freer Logic | Method and apparatus for training a team by employing brainwave monitoring and synchronized attention levels of team trainees |
NZ560457A (en) | 2007-08-15 | 2010-02-26 | William Bryan Woodard | Image generation system |
US9513699B2 (en) | 2007-10-24 | 2016-12-06 | Invention Science Fund I, LL | Method of selecting a second content based on a user's reaction to a first content |
US20130073978A1 (en) | 2011-09-16 | 2013-03-21 | Social Communications Company | Capabilities based management of virtual areas |
US7754955B2 (en) * | 2007-11-02 | 2010-07-13 | Mark Patrick Egan | Virtual reality composer platform system |
US20090156955A1 (en) | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for comparing media content |
US20090327871A1 (en) * | 2008-06-26 | 2009-12-31 | Microsoft Corporation | I/o for constrained devices |
US9191238B2 (en) | 2008-07-23 | 2015-11-17 | Yahoo! Inc. | Virtual notes in a reality overlay |
EP2327003B1 (en) * | 2008-09-17 | 2017-03-29 | Nokia Technologies Oy | User interface for augmented reality |
US8671069B2 (en) * | 2008-12-22 | 2014-03-11 | The Trustees Of Columbia University, In The City Of New York | Rapid image annotation via brain state decoding and visual pattern mining |
US8427508B2 (en) | 2009-06-25 | 2013-04-23 | Nokia Corporation | Method and apparatus for an augmented reality user interface |
US8531452B2 (en) | 2009-07-21 | 2013-09-10 | Konami Digital Entertainment Co., Ltd. | Video game machine, gaming image display control method and display mode switching control method |
US20110040155A1 (en) | 2009-08-13 | 2011-02-17 | International Business Machines Corporation | Multiple sensory channel approach for translating human emotions in a computing environment |
CN102791332A (zh) | 2009-11-04 | 2012-11-21 | 代理并代表亚利桑那州立大学的亚利桑那董事会 | 调节大脑活动的设备和方法 |
KR101080803B1 (ko) | 2009-11-17 | 2011-11-07 | 한국과학기술연구원 | 실감 인터랙션 시스템 및 방법 |
US9373123B2 (en) * | 2009-12-30 | 2016-06-21 | Iheartmedia Management Services, Inc. | Wearable advertising ratings methods and systems |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US8847879B2 (en) * | 2010-04-08 | 2014-09-30 | Disney Enterprises, Inc. | Motionbeam interaction techniques for handheld projectors |
US20120200600A1 (en) * | 2010-06-23 | 2012-08-09 | Kent Demaine | Head and arm detection for virtual immersion systems and methods |
KR101347518B1 (ko) | 2010-08-12 | 2014-01-07 | 주식회사 팬택 | 필터의 선택이 가능한 증강 현실 사용자 장치 및 방법, 그리고, 증강 현실 서버 |
US20120050144A1 (en) * | 2010-08-26 | 2012-03-01 | Clayton Richard Morlock | Wearable augmented reality computing apparatus |
CN103299330A (zh) | 2010-10-21 | 2013-09-11 | 圣脑私营有限责任公司 | 人类体验及购买行为的神经心理建模方法及装置 |
US20120113223A1 (en) | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
TW201227128A (en) * | 2010-12-21 | 2012-07-01 | J Touch Corp | Three-dimensional image display device and electrochromic module thereof |
PT105469A (pt) * | 2011-01-04 | 2012-11-19 | Marta Isabel Santos Paiva Ferraz Da Conceicao | Fato interativo para videojogos em que se usam sensores eletrónicos e objetos físicos |
US10109065B2 (en) | 2011-01-25 | 2018-10-23 | Qualcomm Incorporated | Using occlusions to detect and track three-dimensional objects |
US8810598B2 (en) * | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
US20120257035A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
US8676937B2 (en) | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
US8676230B2 (en) * | 2011-05-16 | 2014-03-18 | Neurosky, Inc. | Bio signal based mobile device applications |
KR101252169B1 (ko) | 2011-05-27 | 2013-04-05 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
KR101239284B1 (ko) | 2011-05-31 | 2013-03-06 | 삼성에스디에스 주식회사 | 증강현실 컨텐츠를 통해 타겟장치를 제어하는 제어단말기 및 서버 |
US10108783B2 (en) | 2011-07-05 | 2018-10-23 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for monitoring health of employees using mobile devices |
US9256711B2 (en) * | 2011-07-05 | 2016-02-09 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for providing health information to employees via augmented reality display |
KR101280170B1 (ko) | 2011-08-01 | 2013-06-28 | 김현아 | 이동 단말에서의 증강현실 기반 정보 처리 방법 |
AU2011205223C1 (en) | 2011-08-09 | 2013-03-28 | Microsoft Technology Licensing, Llc | Physical interaction with virtual objects for DRM |
US8963956B2 (en) | 2011-08-19 | 2015-02-24 | Microsoft Technology Licensing, Llc | Location based skins for mixed reality displays |
US20130138248A1 (en) * | 2011-11-30 | 2013-05-30 | Honeywell International Inc. | Thought enabled hands-free control of multiple degree-of-freedom systems |
TWI482108B (zh) * | 2011-12-29 | 2015-04-21 | Univ Nat Taiwan | To bring virtual social networks into real-life social systems and methods |
US20130178257A1 (en) * | 2012-01-06 | 2013-07-11 | Augaroo, Inc. | System and method for interacting with virtual objects in augmented realities |
US20130201215A1 (en) * | 2012-02-03 | 2013-08-08 | John A. MARTELLARO | Accessing applications in a mobile augmented reality environment |
US9449446B1 (en) * | 2012-05-27 | 2016-09-20 | Make Ideas, LLC | System employing a plurality of brain/body-generated inputs to control the multi-action operation of a controllable device |
WO2013180798A1 (en) * | 2012-05-29 | 2013-12-05 | Icelero Inc | Method, apparatus and system for expressing and exchanging opinions on virtual objects |
US20140002443A1 (en) * | 2012-06-29 | 2014-01-02 | Blackboard Inc. | Augmented reality interface |
US10180715B2 (en) * | 2012-10-05 | 2019-01-15 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
US9030495B2 (en) * | 2012-11-21 | 2015-05-12 | Microsoft Technology Licensing, Llc | Augmented reality help |
WO2014085910A1 (en) * | 2012-12-04 | 2014-06-12 | Interaxon Inc. | System and method for enhancing content using brain-state data |
KR102099086B1 (ko) * | 2013-02-20 | 2020-04-09 | 삼성전자주식회사 | 디지털 텔레비전 및 사용자 디바이스를 이용하여 사용자 맞춤형 인터랙션을 제공하는 방법, 그 디지털 텔레비전 및 사용자 디바이스 |
US9773332B2 (en) * | 2013-03-14 | 2017-09-26 | Otoy, Inc. | Visual cortex thought detector interface |
US9235968B2 (en) * | 2013-03-14 | 2016-01-12 | Otoy, Inc. | Tactile elements for a wearable eye piece |
US20140267005A1 (en) * | 2013-03-14 | 2014-09-18 | Julian M. Urbach | Eye piece for augmented and virtual reality |
US9245388B2 (en) * | 2013-05-13 | 2016-01-26 | Microsoft Technology Licensing, Llc | Interactions of virtual objects with surfaces |
US9383819B2 (en) | 2013-06-03 | 2016-07-05 | Daqri, Llc | Manipulation of virtual object in augmented reality via intent |
US9354702B2 (en) | 2013-06-03 | 2016-05-31 | Daqri, Llc | Manipulation of virtual object in augmented reality via thought |
-
2013
- 2013-06-03 US US13/909,042 patent/US9354702B2/en active Active
-
2014
- 2014-06-02 KR KR1020157037131A patent/KR101694089B1/ko active IP Right Grant
- 2014-06-02 JP JP2016518383A patent/JP6040342B2/ja active Active
- 2014-06-02 EP EP14808371.0A patent/EP3005037A4/en not_active Withdrawn
- 2014-06-02 AU AU2014275189A patent/AU2014275189B2/en active Active
- 2014-06-02 WO PCT/US2014/040552 patent/WO2014197392A1/en active Application Filing
-
2016
- 2016-05-02 US US15/144,545 patent/US9996155B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9996155B2 (en) | 2013-06-03 | 2018-06-12 | Daqri, Llc | Manipulation of virtual object in augmented reality via thought |
Also Published As
Publication number | Publication date |
---|---|
AU2014275189B2 (en) | 2016-12-22 |
KR20160016948A (ko) | 2016-02-15 |
US9996155B2 (en) | 2018-06-12 |
AU2014275189A1 (en) | 2016-01-21 |
JP2016521881A (ja) | 2016-07-25 |
US20160246371A1 (en) | 2016-08-25 |
US9354702B2 (en) | 2016-05-31 |
US20140354534A1 (en) | 2014-12-04 |
WO2014197392A1 (en) | 2014-12-11 |
KR101694089B1 (ko) | 2017-01-06 |
EP3005037A1 (en) | 2016-04-13 |
EP3005037A4 (en) | 2017-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6040342B2 (ja) | 思考を介した拡張現実における仮想オブジェクトの操作 | |
JP5985116B1 (ja) | 意図を介した拡張現実における仮想オブジェクトの操作 | |
US20180203518A1 (en) | Control of a real world object user interface | |
JP2024509722A (ja) | エクステンデッドリアリティにおけるユーザ相互作用 | |
US11748056B2 (en) | Tying a virtual speaker to a physical space | |
US20220253136A1 (en) | Methods for presenting and sharing content in an environment | |
KR20140011204A (ko) | 컨텐츠 제공 방법 및 이를 적용한 디스플레이 장치 | |
US20160374616A1 (en) | Electrode contact quality | |
US20230206572A1 (en) | Methods for sharing content and interacting with physical devices in a three-dimensional environment | |
US20240005612A1 (en) | Content transformations based on reflective object recognition | |
WO2023043647A1 (en) | Interactions based on mirror detection and context awareness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160408 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160408 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20160408 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6040342 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |