JP7403249B2 - 中心窩シミュレーションのためのシステムおよび方法 - Google Patents
中心窩シミュレーションのためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7403249B2 JP7403249B2 JP2019118516A JP2019118516A JP7403249B2 JP 7403249 B2 JP7403249 B2 JP 7403249B2 JP 2019118516 A JP2019118516 A JP 2019118516A JP 2019118516 A JP2019118516 A JP 2019118516A JP 7403249 B2 JP7403249 B2 JP 7403249B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- component
- processor
- vector
- simulation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims description 193
- 238000000034 method Methods 0.000 title claims description 37
- 239000013598 vector Substances 0.000 claims description 182
- 238000012545 processing Methods 0.000 claims description 17
- 238000009877 rendering Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 8
- 239000007787 solid Substances 0.000 claims description 6
- 230000007717 exclusion Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 230000003190 augmentative effect Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 201000003152 motion sickness Diseases 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0227—Cooperation and interconnection of the input arrangement with other functional units of a computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/52—Program synchronisation; Mutual exclusion, e.g. by means of semaphores
- G06F9/526—Mutual exclusion algorithms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
Description
HMDと通信するプロセッサ(122)と、
プロセッサに結合されたメモリ(124)であって、前記メモリは命令を含み、命令は、プロセッサによって実行されるとき、プロセッサに、
ユーザの視線ベクトルおよびユーザの位置を示すデータを取得させ、
仮想現実シミュレータ(126)の仮想構成要素(132)の構成要素ベクトル(176)を、ユーザの位置および仮想構成要素の位置に基づいて決定させ、
視線ベクトルおよび構成要素ベクトルに基づいて位置合せ値(178)を計算させ、
位置合せ値に基づいて仮想構成要素のシミュレーション設定値(134、136、138)を調節させる、メモリ(124)と、
を備えるシステム(102)。
仮想構成要素が立体面平面(284)を有するかどうかを決定させ、
仮想構成要素が立体面平面を有するという決定に応答して、視線ベクトルおよび立体面平面のコーナー(742~748)に基づいて、仮想構成要素の立体面平面の可視領域(284)を計算させ、
立体面平面の可視領域および位置合せ値に基づいて調整値(182)を計算させ、仮想構成要素のシミュレーション設定値は、調整値に基づいて調節される、
条項1から3のいずれかのシステム。
立体面平面のコーナーの各コーナーについて、第1の直交視線ベクトル(712)、第2の直交視線ベクトル(714)、および立体面平面のコーナーに基づいて、対応するコーナー(752~758)をユーザに関連付けられた視線平面(722)に投影することと、
視線平面のコーナーに基づいて、仮想構成要素の立体面平面の可視領域を計算することと、
を含む、条項1から4のいずれかのシステム。
プロセッサに結合された第2の(I/O)インターフェイス(130A)であって、センサデータをHMDから受信する、またはユーザの視線ベクトルおよび位置を示すデータをHMDから受信する第2の(I/O)インターフェイス(130A)と
をさらに備える、条項1から8のいずれかのシステム。
プロセッサに結合されたメモリ(124)であって、メモリは命令を含み、命令は、プロセッサによって実行されるとき、プロセッサに、
ユーザの視線ベクトル(172)およびユーザの位置(174)を示すデータを取得させ、
仮想現実シミュレータ(126)の仮想構成要素(132)の構成要素ベクトル(176)を、ユーザの位置および仮想構成要素の位置に基づいて決定させ、
視線ベクトルおよび構成要素ベクトルに基づいて位置合せ値(178)を計算させ、
位置合せ値に基づいて仮想構成要素のシミュレーション設定値(134、136、138)を調節させる、
メモリ(124)と
を備える装置(112)。
視線ベクトルに基づいて仮想現実シミュレータの第1の仮想領域(412)を規定させ、
視線ベクトルに基づいて仮想現実シミュレータの第2の仮想領域(414)を規定させ、第1の仮想領域は円であり、第2の仮想領域は楕円であり、第2の仮想領域は第1の仮想領域よりも大きく、
第2の仮想領域内に位置する第1の仮想構成要素(132、312~332)に第1のシミュレーション設定値(134、136、138)を適用させ、第1の仮想領域および第2の仮想領域の外側に位置する第2の仮想構成要素(132、312~332)に第2のシミュレーション設定値(134、136、138)を適用させる、
条項11から13のいずれかの装置。
ユーザの視線ベクトルおよびユーザの位置を示すデータを取得すること(802)と、
仮想現実シミュレータの仮想構成要素の構成要素ベクトルを、ユーザの位置および仮想構成要素の位置に基づいて決定すること(804)と、
視線ベクトルおよび構成要素ベクトルに基づいて位置合せ値を計算すること(806)と、
位置合せ値に基づいて仮想構成要素のシミュレーション設定値を調節すること(808)と、
を含む動作を行わせる、コンピュータ読み取り可能な記憶装置。
プロセッサの使用可能リソースを決定することと、
プロセッサの使用可能リソースがシミュレーション閾値(138)よりも大きいかどうかを決定することと、
プロセッサの使用可能リソースがシミュレーション閾値よりも大きいという決定に基づいて、仮想構成要素のシミュレーション設定値をベース値に調節することと、
を含む、条項18のコンピュータ読み取り可能な記憶装置。
102 システム
112 コンピュータ
114 ヘッドマウントディスプレイ(HMD)
116 入力装置
122 プロセッサ
124 メモリ
126 VRアプリケーション
128 ネットワークインターフェイス
128A ネットワークインターフェイス
130 I/Oインターフェイス
130A I/Oインターフェイス
132 仮想構成要素
134 シミュレーションプログラミング
136 シミュレーション設定値
138 シミュレーション閾値
142 ディスプレイ
144 センサ
152 ジャイロスコープ
154 加速度計
162 センサデータ
172 視線ベクトル
174 ユーザ位置
176 構成要素ベクトル
178 最小位置合せ値
182 調整値
192 グラフィックユーザインターフェイス(GUI)
200 フローチャート
222 破線ボックス
278 スケーリングされた位置合せ値
282 立体面平面
284 可視領域
292 クリティカルセクションミューテック値
300 略図
302 仮想環境
312 仮想構成要素、電子機器フライト計測装置システム(EFIS)制御パネル
312A 第1の電子機器フライト計測装置システム(EFIS)制御パネル
312B 第2の電子機器フライト計測装置システム(EFIS)制御パネル
314 仮想構成要素、モード制御パネル
316 仮想構成要素、EFIS一次機能ディスプレイ(PFD)
316A 第1のEFIS一次機能ディスプレイ(PFD)
316B 第2のEFIS一次機能ディスプレイ(PFD)
318 EFISナビゲーションディスプレイ
318A 第1のEFISナビゲーションディスプレイ
318B 第2のEFISナビゲーションディスプレイ
320 スタンバイフライトディスプレイ(ISFD)
322 無線磁方位指示器(RMI)
324 エンジン多機能ディスプレイ(MFD)
326 多機能制御ディスプレイユニット(MCDU)
326A 第1の多機能制御ディスプレイユニット(MCDU)
326B 第2の多機能制御ディスプレイユニット(MCDU)
328 仮想構成要素、第1の計器群
330 仮想構成要素、第2の計器群
332 仮想構成要素、第3の計器群
400 略図
412 第1の領域
414 第2の領域
500 略図
600 略図
700 略図
712 第1の直交視線ベクトル
714 第2の直交視線ベクトル
722 視線平面
742 コーナー
744 コーナー
746 コーナー
748 コーナー
752 コーナー
754 コーナー
756 コーナー
758 コーナー
762 中心点
800 方法
900 コンピューティング環境
910 汎用コンピューティング装置
920 プロセッサ
930 システムメモリ
932 オペレーティングシステム
934 アプリケーション
936 プログラムデータ
940 記憶装置
950 入力/出力インターフェイス
960 通信インターフェイス
970 入力/出力装置
980 装置
Claims (15)
- ユーザの視線ベクトル(172)および前記ユーザの位置(174)を示すセンサデータ(162)を生成するように構成されたヘッドマウントディスプレイ(HMD)(114)と、
前記HMDと通信するように構成されたプロセッサ(122)と、
前記プロセッサに結合されたメモリ(124)であって、前記メモリは命令を記憶し、前記命令は、前記プロセッサによって実行されるとき、前記プロセッサに、
前記ユーザの前記視線ベクトルおよび前記ユーザの前記位置を示すデータを取得させ、
仮想現実シミュレータ(126)の仮想構成要素(132)の構成要素ベクトル(176)を、前記ユーザの前記位置および前記仮想構成要素の位置に基づいて決定させ、
前記視線ベクトルおよび前記構成要素ベクトルに基づいて位置合せ値(178)を計算させ、前記視線ベクトルおよび前記構成要素ベクトルは単位ベクトルであり、前記位置合せ値は、前記視線ベクトルと前記構成要素ベクトルとの内積に基づいて計算され、
前記位置合せ値に基づいて前記仮想構成要素のシミュレーション設定値(134、136、138)を調節させる、メモリ(124)と、
を備えるシステム(102)。 - 前記命令はさらに、前記プロセッサに、
前記仮想構成要素が立体面平面(284)を有するかどうかを決定させ、
前記仮想構成要素が前記立体面平面を有するという決定に応答して、前記視線ベクトルおよび前記立体面平面のコーナー(742~748)に基づいて、前記仮想構成要素の前記立体面平面の可視領域(284)を決定させ、
前記仮想構成要素の前記立体面平面の前記可視領域を決定することは、
前記立体面平面の前記コーナーの各コーナーについて、第1の直交視線ベクトル(712)と仮想環境の原点から前記立体面平面の前記コーナーへのベクトルとの内積、および第2の直交視線ベクトル(714)と前記仮想環境の前記原点から前記立体面平面の前記コーナーへの前記ベクトルとの内積に基づいて、対応するコーナー(752~758)の座標を計算し、前記対応するコーナーを前記ユーザに関連付けられた視線平面(722)に投影することと、
前記視線平面の前記コーナーに基づいて、前記仮想構成要素の前記立体面平面の前記可視領域を決定することと
を含み、
前記立体面平面の前記可視領域および前記位置合せ値に基づいて調整値(182)を計算させ、前記仮想構成要素の前記シミュレーション設定値は、前記調整値に基づいて調節される、
請求項1に記載のシステム。 - 前記命令はさらに、前記プロセッサに、プロセス間通信を使用して前記調整値に基づいてクリティカルセクション相互排除値(292)を前記仮想構成要素に割り当てさせる、請求項2に記載のシステム。
- 前記位置合せ値は元の位置合せ値(178)であり、前記命令はさらに、前記プロセッサに、前記元の位置合せ値をスケーリングしてスケーリングされた位置合せ値(278)を生成させ、前記調整値は、前記スケーリングされた位置合せ値に基づいて計算される、請求項2または3に記載のシステム。
- 前記HMDに結合された第1の入力/出力(I/O)インターフェイス(130)と、
前記プロセッサに結合された第2の(I/O)インターフェイス(130A)であって、前記センサデータを前記HMDから受信するように構成され、または前記ユーザの前記視線ベクトルおよび前記位置を示す前記データを前記HMDから受信するように構成された第2の(I/O)インターフェイス(130A)と、
をさらに備える、請求項1に記載のシステム。 - 前記命令はさらに、前記プロセッサに、前記位置合せ値に非線形的なスケーリングを適用して非線形的にスケーリングされた位置合せ値(278)を生成させ、前記仮想構成要素の前記シミュレーション設定値は、前記非線形的にスケーリングされた位置合せ値に基づいて調節される、請求項1に記載のシステム。
- 前記命令はさらに、前記プロセッサに、
前記視線ベクトルに基づいて前記仮想現実シミュレータの第1の仮想領域(412)を規定させ、
前記視線ベクトルに基づいて前記仮想現実シミュレータの第2の仮想領域(414)を規定させ、前記第1の仮想領域は円であり、前記第2の仮想領域は楕円であり、前記第2の仮想領域は前記第1の仮想領域よりも大きく、
前記命令はさらに、前記プロセッサに、前記第2の仮想領域内に位置する第1の仮想構成要素(132、312~332)に第1のシミュレーション設定値(134、136、138)を適用させ、前記第1の仮想領域および前記第2の仮想領域の外側に位置する第2の仮想構成要素(132、312~332)に第2のシミュレーション設定値(134、136、138)を適用させる、請求項1または6に記載のシステム。 - プロセッサ(122)と、
前記プロセッサに結合されたメモリ(124)であって、前記メモリは命令を記憶し、前記命令は、前記プロセッサによって実行されるとき、前記プロセッサに、
ユーザの視線ベクトル(172)および前記ユーザの位置(174)を示すデータを取得させ、
仮想現実シミュレータ(126)の仮想構成要素(132)の構成要素ベクトル(176)を、前記ユーザの前記位置および前記仮想構成要素の位置に基づいて決定させ、
前記視線ベクトルおよび前記構成要素ベクトルに基づいて位置合せ値(178)を計算させ、前記視線ベクトルおよび前記構成要素ベクトルは単位ベクトルであり、前記位置合せ値は、前記視線ベクトルと前記構成要素ベクトルとの内積に基づいて計算され、
前記位置合せ値に基づいて前記仮想構成要素のシミュレーション設定値(134、136、138)を調節させる、メモリ(124)と、
を備える装置(112)。 - 前記命令はさらに、前記プロセッサに、前記位置合せ値に非線形的なスケーリングを適用して非線形的にスケーリングされた位置合せ値(278)を生成させ、前記仮想構成要素の前記シミュレーション設定値は、前記非線形的にスケーリングされた位置合せ値に基づいて調節される、請求項8に記載の装置。
- 前記命令はさらに、前記プロセッサに、
前記視線ベクトルに基づいて前記仮想現実シミュレータの第1の仮想領域(412)を規定させ、
前記視線ベクトルに基づいて前記仮想現実シミュレータの第2の仮想領域(414)を規定させ、前記第1の仮想領域は円であり、前記第2の仮想領域は楕円であり、前記第2の仮想領域は前記第1の仮想領域よりも大きく、
前記命令はさらに、前記プロセッサに、前記第2の仮想領域内に位置する第1の仮想構成要素(132、312~332)に第1のシミュレーション設定値(134、136、138)を適用させ、前記第1の仮想領域および前記第2の仮想領域の外側に位置する第2の仮想構成要素(132、312~332)に第2のシミュレーション設定値(134、136、138)を適用させる、請求項8または9に記載の装置。 - 前記仮想構成要素は、前記仮想現実シミュレータの仮想ディスプレイ(316~238)であり、前記仮想ディスプレイのシミュレーションを調節することは、前記仮想ディスプレイの解像度を低減すること、前記仮想ディスプレイのリフレッシュレートを低減すること、前記仮想ディスプレイに関連付けられたレンダリングフレームレートを低減すること、またはそれらの組合せを含む、請求項8または9に記載の装置。
- 前記仮想現実シミュレータはフライトシミュレータであり、前記仮想構成要素はインセプタであり、前記インセプタのシミュレーションを調節することは、前記インセプタに関連付けられた処理頻度を低減することを含む、請求項8または9に記載の装置。
- 前記仮想構成要素は制御ローディングシステムであり、前記制御ローディングシステムのシミュレーションを調節することは、前記制御ローディングシステムのシミュレーションレベルを低減することを含む、請求項8または9に記載の装置。
- 命令を含むコンピュータ読み取り可能な記憶装置であって、前記命令は、実行されるとき、プロセッサに、
ユーザの視線ベクトルおよび前記ユーザの位置を示すデータを取得すること(802)と、
仮想現実シミュレータの仮想構成要素の構成要素ベクトルを、前記ユーザの前記位置および前記仮想構成要素の位置に基づいて決定すること(804)と、
前記視線ベクトルおよび前記構成要素ベクトルに基づいて位置合せ値を計算すること(806)であって、前記視線ベクトルおよび前記構成要素ベクトルは単位ベクトルであり、前記位置合せ値は、前記視線ベクトルと前記構成要素ベクトルとの内積に基づいて計算される、計算することと、
前記位置合せ値に基づいて前記仮想構成要素のシミュレーション設定値を調節すること(808)と、
を含む動作を行わせる、コンピュータ読み取り可能な記憶装置。 - 前記動作はさらに、
前記プロセッサの使用可能リソースを決定することと、
前記プロセッサの前記使用可能リソースがシミュレーション閾値(138)よりも大きいかどうかを決定することと、
前記プロセッサの前記使用可能リソースが前記シミュレーション閾値よりも大きいという決定に基づいて、前記仮想構成要素の前記シミュレーション設定値をベース値に調節することと、
を含む、請求項14に記載のコンピュータ読み取り可能な記憶装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/107,946 US10616565B2 (en) | 2018-08-21 | 2018-08-21 | System and method for foveated simulation |
US16/107,946 | 2018-08-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030805A JP2020030805A (ja) | 2020-02-27 |
JP7403249B2 true JP7403249B2 (ja) | 2023-12-22 |
Family
ID=67070634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019118516A Active JP7403249B2 (ja) | 2018-08-21 | 2019-06-26 | 中心窩シミュレーションのためのシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10616565B2 (ja) |
EP (1) | EP3614235A1 (ja) |
JP (1) | JP7403249B2 (ja) |
CN (1) | CN110850958A (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115842907A (zh) * | 2018-03-27 | 2023-03-24 | 京东方科技集团股份有限公司 | 渲染方法、计算机产品及显示装置 |
CN111736708B (zh) * | 2020-08-25 | 2020-11-20 | 歌尔光学科技有限公司 | 头戴设备及其画面显示系统和方法、检测系统和方法 |
CN114327032A (zh) * | 2021-02-08 | 2022-04-12 | 海信视像科技股份有限公司 | 一种虚拟现实设备及vr画面显示方法 |
US11939085B2 (en) | 2021-06-16 | 2024-03-26 | Beta Air, Llc | Methods and systems for wrapping simulated intra-aircraft communication to a physical controller area network |
JP2023061262A (ja) | 2021-10-19 | 2023-05-01 | キヤノン株式会社 | 画像表示システム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017085803A1 (ja) | 2015-11-18 | 2017-05-26 | 株式会社日立製作所 | 映像表示装置及び映像表示方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5400177A (en) * | 1993-11-23 | 1995-03-21 | Petitto; Tony | Technique for depth of field viewing of images with improved clarity and contrast |
US20030117397A1 (en) * | 2001-12-21 | 2003-06-26 | Hubrecht Alain Yves Nestor | Systems and methods for generating virtual reality (VR) file(s) for complex virtual environments |
US9696546B2 (en) * | 2008-06-30 | 2017-07-04 | Honeywell International Inc. | Head-mountable cockpit display system |
KR100989555B1 (ko) * | 2010-06-24 | 2010-10-25 | 주식회사 바로텍시너지 | 조종력 재현장치용 액츄에이터 |
US9015706B2 (en) * | 2010-07-08 | 2015-04-21 | Symantec Corporation | Techniques for interaction with a guest virtual machine |
DE102010035825A1 (de) * | 2010-08-30 | 2012-03-01 | Liebherr-Aerospace Lindenberg Gmbh | Steuerorgansystem und Vorrichtung zur Erzeugung eines virtuellen Echtzeitmodells |
US11714487B2 (en) | 2013-03-04 | 2023-08-01 | Tobii Ab | Gaze and smooth pursuit based continuous foveal adjustment |
US20150277118A1 (en) * | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US10416760B2 (en) * | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US10239633B2 (en) * | 2014-11-26 | 2019-03-26 | Embraer S.A. | System and method to interchange flight control inceptors in an aircraft flight control system and cockpit |
CN108351685B (zh) * | 2015-08-15 | 2022-07-08 | 谷歌有限责任公司 | 用于与真实和虚拟对象交互的基于生物力学的眼睛信号的系统和方法 |
US10204453B2 (en) * | 2015-09-04 | 2019-02-12 | Airbus Group India Private Limited | Aviation mask |
US11010956B2 (en) * | 2015-12-09 | 2021-05-18 | Imagination Technologies Limited | Foveated rendering |
US20170206707A1 (en) * | 2016-01-15 | 2017-07-20 | Anthony Guay | Virtual reality analytics platform |
US10169846B2 (en) | 2016-03-31 | 2019-01-01 | Sony Interactive Entertainment Inc. | Selective peripheral vision filtering in a foveated rendering system |
JP2018006914A (ja) * | 2016-06-29 | 2018-01-11 | フォーブ インコーポレーテッド | 外部撮像システム、外部撮像方法、外部撮像プログラム |
KR102623391B1 (ko) | 2017-01-10 | 2024-01-11 | 삼성전자주식회사 | 영상 출력 방법 및 이를 지원하는 전자 장치 |
US10152822B2 (en) * | 2017-04-01 | 2018-12-11 | Intel Corporation | Motion biased foveated renderer |
US10339692B2 (en) * | 2017-06-09 | 2019-07-02 | Sony Interactive Entertainment Inc. | Foveal adaptation of particles and simulation models in a foveated rendering system |
IL311263A (en) * | 2017-12-14 | 2024-05-01 | Magic Leap Inc | Context-based processing of virtual characters |
US10565799B2 (en) * | 2018-06-21 | 2020-02-18 | Lockheed Martin Corporation | Automatic cockpit identification and augmented image placement |
-
2018
- 2018-08-21 US US16/107,946 patent/US10616565B2/en active Active
-
2019
- 2019-06-25 EP EP19182294.9A patent/EP3614235A1/en active Pending
- 2019-06-26 JP JP2019118516A patent/JP7403249B2/ja active Active
- 2019-07-22 CN CN201910661408.6A patent/CN110850958A/zh active Pending
-
2020
- 2020-03-20 US US16/825,320 patent/US11368668B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017085803A1 (ja) | 2015-11-18 | 2017-05-26 | 株式会社日立製作所 | 映像表示装置及び映像表示方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110850958A (zh) | 2020-02-28 |
US10616565B2 (en) | 2020-04-07 |
EP3614235A1 (en) | 2020-02-26 |
US11368668B2 (en) | 2022-06-21 |
US20200068190A1 (en) | 2020-02-27 |
JP2020030805A (ja) | 2020-02-27 |
US20200221071A1 (en) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7403249B2 (ja) | 中心窩シミュレーションのためのシステムおよび方法 | |
EP3368965B1 (en) | Remote rendering for virtual images | |
CN104932677B (zh) | 互动式多驾乘者虚拟现实驾乘系统 | |
JP6058184B1 (ja) | ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム | |
US20160238852A1 (en) | Head mounted display performing post render processing | |
JP5914739B1 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
US9779702B2 (en) | Method of controlling head-mounted display system | |
CN110300994B (zh) | 图像处理装置、图像处理方法以及图像系统 | |
JP6002286B1 (ja) | ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム | |
US11244427B2 (en) | Image resolution processing method, system, and apparatus, storage medium, and device | |
CN112384843A (zh) | 动态面板掩膜 | |
US10379881B2 (en) | Delivering an immersive remote desktop | |
JP6121496B2 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
JP2017021824A (ja) | ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム | |
JP7196089B2 (ja) | 仮想現実映像の再生方法及びこれを用いたプログラム | |
KR102521557B1 (ko) | 스크롤 입력에 기반하여 이미지 표시를 제어하는 전자 장치 및 방법 | |
US11127208B2 (en) | Method for providing virtual reality image and program using same | |
KR102192153B1 (ko) | 가상현실 영상 제공 방법 및 이를 이용한 프로그램 | |
US11217204B2 (en) | Dynamically adjusting image characteristics in real-time | |
JP6121495B2 (ja) | ヘッドマウントディスプレイシステムを制御するプログラム | |
WO2020124253A1 (en) | Dynamically adjusting image characteristics in real-time | |
KR102179810B1 (ko) | 가상현실영상 재생방법 및 이를 이용한 프로그램 | |
US20240112303A1 (en) | Context-Based Selection of Perspective Correction Operations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7403249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |