JP2018536300A - バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする方法、装置、プログラム、及び記録媒体 - Google Patents
バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする方法、装置、プログラム、及び記録媒体 Download PDFInfo
- Publication number
- JP2018536300A JP2018536300A JP2017504419A JP2017504419A JP2018536300A JP 2018536300 A JP2018536300 A JP 2018536300A JP 2017504419 A JP2017504419 A JP 2017504419A JP 2017504419 A JP2017504419 A JP 2017504419A JP 2018536300 A JP2018536300 A JP 2018536300A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- image
- feature point
- mounted display
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012360 testing method Methods 0.000 title claims abstract description 372
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000010191 image analysis Methods 0.000 claims abstract description 46
- 238000012790 confirmation Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 28
- 210000004556 brain Anatomy 0.000 description 20
- 238000004891 communication Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 12
- 230000009286 beneficial effect Effects 0.000 description 12
- 210000003128 head Anatomy 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 238000004088 simulation Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 2
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012812 general test Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013522 software testing Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/324—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
Description
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するステップと、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含む、ステップと、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と、前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するステップと、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定し、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって、対応する1対の左目画像と右目画像を生成するために用いられる、ステップと、を含む。
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定し、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠であるステップと、
前記第1の間隔と前記第2の間隔との間隔差を計算するステップと、を含む。
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が予め設定された範囲に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足できないことを確定するステップ、を含む。
取得されたN対の左目画像と右目画像において、各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足することを確定し、前記Nは、1以上の整数であるステップを、更に含む。
前記テスト画像を取得するステップと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するステップと、を更に含む。
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するように構成される、第1の取得モジュールと、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得するように構成され、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点は、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含む、第2の取得モジュールと、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するように構成される、第1の確定モジュールと、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、前記テスト画像が対応する1対の左目画像と右目画像を生成するために用いられる、第2の確定モジュールと、を備える。
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定するように構成され、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠である、第1の確定サブモジュールと、
前記第1の間隔と前記第2の間隔との間隔差を計算するように構成される、第2の確定サブモジュールとを備える。
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が予め設定された範囲に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足できないことを確定するように構成される、第3の確定サブモジュールを備える。
取得されたN対の左目画像と右目画像において、各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足できることを確定するように構成され、前記Nは、1以上の整数である、第3の確定モジュールを更に備える。
前記テスト画像を取得するように構成される、第3の取得モジュールと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するように構成される、第4の取得モジュールと、を更に備える。
プロセッサーと、
プロセッサーにより実行可能な命令を記憶するための、メモリとを備え、
ここで、前記プロセッサーは、
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得し、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含み、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定し、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、前記テスト画像が対応する1対の左目画像と右目画像を生成するために用いられる。
なお、テスト装置に記憶されている予め設定された色値は、1つでもよく、2つ又はそれ以上であってもよいため、テスト装置は、1組の特徴点又は複数組の特徴点を取得することができ、各組の特徴点はそれぞれ同様の予め設定された色値を1つ有する。
第1の取得モジュール401は、バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するように構成され、
第2の取得モジュール402は、前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得するように構成され、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含み、
第1の確定モジュール403は、各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するように構成され、
第2の確定モジュール404は、前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって対応する1対の左目画像と右目画像を生成するために用いられる。
第1の確定サブモジュール4031は、各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定するように構成され、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠であり、
第2の確定サブモジュール4032は、前記第1の間隔と前記第2の間隔との間隔差を計算するように構成される。
第3の取得モジュール406は、前記テスト画像を取得するように構成され、
第4の取得モジュール407は、前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するように構成される。
プロセッサーと、
プロセッサーにより実行可能な命令を記憶するための、メモリとを備え、
前記プロセッサーは、
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得し、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含み、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定し、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって対応する1対の左目画像と右目画像を生成するために用いれる、バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする装置。
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定し、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠である、ステップと、
前記第1の間隔と前記第2の間隔との間隔差を計算するステップとを含む。
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が予め設定された範囲に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満たすことができないことを確定するステップを含む。
取得されたN対の左目画像と右目画像において、各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目による観測可能な立体的な画像を生成する条件を満足することを確定し、前記Nは1以上の整数である、ステップを含む。
前記テスト画像を取得するステップと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するステップと、を更に含む。
前記N対の左目画像と右目画像において各対の左目画像と右目画像はそれぞれ異なる、ように構成されていてもよい。
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するステップと、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含む、ステップと、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するステップと、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定し、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって、対応する1対の左目画像と右目画像を生成するために用いられる、ステップと、を含む。
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定し、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠であるステップと、
前記第1の間隔と前記第2の間隔との間隔差を計算するステップとを含む。
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が予め設定された範囲に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満たすことができないことを確定するステップを含む。
取得されたN対の左目画像と右目画像において各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足することを確定し、前記Nは1以上の整数であるステップを更に含む。
前記方法は、
前記テスト画像を取得するステップと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するステップと、を更に含む。
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するステップと、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含む、ステップと、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と、前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するステップと、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定し、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって、対応する1対の左目画像と右目画像を生成するために用いられる、ステップと、を含む。
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定し、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠であるステップと、
前記第1の間隔と前記第2の間隔との間隔差を計算するステップと、を含む。
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が予め設定された範囲に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足できないことを確定するステップ、を含む。
取得されたN対の左目画像と右目画像において、各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足することを確定し、前記Nは、1以上の整数であるステップを、更に含む。
前記テスト画像を取得するステップと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するステップと、を更に含む。
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するように構成される、第1の取得モジュールと、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得するように構成され、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点は、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含む、第2の取得モジュールと、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するように構成される、第1の確定モジュールと、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、前記テスト画像が対応する1対の左目画像と右目画像を生成するために用いられる、第2の確定モジュールと、を備える。
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定するように構成され、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠である、第1の確定サブモジュールと、
前記第1の間隔と前記第2の間隔との間隔差を計算するように構成される、第2の確定サブモジュールとを備える。
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が予め設定された範囲に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足できないことを確定するように構成される、第3の確定サブモジュールを備える。
取得されたN対の左目画像と右目画像において、各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足できることを確定するように構成され、前記Nは、1以上の整数である、第3の確定モジュールを更に備える。
前記テスト画像を取得するように構成される、第3の取得モジュールと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するように構成される、第4の取得モジュールと、を更に備える。
プロセッサーと、
プロセッサーにより実行可能な命令を記憶するための、メモリとを備え、
ここで、前記プロセッサーは、
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得し、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含み、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定し、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、前記テスト画像が対応する1対の左目画像と右目画像を生成するために用いられる。
なお、テスト装置に記憶されている予め設定された色値は、1つでもよく、2つ又はそれ以上であってもよいため、テスト装置は、1組の特徴点又は複数組の特徴点を取得することができ、各組の特徴点はそれぞれ同様の予め設定された色値を1つ有する。
第1の取得モジュール401は、バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するように構成され、
第2の取得モジュール402は、前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得するように構成され、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含み、
第1の確定モジュール403は、各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するように構成され、
第2の確定モジュール404は、前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって対応する1対の左目画像と右目画像を生成するために用いられる。
第1の確定サブモジュール4031は、各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定するように構成され、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠であり、
第2の確定サブモジュール4032は、前記第1の間隔と前記第2の間隔との間隔差を計算するように構成される。
第3の取得モジュール406は、前記テスト画像を取得するように構成され、
第4の取得モジュール407は、前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するように構成される。
プロセッサーと、
プロセッサーにより実行可能な命令を記憶するための、メモリとを備え、
前記プロセッサーは、
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得し、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含み、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定し、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって対応する1対の左目画像と右目画像を生成するために用いれる、バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする装置。
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定し、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠である、ステップと、
前記第1の間隔と前記第2の間隔との間隔差を計算するステップとを含む。
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が予め設定された範囲に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満たすことができないことを確定するステップを含む。
取得されたN対の左目画像と右目画像において、各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目による観測可能な立体的な画像を生成する条件を満足することを確定し、前記Nは1以上の整数である、ステップを含む。
前記テスト画像を取得するステップと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するステップと、を更に含む。
前記N対の左目画像と右目画像において各対の左目画像と右目画像はそれぞれ異なる、ように構成されていてもよい。
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するステップと、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含む、ステップと、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するステップと、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定し、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって、対応する1対の左目画像と右目画像を生成するために用いられる、ステップと、を含む。
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定し、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠であるステップと、
前記第1の間隔と前記第2の間隔との間隔差を計算するステップとを含む。
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が予め設定された範囲に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満たすことができないことを確定するステップを含む。
取得されたN対の左目画像と右目画像において各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足することを確定し、前記Nは1以上の整数であるステップを更に含む。
前記方法は、
前記テスト画像を取得するステップと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するステップと、を更に含む。
Claims (13)
- バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するステップと、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含む、ステップと、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するステップと、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定し、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって、対応する1対の左目画像と右目画像を生成するために用いられる、ステップと、を含むことを特徴とする、バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする方法。 - 前記各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するステップは、
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定し、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠である、ステップと、
前記第1の間隔と前記第2の間隔との間隔差を計算するステップと、を含むことを特徴とする、請求項1に記載の方法。 - 前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するステップは、
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が、予め設定された範囲に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満たすことができないことを確定するステップを含むことを特徴とする、請求項2に記載の方法。 - 前記方法は、
取得されたN対の左目画像と右目画像において、各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足することを確定し、前記Nは1以上の整数である、ステップを更に含むことを特徴とする、請求項2に記載の方法。 - 前記方法は、
前記テスト画像を取得するステップと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するステップと、を更に含むことを特徴とする、請求項1〜4の何れか1項に記載の方法。 - 前記N対の左目画像と右目画像において各対の左目画像と右目画像はそれぞれ異なることを特徴とする、請求項4に記載の方法。
- バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得するように構成される第1の取得モジュールと、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得するように構成され、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含む、第2の取得モジュールと、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定するように構成される第1の確定モジュールと、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって、対応する1対の左目画像と右目画像を生成するために用いられる、第2の確定モジュールとを備えることを特徴とする、バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストするための装置。 - 前記第1の確定モジュールは、
各組の特徴点位置によって、前記左目特徴点と前記左目画像の第1の枠との間の第1の間隔、及び前記右目特徴点と前記右目画像の第2の枠との間の第2の間隔を確定するように構成され、前記第1の枠と前記第2の枠のいずれも左枠であり、又は、前記第1の枠と前記第2の枠のいずれも右枠である、第1の確定サブモジュールと、
前記第1の間隔と前記第2の間隔との間隔差を計算するように構成される第2の確定サブモジュールと、を備えることを特徴とする、請求項7に記載の装置。 - 前記第2の確定モジュールは、
いずれか1組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差が予め設定された範囲内に入っていない場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満たすことができないことを確定するするように構成される第3の確定サブモジュールを備えることを特徴とする、請求項8に記載の装置。 - 前記装置は、
取得されたN対の左目画像と右目画像において、各組の特徴点位置によって確定された、前記第1の間隔と前記第2の間隔との間隔差のいずれも予め設定された範囲内に入っている場合に、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する条件を満足することができることを確定するように構成され、前記Nは1以上の整数である、第3の確定モジュールを更に備えることを特徴とする、請求項8に記載の装置。 - 前記装置は、
前記テスト画像を取得するように構成される第3の取得モジュールと、
前記テスト画像に対して画像分析を行い、前記予め設定された色値を取得するように構成される第4の取得モジュールとを、更に備えることを特徴とする、請求項7〜10の何れか1項に記載の装置。 - 前記N対の左目画像と右目画像において各対の左目画像と右目画像はそれぞれ異なることを特徴とする、請求項10に記載の装置。
- プロセッサーと、
プロセッサーにより実行可能な命令を記憶するためのメモリとを備える、バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストするための装置であって、
前記プロセッサーは、
バーチャルリアリティヘッドマウントディスプレイ機器からテスト画像が対応する1対の左目画像と右目画像を複数回取得し、
前記1対の左目画像と右目画像に対して画像分析を行い、複数組の特徴点位置を取得し、各組の特徴点位置は、左目特徴点の前記左目画像における第1の位置と右目特徴点の前記右目画像における第2の位置とを含み、各組の前記左目特徴点と前記右目特徴点とは、同様の予め設定された色値を有し、前記予め設定された色値は、前記テスト画像における各画素点の色値のうちの一意性を有する色値を含み、
各組の前記左目特徴点と前記右目特徴点に対して、各組の特徴点位置によって、前記左目特徴点の前記左目画像における第1の相対位置と前記右目特徴点の前記右目画像における第2の相対位置との違いを確定し、
前記第1の相対位置と前記第2の相対位置との違いによって、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアが人間の目で観測可能な立体的な画像を生成する結果を確定するように構成され、前記バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアは、予め記憶された前記テスト画像によって、対応する1対の左目画像と右目画像を生成するために用いられる、ことを特徴とする、バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストするための装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610798359.7 | 2016-08-31 | ||
CN201610798359.7A CN106325521B (zh) | 2016-08-31 | 2016-08-31 | 测试虚拟现实头显设备软件的方法及装置 |
PCT/CN2016/107714 WO2018040328A1 (zh) | 2016-08-31 | 2016-11-29 | 测试虚拟现实头显设备软件的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018536300A true JP2018536300A (ja) | 2018-12-06 |
JP6560740B2 JP6560740B2 (ja) | 2019-08-14 |
Family
ID=57787721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017504419A Active JP6560740B2 (ja) | 2016-08-31 | 2016-11-29 | バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする方法、装置、プログラム、及び記録媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10178379B2 (ja) |
EP (1) | EP3291548A1 (ja) |
JP (1) | JP6560740B2 (ja) |
CN (1) | CN106325521B (ja) |
RU (1) | RU2665901C1 (ja) |
WO (1) | WO2018040328A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106325521B (zh) | 2016-08-31 | 2018-06-29 | 北京小米移动软件有限公司 | 测试虚拟现实头显设备软件的方法及装置 |
CN106932904A (zh) | 2017-02-27 | 2017-07-07 | 阿里巴巴集团控股有限公司 | 虚拟现实头戴设备 |
CN107396082B (zh) * | 2017-07-14 | 2020-04-21 | 歌尔股份有限公司 | 一种图像数据的处理方法和装置 |
CN107657654B (zh) * | 2017-09-21 | 2021-11-23 | 北京小鸟看看科技有限公司 | 一种虚拟现实场景渲染方法、装置和头戴显示设备 |
CN110134222A (zh) * | 2018-02-02 | 2019-08-16 | 上海集鹰科技有限公司 | 一种vr头显定位瞄准系统及其定位瞄准方法 |
US11189054B2 (en) * | 2018-09-28 | 2021-11-30 | Apple Inc. | Localization and mapping using images from multiple devices |
US11004256B2 (en) * | 2019-05-08 | 2021-05-11 | Citrix Systems, Inc. | Collaboration of augmented reality content in stereoscopic view in virtualized environment |
US11687427B2 (en) * | 2020-04-03 | 2023-06-27 | T-Mobile Usa, Inc. | Multiple XR extended reality application validation process and testing |
CN113138560A (zh) * | 2021-04-12 | 2021-07-20 | 维沃移动通信有限公司 | 终端控制方法、装置、设备及可读存储介质 |
US11886227B1 (en) | 2022-07-13 | 2024-01-30 | Bank Of America Corporation | Virtual-reality artificial-intelligence multi-user distributed real-time test environment |
CN115278203A (zh) * | 2022-07-20 | 2022-11-01 | 广州视享科技有限公司 | 虚拟现实设备的校准方法、校准装置以及校准机器人 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07167633A (ja) * | 1993-08-26 | 1995-07-04 | Matsushita Electric Ind Co Ltd | 立体画像撮像及び表示装置 |
JPH08211332A (ja) * | 1995-02-03 | 1996-08-20 | Olympus Optical Co Ltd | 立体映像再生装置 |
JPH099300A (ja) * | 1995-06-26 | 1997-01-10 | Matsushita Electric Ind Co Ltd | 立体表示装置 |
JPH0974573A (ja) * | 1995-06-29 | 1997-03-18 | Matsushita Electric Ind Co Ltd | 立体cg画像生成装置 |
JP2003199126A (ja) * | 2001-12-25 | 2003-07-11 | Canon Inc | 画像処理装置およびその方法 |
JP2012249192A (ja) * | 2011-05-30 | 2012-12-13 | Toshiba Corp | 三次元映像処理装置および鑑賞位置チェック方法 |
WO2012172719A1 (ja) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3673217B2 (ja) * | 2001-12-20 | 2005-07-20 | オリンパス株式会社 | 映像表示装置 |
RU2322771C2 (ru) * | 2005-04-25 | 2008-04-20 | Святослав Иванович АРСЕНИЧ | Стереопроекционная система |
JP4689639B2 (ja) * | 2007-04-25 | 2011-05-25 | キヤノン株式会社 | 画像処理システム |
CN102427542B (zh) * | 2011-09-28 | 2014-07-30 | 深圳超多维光电子有限公司 | 一种立体图像处理方法、图像处理装置和相应的终端设备 |
CN103597823B (zh) * | 2012-02-16 | 2017-11-03 | 索尼公司 | 发送装置、发送方法和接收器装置 |
CN104272732B (zh) * | 2012-05-09 | 2016-06-01 | 富士胶片株式会社 | 图像处理装置、方法及摄像装置 |
KR101511315B1 (ko) * | 2012-10-30 | 2015-04-14 | 한국과학기술원 | 스테레오스코픽 컨텐츠를 위한 다이나믹 플로팅 윈도우 생성 방법 및 시스템 |
US9118911B2 (en) * | 2013-02-07 | 2015-08-25 | Delphi Technologies, Inc. | Variable disparity three-dimensional (3D) display system and method of operating the same |
US20160033770A1 (en) * | 2013-03-26 | 2016-02-04 | Seiko Epson Corporation | Head-mounted display device, control method of head-mounted display device, and display system |
WO2015066037A1 (en) * | 2013-10-28 | 2015-05-07 | Brown University | Virtual reality methods and systems |
CN103595990B (zh) * | 2013-10-30 | 2015-05-20 | 清华大学 | 运动感知的双目立体视频舒适度获取方法 |
US9942532B2 (en) * | 2015-11-03 | 2018-04-10 | International Business Machines Corporation | Eye-fatigue reduction system for head-mounted displays |
CN105867606A (zh) * | 2015-12-15 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 虚拟现实头盔中的图像获取方法、装置及虚拟现实头盔 |
CN105787980B (zh) * | 2016-03-17 | 2018-12-25 | 北京牡丹视源电子有限责任公司 | 一种检测虚拟现实显示设备视场角的方法及系统 |
CN106325521B (zh) | 2016-08-31 | 2018-06-29 | 北京小米移动软件有限公司 | 测试虚拟现实头显设备软件的方法及装置 |
-
2016
- 2016-08-31 CN CN201610798359.7A patent/CN106325521B/zh active Active
- 2016-11-29 JP JP2017504419A patent/JP6560740B2/ja active Active
- 2016-11-29 RU RU2017126372A patent/RU2665901C1/ru active
- 2016-11-29 WO PCT/CN2016/107714 patent/WO2018040328A1/zh active Application Filing
-
2017
- 2017-07-13 EP EP17181232.4A patent/EP3291548A1/en not_active Ceased
- 2017-08-29 US US15/689,675 patent/US10178379B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07167633A (ja) * | 1993-08-26 | 1995-07-04 | Matsushita Electric Ind Co Ltd | 立体画像撮像及び表示装置 |
JPH08211332A (ja) * | 1995-02-03 | 1996-08-20 | Olympus Optical Co Ltd | 立体映像再生装置 |
JPH099300A (ja) * | 1995-06-26 | 1997-01-10 | Matsushita Electric Ind Co Ltd | 立体表示装置 |
JPH0974573A (ja) * | 1995-06-29 | 1997-03-18 | Matsushita Electric Ind Co Ltd | 立体cg画像生成装置 |
JP2003199126A (ja) * | 2001-12-25 | 2003-07-11 | Canon Inc | 画像処理装置およびその方法 |
JP2012249192A (ja) * | 2011-05-30 | 2012-12-13 | Toshiba Corp | 三次元映像処理装置および鑑賞位置チェック方法 |
WO2012172719A1 (ja) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
Also Published As
Publication number | Publication date |
---|---|
RU2665901C1 (ru) | 2018-09-04 |
CN106325521A (zh) | 2017-01-11 |
CN106325521B (zh) | 2018-06-29 |
US20180063517A1 (en) | 2018-03-01 |
US10178379B2 (en) | 2019-01-08 |
JP6560740B2 (ja) | 2019-08-14 |
WO2018040328A1 (zh) | 2018-03-08 |
EP3291548A1 (en) | 2018-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6560740B2 (ja) | バーチャルリアリティヘッドマウントディスプレイ機器ソフトウェアをテストする方法、装置、プログラム、及び記録媒体 | |
KR102194094B1 (ko) | 가상과 실제 물체의 합성 방법, 장치, 프로그램 및 기록매체 | |
US10349171B2 (en) | Electronic device, peripheral devices and control method therefor | |
US20140111660A1 (en) | Method, Apparatus, and Mobile Device for Photographing Processing | |
CN109582122B (zh) | 增强现实信息提供方法、装置及电子设备 | |
EP3312702B1 (en) | Method and device for identifying gesture | |
CN110853095B (zh) | 相机定位方法、装置、电子设备及存储介质 | |
EP3286601B1 (en) | A method and apparatus for displaying a virtual object in three-dimensional (3d) space | |
US20200402321A1 (en) | Method, electronic device and storage medium for image generation | |
CN104735348A (zh) | 双摄像头拍照方法和系统 | |
CN106774849B (zh) | 虚拟现实设备控制方法及装置 | |
CN112017133B (zh) | 一种图像展示方法、装置及电子设备 | |
WO2023184816A1 (zh) | 一种云桌面的展示方法、装置、设备及存储介质 | |
WO2019227485A1 (zh) | 用于无线电模拟的增强现实的方法、设备 | |
CN106909481B (zh) | 接口测试方法、接口测试装置和电子设备 | |
US20200036957A1 (en) | Method and apparatus for controlling image display | |
CN107133028B (zh) | 一种信息处理方法及电子设备 | |
US20210125339A1 (en) | Method and device for segmenting image, and storage medium | |
JP2019032713A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN105447829A (zh) | 图像处理方法及装置 | |
CN104581122A (zh) | 三维图像的生成方法、装置、系统及移动终端 | |
CN106598217B (zh) | 显示方法、显示装置和电子设备 | |
CN117490986B (zh) | 立体显示效果的评判方法、装置、设备及介质 | |
WO2024040398A1 (zh) | 矫正函数的生成、图像矫正方法及装置 | |
CN111986333B (zh) | 基于增强现实的图像生成方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6560740 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |