JP7311511B2 - ウェアラブルデバイスのテスト方法およびシステム - Google Patents

ウェアラブルデバイスのテスト方法およびシステム Download PDF

Info

Publication number
JP7311511B2
JP7311511B2 JP2020529438A JP2020529438A JP7311511B2 JP 7311511 B2 JP7311511 B2 JP 7311511B2 JP 2020529438 A JP2020529438 A JP 2020529438A JP 2020529438 A JP2020529438 A JP 2020529438A JP 7311511 B2 JP7311511 B2 JP 7311511B2
Authority
JP
Japan
Prior art keywords
virtual image
target virtual
image
target
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020529438A
Other languages
English (en)
Other versions
JP2021507334A (ja
Inventor
▲賀▼亮 邸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Publication of JP2021507334A publication Critical patent/JP2021507334A/ja
Application granted granted Critical
Publication of JP7311511B2 publication Critical patent/JP7311511B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/0257Testing optical properties by measuring geometrical properties or aberrations by analyzing the image formed by the object to be tested
    • G01M11/0264Testing optical properties by measuring geometrical properties or aberrations by analyzing the image formed by the object to be tested by using targets or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、2018年12月10日に提出されたPCT/CN2018/120057の国家段階出願であり、本発明は、2017年12月15日に提出された出願番号201711349293.4、発明の名称「ウェアラブルデバイスのテスト方法およびシステム」の中国特許出願の優先権を主張し、その全ての内容は参照により本明細書に援用する。
本発明は電子技術適用の分野に属し、特にウェアラブルデバイスのテスト方法およびシステムに関するものである。
仮想現実(英語:Virtual Reality、略称:VR)技術と拡張現実(英語:Augmented Reality、略称:AR)技術は近年、市場で人気のある技術であり、ここで、VR技術は、コンピュータグラフィックスシステムと様々なインターフェースデバイスを利用して、コンピュータ上でインタラクティブ可能な三次元環境(すなわちバーチャルシーン)を生成し、当該三次元環境を利用してユーザに没入感を提供する技術であり、AR技術は、リアルシーンとバーチャルシーンをリアルタイムで重ね合わせることができ、ユーザによりリアルな拡張現実シーンを提供し、ユーザの没入感をさらに高めることができる。ここで、没入感とは、ユーザが拡張現実におけるシーンを現実のシーンとして知覚するときに、空間的な意味で当該拡張現実シーンに身を置く感覚である。
VR技術やAR技術を採用したウェアラブルデバイスは、1つのレンズコンポーネントを有し、当該レンズコンポーネントの一側にはディスプレイが設けられ、当該ディスプレイに表示された画像は、当該レンズコンポーネントによってターゲット虚像を形成し、ユーザは、レンズコンポーネントの他側で見ることによって、当該ターゲット虚像を見る。
本発明の実施例は、ウェアラブルデバイスのテスト方法およびシステムを提供し、技術案は以下の通りである。
第1の側面において、
少なくとも2回の角度取得プロセスを実行することを含み、前記角度取得プロセスは、
画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、前記ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動し、前記ターゲット虚像は、実際のテスト画像がウェアラブルデバイスのレンズコンポーネントを介して表示された虚像であり、前記テスト画像は、前記ウェアラブルデバイスにおけるディスプレイによって表示され、前記イメージング領域の中心点が前記初期指定点に位置合わせた場合、前記イメージング領域の中心点と前記初期指定点を結ぶ線は、前記ディスプレイに対し垂直であることと、
ターゲット虚像の初期指定点に位置合わせることから前記ターゲット虚像のターゲット指定点に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の角度変化値を取得することと、
前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することと、
を含む、
ウェアラブルデバイスのテスト方法に関する。
選択肢の一つとして、前記テスト画像は矩形であり、前記光学イメージングパラメータ値は前記ターゲット虚像の虚像距離であり、
前記少なくとも2回の角度取得プロセスを実行することは、
前記画像取得コンポーネントと前記ウェアラブルデバイスとの距離を第1収集距離として設定し、前記ターゲット虚像の中心点を前記初期指定点とし、前記ターゲット虚像のn個の境界の中心点を前記ターゲット指定点とすることにより、n回の前記角度取得プロセスをそれぞれ実行して、n個の第1角度変化値を得て、1≦n≦4であることと、
前記画像取得コンポーネントと前記ウェアラブルデバイスとの距離を第2収集距離として設定し、前記ターゲット虚像の中心点を前記初期指定点とし、前記ターゲット虚像のn個の境界の中心点を前記ターゲット指定点とすることにより、n回の前記角度取得プロセスをそれぞれ実行して、n個の第2角度変化値を得ることと、
を含む。
選択肢の一つとして、前記前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することは、
前記n個の第1角度変化値と前記n個の第2角度変化値に基づいて、n個の前記ターゲット指定点に対応する距離変化値を計算し、i番目のターゲット指定点に対応する距離変化値dは、
Figure 0007311511000001
を満たし、
ここで、1≦i≦nであり、前記t1は前記第1収集距離であり、前記t2は前記第2収集距離であり、前記φi1は、前記画像取得コンポーネントと前記ウェアラブルデバイスとの距離が第1収集距離である場合、ターゲット虚像の初期指定点に位置合わせることから前記i番目のターゲット指定点に位置合わせることまで相対的に回動された前記イメージング領域の中心点の角度変化値であり、前記φi2は、前記画像取得コンポーネントと前記ウェアラブルデバイスとの距離が第2収集距離である場合、ターゲット虚像の初期指定点に位置合わせることから前記i番目のターゲット指定点に位置合わせることまで相対的に回動された前記イメージング領域の中心点の角度変化値であることと、
n個の前記ターゲット指定点に対応する距離変化値の平均値の絶対値を前記ターゲット虚像の虚像距離として確定することと、
を含む。
選択肢の一つとして、n=4であり、前記n個のターゲット指定点は、それぞれ前記ターゲット虚像の左境界の中心点、前記ターゲット虚像の右境界の中心点、前記ターゲット虚像の上境界の中心点、及び前記ターゲット虚像の下境界の中心点である。
選択肢の一つとして、前記ディスプレイ全体に前記テスト画像が表示され、前記テスト画像は矩形であり、前記光学イメージングパラメータ値は前記ターゲット虚像の寸法であり、
前記少なくとも2回の角度取得プロセスを実行することは、
前記ターゲット虚像の異なるm個の第1頂点を前記初期指定点として、1≦m≦4であることと、
前記m個の第1頂点の各々について、前記ターゲット虚像のうち前記第1頂点に隣接する2個の第2頂点を前記ターゲット指定点として、2回の前記角度取得プロセスをそれぞれ実行して、前記第1頂点に対応する2個の第3角度変化値を得ることと、
を含む。
選択肢の一つとして、前記ターゲット虚像の寸法は、前記ターゲット虚像の対角線長を含み、
前記前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することは、
前記m個の第1頂点に対応する2m個の第3角度変化値に基づいて、前記ターゲット虚像の幅と前記ターゲット虚像の高さを計算することと、
前記ターゲット虚像の幅と前記ターゲット虚像の高さに基づいて、前記ターゲット虚像の対角線長を計算することと、
を含む。
選択肢の一つとして、前記前記m個の第1頂点に対応する2m個の第3角度変化値に基づいて、前記ターゲット虚像の幅と前記ターゲット虚像の高さを計算することは、
前記2m個の第3角度変化値のうち角度変化方向が前記ターゲット虚像の幅方向に平行する第3角度変化値に基づいて、m個のターゲット虚像の幅を計算することと、
前記2m個の第3角度変化値のうち角度変化方向が前記ターゲット虚像の高さ方向に平行する第3角度変化値に基づいて、m個のターゲット虚像の高さを計算することと、
k番目の第1頂点に対応するターゲット虚像の幅wとk番目の第1頂点に対応するターゲット虚像の高さhは、
=|(t+d)×tanβk|
=|(t+d)×tanαk|
を満たし、
ここで、1≦k≦mであり、前記dは前記ターゲット虚像の虚像距離であり、前記tは画像取得コンポーネントの収集距離であり、前記βkは、前記k番目の第1頂点に対応する2個の第3角度変化値のうち角度変化方向が前記ターゲット虚像の幅方向に平行する第3角度変化値であり、前記αkは、前記k番目の第1頂点に対応する2個の第3角度変化値のうち角度変化方向が前記ターゲット虚像の高さ方向に平行する第3角度変化値であることと、
前記m個のターゲット虚像の幅の平均値を前記ターゲット虚像の幅とすることと、
前記m個のターゲット虚像の高さの平均値を前記ターゲット虚像の高さとすることと、
を含む。
選択肢の一つとして、m=2であり、前記m個の第1頂点は、前記ターゲット虚像の同一対角線上に位置する。
選択肢の一つとして、前記前記ターゲット虚像の幅と前記ターゲット虚像の高さに基づいて、前記ターゲット虚像の対角線長を計算することは、
対角線計算式、前記ターゲット虚像の幅wと前記ターゲット虚像の高さhに基づいて、前記ターゲット虚像の対角線長vを計算し、前記対角線計算式は、
Figure 0007311511000002
であり、単位はインチであること、
を含む。
選択肢の一つとして、前記テスト画像は矩形であり、前記光学イメージングパラメータ値は前記ターゲット虚像の視角であり、
前記少なくとも2回の角度取得プロセスを実行することは、
前記ターゲット虚像の4個の境界の中心点を前記初期指定点とし、各初期指定点が位置する境界の境界消失点を前記各初期指定点に対応するターゲット指定点とすることにより、4回の前記角度取得プロセスをそれぞれ実行して、4個の第4角度変化値を得ること、
を含む。
選択肢の一つとして、前記前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することは、
4個の第4角度変化値のうち前記ターゲット虚像の幅方向に平行する第4角度変化値λとλに基づいて、前記ターゲット虚像の水平視角λ水平を計算することと、
4個の第4角度変化値のうち前記ターゲット虚像の高さ方向に平行する第4角度変化値λとλに基づいて、前記ターゲット虚像の垂直視角λ垂直を計算することと、
を含み、
ここで、前記λ水平と前記λ垂直はそれぞれ、
λ水平=λ+λ、λ垂直=λ+λ
を満たす。
前記光学イメージングパラメータ値は、前記ターゲット虚像の歪み量であり、
前記前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することは、
4個の前記ターゲット指定点に対応する距離変化値、4個の第5角度変化値及び前記4個の第5角度変化値に対応する画像取得コンポーネントの第3収集距離に基づいて、前記ターゲット虚像の歪み量を確定し、前記第5角度変化値は、前記第1角度変化値または前記第2角度変化値であること、
を含む。
選択肢の一つとして、前記4個の前記ターゲット指定点に対応する距離変化値、4個の第5角度変化値及び前記4個の第5角度変化値に対応する画像取得コンポーネントの第3収集距離に基づいて、前記ターゲット虚像の歪み量を確定することは、
前記第3収集距離t3、前記4個の第5角度変化値のうち角度変化方向が前記ターゲット虚像の幅方向に平行する第5角度変化値θとθ、及び対応する距離変化値dとdに基づいて、前記ターゲット虚像の歪み幅wを計算することと、
前記第3収集距離t3、前記4個の第5角度変化値のうち角度変化方向が前記ターゲット虚像の高さ方向に平行する第5角度変化値θとθ、及び対応する距離変化値dとdに基づいて、前記ターゲット虚像の歪み高さhを計算することと、
前記歪み幅wと前記ターゲット虚像の幅に基づいて、前記ターゲット虚像の幅歪み量Dを確定することと、
前記歪み高さhと前記ターゲット虚像の高さに基づいて、前記ターゲット虚像の高さ歪み量Dを確定することと、
を含む。
前記歪み幅wと前記歪み高さhはそれぞれ、
=(d+t3)×tanθ+(d+t3)×tanθ
=(d+t3)×tanθ+(d+t3)×tanθ
を満たす。
選択肢の一つとして、前記前記歪み幅wと前記ターゲット虚像の幅に基づいて、前記ターゲット虚像の幅歪み量Dを確定することは、
前記歪み幅wとp回のテストで得られたターゲット虚像のそれぞれの幅との差の絶対値を計算することにより、p個の幅の差の絶対値を得て、前記pは1以上の整数であることと、
前記p個の幅の差の絶対値の平均値が前記歪み幅wに占める割合を、前記ターゲット虚像の幅歪み量Dとして確定することと、
を含み、
前記前記歪み高さhと前記ターゲット虚像の高さに基づいて、前記ターゲット虚像の高さ歪み量Dを確定することは、
前記歪み高さhとp回のテストで得られたターゲット虚像のそれぞれの高さとの差の絶対値を計算することにより、p個の高さの差の絶対値を得ることと、
前記p個の高さの差の絶対値の平均値が前記歪み高さhに占める割合を、前記ターゲット虚像の高さ歪み量Dとして確定することと、
を含む。
選択肢の一つとして、前記画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、前記ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動することは、
前記ウェアラブルデバイスを固定し、前記画像取得コンポーネントを揺動することにより、前記イメージング領域の中心点を、前記初期指定点に位置合わせることから、前記ターゲット指定点に位置合わせることまで相対的に回動すること、
または、
前記画像取得コンポーネントを固定し、前記ウェアラブルデバイスを回転することにより、前記イメージング領域の中心点を、前記初期指定点に位置合わせることから、前記ターゲット指定点に位置合わせることまで相対的に回動すること、
を含む。
選択肢の一つとして、前記初期指定点が前記ターゲット虚像の中心点でない場合、前記角度取得プロセスは、
前記画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、前記ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動することの前に、前記イメージング領域の中心点を前記ターゲット虚像の中心点に位置合わせ、前記イメージング領域の中心点と前記初期指定点を結ぶ線は、前記ディスプレイに対し垂直であることと、
前記イメージング領域の中心点を前記初期指定点に移動することと、
をさらに含む。
選択肢の一つとして、前記テスト画像は、第1色をベースとし、第2色を辺とする矩形画像であり、前記テスト画像には2つの垂直交差した第2色の対称軸が表示され、前記第1色と前記第2色は異なる。
選択肢の一つとして、前記テスト画像にはマトリックス状に配置された第2色の複数のアライメントフレームも表示され、前記複数のアライメントフレームは、前記テスト画像の矩形境界との共通の対称軸を有する中央アライメントフレームと、前記テスト画像の頂点と境界の中点の少なくとも1つをそれぞれ囲む複数のエッジアライメントフレームとを含み、各前記エッジアライメントフレームのすべての境界と前記中央アライメントフレームの一部の境界とは合同であり、
前記画像取得コンポーネントによって収集された画像には重ね合わせ画像が表示され、前記重ね合わせ画像は、第3色の重ね合わせアライメントフレームと、第3色の前記重ね合わせアライメントフレームの対角線とを含み、前記重ね合わせアライメントフレームの境界形状と前記中央アライメントフレームの境界形状は、類似した図形であり、前記対角線の交点は、前記イメージング領域の中心点である。
別の側面において、
コントローラと画像取得コンポーネントとを含み、
前記コントローラは、少なくとも2回の角度取得プロセスを実行し、前記角度取得プロセスは、
前記画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、前記ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動し、前記ターゲット虚像は、実際のテスト画像がウェアラブルデバイスのレンズコンポーネントを介して表示された虚像であり、前記テスト画像は、前記ウェアラブルデバイスにおけるディスプレイによって表示され、前記イメージング領域の中心点が前記初期指定点に位置合わせた場合、前記イメージング領域の中心点と前記初期指定点を結ぶ線は、前記ディスプレイに対し垂直であることと、
ターゲット虚像の初期指定点に位置合わせることから前記ターゲット虚像のターゲット指定点に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の角度変化値を取得することと、
前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することと、
を含む、
ウェアラブルデバイスのテストシステムに関する。
選択肢の一つとして、
ベース、支持柱、テスト載置台をさらに含み、ここで、前記支持柱の一端は前記ベースに回動可能に接続され、前記支持柱の他端は前記テスト載置台に固定されて接続され、
前記テスト載置台は、前記ウェアラブルデバイスをセットするために使用され、
前記コントローラは、前記ベース上で回転するように前記支持柱を制御するように構成される。
選択肢の一つとして、
支持フレームと回転構造とをさらに含み、前記回転構造の一端は前記支持フレームに回動可能に接続され、前記回転構造の他端は前記画像取得コンポーネントに固定されて接続され、
前記コントローラは、前記支持フレーム上で回転するように前記回転構造を制御するように構成される。
選択肢の一つとして、前記回転構造はチルトヘッドであり、前記画像取得コンポーネントはビデオカメラである。
選択肢の一つとして、前記ウェアラブルデバイスは、仮想現実デバイス、拡張現実デバイス、または複合現実デバイスである。
また別の側面において、
プロセッサと、
前記プロセッサの実行可能な指令を記憶するメモリと、
を含み、
前記プロセッサは、前記実行可能な指令を実行するとき、上記のいずれかのウェアラブルデバイスのテスト方法を実現する。
さらに別の側面において、コンピュータ読取可能な記憶媒体を関し、
前記コンピュータ読取可能な記憶媒体における指令が処理コンポーネントによって実行されるとき、上記のいずれかのウェアラブルデバイスのテスト方法をプロセッサに実行させる。
本発明の実施例によるテスト画像の概略図である。 本発明の実施例による重ね合わせ画像の概略図である。 本発明の実施例によるウェアラブルデバイスのテスト方法のフローチャートである。 本発明の実施例によるウェアラブルデバイスのテスト装置の概略構成図である。 本発明の実施例によるウェアラブルデバイスのテスト方法のテスト原理図である。 本発明の実施例によるターゲット虚像距離を確定する方法のフローチャートである。 本発明の実施例によるターゲット虚像の概略図である。 本発明の実施例による第1角度変化値を取得する概略図である。 本発明の実施例による別の第1角度変化値を取得する概略図である。 本発明の実施例による別の第1角度変化値を取得する概略図である。 本発明の実施例による別の第1角度変化値を取得する概略図である。 本発明の実施例による第2角度変化値を取得する概略図である。 本発明の実施例による別の第2角度変化値を取得する概略図である。 本発明の実施例による別の第2角度変化値を取得する概略図である。 本発明の実施例による別の第2角度変化値を取得する概略図である。 本発明の実施例による虚像距離を取得する概略原理図である。 本発明の実施例による別の虚像距離を取得する概略原理図である。 本発明の実施例によるターゲット虚像の寸法を確定する方法のフローチャートである。 本発明の実施例による第3角度変化値を取得する概略図である。 本発明の実施例による別の第3角度変化値を取得する概略図である。 本発明の実施例による別の第3角度変化値を取得する概略図である。 本発明の実施例による別の第3角度変化値を取得する概略図である。 本発明の実施例による角度変化値に基づいて虚像の寸法を確定する方法のフローチャートである。 本発明の実施例によるターゲット虚像の視角を確定する方法のフローチャートである。 本発明の実施例による第4角度変化値を取得する概略図である。 本発明の実施例による別の第4角度変化値を取得する概略図である。 本発明の実施例による別の第4角度変化値を取得する概略図である。 本発明の実施例による別の第4角度変化値を取得する概略図である。 本発明の実施例によるターゲット虚像の歪み量を確定する方法のフローチャートである。 本発明の実施例によるウェアラブルデバイスのテストシステムである。
本発明の目的、技術案および利点をより明確にするために、以下、図面を参照して本発明の実施形態をさらに詳しく説明する。
科学技術の発展に伴って、VR技術やAR技術を採用したウェアラブルデバイスの応用はますます広がっている。現在のウェアラブルデバイスには、通常、自身がディスプレイを備えたものと、ディスプレイを備えた端末(例えば携帯電話)を収容するための収容部を備えたものとの2種類があり、当該ウェアラブルデバイスを使用する場合、端末を当該収容部に置く必要がある。
人の目は明視距離を持って、つまり、人の目に近すぎるものははっきりと見えない。したがって、人の目ではっきりと見えるようにするには、通常、物体を人の目から25センチ(cm)を超える距離に置く必要がある。しかしながら、ウェアラブルデバイスにおけるディスプレイ(即ちウェアラブルデバイス自身のディスプレイまたはウェアラブルデバイスに収容された端末のディスプレイ)は、通常、人の目から5cmぐらい離れている。当該ディスプレイの内容をはっきりと見たい場合、人の目とディスプレイとの間にレンズコンポーネント(拡大鏡と見なすことができる)を配置する必要がある。当該レンズコンポーネントは少なくとも1つのレンズを含み、人の目は当該レンズコンポーネントを通してディスプレイ上の内容(実際に見たのはディスプレイ上の内容の虚像である)をはっきりと見ることができる。したがって、現在のVR技術やAR技術のウェアラブルデバイスは、通常、レンズコンポーネントを有しており、当該レンズコンポーネントの一側にディスプレイが設置され、人の目で見た画像は、実際にはレンズコンポーネントを介してディスプレイ上の画像によって形成された虚像であり、当該虚像はディスプレイ上の画像の拡大画像である。当該ウェアラブルデバイスは、仮想現実デバイス、拡張現実デバイス、または複合現実デバイスであってもよく、例えばVRやARをサポートするスマートヘルメット、またはVRやARをサポートするスマートメガネなどである。
現在、ウェアラブルデバイスが虚像を表示する場合、通常、人の目で見る形態で虚像距離などのターゲット虚像の光学イメージングパラメータ値を推定し、この形態は比較的主観的で、得られた光学イメージングパラメータ値の正確性は低い。
本発明の実施例は、ターゲット虚像(すなわち、レンズコンポーネントを介してディスプレイに表示されたテスト画像によって形成された虚像)に対応する異なる光学イメージングパラメータを解析することにより、当該ウェアラブルデバイスの表示性能をテストし、当該表示性能のテスト結果に基づいて、ウェアラブルデバイスの性能を最適化し、改善する。テストの正確性を保証するために、ウェアラブルデバイスにおけるディスプレイに専用のテスト画像を表示することができる。選択肢の一つとして、当該テスト画像は、第1色をベースとし、第2色を辺とする矩形画像であってもよく、当該テスト画像には2つの垂直交差した第2色の対称軸が表示され、当該第1色と当該第2色は異なる。2つの異なる色のテスト画像を有することにより、強いコントラストを実現し、画像取得コンポーネントによる画像の有効な取得を容易にすることができる。
テストを容易にするために、コントラストの強い2つの色を選択することができ、例えば、第1色を黒色として選択し、第2色を白色として選択する。または、第1色を白色として選択し、第2色を黒色として選択する。
選択肢の一つとして、当該テスト画像にはマトリックス状に配置された第2色の複数のアライメントフレームも表示され、当該複数のアライメントフレームは、テスト画像の矩形境界との共通の対称軸を有する中央アライメントフレーム(即ち、当該中央アライメントフレームの形状は軸対称図形である)と、テスト画像の頂点及び/または境界の中点をそれぞれ囲む複数のエッジアライメントフレームとを含み、各エッジアライメントフレームのすべての境界と当該中央アライメントフレームの一部の境界とは合同であり、即ち、各エッジアライメントフレームを中央アライメントフレームの位置に移動すると、当該エッジアライメントフレームのすべての境界は、中央アライメントフレームの一部の境界と重なる。テスト結果をより正確にするために、当該複数のアライメントフレームの境界の幅を1ピクセルの幅に設定する。相応的に、レンズコンポーネントを介して当該テスト画像によって表示されたターゲット虚像は、当該テスト画像と視覚的に一致しており、軽度の変形が生じる可能性があるので、当該ターゲット虚像には、複数のアライメントフレームが対応して存在する。選択肢の一つとして、当該中央アライメントフレームは、矩形アライメントフレームである。
例示的に、図1に示すように、図1は本発明の例示的な実施例によるテスト画像00の概略図であり、当該テスト画像00は矩形であり、矩形境界を有し、図1は、第1色が黒色であり、第2色が白色であり、複数のエッジアライメントフレームは、テスト画像の頂点と境界の中点をそれぞれ囲むと仮定する。当該テスト画像00には9個の白色のアライメントフレームが表示され、テスト画像00の中央の矩形アライメントフレームは中央アライメントフレームであり、当該中央アライメントフレームの対角線の交点は当該テスト画像00の中心点であり、当該中央アライメントフレームとテスト画像00の矩形境界は、共通の対称軸を有し、テスト画像00の上下左右の4つの境界に8つのエッジアライメントフレームがあり、当該8つのエッジアライメントフレームは、左上の頂点、左下の頂点、右上の頂点、右下の頂点を囲む4つのアライメントフレームを含み、この4つのアライメントフレームの各アライメントフレームのすべての境界は、中央アライメントフレームの4分の1の境界と合同であり、当該8つのエッジアライメントフレームは、左境界の中点、右境界の中点、上境界の中点、および下境界の中点を囲む4つのアライメントフレームをさらに含み、この4つのアライメントフレームの各アライメントフレームのすべての境界は、中央アライメントフレームの2分の1の境界と合同である。
本発明の実施例は、画像取得コンポーネントによって、ウェアラブルデバイスで表示されたターゲット虚像を収集して、ターゲット虚像の光学イメージングパラメータを取得する。当該画像取得コンポーネントは、ウェブカメラ、カメラ、ビデオカメラなどの画像を収集できるデバイスであってもよい。
選択肢の一つとして、当該画像取得コンポーネントによって収集された画像には重ね合わせ画像が表示され、一方、当該重ね合わせ画像は、画像取得コンポーネントによって直接に出力された画像であってもよく、ウェアラブルデバイスによって表示されたターゲット虚像を収集するプロセス中にターゲット虚像に直接に重ね合わされた画像であってもよく、例えば、画像取得コンポーネントは、ソフトウェア処理によって収集されたターゲット虚像に当該重ね合わせ画像を直接に重ね合わせ、または、当該重ね合わせ画像を画像取得コンポーネントのレンズに直接に描画または添付し、これにより、画像取得コンポーネントは、ターゲット虚像を収集した後に、当該重ね合わせ画像が重ね合わされたターゲット虚像を出力する。このとき、画像取得コンポーネントから出力された画像には、実際に撮影された画像(すなわち、ターゲット虚像)と当該重ね合わせ画像とが含まれ、例えば、画像取得コンポーネントがビデオカメラである場合、ビデオカメラのディスプレイに表示された画像には、実際に撮影された画像と当該重ね合わせ画像とが含まれる。一方、当該重ね合わせ画像は、画像取得コンポーネントから出力された画像を処理する際に、処理コンポーネントによって対応的な画像に重ね合わされた画像であってもよく、例えば、画像取得コンポーネントがビデオカメラであり、処理コンポーネントがコンピュータである場合、ビデオカメラのディスプレイに表示された画像は実際に撮影された画像であり、コンピュータのディスプレイに表示された画像は実際に撮影された画像と当該重ね合わせ画像を含む。
上記の重ね合わせ画像は、ターゲット虚像、すなわちレンズコンポーネントを介してテスト画像によって表示された虚像と重ね合わせるためのものであり、重ね合わせ画像とテスト画像との間には対応関係がある。例示的に、当該重ね合わせ画像は、テスト画像における中央アライメントフレームの境界形状に類似した形状の第3色の重ね合わせアライメントフレーム(即ち、重ね合わせアライメントフレームの境界形状と中央アライメントフレームの形状は、類似した図形である)と、第3色の重ね合わせアライメントフレームの対角線を含み、当該対角線の交点は、画像取得コンポーネントのイメージング領域の中心点である。これに対応して、アライメントを容易にするために、当該重ね合わせ画像の重ね合わせアライメントフレームの境界の幅は、テスト画像における中央アライメントフレームの境界の幅に対応して設定されてもよく、例えば当該重ね合わせ画像の重ね合わせアライメントフレームの境界の幅は、1ピクセルの幅であってもよい。実際の応用では、イメージング領域は、画像取得コンポーネントが画像を収集する領域であり、例えば、画像取得コンポーネントがビデオカメラまたはウェブカメラである場合、イメージング領域は、レンズに対応する領域である。当該重ね合わせアライメントフレームが矩形アライメントフレームである場合、当該重ね合わせアライメントフレームの2つの相互に垂直な辺は、それぞれ、当該画像取得コンポーネント自身の水平方向と垂直方向に平行であり(当該画像取得コンポーネント自身の水平方向と垂直方向は、当該画像取得コンポーネントの内部参照座標系によって決定されることができる)、これにより、ターゲット虚像と効果的にアラインメントすることが保証される。選択肢の一つとして、イメージング領域が矩形である場合、重ね合わせアライメントフレームの境界は、それぞれイメージング領域の境界に対応して平行であり、イメージング領域が円形である場合、重ね合わせアライメントフレームの対称軸は、それぞれイメージング領域の水平対称軸と垂直対称軸と同軸になる。当該重ね合わせ画像における重ね合わせアライメントフレームは、ターゲット虚像におけるアライメントフレームと重ね合わせてアライメントするために使用され、テスト担当者は、画像取得コンポーネントを移動し、および/またはウェアラブルデバイスを移動することによって、重ね合わせ画像の重ね合わせアライメントフレームとターゲット虚像のアライメントフレームの重ね合わせ状況を観察することができる。
一選択可能な実施形態において、当該重ね合わせ画像における重ね合わせアライメントフレームの境界のサイズは、画像取得コンポーネントとウェアラブルデバイスとの間の距離の変化に応じて変化する可能性があり、当該重ね合わせ画像を比例的にスケーリングすることによって、スケーリングされた重ね合わせアライメントフレームの境界と中央アライメントフレームの境界は、視覚的に重ね合わせることができる。さらに、重ね合わせ画像の重ね合わせアライメントフレームの境界の太さを調整することにより、スケーリングされた重ね合わせアライメントフレームの境界と中央アライメントフレームの境界は、視覚的に明確に重ね合わせ、視覚的な識別度を向上させることができる。
例示的に、図2に示すように、図2は、本発明の例示的な実施例による重ね合わせ画像01の概略図であり、当該重ね合わせ画像01は、少なくとも重ね合わせアライメントフレームAおよび当該重ね合わせアライメントフレームAの対角線を含む。実際の実装では、当該重ね合わせ画像01は、重ね合わせアライメントフレームAの外部に配置された矩形フレームBを含んでもよく、さらに当該矩形フレームBの対角線を含んでもよく、当該矩形フレームBとテスト画像の図形は、類似した図形であってもよい。図2は、重ね合わせアライメントフレームAが矩形アライメントフレームAであると仮定し、当該重ね合わせ画像の背景は透明であり、当該重ね合わせ画像の重ね合わせアライメントフレームAとテスト画像に表示された中央アライメントフレームの形状は類似し、当該重ね合わせアライメントフレームAの対角線の交点は、イメージング領域の中心点であり、重ね合わせアライメントフレームAの2つの相互に垂直な辺は、それぞれ、当該画像取得コンポーネント自身の水平方向と垂直方向に平行である。
イメージング領域の中心点をターゲット虚像における中央アライメントフレームの中心点(即ち、テスト画像の中心点)に位置合わせる必要がある場合、テスト担当者は画像取得コンポーネントをゆっくりと移動し、および/またはウェアラブルデバイスをゆっくりと移動することにより、重ね合わせ画像の中心点を中央アライメントフレームの中心点に位置合わせ(このプロセスは粗調整プロセスである)、次に、重ね合わせ画像をスケーリングし、および/または重ね合わせ画像を移動することにより、重ね合わせアライメントフレームをターゲット虚像に表示された中央アライメントフレームの境界に重ね合わせ(このプロセスは微調整プロセスである)、最終的に両者の中心点と境界が重ね合わせ、この結果、イメージング領域の中心点と中央アライメントフレームの中心点が効果的に位置合わせる。なお、重ね合わせアライメントフレームと中央アライメントフレームとの境界の重ね合わせ状況に対する観察を容易にするために、重ね合わせアライメントフレームの境界の幅を、中央アライメントフレームの境界の幅と同じかそれよりわずかに小さく設定することができる。なお、上記のゆっくりと移動することは、測定精度への影響を減少させるために、移動中に大きな振動が発生しないように移動速度が指定された速度閾値未満であることを意味する。
さらに、図1に示したテスト画像の中央アライメントフレームとテスト画像の矩形境界との比例関係が第1比例関係であり、図2の重ね合わせアライメントフレームAと矩形フレームBとの比例関係が第2比例関係であると仮定すると、第1比例関係と第2比例関係は等しくてもよい。このようにすると、重ね合わせ画像をスケーリングし、および/または重ね合わせ画像を移動することにより、重ね合わせアライメントフレームをターゲット虚像に表示された中央アライメントフレームの境界に重ね合わせるプロセスにおいて、同時にテスト画像の矩形境界を矩形フレームBの境界に重ね合わせる必要もあり、中央アライメントをより正確に実現することができる。
イメージング領域の中心点をターゲット虚像におけるエッジアライメントフレームでめぐられた中心点に位置合わせる必要がある場合、テスト担当者は画像取得コンポーネントをゆっくりと移動し、および/またはウェアラブルデバイスをゆっくりと移動することにより、重ね合わせ画像の中心点をエッジアライメントフレームでめぐられた中心点に位置合わせ(このプロセスは粗調整プロセスである)、次に、重ね合わせ画像をスケーリングし、および/または重ね合わせ画像を移動することにより、重ね合わせアライメントフレームをターゲット虚像に表示されたエッジアライメントフレームの境界に重ね合わせ(このプロセスは微調整プロセスである)、最終的に両者の中心点と境界が重ね合わせ、この結果、イメージング領域の中心点とエッジアライメントフレームの中心点が効果的に位置合わせる。
なお、上記の中央アライメントフレームの形状は、例えば円形や正方形など様々な種類があり、重ね合わせ画像とターゲット画像が効果的にアライメントされることを保証すればよい。また、上述した図1に示すテスト画像および図2に示す重ね合わせ画像の各線は、破線であってもよいし、実線であってもよく、図1および図2は、単に例示的なものであって、これを限定するものではなく、画像が表示されているときに肉眼では視認されることが保証されていればよい。
本発明の実施例は、ウェアラブルデバイスのテスト方法を提供し、当該ディスプレイにはテスト画像が表示され、選択肢の一つとして、当該ディスプレイ全体にテスト画像が表示され、当該方法は、当該ウェアラブルデバイスの光学イメージングパラメータ値をテストするために用いられ、図3に示すように、当該方法は、以下のステップを含む。
ステップ001において、少なくとも2回の角度取得プロセスを実行する。
当該角度取得プロセスは、
画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動し、当該ターゲット虚像は、ウェアラブルデバイスにおけるディスプレイによって表示された実際のテスト画像の虚像であり、当該テスト画像は、ウェアラブルデバイスにおけるディスプレイによって表示されるステップS1を含む。
選択肢の一つとして、ステップS1は、
画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせるステップS11を含む。
本発明の実施例において、イメージング領域の中心点が初期指定点に位置合わせる場合、イメージング領域の中心点と初期指定点を結ぶ線は、ディスプレイに対し垂直であり、つまりレンズコンポーネントの軸線に平行し、これにより、イメージング領域が位置する平面はディスプレイが位置する平面と平行であることが保証される。
例示的に、図1に示すテスト画像を参照し続け、確定されるターゲット虚像の光学イメージングパラメータ値に応じて、初期指定点はテスト画像の中心点であっても良いし、テスト画像の左上の頂点、左下の頂点、右上の頂点または右下の頂点であっても良いし、テスト画像の左境界の中点、右境界の中点、上境界の中点または下境界の中点であっても良い。一選択可能な実施形態において、イメージング領域の中心点が初期指定点に位置合わせる場合、イメージング領域の中心点と初期指定点を結ぶ線がディスプレイに対し垂直であることを保証するために、画像取得コンポーネントを移動し、および/またはウェアラブルデバイスを移動することにより、イメージング領域の中心点とターゲット虚像の初期指定点との相対位置を調整することができる。イメージング領域に表示された重ね合わせ画像の重ね合わせアライメントフレームが、ターゲット虚像における初期指定点が位置するアライメントフレームの中心および境界に重ね合わせる場合、当該中心点も初期指定点に位置合わせる。
レンズコンポーネントの構造などにより、レンズを介してテスト画像によって形成されたターゲット虚像に歪みが生じる問題があり、この歪みは、通常、画像(すなわち、ターゲット虚像)のエッジで発生する。したがって、当該ターゲット虚像の初期指定点がターゲット虚像の中心点でない(例えば、当該初期指定点が当該ターゲット虚像のエッジに位置する)場合、テスト画像のエッジがレンズコンポーネントを介してターゲット虚像に歪みを形成して、ターゲット虚像のエッジに波紋やねじれが生じるので、イメージング領域の中心点を歪みがある点に位置合わせる場合、位置合わせ偏差が生じやすく、有効な光学イメージングパラメータの測定結果が得られず、測定方法の正確性に影響を与える。
したがって、イメージング領域の中心点とターゲット虚像の初期指定点との位置合わせの正確性を保証するために、初期指定点がターゲット虚像の中心点でない場合、まず、イメージング領域の中心点をターゲット虚像の中心点に位置合わせ、次に、テスト担当者は、画像取得コンポーネントをゆっくりと移動し、および/またはウェアラブルデバイスをゆっくりと移動することによって、イメージング領域の中心点が位置する重ね合わせアライメントフレームと初期指定点が位置するターゲット虚像のエッジアライメントフレームの重ね合わせ状況を観察することができ、両者が重ね合わせる場合、イメージング領域の中心点が、ターゲット虚像の初期指定点に位置合わせると考えられる。
なお、本発明の実施例において、ゆっくりと移動することは、移動速度が予め設定された速度閾値より小さく、かつ、移動軌跡がウェアラブルデバイスにおけるディスプレイに平行な平面で移動することを意味する。
ステップS12において、画像取得コンポーネントとウェアラブルデバイスを相対的に回動することにより、画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、ターゲット虚像のターゲット指定点に位置合わせることまで変化させる。
選択肢の一つとして、本発明の実施例は、ウェアラブルデバイスのテストシステムを提供し、ステップS12において、画像取得コンポーネントとウェアラブルデバイスが相対的に回動するプロセスを実現するために使用され、もちろん、他の画像取得コンポーネントおよび/またはウェアラブルデバイスを移動する必要があるプロセスを実現することもできる。図4に示すように、当該テストシステムは、コントローラ101、画像取得コンポーネント102、ベース103、支持柱104、テスト載置台105、支持フレーム106、回転構造107を含んでもよい。
ここで、支持柱104の一端はベース103に回動可能に接続され、支持柱104の他端はテスト載置台105に固定されて接続され、当該テスト載置台105は、ウェアラブルデバイス1をセットするために使用され、当該ウェアラブルデバイス1は、接続コンポーネント(図示せず)を介してテスト載置台105に固定され、当該ウェアラブルデバイス1は、接続コンポーネントに着脱可能に接続され、当該接続コンポーネントを調整することによって、当該ウェアラブルデバイス1の当該テスト載置台105上のセット形態を調整することができ、コントローラ101は、ベース103上で回転するように支持柱104を制御するように構成され、例示的に、当該コントローラ101は、コンピュータであってもよい。
回転構造107の一端は支持フレーム106に回動可能に接続され、回転構造107の他端は画像取得コンポーネント102に固定されて接続され、コントローラ101は、さらに、支持フレーム上で回転するように回転構造107を制御するように構成され、例示的に、当該支持フレーム106は、三脚であってもよい。
選択肢の一つとして、当該回転構造107はチルトヘッドであってもよく、チルトヘッドの回動により、チルトヘッド上の画像取得コンポーネントが指定された角度範囲内の画像取得を行うことができ、当該画像取得コンポーネント102は、ビデオカメラであってもよい。
なお、チルトヘッドは電動チルトヘッドであってもよく、電動チルトヘッドの回動機能は、2つの実行モーターで実現できる。チルトヘッドは、その回動の特徴に応じて、左右にしか回転できない水平回転チルトヘッドと、左右と上下の両方に回転できる全方位チルトヘッドに分けられる。一般的に、水平回転角度(当該水平回転角度は水平面でのチルトヘッドの回動角度であり)は0°~350°であり、垂直回転角度(当該水平回転角度は垂直面でのチルトヘッドの回動角度であり)は0°~90°である。定速チルトヘッドの水平回転速度は、通常、約3°~10°/sであり、垂直速度は約4°/sである。可変速チルトヘッドの水平回転速度は、通常、約0°~32°/sであり、垂直回転速度は約0°~16°/sである。いくつかの高速撮像システムでは、チルトヘッドの水平回転速度は480°/s以上であり、垂直回転速度は120°/s以上である。もちろん、上述した回転角度および回転速度は単に例示的なものであり、実際の応用では、チルトヘッドは他の回転角度および回転速度を有してもよい。
選択肢の一つとして、ウェアラブルデバイス1を移動する必要がない場合、支持柱104の一端はベース103に固定されて接続されてもよく、画像取得コンポーネント102を移動する必要がない場合、画像取得コンポーネント102と支持フレーム106との間に回転構造107を設けなくてもよく、画像取得コンポーネント102は支持フレーム106に直接に固定されてもよい。
なお、当該コントローラは、第1サブコントローラと第2サブコントローラを含んでもよく、例示的に、当該第1サブコントローラおよび当該第2サブコントローラは、コンピュータであってもよく、当該第1サブコントローラは、ベース、支持柱、およびテスト載置台を制御し、ウェアラブルデバイスの位置を調整するために使用され、当該第2サブコントローラは、支持フレームと回転構造を制御し、画像取得コンポーネントの位置を調整するために使用され、本発明の実施例はこれを限定しない。
なお、画像取得コンポーネントは、ウェアラブルデバイスの1つの単眼プレゼンテーションインターフェースに合わせるための1つのレンズのみを有してもよく、または、ウェアラブルデバイスの2つのプレゼンテーションインターフェースにそれぞれ合わせるための2つのレンズを有してもよく(通常、ウェアラブルデバイスは両眼プレゼンテーションインターフェースを有し)、例えば、画像取得コンポーネントは、双眼プレゼンテーションインターフェースに表示された画像をそれぞれ取得する双眼カメラであり、本発明の実施例はこれを限定しない。画像取得コンポーネントおよび/またはウェアラブルデバイスが相対的に移動した後、それに対応して画像取得コンポーネントのレンズを調整することにより、レンズによって取得されたターゲット虚像がはっきり見えるようにすることができる。たとえば、画像取得コンポーネントがビデオカメラである場合、焦点を調整することにより、ビデオカメラのレンズによって撮られらターゲット虚像がはっきり見えるようにすることができる。上記のウェアラブルデバイスのプレゼンテーションインターフェースは、当該ウェアラブルデバイスが装着されたときに人の目に向かっている面であり、視覚的な表示インターフェースであり、ウェアラブルデバイスのレンズコンポーネントの、ウェアラブルデバイスにおけるディスプレイから離れている面は、通常、ウェアラブルデバイスが人の目に向かっている面であるため、当該ウェアラブルデバイスのプレゼンテーションインターフェースは、レンズコンポーネントの、ディスプレイから離れている面である。
上記のテストシステムによれば、ステップS12における3つの相対回動プロセスを実現することができ、引き続き図4を参照し、この3つの相対回動プロセスはそれぞれ以下の通りである。
第1ケースにおいて、ウェアラブルデバイス1を固定し、画像取得コンポーネント102を揺動することにより、イメージング領域の中心点を、初期指定点に位置合わせることから、ターゲット指定点に位置合わせることまで相対的に回動する。画像取得コンポーネント102を揺動するプロセスとは、画像取得コンポーネントを第1指定軸周りに回転するプロセスを指し、例えば、画像取得コンポーネント102は、回転構造107に連動して水平回動または垂直回動して、画像取得コンポーネント102の揺動を実現し、当該画像取得コンポーネント102の揺動軌跡は、円弧である。
第2ケースにおいて、画像取得コンポーネント102を固定し、ウェアラブルデバイス1を回転することにより、イメージング領域の中心点を、初期指定点に位置合わせることから、ターゲット指定点に位置合わせることまで相対的に回動する。
第3ケースにおいて、画像取得コンポーネント102とウェアラブルデバイス1を揺動することにより、イメージング領域の中心点を、初期指定点に位置合わせることから、ターゲット指定点に位置合わせることまで相対的に回動する。
ここで、第2ケースと第3ケースにおいて、ウェアラブルデバイスを直接回転することにより、ウェアラブルデバイスの回転を実現することができ、例えば、ウェアラブルデバイス1とテスト載置台105との間の接続構造(当該接続構造は図4には示されていない)を調整することにより、ウェアラブルデバイス1を回転させ、または、ウェアラブルデバイス1に配置されたテスト載置台105を回転することにより、ウェアラブルデバイスの回転を実現し、例示的に、支持柱104を回転することにより、支持柱104の上方のテスト載置台105の回転を駆動し、なお、当該回転プロセスは、第2指定軸周りに実行され、当該第2指定軸は支持柱104の軸線であってもよく、当該ウェアラブルデバイス1の回転軌跡は円弧であることに留意されたい。
ステップS2において、ターゲット虚像の初期指定点に位置合わせることからターゲット虚像のターゲット指定点に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の角度変化値を取得する。
ステップS1において、ウェアラブルデバイスが回転した場合、当該ウェアラブルデバイス自身がその回動角度を記録したり、外部計測によりウェアラブルデバイスが回動した角度を取得したりすることができ、例えば、テスト載置台には、回転目盛りが表示され、当該回転目盛りによってウェアラブルデバイスが回動した角度を取得することができる。画像取得コンポーネントが回転した場合、当該画像取得コンポーネント自身がその回動角度を記録したり、外部計測により画像取得コンポーネントが回動した角度を取得したりすることができ、例えば、回転構造は、自身が回動した角度を記録し、当該角度を画像取得コンポーネントが回動した角度とする。また、例えば、画像取得コンポーネントおよび回転構造は、チルトヘッドカメラまたはドームカメラを構成し、自身が回転した角度を記録することができる。
さて、上記第1ケースの形態でウェアラブルデバイスと画像取得コンポーネントとの相対回動を実現する場合には、取得された画像取得コンポーネントが回動した角度を角度変化値として直接に確定することができる。上記第2ケースの形態でウェアラブルデバイスと画像取得コンポーネントとの相対回動を実現する場合には、取得されたウェアラブルデバイスの回動角度を角度変化値として直接に確定することができる。上記第3ケースの形態でウェアラブルデバイスと画像取得コンポーネントとの相対回動を実現する場合には、取得されたウェアラブルデバイスの回動角度および画像取得コンポーネントの回動角度に基づいて、角度変化値として確定することができる。
本発明の実施例では、イメージング領域の中心点がターゲット虚像のターゲット指定点に位置合わせた場合、画像取得コンポーネントのイメージング領域の中心点とウェアラブルデバイスのターゲット指定点を結ぶ線および画像取得コンポーネントのイメージング領域の中心点とウェアラブルデバイスの初期指定点を結ぶ線がなす角は、角度変化値である。
ステップ002において、少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、ターゲット虚像の光学イメージングパラメータ値を確定する。
上述したように、本発明の実施例にかかるウェアラブルデバイスのテスト方法は、ターゲット虚像における画像取得コンポーネントのイメージング領域の中心点の位置を変更することにより、画像取得コンポーネントの相対移動の対応する角度変化値を取得し、当該角度変化値に基づいて、ウェアラブルデバイスによって表示されたターゲット虚像の光学イメージングパラメータ値を取得する。当該光学イメージングパラメータ値は機械測定によって得られるため、現在人の目で見た形態でターゲット虚像の光学イメージングパラメータ値を推定することにより、当該光学イメージングパラメータ値が比較的主観であり、正確性が低いという問題を解決することができる。最終的に確定された光学イメージングパラメータ値は、人の目で見た形態より客観的で正確である。
本発明の実施例にかかるテスト方法は、画像取得コンポーネントおよび/またはウェアラブルデバイスに対し移動操作を実行することにより、画像取得コンポーネントとウェアラブルデバイスとの相対移動の角度変化値を取得する必要があり、当該角度変化値の正確性は、画像取得コンポーネントとウェアラブルデバイスとの相対移動の距離の正確さに依存するので、移動するたびに、まず画像取得コンポーネントのイメージング領域の中心点をターゲット虚像の初期指定点に位置合わせ、次にターゲット指定に移動することにより、正確な画像取得コンポーネントとウェアラブルデバイスとの相対移動の角度変化値を取得する必要がある。
図5に示すように、図5は、本発明の実施例によるウェアラブルデバイスのテスト方法のテスト原理図であり、ウェアラブルデバイスにおけるディスプレイ11によって表示されたテスト画像がレンズコンポーネント12を介して人の目に提示されたターゲット虚像13は、通常、当該テスト画像の拡大画像であり、本発明の実施例では、人の目の代わりに画像取得コンポーネントを用いてテストを行い、当該ターゲット虚像の光学イメージングパラメータ値は、当該ウェアラブルデバイスの表示性能を反映する。本発明の実施例では、当該光学イメージングパラメータ値がそれぞれ虚像距離、虚像の寸法、虚像の視角、および虚像の歪み量である場合を例に挙げて、ウェアラブルデバイスのテスト方法を紹介し、例示的に、当該ウェアラブルデバイスのテスト方法の実現可能な形態は、以下のいくつかに分けられる。
第1実現可能な形態として、当該光学イメージングパラメータ値が虚像距離であり、当該虚像距離がウェアラブルデバイスのプレゼンテーションインターフェース(即ち、レンズコンポーネントのディスプレイから離れている面)からターゲット虚像までの距離であり、図5を参照すると、虚像距離は図5の距離dである。
図6に示すように、ターゲット虚像距離の確定は、以下のステップに分けられる。
ステップ201において、画像取得コンポーネントとウェアラブルデバイスとの距離を第1収集距離として設定し、ターゲット虚像の中心点を初期指定点とし、ターゲット虚像のn個の境界の中心点をターゲット指定点とすることにより、n回の角度取得プロセスをそれぞれ実行して、n個の第1角度変化値を得て、1≦n≦4である。
なお、画像取得コンポーネントとウェアラブルデバイスとの距離とは、画像取得コンポーネントの重心(または幾何中心)とウェアラブルデバイスの指定位置との距離を指し、測定を容易にするために、当該指定位置は、ウェアラブルデバイスのプレゼンテーションインターフェースが配置されている位置であり、もちろん、当該指定位置は、ウェアラブルデバイスにおけるディスプレイ、またはウェアラブルデバイスの重心が配置されている別の位置であってもよく、本発明の実施例では、これについて詳細に説明しない。
画像取得コンポーネントおよび/またはウェアラブルデバイスを移動することにより、画像取得コンポーネントとウェアラブルデバイスとの距離を第1収集距離とし、この後、角度取得プロセスを実行する。ここで、角度取得プロセス毎に上記ステップS1を参照することができる。本発明の実施例では、これについて詳細に説明しない。
選択肢の一つとして、画像取得コンポーネントとウェアラブルデバイスとの第1収集距離がt1であり、n=4であると仮定し、ターゲット虚像の4つの境界の中心点をターゲット指定点とし、つまり、ターゲット虚像の左境界の中心点、ターゲット虚像の右境界の中心点、ターゲット虚像の上境界の中心点、及びターゲット虚像の下境界の中心点である。
以下の実施例の説明を容易にするために、図7に示すように、当該図には、ターゲット虚像の中心点a2、左境界の中心点a1、右境界の中心点a3、上境界の中心点a4、下境界の中心点a5、左上の頂点a7、左下の頂点a8、右上の頂点a9、右下の頂点a6が概略的に示される。
4回の角度取得プロセスをそれぞれ実行して、対応する4つの第1角度変化値を得ることは、図8に示すように、上記ステップS12のプロセスを実行することにより、ターゲット虚像の中心点a2に位置合わせることからターゲット虚像の左境界の中心点a1に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第1角度変化値φ11を取得することと、図9に示すように、上記ステップS12のプロセスを実行することにより、ターゲット虚像の中心点a2に位置合わせることからターゲット虚像の右境界の中心点a3に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第1角度変化値φ21を取得することと、を含む。なお、図10および図11に示すように、ターゲット虚像の中心点a2をターゲット虚像の上境界の中心点a4および下境界の中心点a5に位置合わせるために、まずウェアラブルデバイスを90度回転し、例えば、ウェアラブルデバイスを時計回りに90度回転し、次に上記ステップS12のプロセスを実行することにより、ターゲット虚像の中心点a2に位置合わせることからターゲット虚像の上境界の中心点a4に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第1角度変化値φ31を取得し、および、上記ステップS12のプロセスを実行することにより、ターゲット虚像の中心点a2に位置合わせることからターゲット虚像の下境界の中心点a5に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第1角度変化値φ41を取得する。選択肢の一つとして、画像取得コンポーネントが垂直方向に回動可能であれば、ウェアラブルデバイスを回動する必要がなくてもよく、例えば、画像取得コンポーネントに接続された回転構造は、全方位チルトヘッドである。
例示的に、上述した4つの角度変化値の取得プロセスは、ステップS12において提案された第1ケースの形態で実現されてもよい。
ステップ202において、画像取得コンポーネントとウェアラブルデバイスとの距離を第2収集距離として設定し、ターゲット虚像の中心点を初期指定点とし、ターゲット虚像のn個の境界の中心点をターゲット指定点とすることにより、n回の角度取得プロセスをそれぞれ実行して、n個の第2角度変化値を得る。
画像取得コンポーネントおよび/またはウェアラブルデバイスを移動することにより、画像取得コンポーネントとウェアラブルデバイスとの距離を第2収集距離とし、この後、n回の角度取得プロセスを実行する。つまり、画像取得コンポーネントとウェアラブルデバイスとの距離を更新した後、上述のステップ201を繰り返し実行する。ここで、角度取得プロセス毎に上記ステップS1を参照することができる。本発明の実施例では、これについて詳細に説明しない。なお、ステップ202およびステップ201は、画像取得コンポーネントが異なる収集距離において同じ回数の角度取得プロセスを実行するプロセスであり、したがって、当該ステップ202におけるnは、ステップ201におけるnに等しい。
選択肢の一つとして、画像取得コンポーネントとウェアラブルデバイスとの第2収集距離がt2であり、n=4であると仮定し、ターゲット虚像の4つの境界の中心点をターゲット指定点とし、つまり、ターゲット虚像の左境界の中心点、ターゲット虚像の右境界の中心点、ターゲット虚像の上境界の中心点、及びターゲット虚像の下境界の中心点である。
4回の角度取得プロセスをそれぞれ実行して、対応する4つの第2角度変化値を得ることは、図12に示すように、上記ステップS12のプロセスを実行することにより、ターゲット虚像の中心点a2に位置合わせることからターゲット虚像の左境界の中心点a1に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第2角度変化値φ12を取得することと、図13に示すように、上記ステップS12のプロセスを実行することにより、ターゲット虚像の中心点a2に位置合わせることからターゲット虚像の右境界の中心点a3に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第2角度変化値φ22を取得することと、を含む。なお、図14および図15に示すように、画像取得コンポーネントのイメージング領域の中心点をターゲット虚像の上境界の中心点a4および下境界の中心点a5に位置合わせるために、まずウェアラブルデバイスを90度回転し、例えば本発明の実施例では、ウェアラブルデバイスを時計回りに90度回転し、次に上記ステップS12のプロセスを実行することにより、ターゲット虚像の中心点a2に位置合わせることからターゲット虚像の上境界の中心点a4に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第2角度変化値φ32を取得し、および、上記ステップS12のプロセスを実行することにより、ターゲット虚像の中心点a2に位置合わせることからターゲット虚像の下境界の中心点a5に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第2角度変化値φ42を取得する。実際の応用では、画像取得コンポーネントが垂直方向に回動可能であれば、ウェアラブルデバイスを回動する必要がなくてもよく、例えば、画像取得コンポーネントに接続された回転構造は、全方位チルトヘッドである。
例示的に、上述した4つの角度変化値の取得プロセスは、ステップS12において提案された第1ケースの形態で実現されてもよい。
ステップ203において、少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、ターゲット虚像の虚像距離を確定する。
第1収集距離、第2収集距離、上記ステップS201で取得されたn個の第1角度変化値、および上記ステップS202で取得されたn個の第2角度変化値に基づいて、n個のターゲット指定点に対応する距離変化値を計算することができる。
ここで、i番目のターゲット指定点に対応する距離変化値dは、
Figure 0007311511000003
を満たし、
ここで、1≦i≦nであり、t1は第1収集距離であり、t2は第2収集距離であり、φi1は、画像取得コンポーネントとウェアラブルデバイスとの距離が第1収集距離である場合、ターゲット虚像の初期指定点に位置合わせることからi番目のターゲット指定点に位置合わせることまで相対的に回動されたイメージング領域の中心点の角度変化値であり、φi2は、画像取得コンポーネントとウェアラブルデバイスとの距離が第2収集距離である場合、ターゲット虚像の初期指定点に位置合わせることからi番目のターゲット指定点に位置合わせることまで相対的に回動されたイメージング領域の中心点の角度変化値である。
次に、当該n個のターゲット指定点に対応する距離変化値の平均値の絶対値をターゲット虚像の虚像距離として確定する。なお、nが1である場合、上記のターゲット虚像の虚像距離は、計算して得られた1つのターゲット指定点に対応する距離変化値であり、nが少なくとも2である場合、平均値をとることにより、最終的に確定される虚像距離をより正確にすることができる。
例示的に、上述のステップ201およびステップ202を参照して、nが4であると仮定すると、1≦i≦4である。図16及び図17を参照し、図16及び図17は、虚像距離を取得する概略原理図であり、ここで、画像取得コンポーネントは点c1に位置し、ウェアラブルデバイスにおけるレンズコンポーネントはc2に示す点線上に位置し、レンズコンポーネントのウェアラブルデバイスにおけるディスプレイから離れた面は、ウェアラブルデバイスの画像取得コンポーネントに面している面であり、c3はウェアラブルデバイスにおける1つの単眼プレゼンテーションインターフェースにおける、ターゲット虚像の中心点とターゲット虚像のある境界の中心点との間の距離を表し、当該ある境界の中心点は、ターゲット虚像の左境界の中心点、ターゲット虚像の右境界の中心点、ターゲット虚像の上境界の中心点、またはターゲット虚像の下境界の中心点であってもよい。図16には、第1収集距離はt1であり、図17には、第1収集距離はt2であり、図16及び図17から分かるように、第1収集距離が異なるが、レンズコンポーネントの寸法、ターゲット虚像の中心点とターゲット虚像のある境界の中心点との間の距離は変化せず、直角三角形の三角関数定理に基づいて、4つのターゲット指定点に対応する距離変化値は、
Figure 0007311511000004
をそれぞれ満たす。
ここで、dはターゲット虚像の左境界の中心点に対応する距離変化値であり、dはターゲット虚像の右境界の中心点に対応する距離変化値であり、dはターゲット虚像の上境界の中心点に対応する距離変化値であり、dはターゲット虚像の下境界の中心点に対応する距離変化値である。
相応的に、当該ターゲット虚像の虚像距離
Figure 0007311511000005
、すなわちターゲット虚像の虚像距離は、上記4つのターゲット指定点に対応する距離変化値の平均値の絶対値である。
選択肢の一つとして、テストを実行するとき、t1=10cmおよびt2=15cmを設定することができる。
上述したように、本発明の実施例にかかるウェアラブルデバイスのテスト方法は、ターゲット虚像における画像取得コンポーネントのイメージング領域の中心点の位置を変更することにより、画像取得コンポーネントの相対移動の対応する角度変化値を取得し、当該角度変化値に基づいて、ウェアラブルデバイスによって表示されたターゲット虚像の虚像大きさを取得する。当該虚像の大きさは機械測定によって得られるため、現在人の目で見た形態でターゲット虚像の虚像大きさを推定することにより、当該虚像大きさが比較的主観であり、正確性が低いという問題を解決することができる。最終的に確定された虚像大きさは、人の目で見た形態より客観的で正確である。
第2実現可能な形態として、当該光学イメージングパラメータ値が虚像の寸法であり、本発明の実施例における虚像が矩形であり、したがって、虚像の高さと幅に基づいて、当該虚像の寸法を得ることができ、そして、当該虚像の寸法を測定するのは、ウェアラブルデバイスにおけるディスプレイがレンズコンポーネントを介して表示された虚像の効果を知るためであり、当該虚像の寸法はできるだけ当該ディスプレイのフルスクリーン表示時の表示特性を反映すべきであるため、ディスプレイはテスト画像をフルスクリーン表示する必要があり、比較的正確な虚像の寸法を得ることができる。
図18に示すように、虚像の寸法の確定は、以下のステップに分けられる。
ステップ301において、ターゲット虚像の異なるm個の第1頂点を初期指定点として、1≦m≦4であり、m個の第1頂点の各々について、ターゲット虚像のうち第1頂点に隣接する2個の第2頂点をターゲット指定点として、2回の角度取得プロセスをそれぞれ実行して、前記第1頂点に対応する2個の第3角度変化値を得る。
ここで、角度取得プロセス毎に上記ステップS1を参照することができる。本発明の実施例では、これについて詳細に説明しない。
選択肢の一つとして、m=2であり、m個の第1頂点は、ターゲット虚像の同一対角線上に位置すると仮定し、図7を引き続き参照し、当該第1頂点がそれぞれa7とa6であると仮定すると、a7とa6に対応する第2頂点がいずれもa8とa9である。図7は、図19~図22におけるウェアラブルデバイスによって表示されたターゲット虚像である。なお、図7において、a1~a7は、マークとしてのみ機能し、ウェアラブルデバイスによって表示されない。
ターゲット虚像の異なる2個の第1頂点を初期指定点として、2個の第1頂点の各々について、ターゲット虚像のうち第1頂点に隣接する2個の第2頂点をターゲット指定点として、2回の角度取得プロセスをそれぞれ実行して、前記第1頂点に対応する2個の第3角度変化値を得るプロセスは、図19に示すように、上記ステップS12のプロセスを実行することにより、第1頂点a7に位置合わせることから第2頂点a9に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第3角度変化値βを取得することと、図20に示すように、上記ステップS12のプロセスを実行することにより、第1頂点a7に位置合わせることから第2頂点a8に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第3角度変化値αを取得することと、図21に示すように、上記ステップS12のプロセスを実行することにより、第1頂点a6に位置合わせることから第2頂点a8に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第3角度変化値βを取得することと、図22に示すように、上記ステップS12のプロセスを実行することにより、第1頂点a6に位置合わせることから第2頂点a9に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の第3角度変化値αを取得することと、を含む。
ここで、第3角度変化値βと第3角度変化値βにおける角度変化方向がターゲット虚像の幅方向に平行し、第3角度変化値αと第3角度変化値αにおける角度変化方向がターゲット虚像の高さ方向に平行する。
例示的に、上述した4つの角度変化値の取得プロセスは、ステップS12において提案された第1ケースの形態で実現されてもよい。
ステップ302において、少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、ターゲット虚像の寸法を確定する。
例示的に、図23に示すように、ステップ302は、以下の2つのサブステップを含んでもよい。
サブステップ3021において、m個の第1頂点に対応する2m個の第3角度変化値に基づいて、ターゲット虚像の幅とターゲット虚像の高さを計算する。
ステップ301を参照すると、m個の第1頂点のうち各第1頂点に基づいて、各第1頂点に対応する2つの第3角度変化値を確定できるので、m個の第1頂点は2m個の第3角度変化値に対応する。
例示的に、まず2m個の第3角度変化値のうち角度変化方向がターゲット虚像の幅方向に平行する第3角度変化値に基づいて、m個のターゲット虚像の幅を計算する。ここで、2mは、m個の頂点の隣接する頂点の数を表し、第3角度変化値の数は2mである。次に、2m個の第3角度変化値のうち角度変化方向がターゲット虚像の高さ方向に平行する第3角度変化値に基づいて、m個のターゲット虚像の高さを計算する。最後に、m個のターゲット虚像の幅の平均値をターゲット虚像の幅とする。m個のターゲット虚像の高さの平均値をターゲット虚像の高さとする。
ここで、k番目の第1頂点に対応するターゲット虚像の幅wとk番目の第1頂点に対応するターゲット虚像の高さhは、
=|(t+d)×tanβk|
=|(t+d)×tanαk|
を満たし、
ここで、1≦k≦mであり、dはターゲット虚像の虚像距離(上記のステップ201~ステップ203から得られることができ、本発明の実施例では、これについて説明しない)であり、tは画像取得コンポーネントの収集距離であり、当該tは、上記第1収集距離t1であってもよく、第2収集距離t2であってもよく、他の収集距離であってもよく、βkは、k番目の第1頂点に対応する2m個の第3角度変化値のうち角度変化方向がターゲット虚像の幅方向に平行する第3角度変化値であり、αkは、k番目の第1頂点に対応する2m個の第3角度変化値のうち角度変化方向がターゲット虚像の高さ方向に平行する第3角度変化値である。
例示的に、上記のステップ201~ステップ203から虚像距離dが既に得られ、tが既知のテストパラメータであり、m=2であり、第1頂点が図7のa7およびa6であり、第2頂点が図7のa8およびa9であると仮定し、上記のステップ302から4つの角度変化値β、β、α、αが得られ、各頂点に対応するターゲット虚像の幅計算式とターゲット虚像の高さ計算式に基づいて、
=|(t+d)×tanβ|、
=|(t+d)×tanβ|、
=|(t+d)×tanα|、
=|(t+d)×tanα|
が得られ、
ここで、wは頂点a7と頂点a9との間の長さであり、wは頂点a8と頂点a6との間の長さであり、hは頂点a7と頂点a8との間の長さであり、hは頂点a9と頂点a6との間の長さである。最終的に得られたターゲット虚像の幅wは、2つの第1頂点に対応するターゲット虚像の幅の平均値、即ち
Figure 0007311511000006
であり、得られたターゲット虚像の高さhは、2つの第1頂点に対応するターゲット虚像の高さの平均値、即ち
Figure 0007311511000007
である。
なお、mが1である場合、上記ターゲット虚像の幅は、計算して得られた1つのターゲット虚像の幅であり、ターゲット虚像の高さは、計算して得られた1つのターゲット虚像の高さであり、m≧2の場合、平均値を求めることにより、最終的に確定される虚像の高さと幅をより正確にすることができる。
サブステップ3022において、ターゲット虚像の幅とターゲット虚像の高さに基づいて、ターゲット虚像の対角線長を計算する。
なお、通常、虚像大きさは対角線長(単位はインチである)で識別され、本発明の実施例では、ターゲット虚像の寸法は、ターゲット虚像の対角線長を含む。
対角線計算式、ターゲット虚像の幅wとターゲット虚像の高さhに基づいて、ターゲット虚像の対角線長vを計算し、当該対角線計算式は、
Figure 0007311511000008
であり、単位はインチである。
ここで、
Figure 0007311511000009
の計算結果は、虚像の対角線長であり、単位はセンチメートルであり、通常、対角線長を識別するためにインチを単位として使用するので、本発明の実施例において、当該対角線の計算式は、
Figure 0007311511000010
を2.54で除算することにより、対角線の長さの単位をセンチメートルからインチに変換する。
なお、上記のステップ301及びステップ302において、画像取得コンポーネントとウェアラブルデバイスとの間の距離は変化せず、例えば、両者の距離は常に10cmに維持されてもよい。
上述したように、本発明の実施例にかかるウェアラブルデバイスのテスト方法は、ターゲット虚像における画像取得コンポーネントのイメージング領域の中心点の位置を変更することにより、画像取得コンポーネントの相対移動の対応する角度変化値を取得し、当該角度変化値に基づいて、ウェアラブルデバイスによって表示されたターゲット虚像の寸法を取得する。当該虚像の寸法は機械測定によって得られるため、現在人の目で見た形態でターゲット虚像の寸法を推定することにより、当該寸法が比較的主観であり、正確性が低いという問題を解決することができる。最終的に確定された虚像の寸法は、人の目で見た形態より客観的で比較的正確である。
第3実現可能な形態として、当該光学イメージングパラメータ値がターゲット虚像の視角であり、ターゲット虚像の視角を確定することにより、画像取得コンポーネントによって取得されたターゲット虚像の最大視角を取得することができ、図24に示すように、虚像の視角の確定は、以下のステップに分けられる。
ステップ401において、ターゲット虚像の4個の境界の中心点を初期指定点とし、各初期指定点が位置する境界の境界消失点を各初期指定点に対応するターゲット指定点とすることにより、4回の角度取得プロセスをそれぞれ実行して、4個の第4角度変化値を得る。
ここで、4つの境界の中心点は4つの消失点に一対一対応し、上記消失点は臨界点であり、1回の角度取得プロセスを例に挙げ、画像取得コンポーネントがある境界の中心点を初期指定点として使用すると仮定し、画像取得コンポーネントのイメージング領域の中心点を当該ある境界の中心点に位置合わせ、相対回動を開始し、当該プロセスにおいて、当該ある境界は、画像取得コンポーネントのイメージング領域の中心点の視角から完全に消失するまでに徐々に減少して消失し、完全に消失した時刻に、画像取得コンポーネントのイメージング領域の中心点に位置合わせた点が、当該ある境界の境界消失点である。
本発明の実施例では、ターゲット虚像の4個の境界の中心点を初期指定点とし、図7を引き続き参照し、当該4個の境界の中心点は、それぞれa1、a4、a3、a5である。
対応的に、4回の角度取得プロセスをそれぞれ実行して、4個の第4角度変化値を得ることは、図25に示すように、上記ステップS12のプロセスを実行することにより、ターゲット虚像の左境界の中心点a1に位置合わせることからターゲット虚像の左境界の境界消失点に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の角度変化値λを取得することと、図26に示すように、上記ステップS12のプロセスを実行することにより、ターゲット虚像の右境界の中心点a3に位置合わせることからターゲット虚像の右境界の境界消失点に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の角度変化値λを取得することとを含む。なお、図27および図28に示すように、画像取得コンポーネントのイメージング領域の中心点を左境界の境界消失点および右境界の境界消失点に位置合わせるために、まずウェアラブルデバイスを90度回転し、例えば、ウェアラブルデバイスを時計回りに90度回転し、次に上記ステップS12のプロセスを実行することにより、ターゲット虚像の上境界の中心点a4に位置合わせることからターゲット虚像の上境界の境界消失点に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の角度変化値λを取得し、および、上記ステップS12のプロセスを実行することにより、ターゲット虚像の下境界の中心点a5に位置合わせることからターゲット虚像の下境界の境界消失点に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の角度変化値λを取得する。実際の応用では、画像取得コンポーネントが垂直方向に回動可能であれば、ウェアラブルデバイスを回動する必要がなくてもよく、例えば、画像取得コンポーネントに接続された回転構造は、全方位チルトヘッドである。
例示的に、上述した4つの角度変化値の取得プロセスは、ステップS12において提案された第2ケースの形態で実現されてもよい。
ステップ402において、少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、ターゲット虚像の視角を確定する。
例示的に、4個の第4角度変化値のうちターゲット虚像の幅方向に平行する第4角度変化値λとλに基づいて、ターゲット虚像の水平視角λ水平を計算することができる。この後、4個の第4角度変化値のうちターゲット虚像の高さ方向に平行する第4角度変化値λとλに基づいて、ターゲット虚像の垂直視角λ垂直を計算する。
なお、λ、λ、λ、λは、正の値で表された角度変化値であり、実際の応用では、異なる角度に基づいて座標系を取得するので、負の値の角度変化値が得られた場合、まず当該負の値に対して絶対値演算を行うことにより、対応する正の値で表された角度変化値を取得してから、後続の演算を行うことができる。
ここで、λ水平とλ垂直はそれぞれλ水平=λ+λ、λ垂直=λ+λを満たす。
例えば、λ=30°、λ=30°、λ=45°、λ=45°である場合、ターゲット虚像の水平視角λ水平は60度であり、ターゲット虚像の垂直視角λ垂直は90度であることが分かる。
なお、上記のステップ401及びステップ402において、画像取得コンポーネントとウェアラブルデバイスとの間の距離は変化せず、例えば、両者の距離は常に15cmに維持されてもよい。
上述したように、本発明の実施例にかかるウェアラブルデバイスのテスト方法は、ターゲット虚像における画像取得コンポーネントのイメージング領域の中心点の位置を変更することにより、画像取得コンポーネントの相対移動の対応する角度変化値を取得し、当該角度変化値に基づいて、ウェアラブルデバイスによって表示されたターゲット虚像の視角を取得する。当該虚像の視角は機械測定によって得られるため、現在人の目で見た形態でターゲット虚像の視角を推定することにより、当該虚像の視角が比較的主観であり、正確性が低いという問題を解決することができる。最終的に確定された虚像の視角は、人の目で見た形態より客観的で比較的正確である。
第4実現可能な形態として、当該光学イメージングパラメータ値がターゲット虚像の歪み量であり、当該ターゲット虚像の虚像距離と虚像の寸法に基づいて当該ターゲット虚像の歪み量を取得し、上記のステップ201~ステップ203によって当該虚像距離を取得することができる。本発明の実施例では、具体的な取得プロセスについて説明しない。本発明の実施例では、当該虚像距離と当該虚像の寸法が既に得られると仮定する。図29に示すように、ターゲット虚像の歪み量を取得するステップは、以下のステップを含む。
ステップ501において、第3収集距離t3、4個の第5角度変化値のうち角度変化方向がターゲット虚像の幅方向に平行する第5角度変化値θとθ、及び対応する距離変化値dとdに基づいて、ターゲット虚像の歪み幅wを計算する。
ここで、歪み幅wは、w=(d+t3)×tanθ+(d+t3)×tanθを満たす。
なお、第3収集距離t3は、上記のステップ201~ステップ203における第1収集距離または第2収集距離であってもよく、第5角度変化値は、上記のステップ201~ステップ203における第1角度変化値または第2角度変化値であってもよく、本発明の実施例では、限定しない。
ステップ502において、第3収集距離t3、4個の第5角度変化値のうち角度変化方向がターゲット虚像の高さ方向に平行する第5角度変化値θとθ、及び対応する距離変化値dとdに基づいて、ターゲット虚像の歪み高さhを計算する。
ここで、歪み高さhは、h=(d+t3)×tanθ+(d+t3)×tanθを満たす。
ステップ503において、歪み幅wとターゲット虚像の幅に基づいて、ターゲット虚像の幅歪み量Dを確定する。
ここで、上記のステップ301~ステップ302によってターゲット虚像の幅を取得することができ、本発明の実施例では、これについて説明しない。
選択肢の一つとして、まず、歪み幅wとp回のテストで得られたターゲット虚像のそれぞれの幅との差の絶対値を計算することにより、p個の幅の差の絶対値を得て、pは1以上の整数である。次に、p個の幅の差の絶対値の平均値が歪み幅wに占める割合を、ターゲット虚像の幅歪み量Dとして確定する。
例示的に、p=2と仮定し、2回のテストを実行して、2つのターゲット虚像の幅w1とw2を得て、当該w1とw2は、上述のステップ302において計算して得られたw1とw2を使用してもよい。当該歪み幅wと2回のテストを実行して得られた2つのターゲット虚像の幅との差の絶対値は、それぞれ|w1-w3|と|w2-w3|であり、当該2つの幅の差の絶対値の平均値が歪み幅wに占める割合を計算することにより、幅歪み量D、即ち
Figure 0007311511000011
が得られた。
ステップ504において、歪み高さhとターゲット虚像の高さに基づいて、ターゲット虚像の高さ歪み量Dを確定する。
選択肢の一つとして、まず、歪み高さhとp回のテストで得られたターゲット虚像のそれぞれの高さとの差の絶対値を計算することにより、p個の高さの差の絶対値を得て、pは1以上の整数である。次に、p個の高さの差の絶対値の平均値の平均値が歪み高さhに占める割合を、ターゲット虚像の高さ歪み量Dとして確定する。
例示的に、p=2と仮定し、2回のテストを実行して、2つのターゲット虚像の高さh1とh2を得て、当該h1とh2は、上述のステップ302において計算して得られたh1とh2を使用してもよい。当該歪み高さhと2回のテストを実行して得られた2つのターゲット虚像の高さとの差の絶対値は、それぞれ|h1-h3|と|h2-h3|であり、当該2つの高さの差の絶対値の平均値が歪み高さhに占める割合を計算することにより、高さ歪み量D、即ち
Figure 0007311511000012
が得られた。
なお、pが1である場合、上記ターゲット虚像の歪み幅とターゲット虚像の幅との差の絶対値と歪み幅との百分率が幅歪み量であり、ターゲット虚像の歪み高さとターゲット虚像の高さとの差の絶対値と歪み高さとの百分率が高さ歪み量であり、pが少なくとも2である場合、平均値をとることにより、最終的に確定される虚像の幅歪み量および高さ歪み量をより正確にすることができる。
なお、上記のステップ501及びステップ504において、画像取得コンポーネントとウェアラブルデバイスとの間の距離は変化せず、例えば、両者の距離は常に10cmに維持されてもよい。
上述したように、本発明の実施例にかかるウェアラブルデバイスのテスト方法は、ターゲット虚像における画像取得コンポーネントのイメージング領域の中心点の位置を変更することにより、画像取得コンポーネントの相対移動の対応する角度変化値を取得し、当該角度変化値に基づいて、ウェアラブルデバイスによって表示されたターゲット虚像の虚像歪み量を取得する。当該虚像歪み量は機械測定によって得られるため、現在人の目で見た形態でターゲット虚像の虚像歪み量を推定することにより、当該虚像歪み量が比較的主観であり、正確性が低いという問題を解決することができる。最終的に確定された虚像歪み量は、人の目で見た形態より客観的で比較的正確である。
図30に示すように、当該図には、本発明の実施例にかかるコントローラ101と画像取得コンポーネント102とを含むウェアラブルデバイスのテストシステムが示された。
コントローラ101は、少なくとも2回の角度取得プロセスを実行し、角度取得プロセスは、
画像取得コンポーネント102のイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動し、ターゲット虚像は、テスト画像がレンズコンポーネントを通した虚像であり、イメージング領域の中心点が初期指定点に位置合わせた場合、イメージング領域の中心点と初期指定点を結ぶ線は、レンズコンポーネントの軸線に平行することと、
ターゲット虚像の初期指定点に位置合わせることからターゲット虚像のターゲット指定点に位置合わせることに調整された画像取得コンポーネント102のイメージング領域の中心点の角度変化値を取得することと、
少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、ターゲット虚像の光学イメージングパラメータ値を確定することと、
を含む。
上述したように、本発明の実施例にかかるウェアラブルデバイスのテストシステムは、ターゲット虚像における画像取得コンポーネントのイメージング領域の中心点の位置を変更することにより、画像取得コンポーネントの相対移動の対応する角度変化値を取得し、当該角度変化値に基づいて、ウェアラブルデバイスによって表示されたターゲット虚像の光学イメージングパラメータ値を取得する。当該光学イメージングパラメータ値は機械測定によって得られるため、現在人の目で見た形態でターゲット虚像の光学イメージングパラメータ値を推定することにより、当該光学イメージングパラメータ値が比較的主観であり、正確性が低いという問題を解決することができる。最終的に確定された光学イメージングパラメータ値は、人の目で見た形態より客観的で比較的正確である。
選択肢の一つとして、図4に示すように、当該テストシステム60は、
ベース103、支持柱104、テスト載置台105をさらに含み、ここで、支持柱104の一端はベース103に回動可能に接続され、支持柱104の他端はテスト載置台105に固定されて接続され、
テスト載置台105は、ウェアラブルデバイス1をセットするために使用され、
コントローラ101は、ベース103上で回転するように支持柱104を制御するように構成される。
選択肢の一つとして、当該テストシステム60は、
支持フレーム106と回転構造107とをさらに含んでもよく、回転構造107の一端は支持フレーム106に回動可能に接続され、回転構造107の他端は画像取得コンポーネント102に固定されて接続され、
コントローラ101は、支持フレーム106上で回転するように回転構造107を制御するように構成される。
選択肢の一つとして、回転構造107はチルトヘッドであり、画像取得コンポーネント102はビデオカメラである。
選択肢の一つとして、光学イメージングパラメータ値は、ターゲット虚像の虚像距離である。
ベース103、支持柱104、テスト載置台105、支持フレーム106と回転構造107に関する説明について、ステップ12を参照することができ、本発明の実施例では説明しない。
コントローラ101は、さらに、
画像取得コンポーネントとレンズコンポーネントの他側との距離を第1収集距離として設定し、ターゲット虚像の中心点を初期指定点とし、ターゲット虚像のn個の境界の中心点をターゲット指定点とすることにより、n回の角度取得プロセスをそれぞれ実行して、n個の第1角度変化値を得て、1≦n≦4であること、
画像取得コンポーネントとレンズコンポーネントの他側との距離を第2収集距離として設定し、ターゲット虚像の中心点を初期指定点とし、ターゲット虚像のn個の境界の中心点をターゲット指定点とすることにより、n回の角度取得プロセスをそれぞれ実行して、n個の第2角度変化値を得ること、
に使用されている。
選択肢の一つとして、コントローラ101は、さらに、
n個の第1角度変化値とn個の第2角度変化値に基づいて、n個のターゲット指定点に対応する距離変化値を計算し、i番目のターゲット指定点に対応する距離変化値dは、
Figure 0007311511000013
を満たし、
ここで、1≦i≦nであり、t1は第1収集距離であり、t2は第2収集距離であり、φi1は、画像取得コンポーネントとレンズコンポーネントの他側との距離が第1収集距離である場合、ターゲット虚像の初期指定点に位置合わせることからi番目のターゲット指定点に位置合わせることまで相対的に回動されたイメージング領域の中心点の角度変化値であり、φi2は、画像取得コンポーネントとレンズコンポーネントの他側との距離が第2収集距離である場合、ターゲット虚像の初期指定点に位置合わせることからi番目のターゲット指定点に位置合わせることまで相対的に回動されたイメージング領域の中心点の角度変化値であること。
n個のターゲット指定点に対応する距離変化値の平均値の絶対値をターゲット虚像の虚像距離として確定すること、
に使用されている。
選択肢の一つとして、n=4であり、n個のターゲット指定点は、それぞれターゲット虚像の左境界の中心点、ターゲット虚像の右境界の中心点、ターゲット虚像の上境界の中心点、及びターゲット虚像の下境界の中心点である。
選択肢の一つとして、テスト画像は矩形であり、光学イメージングパラメータ値はターゲット虚像の寸法であり、コントローラ101は、さらに、ターゲット虚像の異なるm個の第1頂点を初期指定点として、1≦m≦4であること、
m個の第1頂点の各々について、ターゲット虚像のうち第1頂点に隣接する2個の第2頂点をターゲット指定点として、2回の前記角度取得プロセスをそれぞれ実行して、前記第1頂点に対応する2個の第3角度変化値を得ること、
に使用されている。
選択肢の一つとして、ターゲット虚像の寸法は、ターゲット虚像の対角線長を含み、コントローラ101は、さらに、m個の第1頂点に対応する2m個の第3角度変化値に基づいて、ターゲット虚像の幅とターゲット虚像の高さを計算すること、
ターゲット虚像の幅とターゲット虚像の高さに基づいて、ターゲット虚像の対角線長を計算すること、
に使用されている。
選択肢の一つとして、コントローラ101は、さらに、2m個の第3角度変化値のうち角度変化方向がターゲット虚像の幅方向に平行する第3角度変化値に基づいて、m個のターゲット虚像の幅を計算すること、
2m個の第3角度変化値のうち角度変化方向がターゲット虚像の高さ方向に平行する第3角度変化値に基づいて、m個のターゲット虚像の高さを計算すること、
k番目の第1頂点に対応するターゲット虚像の幅wとk番目の第1頂点に対応するターゲット虚像の高さhは、
=|(t+d)×tanβk|
=|(t+d)×tanαk|
を満たし、
ここで、1≦k≦mであり、dはターゲット虚像の虚像距離であり、tは画像取得コンポーネントの収集距離であり、βkは、k番目の第1頂点に対応する2m個の第3角度変化値のうち角度変化方向がターゲット虚像の幅方向に平行する第3角度変化値であり、αkは、k番目の第1頂点に対応する2m個の第3角度変化値のうち角度変化方向がターゲット虚像の高さ方向に平行する第3角度変化値であること、
m個のターゲット虚像の幅の平均値をターゲット虚像の幅とすること、
m個のターゲット虚像の高さの平均値をターゲット虚像の高さとすること、
に使用されている。
選択肢の一つとして、m=2であり、m個の第1頂点は、ターゲット虚像の同一対角線上に位置する。
選択肢の一つとして、コントローラ101は、さらに、
対角線計算式、ターゲット虚像の幅wとターゲット虚像の高さhに基づいて、ターゲット虚像の対角線長vを計算し、対角線計算式は、
Figure 0007311511000014
であり、単位はインチであること、
に使用されている。
選択肢の一つとして、テスト画像は矩形であり、光学イメージングパラメータ値はターゲット虚像の視角であり、コントローラ101は、さらに、ターゲット虚像の4個の境界の中心点を初期指定点とし、各ターゲット虚像の境界の境界消失点をターゲット指定点とすることにより、4回の角度取得プロセスをそれぞれ実行して、4個の第4角度変化値を得ることに使用されている。
選択肢の一つとして、コントローラ101は、さらに、4個の第4角度変化値のうちターゲット虚像の幅方向に平行する第4角度変化値λとλに基づいて、ターゲット虚像の水平視角λ水平を計算すること、
4個の第4角度変化値のうちターゲット虚像の高さ方向に平行する第4角度変化値λとλに基づいて、ターゲット虚像の垂直視角λ垂直を計算すること、
に使用され、
ここで、前記λ水平と前記λ垂直はそれぞれ、
λ水平=λ+λ、λ垂直=λ+λ
を満たす。
選択肢の一つとして、光学イメージングパラメータ値は、ターゲット虚像の歪み量であり、コントローラ101は、さらに、4個のターゲット指定点に対応する距離変化値、4個の第5角度変化値及び4個の第5角度変化値に対応する画像取得コンポーネントの第3収集距離に基づいて、ターゲット虚像の歪み量を確定し、第5角度変化値は、第1角度変化値または第2角度変化値であることに使用されている。
選択肢の一つとして、コントローラ101は、さらに、第3収集距離t3、4個の第5角度変化値のうち角度変化方向がターゲット虚像の幅方向に平行する第5角度変化値θとθ、及び対応する距離変化値dとdに基づいて、ターゲット虚像の歪み幅wを計算すること、
第3収集距離t3、4個の第5角度変化値のうち角度変化方向がターゲット虚像の高さ方向に平行する第5角度変化値θとθ、及び対応する距離変化値dとdに基づいて、ターゲット虚像の歪み高さhを計算すること、
歪み幅wとターゲット虚像の幅に基づいて、ターゲット虚像の幅歪み量Dを確定すること、
歪み高さhとターゲット虚像の高さに基づいて、ターゲット虚像の高さ歪み量Dを確定すること、
に使用されている。
選択肢の一つとして、歪み幅wと歪み高さhはそれぞれ、
=(d+t3)×tanθ+(d+t3)×tanθ
=(d+t3)×tanθ+(d+t3)×tanθ
を満たす。
選択肢の一つとして、コントローラ101は、さらに、歪み幅wとp回のテストで得られたターゲット虚像のそれぞれの幅との差の絶対値を計算することにより、p個の幅の差の絶対値を得て、pは1以上の整数であること、
p個の幅の差の絶対値の平均値が歪み幅wに占める割合を、ターゲット虚像の幅歪み量Dとして確定すること、
に使用され、
歪み高さhとターゲット虚像の高さに基づいて、ターゲット虚像の高さ歪み量Dを確定することは、
歪み高さhとp回のテストで得られたターゲット虚像のそれぞれの高さとの差の絶対値を計算することにより、p個の高さの差の絶対値を得て、pは1以上の整数であることと、
p個の高さの差の絶対値の平均値が歪み高さhに占める割合を、ターゲット虚像の高さ歪み量Dとして確定することと、
を含む。
選択肢の一つとして、コントローラ101は、さらに、ウェアラブルデバイスを固定し、画像取得コンポーネントを揺動することにより、イメージング領域の中心点を、初期指定点に位置合わせることから、ターゲット指定点に位置合わせることまで相対的に回動すること、
または、
画像取得コンポーネントを固定し、ウェアラブルデバイスを回転することにより、イメージング領域の中心点を、初期指定点に位置合わせることから、ターゲット指定点に位置合わせることまで相対的に回動すること、
に使用されている。
選択肢の一つとして、初期指定点がターゲット虚像の中心点でない場合、コントローラ101は、さらに、画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動することの前に、イメージング領域の中心点をターゲット虚像の中心点に位置合わせ、イメージング領域の中心点と初期指定点を結ぶ線は、レンズコンポーネントの軸線と共線されること、
イメージング領域の中心点を初期指定点に移動すること、
に使用されている。
選択肢の一つとして、ウェアラブルデバイスは、テスト画像が、第1色をベースとし、第2色を辺とする矩形画像であり、テスト画像には2つの垂直交差した第2色の対称軸が表示され、第1色と第2色は異なるように構成される。
選択肢の一つとして、テスト画像にはマトリックス状に配置された第2色の複数の合同な矩形アライメントフレームも表示され、複数の矩形アライメントフレームは、テスト画像の矩形境界との共通の対称軸を有する中央アライメントフレームと、テスト画像との共通の境界を有するエッジアライメントフレームとを含み、
画像取得コンポーネントによって収集された画像には重ね合わせ画像が表示され、重ね合わせ画像は、矩形アライメントフレームの境界形状に合同した第3色の矩形フレームと、第3色の矩形フレームの対角線とを含み、対角線の交点は、イメージング領域の中心点であり、矩形フレームの境界は、イメージング領域の境界に平行する。
選択肢の一つとして、ウェアラブルデバイスは、仮想現実デバイス、拡張現実デバイス、または複合現実デバイスである。
上述したように、本発明の実施例にかかるウェアラブルデバイスのテストシステムは、ターゲット虚像における画像取得コンポーネントのイメージング領域の中心点の位置を変更することにより、画像取得コンポーネントの相対移動の対応する角度変化値を取得し、当該角度変化値に基づいて、ウェアラブルデバイスによって表示されたターゲット虚像の光学イメージングパラメータ値を取得する。当該光学イメージングパラメータ値は機械測定によって得られるため、現在人の目で見た形態でターゲット虚像の光学イメージングパラメータ値を推定することにより、当該光学イメージングパラメータ値が比較的主観であり、正確性が低いという問題を解決することができる。最終的に確定された光学イメージングパラメータ値は、人の目で見た形態より客観的で正確である。
当業者は、説明の便宜および簡潔さのために、以上で説明されたシステムおよび装置の具体的な作業プロセスについて、前述の方法の実施例における対応するプロセスを参照できることを明確に理解でき、ここでは説明しない。
本明細書では、「第1」、「第2」、「第3」、および「第4」という用語は、説明の目的のためだけに使用され、相対的な重要性を示すまたは示唆するものとして理解することはできない。「複数」という用語は、特に限定されない限り、2つ以上を指す。
本発明にかかるいくつかの実施例では、開示された装置および方法は他の形態で実装されてもよいことが理解すべきである。例えば、以上で説明された装置の実施例は概略的なものにすぎず、例えば、前記ユニットの区分は、論理機能の区分だけであり、実際に実装する場合には別の区分があってもよく、例えば、複数のユニットまたはコンポーネントを、他のシステムに組み合わせたり統合したりしてもよく、または、一部の特徴を無視してもよく、または実行しなくてもよい。さらに、表示または議論された相互結合または直接結合または通信接続は、いくつかのインターフェース、装置またはユニットを介した間接結合または通信接続であってもよく、電気的、機械的または他の形態であってもよい。
個別の部品として説明されたユニットは、物理的に分離されてもよく、または物理的に分離されなくてもよく、ユニットとして表示された部品は、物理的なユニットであってもよく、または物理的なユニットでなくてもよく、つまり、一箇所に配置されてもよく、または複数のネットワークユニットに配置してもよい。実際のニーズに応じて、ユニットの一部またはすべてを選択することにより、本実施例の解決案の目的を達成することができる。
当業者であれば、上述した実施例を実現する全てまたは一部のステップがハードウェアによって達成されてもよく、プログラムによって関連するハードウェアを完了するように指示してもよいことが理解できる。上述したプログラムは、コンピュータ読取可能な記憶媒体に記憶されることができ、上述の記憶媒体は、読み取り専用メモリ、磁気ディスクまたは光ディスクなどであってもよい。
上記は、本開示の好ましい実施例にすぎず、本開示を限定することを意図するものではない。本開示の精神および原則内で行われるいかなる修正、同等の置換、改善などは、本開示の保護の範囲内に含まれるものとする。
00 テスト画像
01 重ね合わせ画像
1 ウェアラブルデバイス
10 両者の距離は常に
11 ウェアラブルデバイスにおけるディスプレイ
12 レンズコンポーネント
13 人の目に提示されたターゲット虚像
60 テストシステム
101 コントローラ
102 画像取得コンポーネント
103 ベース
104 支持柱
105 テスト載置台
106 支持フレーム
107 回転構造

Claims (16)

  1. 少なくとも2回の角度取得プロセスを実行することを含み、前記角度取得プロセスは、
    画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、前記ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動し、前記ターゲット虚像は、実際のテスト画像がウェアラブルデバイスのレンズコンポーネントを介して表示された虚像であり、前記テスト画像は、前記ウェアラブルデバイスにおけるディスプレイによって表示され、前記イメージング領域の中心点が前記初期指定点に位置合わせた場合、前記イメージング領域の中心点と前記初期指定点を結ぶ線は、前記ディスプレイに対し垂直であることと、
    ターゲット虚像の初期指定点に位置合わせることから前記ターゲット虚像のターゲット指定点に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の角度変化値を取得することと、
    前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することと、
    を含む、
    ウェアラブルデバイスのテスト方法。
  2. 前記テスト画像は矩形であり、前記光学イメージングパラメータ値は前記ターゲット虚像の虚像距離であり、
    前記少なくとも2回の角度取得プロセスを実行することは、
    前記画像取得コンポーネントと前記ウェアラブルデバイスとの距離を第1収集距離として設定し、前記ターゲット虚像の中心点を前記初期指定点とし、前記ターゲット虚像のn個の境界の中心点を前記ターゲット指定点とすることにより、n回の前記角度取得プロセスをそれぞれ実行して、n個の第1角度変化値を得て、1≦n≦4であることと、
    前記画像取得コンポーネントと前記ウェアラブルデバイスとの距離を第2収集距離として設定し、前記ターゲット虚像の中心点を前記初期指定点とし、前記ターゲット虚像のn個の境界の中心点を前記ターゲット指定点とすることにより、n回の前記角度取得プロセスをそれぞれ実行して、n個の第2角度変化値を得ることと、
    を含む、
    請求項1に記載の方法。
  3. 前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することは、
    前記n個の第1角度変化値と前記n個の第2角度変化値に基づいて、n個の前記ターゲット指定点に対応する距離変化値を計算し、i番目のターゲット指定点に対応する距離変化値dは、
    を満たし、
    ここで、1≦i≦nであり、前記t1は前記第1収集距離であり、前記t2は前記第2収集距離であり、前記φi1は、前記画像取得コンポーネントと前記ウェアラブルデバイスとの距離が第1収集距離である場合、ターゲット虚像の初期指定点に位置合わせることから前記i番目のターゲット指定点に位置合わせることまで相対的に回動された前記イメージング領域の中心点の角度変化値であり、前記φi2は、前記画像取得コンポーネントと前記ウェアラブルデバイスとの距離が第2収集距離である場合、ターゲット虚像の初期指定点に位置合わせることから前記i番目のターゲット指定点に位置合わせることまで相対的に回動された前記イメージング領域の中心点の角度変化値であることと、
    n個の前記ターゲット指定点に対応する距離変化値の平均値の絶対値を前記ターゲット虚像の虚像距離として確定することと、
    を含む、
    求項2に記載の方法。
  4. 前記ディスプレイ全体に前記テスト画像が表示され、前記テスト画像は矩形であり、前記光学イメージングパラメータ値は前記ターゲット虚像の寸法であり、
    前記少なくとも2回の角度取得プロセスを実行することは、
    前記ターゲット虚像の異なるm個の第1頂点を前記初期指定点として、1≦m≦4であることと、
    前記m個の第1頂点の各々について、前記ターゲット虚像のうち前記第1頂点に隣接する2個の第2頂点を前記ターゲット指定点として、2回の前記角度取得プロセスをそれぞれ実行して、前記第1頂点に対応する2個の第3角度変化値を得ることと、
    を含む、
    請求項1に記載の方法。
  5. 前記ターゲット虚像の寸法は、前記ターゲット虚像の対角線長を含み、
    前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することは、
    前記m個の第1頂点に対応する2m個の第3角度変化値に基づいて、前記ターゲット虚像の幅と前記ターゲット虚像の高さを計算することと、
    前記ターゲット虚像の幅と前記ターゲット虚像の高さに基づいて、前記ターゲット虚像の対角線長を計算することと、
    を含む、
    求項4に記載の方法。
  6. 前記テスト画像は矩形であり、前記光学イメージングパラメータ値は前記ターゲット虚像の視角であり、
    前記少なくとも2回の角度取得プロセスを実行することは、
    前記ターゲット虚像の4個の境界の中心点を前記初期指定点とし、各初期指定点が位置する境界の境界消失点を前記各初期指定点に対応するターゲット指定点とすることにより、4回の前記角度取得プロセスをそれぞれ実行して、4個の第4角度変化値を得ること、
    を含む、
    求項1に記載の方法。
  7. n=4であり、前記n個のターゲット指定点は、それぞれ前記ターゲット虚像の左境界の中心点、前記ターゲット虚像の右境界の中心点、前記ターゲット虚像の上境界の中心点、及び前記ターゲット虚像の下境界の中心点である場合、
    前記光学イメージングパラメータ値は、前記ターゲット虚像の歪み量であり、
    前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することは、
    4個の前記ターゲット指定点に対応する距離変化値、4個の第5角度変化値及び前記4個の第5角度変化値に対応する画像取得コンポーネントの第3収集距離に基づいて、前記ターゲット虚像の歪み量を確定し、前記第5角度変化値は、前記第1角度変化値または前記第2角度変化値であること、
    を含む、
    請求項3に記載の方法。
  8. 前記4個の前記ターゲット指定点に対応する距離変化値、4個の第5角度変化値及び前記4個の第5角度変化値に対応する画像取得コンポーネントの第3収集距離に基づいて、前記ターゲット虚像の歪み量を確定することは、
    前記第3収集距離t3、前記4個の第5角度変化値のうち角度変化方向が前記ターゲット虚像の幅方向に平行する第5角度変化値θとθ、及び対応する距離変化値dとdに基づいて、前記ターゲット虚像の歪み幅w3を計算することと、
    前記第3収集距離t3、前記4個の第5角度変化値のうち角度変化方向が前記ターゲット虚像の高さ方向に平行する第5角度変化値θとθ、及び対応する距離変化値dとdに基づいて、前記ターゲット虚像の歪み高さh3を計算することと、
    前記歪み幅w3と前記ターゲット虚像の幅に基づいて、前記ターゲット虚像の幅歪み量Dwを確定することと、
    前記歪み高さh3と前記ターゲット虚像の高さに基づいて、前記ターゲット虚像の高さ歪み量Dhを確定することと、
    を含む、
    求項7に記載の方法。
  9. 前記歪み幅w3と前記ターゲット虚像の幅に基づいて、前記ターゲット虚像の幅歪み量Dwを確定することは、
    前記歪み幅w3とp回のテストで得られたターゲット虚像のそれぞれの幅との差の絶対値を計算することにより、p個の幅の差の絶対値を得て、前記pは1以上の整数であることと、
    前記p個の幅の差の絶対値の平均値が前記歪み幅w3に占める割合を、前記ターゲット虚像の幅歪み量Dwとして確定することと、を含み、
    前記歪み高さh3と前記ターゲット虚像の高さに基づいて、前記ターゲット虚像の高さ歪み量Dhを確定することは、
    前記歪み高さh3とp回のテストで得られたターゲット虚像のそれぞれの高さとの差の絶対値を計算することにより、p個の高さの差の絶対値を得ることと、
    前記p個の高さの差の絶対値の平均値が前記歪み高さh3に占める割合を、前記ターゲット虚像の高さ歪み量Dhとして確定することと、を含む、
    請求項8に記載の方法。
  10. 前記画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、前記ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動することは、
    前記ウェアラブルデバイスを固定し、前記画像取得コンポーネントを揺動することにより、前記イメージング領域の中心点を、前記初期指定点に位置合わせることから、前記ターゲット指定点に位置合わせることまで相対的に回動すること、
    または、
    前記画像取得コンポーネントを固定し、前記ウェアラブルデバイスを回転することにより、前記イメージング領域の中心点を、前記初期指定点に位置合わせることから、前記ターゲット指定点に位置合わせることまで相対的に回動すること、
    を含む、
    請求項1から9の何れか1項に記載の方法。
  11. 前記初期指定点が前記ターゲット虚像の中心点でない場合、前記角度取得プロセスは、
    前記画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、前記ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動することの前に、前記イメージング領域の中心点を前記ターゲット虚像の中心点に位置合わせ、前記イメージング領域の中心点と前記初期指定点を結ぶ線は、前記ディスプレイに対し垂直であることと、
    前記イメージング領域の中心点を前記初期指定点に移動することと、をさらに含む、
    請求項1から9の何れか1項に記載の方法。
  12. 前記テスト画像は、第1色をベースとし、第2色を辺とする矩形画像であり、前記テスト画像には2つの垂直交差した第2色の対称軸が表示され、前記第1色と前記第2色は異なる、
    求項1から9の何れか1項に記載の方法。
  13. ウェアラブルデバイスのテストシステムであって、
    コントローラと画像取得コンポーネントとを含み、
    前記コントローラは、少なくとも2回の角度取得プロセスを実行し、前記角度取得プロセスは、
    前記画像取得コンポーネントのイメージング領域の中心点を、ターゲット虚像の初期指定点に位置合わせることから、前記ターゲット虚像のターゲット指定点に位置合わせることまで相対的に回動し、前記ターゲット虚像は、実際のテスト画像がウェアラブルデバイスのレンズコンポーネントを介して表示された虚像であり、前記テスト画像は、前記ウェアラブルデバイスにおけるディスプレイによって表示され、前記イメージング領域の中心点が前記初期指定点に位置合わせた場合、前記イメージング領域の中心点と前記初期指定点を結ぶ線は、前記ディスプレイに対し垂直であることと、
    ターゲット虚像の初期指定点に位置合わせることから前記ターゲット虚像のターゲット指定点に位置合わせることに調整された画像取得コンポーネントのイメージング領域の中心点の角度変化値を取得することと、
    前記少なくとも2回の角度取得プロセスにおいて得られた角度変化値に基づいて、前記ターゲット虚像の光学イメージングパラメータ値を確定することと、
    を含む、
    ェアラブルデバイスのテストシステム。
  14. ベース、支持柱、テスト載置台をさらに含み、ここで、前記支持柱の一端は前記ベースに回動可能に接続され、前記支持柱の他端は前記テスト載置台に固定されて接続され、
    前記テスト載置台は、前記ウェアラブルデバイスをセットするために使用され、
    前記コントローラは、前記ベース上で回転するように前記支持柱を制御するように構成され、
    および、
    前記テストシステムは、支持フレームと回転構造とをさらに含み、前記回転構造の一端は前記支持フレームに回動可能に接続され、前記回転構造の他端は前記画像取得コンポーネントに固定されて接続され、
    前記コントローラは、前記支持フレーム上で回転するように前記回転構造を制御するように構成される、
    請求項13に記載のウェアラブルデバイスのテストシステム。
  15. プロセッサと、
    前記プロセッサの実行可能な指令を記憶するメモリと、
    を含み、
    前記プロセッサは、前記実行可能な指令を実行するとき、請求項1から12の何れか1項に記載のウェアラブルデバイスのテスト方法を実現する、
    ウェアラブルデバイスのテスト装置。
  16. コンピュータ読取可能な記憶媒体であって、
    前記コンピュータ読取可能な記憶媒体における指令が処理コンポーネントによって実行されるとき、請求項1から12の何れか1項に記載のウェアラブルデバイスのテスト方法を処理コンポーネントに実行させる、
    コンピュータ読取可能な記憶媒体。
JP2020529438A 2017-12-15 2018-12-10 ウェアラブルデバイスのテスト方法およびシステム Active JP7311511B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711349293.4A CN109936737B (zh) 2017-12-15 2017-12-15 可穿戴设备的测试方法及系统
CN201711349293.4 2017-12-15
PCT/CN2018/120057 WO2019114650A1 (zh) 2017-12-15 2018-12-10 可穿戴设备的测试方法及系统

Publications (2)

Publication Number Publication Date
JP2021507334A JP2021507334A (ja) 2021-02-22
JP7311511B2 true JP7311511B2 (ja) 2023-07-19

Family

ID=66818958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020529438A Active JP7311511B2 (ja) 2017-12-15 2018-12-10 ウェアラブルデバイスのテスト方法およびシステム

Country Status (6)

Country Link
US (1) US11557106B2 (ja)
EP (1) EP3726836A4 (ja)
JP (1) JP7311511B2 (ja)
KR (1) KR102532486B1 (ja)
CN (1) CN109936737B (ja)
WO (1) WO2019114650A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11134739B1 (en) * 2021-01-19 2021-10-05 Yifei Jenny Jin Multi-functional wearable dome assembly and method of using the same
CN114252235A (zh) * 2021-11-30 2022-03-29 青岛歌尔声学科技有限公司 头戴显示设备的检测方法、装置、头戴显示设备及介质
CN114427955B (zh) * 2021-12-29 2024-10-11 青岛歌尔声学科技有限公司 光学镜头畸变测试系统以及测试方法
US11758122B1 (en) * 2022-01-06 2023-09-12 Norman Rogers Lens and camera testing method, apparatus, and system
CN115144164B (zh) * 2022-08-31 2023-02-28 武汉精立电子技术有限公司 一种显示屏位置偏差测量方法及系统
CN116183169B (zh) * 2023-05-04 2023-08-01 武汉精立电子技术有限公司 一种显示产品图像中心对位方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221235A (ja) 2010-04-08 2011-11-04 Sony Corp 頭部装着型ディスプレイにおける光学的位置調整方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11102438A (ja) * 1997-09-26 1999-04-13 Minolta Co Ltd 距離画像生成装置及び画像表示装置
IL130465A0 (en) 1999-06-14 2000-06-01 Prolaser Ltd Method and apparatus for measuring power of an optical element for its mapping
DE102006053758A1 (de) * 2006-11-13 2008-05-15 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Regelung der Ausrichtung eines Heliostaten auf einen Receiver, Heliostatenvorrichtung und Solarkraftwerk
EP2124729A1 (en) * 2006-11-17 2009-12-02 Balance International Innovations Gmbh System and method for providing body sway feedback to a body of a subject
EP2063260A1 (en) * 2007-11-19 2009-05-27 Lambda-X Fourier transform deflectometry system and method
US9430877B2 (en) * 2013-01-25 2016-08-30 Wilus Institute Of Standards And Technology Inc. Electronic device and method for selecting augmented content using the same
JP2017021302A (ja) * 2015-07-15 2017-01-26 日本精機株式会社 ヘッドアップディスプレイ
EP3128362B1 (en) 2015-08-05 2023-10-04 Essilor International Method for determining a parameter of an optical equipment
CN105867855A (zh) * 2015-12-04 2016-08-17 乐视致新电子科技(天津)有限公司 虚拟设备图像的显示方法及设备
CN105869142A (zh) * 2015-12-21 2016-08-17 乐视致新电子科技(天津)有限公司 虚拟现实头盔的成像畸变测试方法及装置
WO2017134275A1 (en) * 2016-02-05 2017-08-10 Eidgenossische Technische Hochschule Zurich Methods and systems for determining an optical axis and/or physical properties of a lens and use of the same in virtual imaging and head-mounted displays
US10036685B2 (en) * 2016-05-18 2018-07-31 Jand, Inc. Fixtureless lensmeter and methods of operating same
WO2017206042A1 (zh) * 2016-05-31 2017-12-07 中国科学院深圳先进技术研究院 基于智能眼镜的遮挡物透视方法及装置
US10429647B2 (en) * 2016-06-10 2019-10-01 Facebook Technologies, Llc Focus adjusting virtual reality headset
CN106127714B (zh) * 2016-07-01 2019-08-20 南京睿悦信息技术有限公司 一种虚拟现实头戴显示器设备畸变参数的测量方法
CN106054392B (zh) * 2016-08-10 2018-12-04 深圳多哚新技术有限责任公司 Vr设备中光学镜头与显示屏的对准方法及系统
CN106441212B (zh) * 2016-09-18 2020-07-28 京东方科技集团股份有限公司 一种光学仪器视场角的检测装置及检测方法
US10338400B2 (en) * 2017-07-03 2019-07-02 Holovisions LLC Augmented reality eyewear with VAPE or wear technology
US20190187721A1 (en) * 2017-12-15 2019-06-20 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and mobile robot using the same
CA3116887A1 (en) * 2018-10-18 2020-04-23 Jand, Inc. Fixtureless lensmeter system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221235A (ja) 2010-04-08 2011-11-04 Sony Corp 頭部装着型ディスプレイにおける光学的位置調整方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Sangyoon Lee,外1名,A Robust Camera-based Method for Optical Distortion Calibration of Head-Mounted Displays,2013 IEEE Virtual Reality (VR),2013年03月18日,pp. 27-30

Also Published As

Publication number Publication date
EP3726836A4 (en) 2021-08-18
US11557106B2 (en) 2023-01-17
WO2019114650A1 (zh) 2019-06-20
KR20200093004A (ko) 2020-08-04
KR102532486B1 (ko) 2023-05-16
CN109936737B (zh) 2021-11-16
EP3726836A1 (en) 2020-10-21
US20200349377A1 (en) 2020-11-05
CN109936737A (zh) 2019-06-25
JP2021507334A (ja) 2021-02-22

Similar Documents

Publication Publication Date Title
JP7311511B2 (ja) ウェアラブルデバイスのテスト方法およびシステム
CN107925722B (zh) 用于补偿相机运动的方法和设备
CN107431796B (zh) 全景虚拟现实内容的全方位立体式捕捉和渲染
US20170363949A1 (en) Multi-tier camera rig for stereoscopic image capture
CN107637060B (zh) 相机装备和立体图像捕获
WO2018019282A1 (zh) 双目全景图像获取方法,装置及存储介质
WO2015068656A1 (ja) 画像生成装置および画像生成方法
CN107844190B (zh) 基于虚拟现实vr设备的图像展示方法及装置
CN108093244B (zh) 一种远程随动立体视觉系统
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
EP3683656A1 (en) Virtual reality (vr) interface generation method and apparatus
WO2021027927A1 (zh) 摄像机组件和监控摄像机
KR20180091033A (ko) 이미지 디스플레이 방법, 곡면을 가지는 불규칙 스크린을 제조하기 위한 방법 및 헤드-장착 디스플레이 장치
US20200228792A1 (en) Test method and system for wearable device
TW202145778A (zh) 投影機系統的投影方法
CN103517060A (zh) 一种终端设备的显示控制方法及装置
JP6708444B2 (ja) 画像処理装置および画像処理方法
CN108153417A (zh) 画面补偿方法及采用该方法的头戴式显示装置
CN111491159A (zh) 一种增强现实的显示系统及方法
JPH07240945A (ja) 仮想空間生成提示装置
CN101854485A (zh) 一种自动调节手持立体拍摄设备抖动的方法及装置
WO2021237952A1 (zh) 一种增强现实的显示系统及方法
US11587283B2 (en) Image processing apparatus, image processing method, and storage medium for improved visibility in 3D display
CN108548655A (zh) 成像精度的测量系统及方法、测试主机
KR101990252B1 (ko) Vr 이미지 획득 방법, 이를 수행하기 위한 vr 촬영 프로그램이 설치된 휴대 단말기, 그리고 이 vr 촬영 프로그램을 휴대 단말기에 제공하는 서버

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150