JP6980639B2 - 仮想スクリーンのパラメータ推定方法及び装置 - Google Patents

仮想スクリーンのパラメータ推定方法及び装置 Download PDF

Info

Publication number
JP6980639B2
JP6980639B2 JP2018219279A JP2018219279A JP6980639B2 JP 6980639 B2 JP6980639 B2 JP 6980639B2 JP 2018219279 A JP2018219279 A JP 2018219279A JP 2018219279 A JP2018219279 A JP 2018219279A JP 6980639 B2 JP6980639 B2 JP 6980639B2
Authority
JP
Japan
Prior art keywords
virtual
camera
parameter
physical
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018219279A
Other languages
English (en)
Other versions
JP2019099142A (ja
Inventor
東▲ぎょん▼ 南
孝錫 黄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019099142A publication Critical patent/JP2019099142A/ja
Application granted granted Critical
Publication of JP6980639B2 publication Critical patent/JP6980639B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Instrument Panels (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、仮想スクリーンのパラメータ推定方法及び装置に関する。
ヘッドアップディスプレイ(HUD:head up display)システムは、運転者の前方に虚像を生成し、虚像内に情報を表示して運転者に様々な情報を提供する。運転者に提供される情報は、車両の速度、ガソリンの残量、エンジンRPM(revolution per minute)などの計器盤情報及びナビゲーション情報を含み得る。運転者は、運転中に視線を移動しないで前方に表示された情報を容易に把握することができるため、運転の安定性が高くなる。HUDシステムは、計器盤情報及びナビゲーション情報の他にも、前方視野が良くない場合を補助するめの車線表示、工事表示、交通事故表示、道行者を示す警告表示などを運転者にAR(Augmented Reality)方式に提供する。
本発明の目的は、仮想スクリーンのパラメータ推定方法及び装置を提供することにある。
一実施形態に係る仮想スクリーンのパラメータ推定方法は、物理平面に表示された物理パターン及び仮想スクリーンに表示された仮想パターンを照らす反射体が撮影された複数の撮影映像を物理カメラから取得するステップと、前記物理カメラに対応する仮想カメラを前記反射体の反射角度ごとに推定するステップと、前記物理パターンに対する前記仮想カメラの変換パラメータに基づいて、前記仮想カメラのうち基準カメラに対する前記仮想カメラの第1変換パラメータを決定するステップと、前記仮想パターンに対する前記仮想カメラの変換パラメータに基づいて、前記基準カメラに対する前記仮想カメラの第2変換パラメータを決定するステップと、前記第1変換パラメータ及び前記第2変換パラメータに基づいて前記仮想スクリーンのサイズパラメータを推定するステップとを含む。
前記サイズパラメータを推定するステップは、前記第1変換パラメータと前記第2変換パラメータとの間の差を最小化する値を前記サイズパラメータで推定するステップを含み得る。
前記仮想スクリーンのパラメータ推定方法は、前記推定されたサイズパラメータに基づいて前記物理カメラに対する前記仮想スクリーンの変換パラメータを推定するステップをさらに含み得る。
前記仮想スクリーンのパラメータ推定方法は、前記仮想カメラに対する前記物理カメラの変換パラメータ及び前記仮想スクリーンに対する前記仮想カメラの変換パラメータに基づいて、前記物理カメラに対する前記仮想スクリーンの変換パラメータを推定するステップをさらに含み得る。
前記仮想スクリーンのパラメータ推定方法は、前記複数の撮影映像に基づいて前記仮想カメラに対する前記物理カメラの変換パラメータを推定するステップをさらに含み得る。
前記仮想スクリーンのパラメータ推定方法は、前記第1変換パラメータ及び前記第2変換パラメータに基づいて前記仮想スクリーンに対する前記仮想カメラの変換パラメータを推定するステップをさらに含み得る。
他の実施形態によれば、仮想スクリーンのパラメータ推定方法は、仮想スクリーンに表示された仮想パターンを照らし、物理パターンを含む反射体が撮影された、複数の撮影映像を物理カメラから取得するステップと、前記物理カメラに対応する仮想カメラを前記反射体の反射角度ごとに推定するステップと、前記物理パターンに対する前記仮想カメラの変換パラメータに基づいて、前記仮想カメラのうち基準カメラに対する前記仮想カメラの第1変換パラメータを決定するステップと、前記仮想パターンに対する前記仮想カメラの変換パラメータに基づいて、前記基準カメラに対する前記仮想カメラの第2変換パラメータを決定するステップと、前記第1変換パラメータ及び前記第2変換パラメータに基づいて前記仮想スクリーンのサイズパラメータを推定するステップとを含む。
一実施形態によれば、仮想スクリーンのパラメータ推定装置は、プロセッサと、前記プロセッサで読み出し可能な命令語を含むメモリとを含み、前記命令語が前記プロセッサで実行されれば、前記プロセッサは、物理平面に表示された物理パターン及び仮想スクリーンに表示された仮想パターンを照らす反射体が撮影された、複数の撮影映像を物理カメラから取得し、前記物理カメラに対応する仮想カメラを前記反射体の反射角度ごとに推定し、前記物理パターンに対する前記仮想カメラの変換パラメータに基づいて、前記仮想カメラのうち基準カメラに対する前記仮想カメラの第1変換パラメータを決定し、前記仮想パターンに対する前記仮想カメラの変換パラメータに基づいて、前記基準カメラに対する前記仮想カメラの第2変換パラメータを決定し、前記第1変換パラメータ及び前記第2変換パラメータに基づいて前記仮想スクリーンのサイズパラメータを推定する。
本発明によると、仮想スクリーンのパラメータ推定方法及び装置を提供することができる。
一実施形態に係るARシステムを示す図である。 一実施形態に係るキャリブレーション結果を示す図である。 一実施形態に係る仮想スクリーンのパラメータを推定する方法を示した動作フローチャートである。 一実施形態に係る仮想スクリーンのパラメータを推定するシステムを示す図である。 一実施形態に係る複数の撮影映像を示す図である。 一実施形態に係る仮想カメラの位置を推定する過程を示す図である。 一実施形態に係る変換パラメータを用いて仮想スクリーンのサイズパラメータを推定する方法を示した動作フローチャートである。 一実施形態に係る物理パターンに関する相対座標及び仮想パターンに関する相対座標を示す図である。 一実施形態に係るサイズパラメータごとの相対座標を示す図である。 一実施形態に係るサイズパラメータに関する相対座標の間の差を示したグラフである。 一実施形態に係る反射体によって示される虚像を示す図である。 一実施形態に係るパターン、反射体、及び虚像間の幾何学的な関係を説明する図である。 一実施形態に係るパターンを用いて物理カメラに対する仮想スクリーンの変換パラメータを推定する過程を説明する図である。 一実施形態に係る物理カメラ、仮想スクリーン及び仮想カメラの間の変換関係を示す図である。 一実施形態に係る物理パターンを含む反射体を示す図である。 一実施形態に係るヘッドマウントディスプレイを用いた推定システムを示す図である。 一実施形態に係る複数の物理カメラを用いた推定システムを示す図である。 一実施形態に係る仮想スクリーンのパラメータを推定する装置を示すブロック図である。 一実施形態に係る仮想スクリーンのパラメータを推定する方法を示した動作フローチャートである。 他の実施形態に係る仮想スクリーンのパラメータを推定する方法を示した動作フローチャートである。 更なる実施形態に係る仮想スクリーンのパラメータを推定する方法を示した動作フローチャートである。
実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものとして、様々な形態に変更される。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的又は科学的な用語を含んで、ここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係るARシステムを示す図である。拡張現実(augmented reality、AR)は、ユーザが見る現実世界に仮想オブジェクトをオーバラップして共に示す技術である。例えば、ARは、ヘッドアップディスプレイ(head up display、HUD)、透過型ヘッドマウントディスプレイ(head mounted display、HMD)などに適用される。ARシステム100は、そのうちHUDに関する実施形態を示す。
図1を参照すれば、ARシステム100は、AR光学系110、半透明光学素子120、仮想スクリーン130、視点追跡カメラ140を含む。AR光学系110は、光源、ディスプレイパネル、及び少なくとも1つの光学素子を含む。ディスプレイパネル及び光源によってAR映像に対応する光が提供され、少なくとも1つの光学素子は、AR映像に対応する光を半透明光学素子120の方向に反射させる。光源としてLED(light emitting diode)又はレーザ(laser)が使用されてもよい。
AR光学系110によって提供されたAR映像に対応する光により仮想スクリーン130が形成され、AR光学系110によって提供された光のうちの一部は、ユーザ前方に位置する半透明光学素子120に反射してユーザに提供される。半透明光学素子120は、車両や飛行機のウィンドウシールドであるか、又はAR映像の反射目的としてウィンドウシールドとは別に提供される結合器であり得る。ユーザは、半透明光学素子120の前方から入る光及び半透明光学素子120によって反射したAR光学系110により照射された光のうちの一部を同時に観測するため、現実オブジェクト及び仮想オブジェクトが重なってユーザにより観測される。
実施形態によれば、ARシステム100は、現実オブジェクトに対応する位置に仮想オブジェクトを表示する。例えば、HUDで車両の進行方向に関する情報、車線情報、危険物情報などが仮想オブジェクトとして現実オブジェクトに対応する位置に表示される。以下で、仮想オブジェクトを表示しようとする位置は、ターゲット位置と称される。仮想オブジェクトがターゲット位置へ正確に表示されるため、背景の3D情報、仮想スクリーン130のパラメータ、及びユーザの視点情報が要求される。例えば、ARシステム100はユーザの視点を推定し、ユーザの視点とターゲット位置を連結した線及び仮想スクリーン130との間の交差点に仮想オブジェクトを表示する。
背景に関する3D情報は、車両の前方に向かっているカメラ(図示せず)又は3Dセンサ(図示せず)を用いて取得される。また、ユーザの視点は、ユーザに向っている視点追跡カメラ140を用いて取得される。視点追跡カメラ140は、複数のピクセルを含むイメージセンサとして、カラー映像を撮影し、グレイスケール(gray scale)の映像を撮影する。仮想スクリーン130のパラメータとして設計値を用いてもよい。現在速度、到着時間のような基本的な運行情報を表示する場合、現実オブジェクト及び仮想オブジェクト間の整合が必須でないため、仮想スクリーン130のパラメータで設計値が用いられるが、設計値を用いる場合、ターゲット位置に仮想オブジェクトを正確に表示するためにはその限界がある。設計値そのものが不正確になり、設計値が正確な場合であってもARシステム100の設置過程や使用過程で仮想スクリーン130のパラメータが変更され得るためである。
実施形態によれば、設計値の代わりに仮想スクリーン130のパラメータの推定値を用いてもよい。例えば、仮想スクリーン130のパラメータは、サイズパラメータ及び変換パラメータを含む。サイズパラメータは、仮想スクリーン内の仮想パターンの間隔、仮想スクリーンのピクセル間隔、又は仮想スクリーンの全体の大きさに対応する。変換パラメータは、姿勢(pose)、オリエンテーション(orientation)、又は、相対座標(relative coordinate)に対応する。仮想スクリーン130の変換パラメータは、視点追跡カメラ140に対する仮想スクリーン130の変換パラメータを意味し、仮想スクリーン130の変換パラメータを用いて仮想スクリーン130の座標が視点追跡カメラ140の座標に変換される。
ARシステム100は、推定された仮想スクリーン130のパラメータを用いて仮想オブジェクトがターゲット位置に正確に表示されるようAR映像をレンダリングする。仮想スクリーン130のパラメータは、ARシステム100の生産過程で推定されたり、又はARシステム100の設置過程で推定されたり、又はARシステム100の使用過程で推定される。一例として、ARシステム100の使用過程で仮想スクリーン130のパラメータが変更され得ることから、仮想スクリーン130のパラメータの実施形態に係る推定過程を用いて持続的に更新されることができる。
図2は、一実施形態に係るキャリブレーション結果を示す図である。図2を参照すれば、仮想スクリーン210及び背景220が重なってユーザに提供される。仮想スクリーン210のパラメータが正確ではない場合、イメージ230に示すよう、仮想オブジェクトが現実オブジェクトに整合されない状態でユーザに提供されることがある。推定装置200は、仮想スクリーン210のパラメータを推定し、推定された仮想スクリーン210のパラメータをARシステムに提供する。ARシステムは、推定された仮想スクリーン210のパラメータを用いてAR映像をレンダリングし、そのため、イメージ240に示すように、仮想オブジェクトが現実オブジェクトに整合された状態でユーザに提供されることができる。
実施形態によれば、推定装置200は、反射体を用いて反射した仮想スクリーン210の虚像を視点追跡カメラで撮影し、仮想スクリーン210のパラメータを推定する。視点追跡カメラで仮想スクリーン210を直接撮影する場合、仮想スクリーン210のパラメータだけではなく、視点追跡カメラの位置も曖昧になって測定された値を直接に分析できない。推定装置200は、反射体を用いて仮想スクリーン210を撮影するとき、予め知っているキャリブレーションパターンも共に撮影し、キャリブレーションパターンから視点追跡カメラの位置を推定し、推定された視点追跡カメラの位置を用いて仮想スクリーン210のパラメータを推定できる。
図3は、一実施形態に係る仮想スクリーンのパラメータを推定する方法を示した動作フローチャートである。図3を参照すれば、推定装置は、ステップS310において複数の撮影映像を取得し、ステップS320において複数の撮影映像から仮想パターン及び物理パターンを検出し、ステップS330において仮想カメラの位置を推定する。複数の撮影映像は、視点追跡カメラ及び反射体を用いて取得される。仮想カメラは、視点追跡カメラが反射体によって反射した概念を示し、仮想カメラとの区分のために視点追跡カメラは、物理カメラとして称される。複数の撮影映像は、反射体の反射角度を調整しながら撮影される。したがって、反射体の反射角度ごとに複数の仮想カメラが推定され得る。
実施形態に係るパラメータ推定過程で、物理平面に表示された物理パターン及び仮想スクリーンに表示された仮想パターンを用いてもよい。推定装置は、物理パターンのサイズパラメータを予め知っているものと仮定する。例えば、推定装置は、予めサイズパラメータを知っている物理パターンに基づいて仮想カメラの位置を決定し、仮想パターンに基づいて推定された仮想カメラの位置及び決定された物理パターンに基づいた仮想カメラの位置間の差が最小化されるよう仮想スクリーンのサイズパラメータを決定できる。
ステップS310〜ステップS330については、図4〜図6を参照してより詳細に説明する。
図4は、一実施形態に係る仮想スクリーンのパラメータを推定するシステムを示す図である。図4を参照すれば、推定システム400は、物理カメラ410、反射体420、仮想カメラ430、物理パターン440、仮想パターン450、及び推定装置460を含む。物理パターン440は物理平面上に存在し、仮想パターン450は仮想スクリーン上に存在する。推定装置460は、物理パターン440のサイズパラメータを予め知っているものと仮定する。一実施形態によれば、物理パターン440及び仮想パターン450は互いに異なる形態のパターンであり得る。図4に示す物理パターン440はチェスボードパターンであり、仮想パターン450は円形グリッドパターンのように図示されているが、チェスボードパターン及び円形グリッドパターンの他に様々なキャリブレーションパターンが物理パターン440及び仮想パターン450として用いられてもよい。
反射体420は、物理パターン440及び仮想パターン450を照らし、物理カメラ410は、物理パターン440及び仮想パターン450を照らす反射体420を撮影する。実際に、物理カメラ410により撮影されるものは物理パターン440の虚像及び仮想パターン450の虚像であるが、説明の便宜のために、物理パターン440の虚像が物理パターン440と称され、仮想パターン450の虚像が仮想パターン450と称される。物理カメラ410は、反射体420の反射角度が調整される状況で反射体420を撮影する。例えば、物理カメラ410は、第1角度の反射体421、第2角度の反射体422、及び第3角度の反射体423をそれぞれ撮影して撮影映像を生成する。
図5は、一実施形態に係る複数の撮影映像を示す図である。図5を参照すれば、反射体の反射角度が調整されることにより、物理パターン及び反射パターンが互いに異なる角度で撮影されている。例えば、図4に示す反射体421を用いて撮影映像510が生成され、図4に示す反射体422を用いて撮影映像520が生成され、図4に示す反射体423を用いて撮影映像530が生成される。
再び図4を参照すれば、推定装置460は、物理カメラ410から複数の撮影映像を取得する。推定装置460は、各撮影映像で物理パターン440及び仮想パターン450を抽出する。例えば、推定装置460は、各撮影映像でキャリブレーションパターンの位置及び交差点の位置を求めることができる。
推定装置460は、物理カメラ410に対応する仮想カメラ430を反射体420の反射角度ごとに推定する。仮想カメラ430は、反射体420による物理カメラ410の虚像に対応する。例えば、反射体421に基づいて仮想カメラ431が推定され、反射体422に基づいて仮想カメラ432が推定され、反射体423に基づいて仮想カメラ433が推定される。
前述したように、推定装置460は、予めサイズパラメータを知っている物理パターン440に基づいて仮想カメラ430の位置を決定し、仮想パターン450に基づいて推定された仮想カメラ430の位置、及び決定された物理パターン440に基づいた仮想カメラ430の位置間の差が最小化されるよう、仮想スクリーンのサイズパラメータを決定できる。そのうち、仮想カメラ430の位置を推定する過程について、図6を参照して説明する。
図6は、一実施形態に係る仮想カメラの位置を推定する過程を示す図である。推定装置は、撮影映像内物理パターンで交差点を抽出する。現実世界の物理パターン上の交差点Xは、撮影映像内物理パターン上の座標(x、y、0)に対応すると見ることができる。交差点Xが撮影映像に対応するイメージ平面に投影された点x、及び交差点X間の関係は数式(1)に示すことができる。
Figure 0006980639
数式(1)において、Rはパターンの回転パラメータであり、tはパターンの並進パラメータであり、iは撮影映像のインデックスであり、jは撮影映像内の交差点のインデックスである。また、数式(1)において、Kはカメラの内部パラメータであり、数式(2)に示すことができ、Uは補正関数として数式(3)に示すことができる。
Figure 0006980639
数式(2)において、fはカメラのx軸に対する焦点距離であり、fはカメラのy軸に対する焦点である。cとcは中心点の座標値であり、カメラの光軸又はカメラ座標のz軸とイメージ平面が接する座標のx値及びy値に該当する。
Figure 0006980639
レンズを用いたカメラには歪みが発生する可能性があり、これを補正する必要がある。実施形態で数式(3)を用いて放射状歪み(radial distortion)及び接線歪み(tangential distortion)が考慮される。数式(3)において、k、kは放射状歪みに関するパラメータを示し、k、kは接線歪みに関するパラメータを示す。また、数式(3)でrは、√(x+y)である。
数式(1)〜数式(3)に基づいて数式(4)が定義される。
Figure 0006980639
数式(4)をmとするとき、mを最小化する最適化方式を用いてカメラパラメータが求められる。言い換えれば、撮影映像上の点x及び実際の座標Xが関数Pによって投影された撮影映像上の点間の差を最小化してカメラパラメータが求められる。数式(4)において、nは撮影映像の個数であり、mは撮影映像内の交差点の個数である。
数式(4)を用いて各撮影映像内の交差点に関する回転パラメータR及び並進パラメータtが求められる。回転パラメータR及び並進パラメータtは、物理カメラに対する物理パターンの相対的な姿勢を示す。回転パラメータR及び並進パラメータtに基づいて、同次座標(homogeneous coordinate)上で変換パラメータTを数式(5)に示すことができる。
Figure 0006980639
実際に、物理パターンは固定され、仮想カメラが移動されるものであるため、物理パターンに対する仮想カメラの変換パラメータを数式(6)に示すことができる。
Figure 0006980639
数式(6)において、lは仮想カメラのインデックスを示し、1ないしnの値を有する。図6で は物理パターンに対する第1仮想カメラの変換パラメータを示し、 は物理パターンに対する第2仮想カメラの変換パラメータを示す。また、図6において、Oは物理パターンの基準座標を示し、C ないしC は基準座標Oに対する第1仮想カメラ〜第n仮想カメラの相対座標を示す。ここで、仮想カメラのうち基準カメラが決定され、基準カメラに対する仮想カメラの変換パラメータを数式(7)に示すことができる。
Figure 0006980639
例えば、座標C に対応する第1仮想カメラが基準カメラに設定され、図6に示す は第1仮想カメラに対する第2仮想カメラの変換パラメータを示す。
上記の図6を参照して説明したものと類似の過程を用いて、仮想パターンに対する仮想カメラの変換パラメータが決定され、これによって基準カメラに対する仮想カメラの変換パラメータが決定される。下記で物理パターンを用いて決定された基準カメラに対する仮想カメラの変換パラメータは第1変換パラメータに称し、仮想パターンを用いて決定された基準カメラに対する仮想カメラの変換パラメータは第2変換パラメータに称する。
推定装置は、撮影映像内の仮想パターンで交差点を抽出し得る。仮想スクリーンのサイズパラメータを把握する前に、仮想スクリーンの仮想パターン上の交差点Yの正確な値を把握することができない。仮想パターンの間隔をd、仮想パターンの横長さをw、仮想パターンの縦長さをh、仮想パターンの開始位置を(b、b)、仮想パターンのピクセルの大きさをeとすれば、二面の交差点Yは数式(8)に定義される。
Figure 0006980639
数式(8)において、iは撮影映像のインデックスを示し、jは交差点のインデックスを示し、WはYijのx番目の順序を示し、HはYijのy番目の順序を示す。W及びHは、数式(9)及び(10)に定義される。数式(8)eを除いた残りは予め定義されている。
Figure 0006980639
PnP(Perspective−n−Point)方法によって仮想カメラに対する仮想パターンの姿勢が推定される。まず、仮想カメラに対する仮想パターンの姿勢をR’i、t’iにより定義できる。ここで、iは撮影映像、又は該当の撮影映像に示す仮想パターンのインデックスを示す。この姿勢は、仮想パターンの座標に対応するため、この姿勢を数式(11)に示すよう、仮想パターンに対する仮想カメラの姿勢に変換する。
Figure 0006980639
数式(11)において、lは仮想カメラのインデックスを示す。数式(5)について説明したように、同次座標上の変換パラメータを数式(12)に示すことができる。
Figure 0006980639
また、数式(7)について説明したように、仮想カメラのうち基準カメラが決定され、基準カメラに対する仮想カメラの変換パラメータを数式(13)に示すことができる。
Figure 0006980639
したがって、数式(6)及び数式(7)に基づいて物理パターンに対する仮想カメラの変換パラメータT及び基準カメラに対する仮想カメラの第1変換パラメータT が決定され、数式(12)及び数式(13)に基づいて仮想パターンに対する仮想カメラの変換パラメータ及び基準カメラに対する仮想カメラの第2変換パラメータT が決定される。推定装置は、変換パラメータTに基づいて第1変換パラメータT を決定し、変換パラメータに基づいて第2変換パラメータT を決定する。
再び図3を参照すれば、推定装置は、ステップS340において、仮想スクリーンのサイズパラメータを推定する。推定装置は、第1変換パラメータ及び第2変換パラメータに基づいて仮想スクリーンのサイズパラメータを推定する。例えば、推定装置は、第1変換パラメータに関する相対座標及び第2変換パラメータに関する相対座標を決定する。第2変換パラメータに関する相対座標は、仮想スクリーンのサイズパラメータによって変わる。物理パターンを用いた仮想カメラの位置及び仮想パターンを用いた仮想カメラ位置は同じ位置であるため、この点を用いて仮想スクリーンのサイズパラメータを推定することができる。
一実施形態によれば、推定装置は、第1変換パラメータと第2変換パラメータとの間の差を最小化する値をサイズパラメータとして決定できる。これについて、数式(14)に示すことができる。
Figure 0006980639
数式(14)においてT は第1変換パラメータを示し、T は第2変換パラメータを示し、nは撮影映像の数を示し、eはサイズパラメータを示す。推定装置は、数式(14)に基づいてサイズパラメータを推定する。仮想スクリーンのサイズパラメータが推定されることにより、仮想カメラに対する仮想スクリーンの姿勢が共に推定され得る。
ステップS340については、図7〜図10を参照してより詳細に説明する。
図7は、一実施形態に係る変換パラメータを用いて仮想スクリーンのサイズパラメータを推定する方法を示した動作フローチャートである。図7を参照すれば、推定装置は、ステップS710において、候補サイズパラメータを設定する。候補サイズパラメータは予め決定した値に設定されてもよく、任意の値に設定される。推定装置は、ステップS720において、候補サイズパラメータに基づいて第2変換パラメータを決定する。推定装置は、ステップS730において、第1変換パラメータ及び候補サイズパラメータに基づいて決定された第2変換パラメータの間の差を決定する。推定装置は、ステップS740において、決定された差と閾値とを比較する。閾値は、予め決定されてもよい。推定装置は、ステップS740の比較結果に基づいて、候補サイズパラメータをサイズパラメータで推定できる。推定装置は、ステップS740の比較結果、決定された差が閾値よりも大きければ、ステップS750において、候補サイズパラメータを変更してステップS720を再び実行し、ステップS740の比較結果、決定された差が閾値よりも小さければ、ステップS760において、候補サイズパラメータをサイズパラメータで推定する。
図8は、一実施形態に係る物理パターンに関する相対座標及び仮想パターンに関する相対座標を示す図である。第1変換パラメータは、物理パターンに関する相対座標811に示し、第2変換パラメータは、仮想パターンに関する相対座標812に示す。物理パターンに関する相対座標811及び仮想パターンに関する相対座標812の分布は、サイズパラメータのキャリブレーションの有無に応じて互いに異なるよう示されてもよい。物理パターンを用いた仮想カメラの位置及び仮想パターンを用いた仮想カメラ位置は同じ位置であるため、サイズパラメータのキャリブレーションが完了した場合、物理パターンに関する相対座標811及び仮想パターンに関する相対座標812は、互いに対応する位置を示す。分布810は、サイズパラメータがキャリブレーションされない状態を示し、分布820は、サイズパラメータがキャリブレーションされた状態を示す。
図9は、一実施形態に係るサイズパラメータごとの相対座標を示す図であり、図10は、一実施形態に係るサイズパラメータに関する相対座標の間の差を示したグラフである。
図9を参照すれば、仮想スクリーンのサイズパラメータがK1ないしK6である場合に関し、物理パターンに関する相対座標及び仮想パターンに関する相対座標が図示されている。図9において、物理パターンに関する相対座標は実線に表示し、仮想パターンに関する相対座標は点線で表示している。物理パターンのサイズパラメータは予め知っているため、物理パターンに関する相対座標は固定され、仮想スクリーンのサイズパラメータの変化に応じて仮想パターンに関する相対座標の位置は変化する。例えば、仮想スクリーンのサイズパラメータの変化に応じて仮想パターンに関する相対座標の位置は、物理パターンに関する相対座標にアクセスするが再び遠くなり得る。
図10において、x軸は仮想スクリーンのサイズパラメータを示し、y軸は物理パターンに関する相対座標及び仮想パターンに関する相対座標の間の差を示す。推定装置は、物理パターンに関する相対座標を代表する第1値を算出し、仮想パターンに関する相対パターンを代表する第2値を算出し、第1値及び第2値間の差を物理パターンに関する相対座標及び仮想パターンに関する相対座標の間の差として決定する。例えば、相対座標の代表値は、相対座標それぞれの基準座標の平均値として算出される。一例として、相対座標それぞれの原点の座標の平均値に基づいて相対座標に関する代表値が決定される。
図10を参照すれば、物理パターンに関する相対座標及び仮想パターンに関する相対座標の間の差値は、仮想スクリーンのサイズパラメータがK4であるとき最小である。図9において、仮想スクリーンのサイズパラメータがK4であるとき、物理パターンに関する相対座標及び仮想パターンに関する相対座標が互いに対応する位置に示されるため、物理パターンに関する相対座標及び仮想パターンに関する相対座標の間の差が最小になる。推定装置は、候補サイズパラメータを調整しながら差値が最小となる候補サイズパラメータをサイズパラメータで推定したり、又は差値が閾値未満になる候補サイズパラメータをサイズパラメータで推定する。
再び図3を参照すれば、推定装置は、ステップS350において、仮想スクリーンの変換パラメータを推定する。以下、仮想スクリーンの変換パラメータは、物理カメラに対する仮想スクリーンの変換パラメータを意味する。仮想スクリーンの変換パラメータは、姿勢、オリエンテーション又は相対座標に対応する。
一実施形態によれば、推定装置は、ステップS340を用いて推定されたサイズパラメータに基づいて仮想スクリーンの変換パラメータを推定する。サイズパラメータのキャリブレーションが完了した場合、仮想パターンは物理パターンと同じ役割を果たすため、仮想パターンを用いて仮想スクリーンの変換パラメータが推定される。例えば、推定装置は、撮影映像に基づいてパターン及び反射体の間の幾何学的な関係を推定し、推定された幾何学的な関係に基づいてパターン及び撮影映像内のパターンの虚像の間の投影誤差を算出する。推定装置は、投影誤差が最小化されるよう、物理カメラに対する仮想スクリーンの変換パラメータを推定する。ここで、パターンは、実施形態により物理パターン又は仮想パターンであってもよい。本実施形態は、後で図11〜図13を参照してより詳細に説明する。
他の実施形態によれば、推定装置は、物理カメラ、仮想カメラ、及び仮想スクリーン間の変換関係に基づいて仮想スクリーンの変換パラメータを推定する。例えば、推定装置が仮想カメラに対する物理カメラの変換パラメータ及び仮想スクリーンに対するカメラの変換パラメータを知っている場合、この変換パラメータに基づいて物理カメラに対する仮想スクリーンの変換パラメータを推定し得る。
まず、図3に示すステップS340において、仮想スクリーンのサイズパラメータが推定されることで、仮想カメラに対する仮想スクリーンの姿勢が共に推定され得る。したがって、推定装置は、図3に示すステップS340で第1変換パラメータ及び第2変換パラメータに基づいて仮想カメラに対する仮想スクリーンの変換パラメータを推定できる。また、推定装置は、物理パターン及び反射体間の幾何学的な関係に基づいて仮想カメラに対する物理カメラの変換パラメータを推定したり、又は物理パターンを含む反射体を用いて仮想カメラに対する物理カメラの変換パラメータを推定する。本実施形態は、後で図14を参照してより詳細に説明する。
図11は、一実施形態に係る反射体によって示される虚像を示す図である。推定装置は、撮影映像に基づいて虚像の位置を推定する。ここで、虚像は、物理パターンが反射体によって反射したものであるか、又は仮想パターンが反射体によって反射したものである。虚像の数は撮影映像の数に対応する。
図12は、一実施形態に係るパターン、反射体及び虚像間の幾何学的な関係を説明する図である。図12を参照すれば、推定されたパターン1220、反射体1230及び虚像1240間の幾何学的な関係が図示されている。パターン1220は、実施形態により物理パターン又は仮想パターンであってもよい。推定装置は、仮想スクリーンの候補変換パラメータに基づいてパターン1220の特徴点を虚像1240に投影する。仮想スクリーンの候補変換パラメータが真に近いほど、仮想スクリーンの変換パラメータにより投影された特徴点と虚像1240の対応点間の距離は近づく。推定装置は、候補変換パラメータを調整しながら特徴点及び対応点間の距離が近くなることが確認される。
推定装置は、物理カメラ1210の外部パラメータを用いて虚像1240及び物理カメラ1210間の姿勢を知っているため、物理カメラ1210と虚像1240の位置を特定できる。パターン1220の位置は、候補変換パラメータの初期値により決定され、反射体1230の位置は、パターン1220と虚像1240の中央に決定される。反射体1230とパターン1220がなしている角度と反射体1230と虚像1240がなしている角度は同一である。したがって、パターン1220、反射体1230、及び虚像1240間の幾何学的な関係が推定され得る。
推定装置は、パターン1220、反射体1230及び虚像1240間の幾何学的な関係に基づいてパターン1220及び虚像1240間の投影誤差を算出する。パターン1230の正規化されたノーマルベクトルnmiは数式(15)に示すことができる。
Figure 0006980639
数式(15)において、n(バーn)はパターン1220のノーマルベクトルであり、nは虚像1240のノーマルベクトルである。パターン1220の特徴点(バーX)を反射体1230のノーマル方向であるnmiにdijだけ移動する場合、はXijの位置に投影される。dijは数式(16)のように示すことができる。
Figure 0006980639
また、先に説明された特徴点の投影は数式(17)に示すことができる。
Figure 0006980639
投影誤差は、パターン1220の特徴点を投影したtij)に対応するi番目の虚像1240の特徴点ijとのユークリッド距離を示す。特徴点を全ての虚像に投影した誤差の平均Eは数式(18)に示すことができる。
Figure 0006980639
推定装置は、Eが最小化される候補変換パラメータを変換パラメータとして決定し得る。例えば、候補変換パラメータの初期値で任意に値を変更して取得したEが初期値によるEに比べて小さければ、候補変換パラメータは、他の値に更新される。推定装置は、候補変換パラメータの変動が発生しないまで、このような過程を繰り返して最終的な変換パラメータを求めることができる。
図13は、一実施形態に係るパターンを用いて物理カメラに対する仮想スクリーンの変換パラメータを推定する過程を説明する図である。図13において、パターン1320、反射体1331、1332、1333及び虚像1341、1342、1343に基づいて求めた1J(バーX1J)、2J(バーX2J)及び3J(バーX3J)との誤差が最も少ない候補変換パラメータが最終的な変換パラメータに決定される。
パターン1320が仮想パターンである場合、決定された変換パラメータは、物理カメラ1310に対する仮想スクリーンの変換パラメータであってもよい。又は、パターン1320が物理パターンである場合、決定された変換パラメータは物理カメラ1310に対する物理平面の変換パラメータであってもよい。推定装置は、物理カメラ1310に対する物理平面の変換パラメータを用いて仮想カメラに対する物理カメラ1310の変換パラメータを推定する。推定装置は、仮想カメラに対する物理カメラ1310の変換パラメータ及び仮想スクリーンに対する仮想カメラの変換パラメータに基づいて、物理カメラ1310に対する仮想スクリーンの変換パラメータを推定し得る。
図14は、一実施形態に係る物理カメラ、仮想スクリーン、及び仮想カメラの間の変換関係を示す図である。図14を参照すれば、推定装置は、仮想カメラに対する物理カメラの変換パラメータTpv及び仮想スクリーンに対する仮想カメラの変換パラメータTvsに基づいて、物理カメラに対する仮想スクリーンの変換パラメータTpsを推定できる。
一実施形態によれば、推定装置は、図11〜図13を参照して説明したように、物理パターン及び反射体間の幾何学的な関係に基づいて仮想カメラに対する物理カメラの変換パラメータを推定し、図3に示すステップS340で、第1変換パラメータ及び第2変換パラメータに基づいて仮想カメラに対する仮想スクリーンの変換パラメータを推定し得る。
他の実施形態によれば、推定装置は、物理パターンを含む反射体を用いて仮想カメラに対する物理カメラの変換パラメータを推定し、図3に示すステップS340で、第1変換パラメータ及び第2変換パラメータに基づいて仮想カメラに対する仮想スクリーンの変換パラメータを推定し得る。
図15は、一実施形態に係る物理パターンを含む反射体を示す図である。図15を参照すれば、反射体1500は、反射領域1510及び物理パターン1520を含む。反射体1500は反射領域1510を用いて仮想パターンを照らし得る。推定装置は、物理パターン1520のサイズパラメータを予め知っていることができる。推定装置は、物理パターン1520を用いて物理カメラに対する反射体1500の変換パラメータを推定し、物理カメラに対する反射体1500の変換パラメータに基づいて物理カメラ及び反射体1500間の幾何学的な関係、及び仮想カメラ及び反射体1500間の幾何学的な関係を推定する。推定装置は、物理カメラ及び反射体1500間の幾何学的な関係、及び仮想カメラ及び反射体1500間の幾何学的な関係に基づいて仮想カメラに対する物理カメラの変換パラメータを推定できる。
図16は、一実施形態に係るヘッドマウントディスプレイを用いた推定システムを示す図である。ヘッドマウントディスプレイ1620は、スマートメガネのように、ユーザの頭に固定されてAR環境を提供する機器であって、仮想オブジェクトを現実オブジェクトにオーバラップしてユーザの前方に示すことができる。推定装置は、物理パターン1630及び仮想パターン1640を用いて物理カメラ1610に対する仮想スクリーンの変換パラメータを推定する。その他に、推定装置の動作には、図1〜図15、及び図17〜図21の内容が適用され得る。図17は、一実施形態に係る複数の物理カメラを用いた推定システムを示す図である。先の実施形態では、複数の撮影映像を取得するために反射体が使用されたが、図17に示す実施形態では、反射体を用いることなく、複数の物理カメラ1710を用いて複数の撮影映像が取得される。推定装置は、物理パターン1720及び仮想パターン1730を用いて複数の物理カメラ1710のうち少なくとも1つに対する仮想スクリーンの変換パラメータを推定できる。その他に、推定装置の動作には、図1〜図16、及び図18〜図21の内容が適用され得る。
図18は、一実施形態に係る仮想スクリーンのパラメータを推定する装置を示すブロック図である。図18を参照すれば、推定装置1800は、カメラ1810、AR光学系1820、プロセッサ1830、及びメモリ1840を含む。カメラ1810は、複数のピクセルを含むイメージセンサであって、カラー映像を撮影したりグレイスケールの映像を撮影する。カメラ1810の撮影映像は、プロセッサ1830及びメモリ1840のうち少なくとも1つに提供される。AR光学系1820は、光源、ディスプレイパネル及び少なくとも1つの光学素子を含む。ディスプレイパネル及び光源によってAR映像に対応する光が提供され、少なくとも1つの光学素子は、AR映像に対応する光を半透明光学素子の方向に反射させ得る。光源としてLED又はレーザが使用されてもよい。AR光学系1820によって提供されたAR映像に対応する光によって仮想スクリーンが形成され、AR光学系1820によって提供された光のうちの一部は、ユーザ前方に位置する半透明光学素子に反射してユーザに提供される。
メモリ1840は、プロセッサ1830で読み出し可能な命令語を含む。命令語がプロセッサ1830で実行されれば、プロセッサ1830は、仮想スクリーンのパラメータを推定するための動作を行ってもよい。例えば、プロセッサ1830は、物理平面に表示された物理パターン及び仮想スクリーンに表示された仮想パターンを照らす反射体が撮影された、複数の撮影映像を物理カメラから取得し、物理カメラに対応する仮想カメラを反射体の反射角度ごとに推定し、物理パターンに対する仮想カメラの変換パラメータに基づいて、仮想カメラのうち基準カメラに対する仮想カメラの第1変換パラメータを決定し、仮想パターンに対する仮想カメラの変換パラメータに基づいて、基準カメラに対する仮想カメラの第2変換パラメータを決定し、第1変換パラメータ及び第2変換パラメータに基づいて仮想スクリーンのサイズパラメータを推定する。その他に、推定装置1800には、図1〜図17、及び図19〜図21の内容が適用され得る。
図19は、一実施形態に係る仮想スクリーンのパラメータを推定する方法を示した動作フローチャートである。図19を参照すれば、ステップS1910において、推定装置は、物理平面に表示された物理パターン及び仮想スクリーンに表示された仮想パターンを照らす反射体が撮影された、複数の撮影映像を物理カメラから取得する。ステップS1920において、推定装置は、物理カメラに対応する仮想カメラを反射体の反射角度ごとに推定する。ステップS1930において、推定装置は、物理パターンに対する仮想カメラの変換パラメータに基づいて、仮想カメラのうち基準カメラに対する仮想カメラの第1変換パラメータを決定する。ステップS1940において、推定装置は、仮想パターンに対する仮想カメラの変換パラメータに基づいて、基準カメラに対する仮想カメラの第2変換パラメータを決定する。ステップS1950において、推定装置は、第1変換パラメータ及び第2変換パラメータに基づいて仮想スクリーンのサイズパラメータを推定する。ステップS1960において、推定装置は、サイズパラメータに基づいて物理カメラに対する仮想スクリーンの変換パラメータを推定する。その他に、仮想スクリーンのパラメータを推定する方法には図1〜図18の内容が適用され得る。
図20は、他の実施形態に係る仮想スクリーンのパラメータを推定する方法を示した動作フローチャートである。図20を参照すれば、ステップS2010において、推定装置は、物理平面に表示された物理パターン及び仮想スクリーンに表示された仮想パターンを照らす反射体が撮影された、複数の撮影映像を物理カメラから取得する。ステップS2020において、推定装置は、物理カメラに対応する仮想カメラを反射体の反射角度ごとに推定する。ステップS2030において、推定装置は、複数の撮影映像に基づいて仮想カメラに対する物理カメラの変換パラメータを推定する。ステップS2040において、推定装置は、物理パターンに対する仮想カメラの変換パラメータに基づいて、仮想カメラのうち基準カメラに対する仮想カメラの第1変換パラメータを決定する。ステップS2050において、推定装置は、仮想パターンに対する仮想カメラの変換パラメータに基づいて、基準カメラに対する仮想カメラの第2変換パラメータを決定する。ステップS2060において、推定装置は、第1変換パラメータ及び第2変換パラメータに基づいて仮想スクリーンのサイズパラメータ及び仮想スクリーンに対する仮想カメラの変換パラメータを推定する。ステップS2070において、推定装置は、仮想カメラに対する物理カメラの変換パラメータ及び仮想スクリーンに対する仮想カメラの変換パラメータに基づいて、物理カメラに対する仮想スクリーンの変換パラメータを推定する。その他に、仮想スクリーンのパラメータを推定する方法については、図1〜図18に示す内容が適用され得る。
図21は、更なる実施形態に係る仮想スクリーンのパラメータを推定する方法を示した動作フローチャートである。図21を参照すれば、ステップS2110において、推定装置は、仮想スクリーンに表示された仮想パターンを照らし、物理パターンを含む反射体が撮影された、複数の撮影映像を物理カメラから取得する。ステップS2120において、推定装置は、物理カメラに対応する仮想カメラを反射体の反射角度ごとに推定する。ステップS2130において、推定装置は、物理パターン及び反射体間の幾何学的な関係に基づいて仮想カメラに対する物理カメラの変換パラメータを推定する。ステップS2140において、推定装置は、物理パターンに対する仮想カメラの変換パラメータに基づいて、仮想カメラのうち基準カメラに対する仮想カメラの第1変換パラメータを決定する。ステップS2150において、推定装置は、仮想パターンに対する仮想カメラの変換パラメータに基づいて、基準カメラに対する仮想カメラの第2変換パラメータを決定する。ステップS2160において、推定装置は、第1変換パラメータ及び第2変換パラメータに基づいて仮想スクリーンのサイズパラメータ及び仮想スクリーンに対する仮想カメラの変換パラメータを推定する。ステップS2170において、推定装置は、仮想カメラに対する物理カメラの変換パラメータ及び仮想スクリーンに対する仮想カメラの変換パラメータに基づいて、物理カメラに対する仮想スクリーンの変換パラメータを推定する。その他に、仮想スクリーンのパラメータを推定する方法については、図1〜図18に示す内容が適用され得る。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこののうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに連結されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DYIJDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。

Claims (20)

  1. 物理平面に表示された物理パターン及び仮想スクリーンに表示された仮想パターンを照らす反射体が撮影された複数の撮影映像を物理カメラから取得するステップと、
    前記物理カメラに対応する仮想カメラの位置を前記反射体の反射角度ごとに推定するステップと、
    前記物理パターンに対する第1仮想カメラの変換パラメータに基づいて、前記仮想カメラのうち基準カメラである第1仮想カメラに対する、第2ないし第n仮想カメラの第1変換パラメータを決定するステップと、
    前記仮想パターンに対する前記第1仮想カメラの変換パラメータに基づいて、前記第1仮想カメラに対する、第2ないし第n仮想カメラの第2変換パラメータを決定するステップと、
    前記第1変換パラメータ及び前記第2変換パラメータに基づいて前記仮想スクリーンのサイズパラメータを推定するステップと、
    を含む、仮想スクリーンのパラメータ推定方法。
  2. 前記サイズパラメータを推定するステップは、前記第1変換パラメータと前記第2変換パラメータとの間の差を最小化するように前記サイズパラメータを決定するステップを含む、請求項1に記載の仮想スクリーンのパラメータ推定方法。
  3. 前記サイズパラメータを推定するステップは、
    候補サイズパラメータに基づいて前記第2変換パラメータを決定するステップと、
    前記第1変換パラメータ及び前記候補サイズパラメータに基づいて決定された前記第2変換パラメータの間の差を決定するステップと、
    前記決定された差と閾値とを比較するステップと、
    前記比較結果に基づいて前記候補サイズパラメータを前記サイズパラメータであるとして決定するステップと、
    を含む、請求項1に記載の仮想スクリーンのパラメータ推定方法。
  4. 前記推定されたサイズパラメータに基づいて前記物理カメラに対する前記仮想スクリーンの変換パラメータを推定するステップをさらに含む、請求項1ないし3のうち何れか一項に記載の仮想スクリーンのパラメータ推定方法。
  5. 前記仮想スクリーンの変換パラメータを推定するステップは、
    前記複数の撮影映像に基づいて前記仮想パターン及び前記反射体間の幾何学的な関係を推定するステップと、
    前記幾何学的な関係に基づいて、前記仮想パターン及び前記複数の撮影映像内の前記仮想パターンの虚像の間の投影誤差を算出するステップと、
    前記投影誤差が最小化されるよう、前記物理カメラに対する前記仮想スクリーンの変換パラメータを推定するステップと、
    を含む、請求項4に記載の仮想スクリーンのパラメータ推定方法。
  6. 前記仮想カメラに対する前記物理カメラの変換パラメータ及び前記仮想スクリーンに対する前記仮想カメラの変換パラメータに基づいて、前記物理カメラに対する前記仮想スクリーンの変換パラメータを推定するステップをさらに含む、請求項1ないし5のうち何れか一項に記載の仮想スクリーンのパラメータ推定方法。
  7. 前記複数の撮影映像に基づいて前記仮想カメラに対する前記物理カメラの変換パラメータを推定するステップをさらに含む、請求項6に記載の仮想スクリーンのパラメータ推定方法。
  8. 前記仮想カメラに対する前記物理カメラの変換パラメータを推定するステップは、
    前記複数の撮影映像に基づいて前記物理パターン及び前記反射体間の幾何学的な関係を推定するステップと、
    前記幾何学的な関係に基づいて、前記物理パターン及び前記複数の撮影映像内の前記物理パターンの虚像の間の投影誤差を算出するステップと、
    前記投影誤差が最小化されるよう、前記仮想カメラに対する前記物理カメラの変換パラメータを推定するステップと、
    をさらに含む、請求項7に記載の仮想スクリーンのパラメータ推定方法。
  9. 前記第1変換パラメータ及び前記第2変換パラメータに基づいて前記仮想スクリーンに対する前記仮想カメラの変換パラメータを推定するステップをさらに含む、請求項6に記載の仮想スクリーンのパラメータ推定方法。
  10. 前記複数の撮影映像は、前記反射体の反射角度を調整しながら撮影される、請求項1ないし9のうち何れか一項に記載の仮想スクリーンのパラメータ推定方法。
  11. 仮想スクリーンに表示された仮想パターンを照らし、物理パターンを含む反射体が撮影された複数の撮影映像を物理カメラから取得するステップと、
    前記物理カメラに対応する仮想カメラの位置を前記反射体の反射角度ごとに推定するステップと、
    前記物理パターンに対する第1仮想カメラの変換パラメータに基づいて、前記仮想カメラのうち基準カメラである第1仮想カメラに対する、第2ないし第n仮想カメラの第1変換パラメータを決定するステップと、
    前記仮想パターンに対する前記第1仮想カメラの変換パラメータに基づいて、前記第1仮想カメラに対する、第2ないし第n仮想カメラの第2変換パラメータを決定するステップと、
    前記第1変換パラメータ及び前記第2変換パラメータに基づいて前記仮想スクリーンのサイズパラメータを推定するステップと、
    を含む、仮想スクリーンのパラメータ推定方法。
  12. 前記仮想カメラに対する前記物理カメラの変換パラメータ及び前記仮想スクリーンに対する前記仮想カメラの変換パラメータに基づいて、前記物理カメラに対する前記仮想スクリーンの変換パラメータを推定するステップをさらに含む、請求項11に記載の仮想スクリーンのパラメータ推定方法。
  13. 前記物理カメラ及び前記反射体間の幾何学的な関係に基づいて、前記仮想カメラに対する前記物理カメラの変換パラメータを推定するステップをさらに含む、請求項12に記載の仮想スクリーンのパラメータ推定方法。
  14. 前記第1変換パラメータ及び前記第2変換パラメータに基づいて前記仮想スクリーンに対する前記仮想カメラの変換パラメータを推定するステップをさらに含む、請求項12に記載の仮想スクリーンのパラメータ推定方法。
  15. 請求項1ないし14のいずれか一項に記載のパラメータ推定方法をコンピュータに実行させる命令語を含むコンピュータプログラム
  16. プロセッサと、
    前記プロセッサで読み出し可能な命令語を含むメモリと、
    を含み、
    前記命令語が前記プロセッサで実行されると、前記プロセッサは、
    物理平面に表示された物理パターン及び仮想スクリーンに表示された仮想パターンを照らす反射体が撮影された、複数の撮影映像を物理カメラから取得し、
    前記物理カメラに対応する仮想カメラの位置を前記反射体の反射角度ごとに推定し、
    前記物理パターンに対する第1仮想カメラの変換パラメータに基づいて、前記仮想カメラのうち基準カメラである第1仮想カメラに対する、第2ないし第n仮想カメラの第1変換パラメータを決定し、
    前記仮想パターンに対する前記第1仮想カメラの変換パラメータに基づいて、前記第1仮想カメラに対する、第2ないし第n仮想カメラの第2変換パラメータを決定し、
    前記第1変換パラメータ及び前記第2変換パラメータに基づいて前記仮想スクリーンのサイズパラメータを推定する、仮想スクリーンのパラメータ推定装置。
  17. 前記プロセッサは、前記第1変換パラメータと前記第2変換パラメータとの間の差を最小化するように前記サイズパラメータを決定する、請求項16に記載の仮想スクリーンのパラメータ推定装置。
  18. 前記プロセッサは、前記推定されたサイズパラメータに基づいて前記物理カメラに対する前記仮想スクリーンの変換パラメータを推定する、請求項16又は17に記載の仮想スクリーンのパラメータ推定装置。
  19. 前記プロセッサは、前記仮想カメラに対する前記物理カメラの変換パラメータ及び前記仮想スクリーンに対する前記仮想カメラの変換パラメータに基づいて、前記物理カメラに対する前記仮想スクリーンの変換パラメータを推定する、請求項16に記載の仮想スクリーンのパラメータ推定装置。
  20. 前記複数の撮影映像は、前記反射体の反射角度を調整しながら撮影される、請求項16ないし19のうち何れか一項に記載の仮想スクリーンのパラメータ推定装置。
JP2018219279A 2017-12-06 2018-11-22 仮想スクリーンのパラメータ推定方法及び装置 Active JP6980639B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0166725 2017-12-06
KR1020170166725A KR102436730B1 (ko) 2017-12-06 2017-12-06 가상 스크린의 파라미터 추정 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2019099142A JP2019099142A (ja) 2019-06-24
JP6980639B2 true JP6980639B2 (ja) 2021-12-15

Family

ID=63311756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219279A Active JP6980639B2 (ja) 2017-12-06 2018-11-22 仮想スクリーンのパラメータ推定方法及び装置

Country Status (5)

Country Link
US (1) US10789762B2 (ja)
EP (1) EP3496041A1 (ja)
JP (1) JP6980639B2 (ja)
KR (1) KR102436730B1 (ja)
CN (1) CN109884793B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3855712A4 (en) * 2018-09-21 2022-05-04 LG Electronics Inc. MOBILE TERMINAL AND METHOD OF CONTROL THEREOF
US11487132B2 (en) * 2018-11-12 2022-11-01 Yutou Technology (Hangzhou) Co., Ltd. Active alignment for assembling optical devices
CN110780445A (zh) * 2018-11-12 2020-02-11 芋头科技(杭州)有限公司 用于装配光学成像系统的主动校准的方法及系统
CN111176520B (zh) * 2019-11-13 2021-07-16 联想(北京)有限公司 一种调整方法及装置
WO2022088103A1 (zh) * 2020-10-30 2022-05-05 华为技术有限公司 一种图像标定方法及装置
US11172193B1 (en) * 2020-12-04 2021-11-09 Argo AI, LLC Method and system to calibrate camera devices of a vehicle vision system using a programmable calibration target device
CN112738487B (zh) 2020-12-24 2022-10-11 阿波罗智联(北京)科技有限公司 图像投射方法、装置、设备及存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3573765B2 (ja) 1993-03-18 2004-10-06 カルソニックカンセイ株式会社 車両のヘッドアップディスプレイ装置
US7369101B2 (en) 2003-06-12 2008-05-06 Siemens Medical Solutions Usa, Inc. Calibrating real and virtual views
JP4699054B2 (ja) * 2005-03-10 2011-06-08 クラリオン株式会社 車両周囲監視装置
JP2010070066A (ja) 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
US8400468B2 (en) * 2009-08-27 2013-03-19 Seiko Epson Corporation Projector masks for calibrating projector-based display systems
DE102011075703A1 (de) * 2011-05-12 2012-11-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung einer Projektionseinrichtung eines Fahrzeugs
EP2615838B1 (en) * 2012-01-12 2019-08-21 SeeFront GmbH Calibration of an autostereoscopic display system
GB201310360D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-Mountable apparatus and systems
DE102013219556A1 (de) * 2013-09-27 2015-04-02 Continental Automotive Gmbh Verfahren und Vorrichtung zur Steuerung einer Bilderzeugungseinrichtung eines Head-Up-Displays
CN104636743B (zh) * 2013-11-06 2021-09-03 北京三星通信技术研究有限公司 文字图像校正的方法和装置
CN107329259B (zh) * 2013-11-27 2019-10-11 奇跃公司 虚拟和增强现实系统与方法
CN105025284B (zh) * 2014-04-18 2019-02-05 北京三星通信技术研究有限公司 标定集成成像显示设备的显示误差的方法和设备
US9819863B2 (en) * 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
KR102252828B1 (ko) 2014-11-20 2021-05-14 엘지디스플레이 주식회사 영상데이터 보상장치 및 이를 포함하는 표시장치
DE102014117888A1 (de) * 2014-12-04 2016-10-13 Connaught Electronics Ltd. Online-Kalibrierung eines Kraftfahrzeug-Kamerasystems
KR101713740B1 (ko) 2014-12-08 2017-03-08 현대자동차주식회사 차량의 증강현실 hud 표시 방법 및 그 표시 장치
US10247941B2 (en) * 2015-01-19 2019-04-02 Magna Electronics Inc. Vehicle vision system with light field monitor
JP6518952B2 (ja) * 2015-03-27 2019-05-29 パナソニックIpマネジメント株式会社 車両用表示装置の位置調整方法
CN104932696B (zh) 2015-06-29 2018-01-05 上海中航光电子有限公司 一种显示图像显示方法
KR102415501B1 (ko) * 2015-08-07 2022-07-01 삼성전자주식회사 3차원 디스플레이 장치의 파라미터 추정 방법 및 그 방법을 이용한 3차원 디스플레이 장치
JP6491574B2 (ja) 2015-08-31 2019-03-27 Kddi株式会社 Ar情報表示装置
JP6390032B2 (ja) * 2015-09-02 2018-09-19 カルソニックカンセイ株式会社 ヘッドアップディスプレイの歪補正方法とそれを用いたヘッドアップディスプレイの歪補正装置
US10558043B2 (en) 2015-12-02 2020-02-11 Rockwell Collins, Inc. Worn display using a peripheral view
KR20170066749A (ko) 2015-12-04 2017-06-15 현대오트론 주식회사 헤드업 디스플레이의 영상 왜곡 보정 장치 및 방법
WO2017124186A1 (en) * 2016-01-18 2017-07-27 Arcane Technologies Inc. System and method for interactive virtual lighting of a virtual sample representative of a real-life manufactured object
CN106302132A (zh) * 2016-09-14 2017-01-04 华南理工大学 一种基于增强现实的3d即时通讯系统与方法

Also Published As

Publication number Publication date
KR20190066882A (ko) 2019-06-14
JP2019099142A (ja) 2019-06-24
CN109884793A (zh) 2019-06-14
US20190172250A1 (en) 2019-06-06
US10789762B2 (en) 2020-09-29
KR102436730B1 (ko) 2022-08-26
EP3496041A1 (en) 2019-06-12
CN109884793B (zh) 2022-07-19

Similar Documents

Publication Publication Date Title
JP6980639B2 (ja) 仮想スクリーンのパラメータ推定方法及び装置
US11181737B2 (en) Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program
US10867407B2 (en) System and methods for extrinsic calibration of cameras and diffractive optical elements
US10928901B2 (en) Calibration method for three-dimensional (3D) augmented reality and apparatus thereof
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
TW201928883A (zh) 三維模型重建方法、電子裝置及非暫態電腦可讀取記錄媒體
JP2018028535A (ja) 検査ステーションに配置された車両の最外寸法を測定するための方法及びシステム
JP2020057387A (ja) 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体
WO2017002209A1 (ja) 表示制御装置及び表示制御方法及び表示制御プログラム
CN112288825A (zh) 相机标定方法、装置、电子设备、存储介质和路侧设备
CN114051626A (zh) 联合环境重建和相机校准
US20220169171A1 (en) Apparatus for emitting road surface information and method thereof
JP2019190969A (ja) 画像処理装置、画像処理方法
JP6188860B1 (ja) オブジェクト検出装置
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20220160850A (ko) 소실점을 추정하는 방법 및 장치
JP7502343B2 (ja) 画像処理システム
JP5272431B2 (ja) 対象物測距装置及びプログラム
CN110069131B (zh) 一种基于近红外光圆斑检测的多指尖定位方法
CN109540087B (zh) 一种自动调整光标位置的方法和设备
KR20220058277A (ko) 스테레오 매칭 방법 및 이를 수행하는 영상 처리 장치
JP6316468B1 (ja) キャリブレーションシステム
JP7452917B2 (ja) 操作入力装置、操作入力方法及びプログラム
TWI730482B (zh) 平面動態偵測系統及偵測方法
CN112750205B (zh) 平面动态检测系统及检测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211117

R150 Certificate of patent or registration of utility model

Ref document number: 6980639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150