JP2005004201A - Method and system for projecting image onto display surface - Google Patents

Method and system for projecting image onto display surface Download PDF

Info

Publication number
JP2005004201A
JP2005004201A JP2004166072A JP2004166072A JP2005004201A JP 2005004201 A JP2005004201 A JP 2005004201A JP 2004166072 A JP2004166072 A JP 2004166072A JP 2004166072 A JP2004166072 A JP 2004166072A JP 2005004201 A JP2005004201 A JP 2005004201A
Authority
JP
Japan
Prior art keywords
image
display surface
transfer function
projector
projecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004166072A
Other languages
Japanese (ja)
Inventor
Ramesh Raskar
ラメッシュ・ラスカー
Baar Jeroen Van
ジェロン・ヴァン・バール
Srinivasa G Rao
スリニヴァサ・ジー・ラオ
Thomas H Willwacher
トーマス・ハー・ヴィルヴァッヘル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/458,386 external-priority patent/US6793350B1/en
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2005004201A publication Critical patent/JP2005004201A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for projecting one or more images onto a curved display surface. <P>SOLUTION: First, a predetermined structured light pattern is projected onto the display surface. A stereo pair of images is acquired of the projected images on the display surface. Then, a quadric transfer function between the predetermined images and the stereo pair of images, via the display surface, is determined. Thus, an arbitrary output image can be warped according to the quadric transfer function so that when it is projected onto the display surface it appears correct. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、包括的に画像の投影に関し、特に、画像の湾曲面への投影に関する。   The present invention relates generally to image projection, and more particularly to projection of an image onto a curved surface.

プロジェクタシステムは、大型の画像を表示面上にレンダリングする際に使用されてきた。複数のプロジェクタを使用すれば、さらに大きくシームレスな表示を生成することが可能である。このようなシステムは、エンターテイメント、教育、トレーニング、および科学的シミュレーション用に高解像度画像を提示することが可能な没入型視覚化環境を構築する際に特に有用である。既知のマルチプロジェクタ技術としては、Cruz-Neira他著「Surround-screen Projection-based Virtual Reality: The Design and Implementation of the CAVE」SIGGRAPH 93 Conference Proceedings, Vol. 27, pp. 135-142, 1993, Staadt他、「The blue-c: Integrating real humans into a networked immersive environment」 ACM Collaborative Virtual Environments, 2000が挙げられる。   Projector systems have been used to render large images on a display surface. If a plurality of projectors are used, a larger and seamless display can be generated. Such a system is particularly useful in building an immersive visualization environment capable of presenting high resolution images for entertainment, education, training, and scientific simulation. Known multi-projector technologies include "Surround-screen Projection-based Virtual Reality: The Design and Implementation of the CAVE" SIGGRAPH 93 Conference Proceedings, Vol. 27, pp. 135-142, 1993, Staadt et al. "The blue-c: Integrating real humans into a networked immersive environment" ACM Collaborative Virtual Environments, 2000.

電気光学技法を使用して位置決めし、ブレンディングパラメータを求める(Li他著「Optical Blending for Multi-Projector Display Wall System」Proceedings of the 12th Lasers and Electro-Optics Society, 1999参照)、またはループ中のカメラを使用する(Surati著「Scalable Self-Calibrating Display Technology for Seamless Large-Scale Displays」マサチューセッツ工科大学博士論文, 1999, Chen他著「Automatic Alignment of High-Resolution Multi-Projector Displays Using An Un-Calibrated Camera」IEEE Visualization, 2000, およびYang他著「PixelFlex: A Reconfigurable Multi-Projector Display System」IEEE Visualization, 2001, Brown他著「A Practical and Flexible Large Format Display system」Tenth Pacific Conference on Computer Graphics and Applications, pp. 178-183, 2002, Humphreys他著「A Distributed Graphics System for Large Tiled Displays」IEEE Visualization, 1999, およびHumphreys他著「WireGL: A Scalable Graphics System for Clusters」Proceedings of SIGGRAPH, 2001参照)、平坦な表面上にシームレスな画像を生成するいくつかの技法が知られている。 And positioned using an electro-optical techniques, finding a blending parameters (Li et al., "Optical Blending for Multi-Projector Display Wall System " Proceedings of the 12 th Lasers and Electro -Optics Society, see 1999), or the camera in the loop (Surati “Scalable Self-Calibrating Display Technology for Seamless Large-Scale Displays” Massachusetts Institute of Technology Doctoral Dissertation, 1999, Chen et al. “Automatic Alignment of High-Resolution Multi-Projector Displays Using An Un-Calibrated Camera” IEEE Visualization, 2000, and Yang et al. `` PixelFlex: A Reconfigurable Multi-Projector Display System '' IEEE Visualization, 2001, Brown et al. `` A Practical and Flexible Large Format Display system '' Tenth Pacific Conference on Computer Graphics and Applications, pp. 178- 183, 2002, Humphreys et al., "A Distributed Graphics System for Large Tiled Displays" IEEE Visualization, 1999, and Humphreys et al., "WireGL: A Scalable Graphics. System for Clusters "Proceedings of SIGGRAPH, 2001), several techniques are known for generating seamless images on flat surfaces.

複数のプロジェクタが使用される場合、シームレスな表示を実現するために、重複する画像の幾何学的関係を正確に推定することが重要である。幾何学的関係は、レンダリングプロセスおよびソフトエッジブレンディングに影響を及ぼす。3×3行列によって表現されたホモグラフィを利用するカメラベースの方法は、面倒な手動での位置合わせをなくしながら不用意に設置されたプロジェクタを許容する。   When multiple projectors are used, it is important to accurately estimate the geometric relationship of overlapping images in order to achieve seamless display. Geometric relationships affect the rendering process and soft edge blending. A camera-based method that utilizes homography represented by a 3 × 3 matrix allows an inadvertently installed projector while eliminating tedious manual alignment.

二次式に従う表面の関係は、二次画像伝達関数を使用して定義することができる。Shashua他著「The quadric reference surface: Theory and applications」Tech. Rep. AIM-1448, 1994を参照のこと。   A surface relationship according to a quadratic equation can be defined using a secondary image transfer function. See Shashua et al., “The quadric reference surface: Theory and applications” Tech. Rep. AIM-1448, 1994.

湾曲表面のマルチプロジェクタ位置合わせは、「ナビゲータ」パターンを投影し、それからプロジェクタの位置を手動で調整することによって補助することができる。ニューヨークのハイデンプラネタリウムで使用されるもの等、大規模なディスプレイの場合、技術者が重複する7台のプロジェクタを位置合わせするのに毎日数時間かかる。   Multi-projector alignment of curved surfaces can be aided by projecting a “navigator” pattern and then manually adjusting the position of the projector. For large displays, such as those used in the New York Planetarium, it takes several hours every day for technicians to align seven overlapping projectors.

1つの問題は、3D画像が湾曲表面上に表示されるとき、その画像は、空間中の1つのポイントでしか遠近的に正しくないことである。この3D位置は仮想視点、または「スイートスポット」として知られている。閲覧者がスイートスポットから遠ざかるにつれ、画像は歪んで見える。表示画面が非常に大きく、多くの視点がある場合、この歪みをなくすことは難しい。しかし、現実世界での用途では、閲覧者は、プロジェクタを理想的に配置する必要がある場所とまったく同じ場所にいたいと思う。さらに、プロジェクタをスイートスポットに配置するということは、非常に視野の広いプロジェクタを使用することを意味し、これは高価であるとともに、放射方向歪みまたは「魚眼」歪みが過度になりがちである。   One problem is that when a 3D image is displayed on a curved surface, the image is perspectively correct only at one point in space. This 3D position is known as a virtual viewpoint, or “sweet spot”. As the viewer moves away from the sweet spot, the image appears distorted. If the display screen is very large and there are many viewpoints, it is difficult to eliminate this distortion. However, for real-world applications, the viewer wants to be in exactly the same place where the projector should ideally be placed. Furthermore, placing the projector in a sweet spot means using a projector with a very wide field of view, which is expensive and tends to be excessive in radial or “fish-eye” distortion. .

別の方法では、非パラメトリックプロセスにより、カメラがスイートスポットに配置される。カメラは、プロジェクタによって投影された構造化光パターンの画像を取得する。次に、試行錯誤手法で、サンプルがとられて、補間によりカメラ入力画像と投影された出力画像の間の逆ワーピング関数を構築する。次に、ワーピング関数が出力画像を正しく表示するまで、この関数が適用されてリサンプリングされる。Jarvis著「Real Time 60Hz Distortion Correction on a Silicon Graphics IG」Real Time Graphics 5, pp.6-7, February 1997、およびRaskar他著「Seamless Projection Overlaps Using Image Warping and Intensity Blending」Fourth International Conference on Virtual Systems and Multimedia, 1998を参照のこと。   In another method, the camera is placed at the sweet spot by a non-parametric process. The camera acquires an image of the structured light pattern projected by the projector. Next, samples are taken in a trial and error manner to construct an inverse warping function between the camera input image and the projected output image by interpolation. This function is then applied and resampled until the warping function correctly displays the output image. Jarvis "Real Time 60Hz Distortion Correction on a Silicon Graphics IG" Real Time Graphics 5, pp.6-7, February 1997, and Raskar et al. "Seamless Projection Overlaps Using Image Warping and Intensity Blending" Fourth International Conference on Virtual Systems and See Multimedia, 1998.

平坦な表面用のホモグラフィベースの手法を二次曲面に拡張する、複数のプロジェクタを位置合わせするパラメトリック的方法を提供することが望ましい。   It would be desirable to provide a parametric method of aligning multiple projectors that extends a homography-based approach for flat surfaces to a quadratic surface.

コンピュータビジョンでは、画像伝達関数に二次式を使用することについて、いくらか研究が行われている。上記Shashua他、およびCross他著「Quadric Surface Reconstruction from Dual-Space Geometry」Proceedings of 6th International Conference on Computer Vision, pp.25-31, 1998を参照のこと。しかし、カメラを意図した線形的方法では、以下述べるように、カメラの代わりにプロジェクタと併せて使用される場合に大きな誤差が生じる。   In computer vision, some research has been done on the use of quadratic equations for image transfer functions. See Shashua et al. And Cross et al., “Quadric Surface Reconstruction from Dual-Space Geometry” Proceedings of 6th International Conference on Computer Vision, pp. 25-31, 1998. However, a linear method intended for a camera causes a large error when used in conjunction with a projector instead of a camera, as described below.

マルチプロジェクタシステムでは、平坦なホモグラフィの関係を使用して平坦な表面上に画像をシームレスに位置合わせするいくつかの技法が知られている。しかし、より高次の表面上に表示された画像のパラメータ化ワーピングおよび自動位置合わせについての技法に対してはあまり研究されてこなかった。   In multi-projector systems, several techniques are known for seamlessly aligning images on a flat surface using flat homography relationships. However, little research has been done on techniques for parameterized warping and automatic registration of images displayed on higher order surfaces.

二次曲面はプロジェクタベースのディスプレイでは多くの形状および形態で見えるため、これは深刻な手抜かりである。大型フライトシミュレータは従来から、円筒体形状またはドーム形状であり(Scott他著「Report of the IPS Technical Committee: Full-Dome Video Systems」The Planetarian, Vol. 28, p.25-33, 1999参照)、プラネタリウムおよびOmniMaxシアターは半球形のスクリーンを使用しており(Albin著「Planetarium special effects: A classification of projection apparatus」The Planetarian, Vol. 23, pp.12-14, 1994)、多くの仮想現実システムが円筒形状のスクリーンを使用している。   This is a serious nuisance because quadratic surfaces appear in many shapes and forms on projector-based displays. Large flight simulators have traditionally been cylindrical or dome shaped (see Scott et al. “Report of the IPS Technical Committee: Full-Dome Video Systems” The Planetarian, Vol. 28, p.25-33, 1999) Planetarium and OmniMax theater use hemispherical screens (Alplane's “Planetarium special effects: A classification of projection apparatus”, The Planetarian, Vol. 23, pp.12-14, 1994), and many virtual reality systems A cylindrical screen is used.

したがって、湾曲した表示面上に投影された画像の較正方法、二次伝達関数、およびパラメトリック輝度ブレンディングを提供することが望ましい。   Therefore, it would be desirable to provide a method for calibrating an image projected on a curved display surface, a second order transfer function, and parametric luminance blending.

湾曲した表示画面は、高解像度没入型視覚化環境にますます使用されるようになっている。本発明は、1台または複数の重複するプロジェクタを使用して、球面または柱面等二次曲面上にシームレスな画像を表示する方法およびシステムを提供する。二次元または三次元の画像を相互作用させて表示しながら、サブピクセル位置合わせを実現する新しい二次画像伝達関数が定義される。   Curved display screens are increasingly being used in high resolution immersive visualization environments. The present invention provides a method and system for displaying a seamless image on a quadratic surface, such as a spherical or cylindrical surface, using one or more overlapping projectors. A new secondary image transfer function is defined that achieves subpixel alignment while interacting and displaying 2D or 3D images.

図3および図4は、1台または複数のプロジェクタ301および401を使用してシームレスな画像を凸形または凹形の湾曲表面、たとえば凹形ドーム302または凸形ドーム402上に表示する、本発明によるシステムの基本的なセットアップを示す。1台のプロジェクタが使用される場合、投影画像は表示面の大部分をカバーし(点線参照)、複数のプロジェクタが使用される場合、投影画像は破線で示すように部分的に重複する。図7は、3つの重複する複数の画像701でより大きな矩形画像710をどのように作り出すことができるかを示す。   FIGS. 3 and 4 illustrate the present invention using one or more projectors 301 and 401 to display a seamless image on a convex or concave curved surface, such as concave dome 302 or convex dome 402. Shows the basic setup of the system. When one projector is used, the projected image covers most of the display surface (see dotted lines), and when multiple projectors are used, the projected images partially overlap as shown by the dashed lines. FIG. 7 shows how a larger rectangular image 710 can be created with three overlapping images 701.

二次伝達関数
3Dでの不透明な二次曲面Qの2つの任意の透視図の間の写像は、二次伝達関数Ψを使用して表現することができる。二次曲面は、球面、半球面、回転楕円面、ドーム、柱面、錐面、放物面、双曲面、双曲放物面、または楕円面であることができる。本発明による二次伝達関数は、二次曲面を介しての第1のビュー、たとえばプロジェクタ出力画像から第2のビュー、たとえばカメラ入力画像への画像伝達関数を意味する。平坦ホモグラフィ伝達関数は、4個以上のピクセルの対応性から求めることができるが、二次伝達関数では9個以上の対応性が必要である。二次伝達関数は、3D二次曲面Q、および2つのビューの透視投影に関連するさらなるパラメータを使用して閉じた形で定義することができる。
Secondary transfer function The mapping between two arbitrary perspectives of an opaque quadric surface Q in 3D can be expressed using a secondary transfer function Ψ. The quadric surface can be a sphere, hemisphere, spheroid, dome, column, cone, paraboloid, hyperboloid, hyperbolic paraboloid, or ellipsoid. A quadratic transfer function according to the present invention refers to an image transfer function from a first view, eg a projector output image, to a second view, eg a camera input image, via a quadric surface. The flat homography transfer function can be obtained from the correspondence of four or more pixels, but the secondary transfer function requires nine or more correspondences. The quadratic transfer function can be defined in a closed form using a 3D quadratic surface Q and additional parameters related to the perspective projection of the two views.

二次曲面Qは、4×1ベクトルで表され、表面上にある3D同次ポイントXが、二次制約XQX=0を満たすように、4×4対称行列で表される。二次曲面Qは、行列の独立要素に対応して自由度9を有する。この行列は対称であり、最大で全体規模まで定義される。 The quadric surface Q is represented by a 4 × 1 vector, and the 3D homogeneous point X on the surface is represented by a 4 × 4 symmetric matrix so that the quadratic constraint X T QX = 0 is satisfied. The quadric surface Q has 9 degrees of freedom corresponding to the independent elements of the matrix. This matrix is symmetric and is defined up to the entire scale.

対応するピクセル:第1のビュー中のxと第2のビュー中のx’の同次座標は、   Corresponding pixels: the homogeneous coordinates of x in the first view and x 'in the second view are

Figure 2005004201
Figure 2005004201

によって関連する。   Related by.

図6に示すように、Bは、ピクセル601が可視である、二次曲面605に接した平面604上のポイント603を介しての投影出力ピクセルx601と対応するカメラ入力ピクセルx’602の間の3×3ホモグラフィ行列である。   As shown in FIG. 6, B is between a projected output pixel x601 and a corresponding camera input pixel x′602 via a point 603 on a plane 604 tangent to a quadric surface 605 where the pixel 601 is visible. 3 × 3 homography matrix.

ピクセル対応性(x,x’)が与えられると、従来、この式を使用して21個の未知数:未知の3D二次曲面Q、3×3ホモグラフィ行列B、および同次座標におけるエピポールeを算出する。エピポールeは、第2のビューにおける第1のビューの投影中心である。記号≡は、同次座標のスケールまで等しいことを表す。行列Qは以下:   Given the pixel correspondence (x, x ′), conventionally using this equation there are 21 unknowns: unknown 3D quadratic surface Q, 3 × 3 homography matrix B, and epipole e in homogeneous coordinates e Is calculated. Epipole e is the projection center of the first view in the second view. The symbol ≡ represents equality to the homogeneous coordinate scale. The matrix Q is:

Figure 2005004201
Figure 2005004201

のように分解される。   It is disassembled as follows.

したがって、Q33はQの一番上の3×3対称部分行列であり、qは3ベクトルである。Q(4,4)は、二次曲面が原点、すなわち第1のビューの投影中心を通過しない場合はゼロではない。それ故、大半の表示面に1.0を安全に割り当てることができる。同次ピクセルx’の最終的な2Dピクセル座標は(x’(1)/x’(3),x’(2)/x’(3))である。 Thus, Q 33 is the top 3 × 3 symmetric submatrix of Q and q is 3 vectors. Q (4,4) is not zero when the quadric surface does not pass through the origin, ie, the projection center of the first view. Therefore, 1.0 can be safely assigned to most display surfaces. The final 2D pixel coordinates of the homogeneous pixel x ′ are (x ′ (1) / x ′ (3), x ′ (2) / x ′ (3)).

単純化
上に述べた形態は、Shashua他、1994と、WexlerおよびShashua著「Q-Warping: Direct Computation of Quadratic Reference Surface」IEEE Conf. on Computer Vision and Pattern Recognition, CVPR, June, 1999により使用されている。この形態は21個の変数を含み、これは必要な分よりも4個多い。本発明では、A=B−eq、E=qq−Q33を定義することによってその曖昧さの一部を取り除き、本発明において使用する形態を得る。
Simplification The form described above is used by Shashua et al., 1994 and “Q-Warping: Direct Computation of Quadratic Reference Surface” IEEE Conf. On Computer Vision and Pattern Recognition, CVPR, June, 1999 by Wexler and Shashua. Yes. This form contains 21 variables, which is 4 more than needed. In the present invention, by defining A = B−eq T and E = qq T −Q 33 , part of the ambiguity is removed, and a form used in the present invention is obtained.

Figure 2005004201
Figure 2005004201

ここで、xEx=0は、第1のビューにおける二次曲面の輪郭円錐曲線を画定する。輪郭円錐曲線は、ビューレイが局所的に表面に接する表面上のシルエットまたはポイントの画像、たとえば、球体外から見た球体の楕円形のシルエットの画像として幾何学的に視覚化することができる。 Here, x T Ex = 0 defines the conic curve of the quadric surface in the first view. The contour cone curve can be visualized geometrically as an image of a silhouette or point on the surface where the view ray touches the surface locally, for example an image of an elliptical silhouette of a sphere viewed from outside the sphere.

値Aは、第1のビューと第2のビューの間の極平面を介してのホモグラフィである。この式は、全体規模から離れて、Eおよびeの相対的なスケーリングに起因する1つの曖昧な自由度のみを含むことに留意する。この曖昧さは、E(3,3)=1等、さらなる正規化制約を導入することによって取り除くことができる。   The value A is a homography through the polar plane between the first view and the second view. Note that this equation contains only one ambiguous degree of freedom due to the relative scaling of E and e, apart from the overall scale. This ambiguity can be removed by introducing additional normalization constraints, such as E (3,3) = 1.

さらに、平方根の前にある符号は、画像中の輪郭円錐曲線内で固定である。この符号は、対応するピクセル対の座標を使用して上記式をテストすることによって容易に求められる。二次伝達関数のパラメータは、投影座標システムにおける9個以上のピクセル対応性から直接算出することができることに留意する。このため、ユークリッドパラメータをいずれも算出することなく、平坦なディスプレイの場合に平坦なホモグラフィを推定するのと同様の手法に従いたくなる。しかし、以下述べるように、実際には、多くの場合でエピポール関係を推定することは難しい。したがって、本発明では、以下述べるように擬似ユークリッド手法を使用する。   Furthermore, the sign in front of the square root is fixed within the contour cone curve in the image. This sign is easily determined by testing the above equation using the coordinates of the corresponding pixel pair. Note that the parameters of the second order transfer function can be calculated directly from the correspondence of 9 or more pixels in the projected coordinate system. For this reason, without calculating any Euclidean parameter, it would be desirable to follow the same method as estimating flat homography in the case of a flat display. However, as described below, in practice, it is difficult to estimate the epipole relationship in many cases. Therefore, in the present invention, the pseudo Euclidean method is used as described below.

事前処理
すべての位置合わせ情報は、立体画像対に対して予め計算される。ここでは、立体カメラが3D表示面全体を見ているものと仮定する。カメラ画像の1つが、原点cを有するものとして任意に選択される。立体画像は、表示面上の3Dポイントのみを求めるために使用される。したがって、任意の適した3D取得システムを使用することができる。
Pre-processing All registration information is pre-calculated for a stereoscopic image pair. Here, it is assumed that the stereoscopic camera is viewing the entire 3D display surface. One of the camera images is arbitrarily selected as having an origin c o . The stereoscopic image is used to obtain only 3D points on the display surface. Thus, any suitable 3D acquisition system can be used.

図1に示すように、本発明の事前処理方法100の基本ステップは以下のようなものである。これらステップの詳細について以下に述べる。各プロジェクタi毎に、所定の画像101、たとえば、チェッカー盤の形態の構造化パターンが二次曲面上に投影される(110)。   As shown in FIG. 1, the basic steps of the pre-processing method 100 of the present invention are as follows. Details of these steps are described below. For each projector i, a predetermined image 101, for example a structured pattern in the form of a checkerboard, is projected onto a quadric surface (110).

ステップ120において、立体カメラ102によって得られた所定の画像101の画像の特徴が検出され、3Dポイント、すなわち所定の画像の特徴に対応する二次曲面上の対応性103が再構築される。次に、二次曲面Q104が検出された対応性に近似される(130)。   In step 120, the image features of the predetermined image 101 obtained by the stereoscopic camera 102 are detected, and the correspondence 103 on the quadric surface corresponding to the 3D points, that is, the features of the predetermined image is reconstructed. Next, the quadric surface Q104 is approximated to the detected correspondence (130).

各プロジェクタi毎に、カメラに対するプロジェクタのポーズ(pose)105が、プロジェクタピクセルとピクセルによって照らされた表面上のポイントの3D座標との間の対応性を使用して求められる(140)。カメラcとプロジェクタiの間の二次伝達関数Ψおよび逆二次伝達関数Ψ を求める(150)。次に、投影画像が重複する領域における輝度ブレンディングウェイトΦを求める(160)。この時点で、ワーピング、ブレンディング、および投影により、歪みのない出力画像171として見えるプロジェクタ画像を二次曲面上に投影することができる(200)。 For each projector i, a projector pose 105 for the camera is determined 140 using the correspondence between the projector pixels and the 3D coordinates of the points on the surface illuminated by the pixels. A secondary transfer function ψ i and an inverse secondary transfer function ψ I i between the camera c 0 and the projector i are obtained (150). Next, a luminance blending weight Φ i in an area where the projected images overlap is obtained (160). At this point, a projector image that appears as an undistorted output image 171 can be projected onto a quadric surface by warping, blending, and projection (200).

ランタイム処理
図2は、本発明のレンダリング方法200の基本ステップを示す。まず、投影画像が生成される(210)。プロジェクタ画像は、三角形のテクスチャマッピングセットとして表される。この画像は、立体カメラまたはビデオカメラによって取得することもでき、または仮想視点から3Dシーンをコンピュータグラフィックレンダリングすることによって生成することもできる。プロジェクタ画像は、二次伝達関数Ψ0iに従ってプロジェクタのフレームの中にワーピングされる(220)。次に、ピクセル輝度がブレンディングウェイトΦで減衰され(230)、それから投影される(240)。
Runtime Processing FIG. 2 shows the basic steps of the rendering method 200 of the present invention. First, a projection image is generated (210). The projector image is represented as a triangular texture mapping set. This image can be acquired by a stereoscopic camera or a video camera, or can be generated by computer graphic rendering a 3D scene from a virtual viewpoint. The projector image is warped into the projector frame according to the secondary transfer function Ψ 0i (220). Next, the pixel intensity is attenuated by blending weight Φ i (230) and then projected (240).

しかし、これらステップには、解決する必要のあるいくつかの問題が含まれる。二次伝達関数の推定は線形演算であるが、ピクセルの再投影誤差を低減するために非線形最適化を必要とする。さらに、二次曲面上に投影された3Dポイントは通常、略平坦であり、劣化条件につながるため、プロジェクタのポーズ、すなわち外部パラメータを推定することは難しい。これらおよび他の問題、ならびに実際の解決策について以下に述べる。   However, these steps include several problems that need to be solved. Second-order transfer function estimation is a linear operation but requires non-linear optimization to reduce pixel reprojection errors. Furthermore, 3D points projected on a quadric surface are usually substantially flat and lead to degradation conditions, so it is difficult to estimate the projector pose, ie, external parameters. These and other problems, as well as actual solutions are described below.

較正(calibration:キャリブレーション)
本発明では、投影出力画像が湾曲表面上で幾何学的に位置合わせされるような二次伝達関数Ψoi={A,E,e}のパラメータを求める。カメラについて既知である従来技術の方法では、ピクセルの対応性から直接、二次伝達パラメータを求める。これは、対応するピクセルの三角形分解および線形的方法を使用して3Dにおける4×4二次行列Qを推定することを含む。2つのビューの内部パラメータがわかっていない場合、すべての計算は、エピポールジオメトリ、すなわちエピポールおよび基本行列を算出した後、投影空間において行われる。
Calibration
In the present invention, the parameters of the second order transfer function Ψ oi = {A i , E i , e i } are obtained so that the projected output image is geometrically aligned on the curved surface. Prior art methods known for cameras find secondary transfer parameters directly from pixel correspondence. This involves estimating a 4 × 4 quadratic matrix Q in 3D using a triangular decomposition of the corresponding pixels and a linear method. If the internal parameters of the two views are not known, all calculations are performed in the projection space after calculating the epipole geometry, ie the epipole and the base matrix.

しかし、カメラではなくプロジェクタが関わる場合、線形的方法では、3D二次曲面Qを推定するにあたり非常に大きな再投影誤差がもたらされる。この誤差は、従来のXGAプロジェクタの場合に約30ピクセルのオーダのものである。   However, if a projector is involved rather than a camera, the linear method results in a very large reprojection error in estimating the 3D quadric surface Q. This error is on the order of about 30 pixels for a conventional XGA projector.

これにはいくつかの理由がある。取得した画像から直接カメラを較正することは比較的単純なことである。しかし、プロジェクタの較正は、カメラによって得られた投影画像の画像を解析することによって間接的にしか行うことができない。これは誤差をもたらしうる。さらに、プロジェクタでは、内部光学系は通常、画像を上向きに投影する原則的なポイントからずれている。したがって、プロジェクタの内部パラメータは推定が難しく、カメラのものと異なる。さらに、1台のプロジェクタによって照られている二次曲面上の3Dポイントが、球面または柱面のセグメント等、表示設定にあまり深さのバリエーションを持たない場合、基本行列には本質的にノイズが多い。   There are several reasons for this. It is relatively simple to calibrate the camera directly from the acquired images. However, the calibration of the projector can only be performed indirectly by analyzing the image of the projection image obtained by the camera. This can lead to errors. Further, in projectors, the internal optical system is usually offset from the principle point at which the image is projected upward. Therefore, the internal parameters of the projector are difficult to estimate and are different from those of the camera. Furthermore, if the 3D point on the quadric surface illuminated by a single projector does not have very deep variations in display settings, such as a spherical or column segment, the fundamental matrix will inherently contain noise. Many.

したがって、本発明は、カメラおよびプロジェクタの内部パラメータおよび外部パラメータがおおよそわかっている擬似ユークリッド手法を使用する。これらパラメータは、厳格なユークリッド変換の推定に使用される。したがって、平坦な場合と異なり、湾曲した画面の場合の正確な画像伝達関数の算出には、三次元量が関わる。   Thus, the present invention uses a pseudo-Euclidean approach in which the camera and projector internal and external parameters are roughly known. These parameters are used for strict Euclidean transformation estimation. Therefore, unlike a flat case, a three-dimensional quantity is involved in calculating an accurate image transfer function in the case of a curved screen.

二次曲面
本発明では、すべての幾何学的形状の関係を算出するベースとして、精密な立体カメラ対CおよびC’を使用する。カメラの1つを任意に選択して、原点および座標系を定義する。チェッカー盤パターン101を使用して、ベースとなる立体カメラ対を較正する。本発明の較正では、カメラは必ずしもスイートスポットに配置する必要はなく、これは従来技術による非パラメトリック手法のいくつかに対する重要な相違である。
Quadratic surface In the present invention, a precise stereo camera pair C 0 and C ′ 0 is used as a base for calculating the relationship between all geometric shapes. Select one of the cameras arbitrarily to define the origin and coordinate system. A checkerboard pattern 101 is used to calibrate the base stereo camera pair. In the calibration of the present invention, the camera does not necessarily have to be placed at the sweet spot, which is an important difference to some of the prior art non-parametric approaches.

立体カメラ対102は、各プロジェクタによって投影された構造化パターンを観察する。三角形分解を利用して、パターン特徴に対応する、表示面上のN個の3Dポイントセット{X}が検出される。各Xを通過する二次曲面Qが、各3Dポイント毎に線形式のセットXjQX=0を解くことによって算出される。この式はxV=0の形態で書くことができ、式中、xはXのみの関数である1×10行列であり、Vは二次曲面Qの別個の独立した未知変数を含む同次ベクトルである。N≧9を使用して、N×10行列Xを構築し、線形行列式XV=0を解く。 The stereoscopic camera pair 102 observes the structured pattern projected by each projector. Using the triangulation, N 3D point sets {X j } on the display surface corresponding to the pattern features are detected. A quadric surface Q passing through each X j is calculated by solving a linear set X T jQX j = 0 for each 3D point. This equation can be written in the form x i V = 0, where x i is a 1 × 10 matrix that is a function of X only, and V contains a separate independent unknown variable of quadratic surface Q It is a homogeneous vector. Using N ≧ 9, construct an N × 10 matrix X and solve the linear determinant XV = 0.

一般的な位置にあるポイントの場合、VひいてはQの要素は行列Xの一次元ヌル空間である。   In the case of a point at a general position, the elements of V and Q are a one-dimensional null space of the matrix X.

プロジェクタビュー
二次曲面Qに加えて、本発明では、カメラの原点に対する各プロジェクタの内部パラメータおよび外部パラメータを知る必要がある。本発明では、プロジェクタピクセルと、プロジェクタピクセルが照らす3Dポイントの座標との間の対応性を用いて、ポーズおよび内部パラメータを算出する。
Projector View In addition to the quadric surface Q, the present invention needs to know the internal and external parameters of each projector relative to the origin of the camera. In the present invention, the pose and internal parameters are calculated using the correspondence between the projector pixel and the coordinates of the 3D point illuminated by the projector pixel.

しかし、二次曲面上の既知の3Dポイントからプロジェクタのポーズを見つけることは、3Dポイントが通常、平面にかなり近く、解が不安定になることから誤差が出やすい。Faugeras, Three-dimensional computer vision: a geometric viewpoint, MIT Press, 1993、およびForsyth他著「Computer Vision, A Modern Approach」FUTURESLAB, 2002, ActiveMural, Argonne National Labs, 2002を参照のこと。   However, finding the projector pose from known 3D points on the quadratic surface is prone to errors because the 3D points are usually much closer to the plane and the solution becomes unstable. See Faugeras, Three-dimensional computer vision: a geometric viewpoint, MIT Press, 1993, and Forsyth et al. "Computer Vision, A Modern Approach" FUTURESLAB, 2002, ActiveMural, Argonne National Labs, 2002.

略平坦なポイントへの対処は難しい問題である。ポイントの深さが分散している場合、線形的方法を使用してプロジェクタの内部パラメータならびに外部パラメータを容易に推定することができる。一方、ポイントが平坦であるとわかっている場合、内部パラメータのいくつかがわかっているときに、外部パラメータを推定することができる。   Dealing with a nearly flat point is a difficult problem. If the depth of the points is dispersed, a linear method can be used to easily estimate the projector's internal as well as external parameters. On the other hand, if the point is known to be flat, the external parameters can be estimated when some of the internal parameters are known.

略平坦な表面に対処するために、本発明では、反復手順を用いる。プロジェクタの内部パラメータがわかっている場合、まず、ホモグラフィに基づいて外部パラメータの初期推定を見つけ、それからLu他著「Fast and globally convergent pose estimation from video images」IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22:6, pp.610-622, 2000に基づいて反復手順を使用することができる。Powellの方法は、再投影誤差の非線形的改良に使用することができる。しかし、プロジェクタの内部パラメータを推定することも等しく難しい。上に述べたように、プロジェクタを容易に動かすことができない場合、プロジェクタの較正では通常、2つ以上の位置で照らされている大きな表面が必要である。   In order to deal with substantially flat surfaces, the present invention uses an iterative procedure. If you know the projector's internal parameters, first find an initial estimate of the external parameters based on homography, then Lu et al. `` Fast and globally convergent pose estimation from video images '' IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol 22: 6, pp.610-622, 2000, an iterative procedure can be used. Powell's method can be used for non-linear improvement of reprojection error. However, it is equally difficult to estimate the internal parameters of the projector. As mentioned above, if the projector cannot be easily moved, calibration of the projector typically requires a large surface that is illuminated in more than one position.

本発明の戦略は、おおよそわかっているプロジェクタの内部パラメータを使用するというものである。本発明では、1台のみのプロジェクタの内部パラメータを見つけ、これら内部パラメータをすべてのプロジェクタに対して使用する。後で、同じおよび他のプロジェクタはおそらく、異なるズーム設定を有し、また他の機械的または光学的偏差を有することになる。さらに、Lu他の反復方法によって算出される外部パラメータも近似にすぎない。   The strategy of the present invention is to use the projector's internal parameters that are roughly known. In the present invention, internal parameters of only one projector are found and these internal parameters are used for all projectors. Later, the same and other projectors will likely have different zoom settings and other mechanical or optical deviations. Furthermore, the external parameters calculated by Lu et al. Are only approximations.

カメラからプロジェクタへの伝達
したがって、本発明では、プロジェクタのおおよその投影行列とともに、カメラの透視投影パラメータを使用し、線形的方法を使用してカメラからプロジェクタへの二次伝達を見つける。次に、非線形最適化を使用して解を改良する。
Therefore, the present invention uses the camera's perspective projection parameters along with the projector's approximate projection matrix to find a secondary transmission from the camera to the projector using a linear method. Next, the solution is improved using nonlinear optimization.

二次伝達パラメータΨoi={A,E,e}は、二次曲面Q、カメラ投影行列[I|0]、およびプロジェクタ投影行列[P|e]から、 The quadratic transfer parameter Ψ oi = {A i , E i , e i } is obtained from the quadric surface Q, the camera projection matrix [I | 0], and the projector projection matrix [P i | e i ].

Figure 2005004201
Figure 2005004201

により容易に計算される。   Easily calculated.

上に述べたように、パラメータを見つける従来技術による線形的方法は、本目的には不正確すぎる。表示画面上での位置合わせずれはプロジェクタ1台あたり15〜30ピクセル程度になる恐れがあり、不快な視覚的アーチファクトになる。シームレスな表示にはサブピクセルの精度が必要である。したがって、本発明では、非線形最小化を適用して、線形的方法を介して得られた結果を改良する。これは、目的関数または「費用」関数を使用して行うことができる。   As mentioned above, the prior art linear method of finding parameters is too inaccurate for this purpose. The misalignment on the display screen may be about 15 to 30 pixels per projector, resulting in an unpleasant visual artifact. Seamless display requires sub-pixel accuracy. Thus, the present invention applies nonlinear minimization to improve the results obtained through linear methods. This can be done using an objective function or a “cost” function.

目的関数の場合、すべてのピクセルの総二次伝達誤差をとる。   For the objective function, take the total secondary transfer error for all pixels.

Figure 2005004201
Figure 2005004201

式中、   Where

Figure 2005004201
Figure 2005004201

は、既知の各投影ピクセルxの伝達後のピクセル、すなわち、 Is the pixel after transmission of each known projection pixel x j , ie

Figure 2005004201
Figure 2005004201

と表されるパターン特徴ポイントである。   It is a pattern feature point expressed as

線形的方法を使用して見つけられる符号は、すべてのピクセルで同じであり、非線形最適化、たとえば、既知のネルダーミード(Nelder-Mead)シンプレックス中同じままであることに留意する。   Note that the code found using the linear method remains the same for all pixels and remains the same during non-linear optimization, eg, the known Nelder-Mead simplex.

部分的なユークリッド再構築
ユークリッド手法をすべて無視し、投影空間および非線形最適化に直接進んでもよい。正確なプロジェクタ内部パラメータを有する場合、非線形最適化段階を回避してもよい。しかし先に触れたように、ユークリッドビューパラメータを無視し、二次伝達関数を純粋にピクセルの対応性から解くと、不良な再投影誤差が生じる。さらに、推定された3D二次曲面Qは、解が収束しないため、それ以降の非線形最適化の推定として使用することができない。
Partial Euclidean Reconstruction Ignore all Euclidean methods and proceed directly to projection space and nonlinear optimization. If you have accurate projector internal parameters, you may avoid the nonlinear optimization step. However, as mentioned earlier, ignoring the Euclidean view parameters and solving the secondary transfer function purely from pixel correspondence results in poor reprojection errors. Furthermore, since the estimated 3D quadric surface Q does not converge, it cannot be used for estimation of subsequent nonlinear optimization.

正確な内部プロジェクタパラメータは、再投影誤差を低減するだけであり、誤差をなくしはしない。これは、三角形分解による表示面上の3Dポイントの推定、線形的方法を使用しての3D二次曲面の推定、およびプロジェクタのポーズの発見を含め、多くの種類の誤差が三次元ユークリッド計算において伝搬するためである。非線形最適化は、最も注意を払う物理量、すなわち、既知の対応するピクセルセットのカメラからプロジェクタへ伝達される画像中のピクセル再投影誤差、を最小化しようと試みるものである。   Accurate internal projector parameters only reduce reprojection errors and do not eliminate errors. This includes many types of errors in 3D Euclidean calculations, including estimating 3D points on the display surface by triangulation, estimating 3D quadric surfaces using linear methods, and finding projector poses. This is to propagate. Non-linear optimization attempts to minimize the physical quantity to which the most attention is paid, i.e., pixel reprojection errors in the image transmitted from the camera of a known corresponding pixel set to the projector.

重複するプロジェクタピクセル間の対応性は、この画像伝達関数によって間接的に定義されるため、ピクセル再投影誤差を最小化することにより、表示されるプロジェクタのピクセル間の幾何学的位置合わせが確実にされる。   Since correspondence between overlapping projector pixels is indirectly defined by this image transfer function, minimizing pixel reprojection errors ensures a geometric alignment between displayed projector pixels. Is done.

レンダリング
レンダリングは2パス手法を含む。2D画像データの場合、しかるべき入力画像を抽出する。3Dシーンの場合、まず、スイートスポットに従って3Dモデルをレンダリングする。第2のパスでは、結果得られた画像が次に、二次画像伝達関数を使用してプロジェクタ画像空間にワーピングされる。
Rendering Rendering involves a two-pass approach. In the case of 2D image data, an appropriate input image is extracted. In the case of a 3D scene, first, a 3D model is rendered according to a sweet spot. In the second pass, the resulting image is then warped into the projector image space using a secondary image transfer function.

仮想ビュー
3Dシーンが湾曲した画面上に表示されるとき、画像は、空間中の特定のポイントからしか遠近的に正しくない。このようなポイントは一般に、スイートスポットまたは仮想視点として知られている。凹形半球面の場合、スイートスポットは、球体を半分に切断する切断面に垂直な、球体の中心を通るライン上にある。凸形半球面の場合、スイートスポットは表面を通して鏡映することができる。柱面の場合、スイートスポットは、投影画像が表面全体に覆われていない限り同様に配置され、投影画像が表面全体に覆われている場合、スイートスポットはいずれの場所であってもよい。スイートスポットは、カメラの焦点距離と無関係であるが、湾曲したディスプレイの形状およびサイズ、ならびに周囲の視角に依存する。投影画像は、スイートスポットの場所、視覚カメラの焦点距離、または閲覧者に応じて表示面の前または後ろに現れうる。閲覧者がスイートスポットから離れるにつれ、画像は歪んで見える。さらに、視錐台、すなわち見ている方向または主軸、および視野範囲を指定する必要がある。
Virtual View When a 3D scene is displayed on a curved screen, the image is only perspective correct from a specific point in space. Such points are generally known as sweet spots or virtual viewpoints. In the case of a concave hemisphere, the sweet spot is on a line through the center of the sphere perpendicular to the cut plane that cuts the sphere in half. In the case of a convex hemisphere, the sweet spot can be mirrored through the surface. In the case of a pillar surface, the sweet spot is arranged in the same manner as long as the projection image is not covered on the entire surface, and when the projection image is covered on the entire surface, the sweet spot may be located anywhere. The sweet spot is independent of the focal length of the camera, but depends on the shape and size of the curved display and the surrounding viewing angle. The projected image can appear in front of or behind the display surface depending on the location of the sweet spot, the focal length of the visual camera, or the viewer. As the viewer leaves the sweet spot, the image appears distorted. In addition, it is necessary to specify the viewing frustum, ie the viewing direction or principal axis, and the field of view.

ディスプレイによっては、スイートスポットを自動的に決定することが可能である。たとえば、凹形半球形ドームの場合、ドームの中心を良好なスイートスポットとみなすことができる。スイートスポットは、二次曲面Qの式、すなわちQ(1,1)qから直接求めることができる。円筒形の画面の場合、円筒体の広がりに沿って中間にある円筒体の軸上のポイントが良い選択である。時により、スイートスポットは、実際の考慮事項によって決まる。たとえば、画像が現実世界の水平軸および垂直軸に略常に位置合わせされているため、おおよそ目の高さにあるスポットが理想的であるとみなされる。   Depending on the display, it is possible to automatically determine the sweet spot. For example, in the case of a concave hemispherical dome, the center of the dome can be regarded as a good sweet spot. The sweet spot can be directly obtained from the equation of the quadric surface Q, that is, Q (1,1) q. In the case of a cylindrical screen, a point on the axis of the cylinder in the middle along the extent of the cylinder is a good choice. Sometimes the sweet spot is determined by actual considerations. For example, a spot that is approximately at eye level is considered ideal because the image is almost always aligned with the horizontal and vertical axes of the real world.

本発明の場合では、ディスプレイジオメトリを近似したユークリッド再構築であるため、仮想視点は相互作用的に固定または移動させることができる。ロケーションの3D座標はカメラ座標系においてわかっているため、カメラに対してスイートスポットを見つけるのは比較的単純である。   In the case of the present invention, since the Euclidean reconstruction approximates the display geometry, the virtual viewpoint can be fixed or moved interactively. Because the 3D coordinates of the location are known in the camera coordinate system, finding a sweet spot for the camera is relatively simple.

表面ポイントからのスイートスポット
レンダリングのために仮想視点のパラメータを求めることが難しい場合、一技法により、表示面の照明部分上で見つけられるポイントセットに最も近似した平面が見つけられる。有向バウンディングボックス(OBB)を表示面上の3Dポイントセット{X}に近似する。このボックスの中心を通過し、最良近似平面に垂直なベクトルに沿って、画面の前からしかるべき距離にあるポイントをスイートスポットとして選択することができる。二次曲面上の3Dポイントはすべて3Dポイントの凹形外殻に存在するため、OBBは以下のように求めることができる。
If it is difficult to determine the parameters of the virtual viewpoint for sweet spot rendering from surface points, one technique finds a plane that most closely approximates the set of points found on the illuminated portion of the display surface. A directed bounding box (OBB) is approximated to a 3D point set {X i } on the display surface. A point that passes through the center of this box and is at an appropriate distance from the front of the screen along a vector perpendicular to the best approximation plane can be selected as the sweet spot. Since all 3D points on the quadric surface are present in the 3D point concave outer shell, OBB can be obtained as follows.

Yが、   Y is

Figure 2005004201
Figure 2005004201

のN×3行列である場合(式中、   N × 3 matrix (where,

Figure 2005004201
Figure 2005004201

はN3Dポイントの中心である)、3×3行列YYの最小固有値に対応する固有ベクトルにより、最良近似平面への法線、すなわち分散が最小の軸が与えられる。一方、OBBの最大辺、すなわち、最良近似平面に投影された3Dポイントの広がりにより、画面のおおよその「直径」が与えられる。画面前のスイートスポットの距離は、用途および所望の視野に応じて、この直径に比例するように選択することができる。 Is the center of the N3D point), the eigenvector corresponding to the smallest eigenvalue of the 3 × 3 matrix Y T Y gives the normal to the best approximation plane, ie the axis with the least variance. On the other hand, the largest side of the OBB, that is, the spread of the 3D points projected on the best approximate plane gives the approximate “diameter” of the screen. The distance of the sweet spot in front of the screen can be selected to be proportional to this diameter, depending on the application and the desired field of view.

没入形用途の場合、広い視野が望ましい。したがって、この距離は直径の約半分であるべきである。グループ閲覧の場合、この距離は直径と同等であることができる。   A wide field of view is desirable for immersive applications. This distance should therefore be about half the diameter. For group browsing, this distance can be equal to the diameter.

本発明では、仮想ビュー画像空間と各プロジェクタ出力画像の間の二次伝達関数Ψを再計算する。このプロセスはΨΨ0iの算出に非常によく似ている。まず、二次曲面上の3Dポイントの仮想ビュー画像空間への投影を見つける。ここで、仮想ビューとプロジェクタ画像の間の対応性、ならびに仮想ビューおよびプロジェクタの内部パラメータおよび外部パラメータでΨを更新するのに十分である。 In the present invention, the secondary transfer function Ψ i between the virtual view image space and each projector output image is recalculated. This process is very similar to the calculation of Ψ i Ψ 0i . First, find the projection of the 3D points on the quadric surface into the virtual view image space. Here, it is sufficient to update Ψ i with the correspondence between the virtual view and the projector image, and the internal and external parameters of the virtual view and the projector.

表示エリア
仮想ビューの視錐台は、スイートスポットおよびOBBの広がりを使用して画定される。視点ベクトルは、仮想視点からOBBの中心に向けられる。複数のプロジェクタからの重複画像の連合体は大きなエリアを照らしうるため、視錐台を矩形または円形等、見た目に美しい形状に「クロッピング」することができる。3D用途の場合、黒色の四辺形のセットをレンダリングして、所望の表示エリア外の領域をクロッピングする。たとえば、矩形ビューの場合、プロジェクタ画像中のビューポート外縁の付近の4つの大きな四辺形により、ビューポートが作成される。黒色四辺形は、3Dモデルの残りの部分とともに、以下のようにレンダリングされワーピングされる。2D用途の場合、表示すべき入力画像外のエリアは黒色であるとみなされる。
Display Area The frustum of the virtual view is defined using the sweet spot and the OBB spread. The viewpoint vector is directed from the virtual viewpoint to the center of the OBB. Since the union of overlapping images from multiple projectors can illuminate a large area, the frustum can be “cropped” into a visually pleasing shape such as a rectangle or a circle. For 3D applications, render a set of black quadrilaterals and crop the area outside the desired display area. For example, in the case of a rectangular view, a viewport is created by four large quadrilaterals in the vicinity of the outer edge of the viewport in the projector image. The black quadrilateral, along with the rest of the 3D model, is rendered and warped as follows: For 2D applications, the area outside the input image to be displayed is considered black.

画像の伝達
レンダリングするシーン中の3D頂点Mが与えられる場合、仮想ビューにおけるその画面空間座標mを見つける。次に、二次伝達関数Ψoi={A,E,e}を使用してプロジェクタiの出力画像中の伝達後のピクセル座標mを見つける。次に、頂点Mが頂点mで置き換えられて、シーン中のポリゴンがレンダリングされる。したがって、各プロジェクタでのレンダリングプロセスは非常に似ている。各プロジェクタのフレームバッファが、仮想ビュー画像のしかるべき部分を自動的に格納し、プロジェクタの範囲を明示的に決定する必要はない。
Image Transfer Given a 3D vertex M in the scene to render, find its screen space coordinate m in the virtual view. Next, the post-transmission pixel coordinates m i in the output image of projector i are found using the secondary transfer function Ψ oi = {A i , E i , e i }. Then, vertex M is replaced by a vertex m i, polygon in the scene is rendered. Therefore, the rendering process at each projector is very similar. Each projector's frame buffer automatically stores the appropriate portion of the virtual view image and does not need to explicitly determine the extent of the projector.

したがって、レンダリングするには、各プロジェクタにおいて、各頂点M毎に、
仮想ビュー投影(M)を介してピクセルmを求め、さらに
二次伝達関数Ψ(m)を介してワーピングされたピクセルmを求め、そして
頂点{M}を有する各三角形T毎に、
2D頂点{mji}を有する三角形をレンダリングする。
Therefore, for rendering, in each projector, for each vertex M,
Calculated pixel m via a virtual view projection (M), further obtains the warped pixel m i through the secondary transfer function Ψ i (m), and for each triangle T having an apex {M j},
Render triangles with 2D vertices {m ji }.

この手法には2つの問題がある。第1に、ポリゴン内部ではなく、シーン中の頂点のみが正確にワーピングされる。第2に、ポリゴンの可視性分類に特別な処理が必要である。二次伝達後、理論的に、ポリゴンの頂点間のエッジをプロジェクタ画像中の二次曲線に写像する必要がある。   There are two problems with this approach. First, only the vertices in the scene are warped accurately, not inside the polygon. Second, special processing is required for the visibility classification of polygons. After the secondary transmission, it is theoretically necessary to map the edges between the vertices of the polygons to the secondary curve in the projector image.

しかし、走査変換により、曲線をワーピングされた頂点位置間の直線の線分に変換する。この問題は1台のプロジェクタの場合は認められない。しかし、重複するプロジェクタの場合、これは、元の曲線からの個々の異なる逸脱につながり、ひいては、エッジが表示画面上で位置合わせがずれて現れる。したがって、三角形の十分に細かいテッセレーション(tessellation)を用いる必要がある。   However, the scan conversion converts the curve into a straight line segment between warped vertex positions. This problem is not recognized with a single projector. However, in the case of overlapping projectors, this leads to individual different deviations from the original curve and thus the edges appear out of alignment on the display screen. It is therefore necessary to use a sufficiently fine tessellation of triangles.

湾曲した画面上での遠近的に正しいレンダリングにおいて入力モデルが真っ直ぐに現れるように、入力モデルをオンザフライで分割し予め歪ませる市販のシステムをすでに利用することができる。参照により本明細書に援用される1997年2月26日にIdaszak他に付与された米国特許第6,104,405号「Systems, methods and computer program products for converting image data to non-planar image data」、および1994年6月7日にKelly他に付与された米国特許第5,319,744号「Polygon fragmentation method of distortion correction in computer image generating systems」を参照のこと。本発明の方法は、このようなシステムによって提供される細かいテッセレーションと両立できる。市販のシステムにおけるシーンジオメトリの事前歪みは、第1のパスのテクスチャマッピング結果を含む2パスレンダリングを回避するために使用される。本発明の場合、ジオメトリを予め歪ませる代わりに、画像空間投影を予め歪ませる。利点として、本発明は、プログラマブルグラフィックスユニット(GPU)のバーテックスシェーダを使用して一部実施することができる。   Commercial systems are already available that split the input model on-the-fly and pre-distort so that the input model appears straight in perspective correct rendering on a curved screen. US Pat. No. 6,104,405, “Systems, methods and computer program products for converting image data to non-planar image data” granted to Idaszak et al. On Feb. 26, 1997, incorporated herein by reference. And U.S. Pat. No. 5,319,744 issued to Kelly et al. On June 7, 1994, "Polygon fragmentation method of distortion correction in computer image generating systems". The method of the present invention is compatible with the fine tessellation provided by such systems. Scene geometry pre-distortion in commercial systems is used to avoid two-pass rendering, including the first-pass texture mapping results. In the present invention, instead of pre-distorting the geometry, the image space projection is pre-distorted. As an advantage, the present invention can be implemented in part using a programmable graphics unit (GPU) vertex shader.

走査変換
三角形の投影におけるピクセル位置がワーピングされるとき、深度バッファがしかるべき可視性情報を生成するように、情報も共に渡す必要がある。さらに、遠近的に正しい色およびテクスチャ座標補間のために、しかるべき重み値「w」を渡す必要がある。したがって、
m(x,y,z,w)=仮想視点投影(M(X))
(x’,y’,w’)=Ψ(m(x/w,y/w),1)
(x,y,z,w)=[wx’/w’,wy’/w’,z,w]
に従ってピクセル座標に「w」を後ろから乗算する。
Scan Conversion When the pixel locations in the projection of the triangle are warped, information must also be passed along so that the depth buffer generates the appropriate visibility information. Furthermore, it is necessary to pass the appropriate weight value “w” for perspective correct color and texture coordinate interpolation. Therefore,
m (x, y, z, w) = virtual viewpoint projection (M (X))
m i (x ′ i , y ′ i , w ′ i ) = Ψ i (m (x / w, y / w), 1)
m i (x i , y i , z i , w i ) = [wx ′ i / w ′ i , wy ′ i / w ′ i , z, w]
Multiply the pixel coordinates by “w” from behind.

したがって、頂点mは、二次伝達関数とともに元の深度およびw値により、しかるべき最終ピクセル座標(x’/w’,y’/w’)を有する。 Therefore, the vertex m i is the original depth and w values with the secondary transfer function, with the appropriate final pixel coordinates (x 'i / w' i , y 'i / w' i).

図5は、バーテックスシェーダのコード500を示す。2D画像をレンダリングする場合、仮想ビュー画像空間を三角形に細かく分割し、画像をこれら三角形上のテクスチャとして写像する。各三角形の頂点mは、上記のように、二次伝達関数を使用して頂点(およびピクセル)mにワーピングされる。走査変換は、頂点mにおける色属性およびテクスチャ属性を頂点mに自動的に変換し、その間を補間する。同様にして3Dシーンをレンダリングすることが可能である。 FIG. 5 shows a vertex shader code 500. When rendering 2D images, the virtual view image space is subdivided into triangles and the image is mapped as a texture on these triangles. Vertex m of each triangle, as described above, is warped to be vertices (and pixels) m i using quadratic transfer function. Scan conversion, a color attribute and texture attributes at vertex m automatically converts the vertex m i, to interpolate between. Similarly, it is possible to render a 3D scene.

本発明の二次伝達関数を使用してのプロジェクタ画像のワーピングは、平坦な表面上での二次曲線のレンダリングと異なることに留意する。Watson他著「A fast algorithm for rendering quadratic curves on raster displays」Proc. 27th Annual SE ACM Conference, 1989を参照のこと。 Note that warping of projector images using the quadratic transfer function of the present invention differs from rendering quadratic curves on a flat surface. See Watson et al. “A fast algorithm for rendering quadratic curves on raster displays” Proc. 27 th Annual SE ACM Conference, 1989.

輝度ブレンディング
重複画像のエリアにおけるピクセル輝度は、グラフィックスハードウェアのアルファブレンディングを使用して減衰される。二次伝達関数の助変数方程式を使用して、アルファマップが以下のようにして求められる。
Luminance Blending Pixel brightness in the overlapping image areas is attenuated using graphics hardware alpha blending. Using the parametric equation of the secondary transfer function, an alpha map is obtained as follows:

プロジェクタiにおけるあらゆるプロジェクタピクセルx毎に、式: Every projector per pixel x i in the projector i, formula:

Figure 2005004201
Figure 2005004201

を使用してプロジェクタjにおいて対応するピクセルを見つける。   To find the corresponding pixel in projector j.

クロスフェードの場合、プロジェクタ画像の境界にあるピクセルが減衰される。したがって、重みはフレーム境界からの最短距離に比例する。範囲[0,1]にある、正規化されたウィンドウピクセル座標(u,v)で表されるピクセルxに割り当てられる重みは、 In the case of crossfading, pixels at the boundary of the projector image are attenuated. Therefore, the weight is proportional to the shortest distance from the frame boundary. The weights assigned to the pixels x i represented by the normalized window pixel coordinates (u i , v i ) in the range [0, 1] are:

Figure 2005004201
Figure 2005004201

である。式中、d(x)は、0≦u、v≦1の場合、min(u,v,1−u,1−v)であり、その他の場合、d(x)=0である。パラメトリック手法を使用するため、対応するプロジェクタピクセルおよびそれらの場所における重みをサブピクセル位置合わせ精度で算出することが可能である。対応するプロジェクタピクセルにおける重みの和は足して正確に1.0になる。   It is. In the formula, d (x) is min (u, v, 1-u, 1-v) when 0 ≦ u and v ≦ 1, and d (x) = 0 in other cases. Because a parametric approach is used, it is possible to calculate the corresponding projector pixels and the weights at those locations with sub-pixel alignment accuracy. The sum of the weights at the corresponding projector pixels adds up to exactly 1.0.

各プロジェクタにおいて、対応するアルファマップはテクスチャマップとして格納され、レンダリングの最後の段階で画面に位置合わせされた四辺形としてレンダリングされる。   In each projector, the corresponding alpha map is stored as a texture map and rendered as a quadrilateral aligned to the screen at the final stage of rendering.

本発明の方法は、凹形ドーム上への投影にも使用することができる。この投影は、ドームが半透明または透明な材料からできている場合に特に有用である。後ろから投影される場合、閲覧者は、プロジェクタをいずれも遮ることなく完全に没入型の体験を得ることができる。   The method of the present invention can also be used for projection onto a concave dome. This projection is particularly useful when the dome is made of a translucent or transparent material. When projected from behind, the viewer can have a completely immersive experience without blocking any projector.

発明の効果
本発明は、2Dまたは3D視覚化に湾曲した表示面を使用してプロジェクタシステムを構築することができる。本発明のシステムでは、高価なインフラストラクチャが必要なく、複数のプロジェクタと表示面との間の位置合わせが不用意な状態で動作することができる。本発明の自動位置合わせは、二次画像伝達関数を利用し、プロジェクタの面倒なセットアップおよびメンテナンスをなくし、したがってコストを低減する。本発明は、フライトシミュレータ、プラネタリウム、およびハイエンドビジュアリゼーションシアター等で使用されるなど、広く使用されている用途の構築、較正、およびレンダリングプロセスを単純化することができる。可能になる新しい用途としては、低コストで柔軟性のあるドームディスプレイ、ショッピングアーケード、および円柱または支柱への投影が挙げられる。
The present invention can construct a projector system using a display surface curved for 2D or 3D visualization. The system of the present invention does not require an expensive infrastructure, and can operate in a state where the alignment between the plurality of projectors and the display surface is inadvertent. The automatic registration of the present invention utilizes a secondary image transfer function, eliminating the cumbersome setup and maintenance of the projector, thus reducing costs. The present invention can simplify the construction, calibration, and rendering processes of widely used applications, such as those used in flight simulators, planetariums, high-end visualization theaters, and the like. New applications that will be enabled include low-cost, flexible dome displays, shopping arcades, and projection onto cylinders or columns.

本発明は、これまで離散サンプリングによって解決されてきた問題に対する洗練された解決策を提供する。利点は、従来技術によるシステムと異なり、本発明のプロジェクタはスイートスポットに配置する必要がないことである。これは、スイートスポットが通常、閲覧者がいたいと思うその場所である現実世界で適用の際に重要である。   The present invention provides a sophisticated solution to the problems that have been solved so far by discrete sampling. The advantage is that, unlike prior art systems, the projector of the present invention does not need to be placed in a sweet spot. This is important when applying in the real world, where the sweet spot is usually where the viewer wants to be.

本発明について好ましい実施形態例として説明したが、他の様々な適合および変更を本発明の精神および範囲内で行いうることを理解されたい。したがって、添付の特許請求の範囲の目的は、本発明の真の精神および範囲内にあるこのような変形および変更をすべて保護範囲に包含することである。   Although the invention has been described as a preferred exemplary embodiment, it should be understood that various other adaptations and modifications may be made within the spirit and scope of the invention. Accordingly, the scope of the appended claims is to cover within the scope of protection for all such variations and modifications that are within the true spirit and scope of this invention.

本発明による、湾曲表面上に画像を投影する方法において使用される事前処理ステップの流れ図である。4 is a flowchart of preprocessing steps used in a method for projecting an image on a curved surface according to the present invention. 本発明による、湾曲表面上に画像を投影する方法において使用されるレンダリングステップの流れ図である。6 is a flow diagram of rendering steps used in a method for projecting an image on a curved surface according to the present invention. 本発明によるマルチプロジェクタシステムの図である。1 is a diagram of a multi-projector system according to the present invention. 本発明によるマルチプロジェクタシステムの図である。1 is a diagram of a multi-projector system according to the present invention. 本発明による二次伝達関数のためのバーテックスシェーダのコードである。3 is a vertex shader code for a second order transfer function according to the present invention. 本発明によるホモグラフィを示す図である。FIG. 3 shows homography according to the present invention. 複数の重複画像のブロック図である。It is a block diagram of a some overlapping image.

Claims (18)

所定の画像を表示面上に投影すること、
前記所定の画像の立体画像対を得ること、
前記表示面を介しての前記所定の画像と前記立体画像対の間の二次伝達関数を求めること、
前記二次伝達関数に従って出力画像をワーピングすること、
及び
前記ワーピングした出力画像を前記表示面上に投影すること
を含む画像を表示面上に投影する方法。
Projecting a predetermined image on the display surface;
Obtaining a stereoscopic image pair of the predetermined image;
Obtaining a secondary transfer function between the predetermined image and the stereoscopic image pair through the display surface;
Warping the output image according to the secondary transfer function;
And projecting the warped output image onto the display surface.
前記表示面は二次曲面である
請求項1記載の画像を表示面上に投影する方法。
The method according to claim 1, wherein the display surface is a quadric surface.
前記表示面は、球面、半球面、回転楕円面、ドーム、柱面、錐面、放物面、双曲面、双曲放物面、及び楕円面からなる群から選択される
請求項2記載の画像を表示面上に投影する方法。
The display surface is selected from the group consisting of a spherical surface, a hemispherical surface, a spheroidal surface, a dome, a cylindrical surface, a conical surface, a paraboloid, a hyperboloid, a hyperbolic paraboloid, and an ellipsoid. A method of projecting an image on a display surface.
前記二次曲面は、凹面形である
請求項2記載の画像を表示面上に投影する方法。
The method of projecting an image on a display surface according to claim 2, wherein the quadric surface is concave.
前記二次曲面は、凸面形である
請求項2記載の画像を表示面上に投影する方法。
The method according to claim 2, wherein the quadratic curved surface is a convex surface.
複数の所定の画像を複数の視点から前記表示面上に投影すること、
前記複数の所定の画像の立体入力画像対を得ること、
前記表示面を介しての各所定の画像と前記立体入力画像対の間の二次伝達関数を求めること、
前記対応する二次伝達関数に従って複数の出力画像をワーピングすること、
及び
前記ワーピングされた複数の出力画像を前記複数の視点から前記表示面上に投影すること
をさらに含む請求項1記載の画像を表示面上に投影する方法。
Projecting a plurality of predetermined images onto the display surface from a plurality of viewpoints;
Obtaining a stereoscopic input image pair of the plurality of predetermined images;
Obtaining a secondary transfer function between each predetermined image and the stereoscopic input image pair via the display surface;
Warping a plurality of output images according to the corresponding secondary transfer function;
The method according to claim 1, further comprising: projecting the plurality of warped output images onto the display surface from the plurality of viewpoints.
前記表示面は、二次曲面である
請求項6記載の画像を表示面上に投影する方法。
The method according to claim 6, wherein the display surface is a quadric surface.
前記ワーピングされた複数の出力画像は、重ねられ、1つのシームレスな画像として見える
請求項1記載の画像を表示面上に投影する方法。
The method of projecting an image according to claim 1, wherein the plurality of warped output images are overlaid and viewed as one seamless image.
前記所定の画像の特徴と前記立体画像対の対応する特徴の間の三次元対応性を求めること、
前記三次元対応性に二次曲面を近似すること、
前記立体入力画像対に対する前記所定の画像のポーズを求めること、
及び
前記ポーズ及び前記対応性から前記二次伝達関数を求めること
をさらに含む請求項1記載の画像を表示面上に投影する方法。
Obtaining a three-dimensional correspondence between the features of the predetermined image and the corresponding features of the stereoscopic image pair;
Approximating a quadratic surface to the three-dimensional correspondence;
Obtaining a pose of the predetermined image with respect to the stereoscopic input image pair;
The method according to claim 1, further comprising: obtaining the secondary transfer function from the pose and the correspondence.
投影前に、ブレンディングウェイトに従って前記ワーピングした複数の出力画像を減衰すること
をさらに含む請求項6記載の画像を表示面上に投影する方法。
The method according to claim 6, further comprising attenuating the plurality of warped output images according to blending weights before projection.
前記所定の画像は、チェッカー盤パターンである
請求項1記載の画像を表示面上に投影する方法。
The method according to claim 1, wherein the predetermined image is a checkerboard pattern.
非線形最小化を目的関数に適用して前記二次伝達関数を得ること
をさらに含む請求項1記載の画像を表示面上に投影する方法。
The method according to claim 1, further comprising: applying a nonlinear minimization to an objective function to obtain the second order transfer function.
前記目的関数は、所定の画像中のすべてのピクセルの総二乗伝達誤差を利用する
請求項12記載の画像を表示面上に投影する方法。
The method according to claim 12, wherein the objective function uses a total square transmission error of all pixels in a predetermined image.
前記出力画像は、任意の仮想視点に関してレンダリングされる
請求項1記載の画像を表示面上に投影する方法。
The method according to claim 1, wherein the output image is rendered with respect to an arbitrary virtual viewpoint.
前記減衰されワーピングされた複数の出力画像を任意の視錐台へクロッピングすること
をさらに含む請求項10記載の画像を表示面上に投影する方法。
11. The method of projecting an image on a display surface, further comprising cropping the attenuated and warped output images to an arbitrary viewing frustum.
前記二次伝達関数は、パラメトリック的に求められる
請求項1記載の画像を表示面上に投影する方法。
The method according to claim 1, wherein the secondary transfer function is obtained parametrically.
前記ワーピングは、グラフィック処理装置のバーテックスシェーダを使用して実施される
請求項1記載の画像を表示面上に投影する方法。
The method of projecting an image on a display surface according to claim 1, wherein the warping is performed using a vertex shader of a graphic processing device.
所定の画像を表示面上に投影するように構成されたプロジェクタと、
前記所定の画像の立体画像対を得るように構成されたカメラと、
前記表示面を介しての前記所定の画像と前記立体画像対の間の二次伝達関数を求める手段と、
前記二次伝達関数に従って出力画像をワーピングする手段と、
前記ワーピングされた出力画像を前記表示面上に投影する手段と
を備える画像を表示面上に投影するシステム。
A projector configured to project a predetermined image onto a display surface;
A camera configured to obtain a stereoscopic image pair of the predetermined image;
Means for obtaining a secondary transfer function between the predetermined image and the stereoscopic image pair via the display surface;
Means for warping the output image according to the secondary transfer function;
A system for projecting an image on the display surface, the projector comprising: means for projecting the warped output image onto the display surface.
JP2004166072A 2003-06-10 2004-06-03 Method and system for projecting image onto display surface Pending JP2005004201A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/458,386 US6793350B1 (en) 2003-03-21 2003-06-10 Projecting warped images onto curved surfaces

Publications (1)

Publication Number Publication Date
JP2005004201A true JP2005004201A (en) 2005-01-06

Family

ID=34102598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004166072A Pending JP2005004201A (en) 2003-06-10 2004-06-03 Method and system for projecting image onto display surface

Country Status (1)

Country Link
JP (1) JP2005004201A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100799304B1 (en) 2006-08-30 2008-01-29 한국전자통신연구원 A system and method for projecting high-resolution moving pictures under non-planar display environments
JP2011030260A (en) * 2006-02-20 2011-02-10 Panasonic Electric Works Co Ltd Video signal processing device and virtual reality generation system
JP2011091516A (en) * 2009-10-21 2011-05-06 Sharp Corp Projector and display adjustment method of the projector
JP2017161908A (en) * 2010-11-15 2017-09-14 スケーラブル ディスプレイ テクノロジーズ インコーポレイテッド System and method for calibrating display system using manual and semi-manual techniques
CN115343898A (en) * 2021-04-27 2022-11-15 中强光电股份有限公司 Projection system and projection image superposition method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000310826A (en) * 1999-02-23 2000-11-07 Matsushita Electric Works Ltd Virtual environmental experience display device
JP2004282712A (en) * 2003-02-28 2004-10-07 Victor Co Of Japan Ltd Adjustment device
JP2004282711A (en) * 2003-02-28 2004-10-07 Victor Co Of Japan Ltd Projection display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000310826A (en) * 1999-02-23 2000-11-07 Matsushita Electric Works Ltd Virtual environmental experience display device
JP2004282712A (en) * 2003-02-28 2004-10-07 Victor Co Of Japan Ltd Adjustment device
JP2004282711A (en) * 2003-02-28 2004-10-07 Victor Co Of Japan Ltd Projection display device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011030260A (en) * 2006-02-20 2011-02-10 Panasonic Electric Works Co Ltd Video signal processing device and virtual reality generation system
KR100799304B1 (en) 2006-08-30 2008-01-29 한국전자통신연구원 A system and method for projecting high-resolution moving pictures under non-planar display environments
JP2011091516A (en) * 2009-10-21 2011-05-06 Sharp Corp Projector and display adjustment method of the projector
JP2017161908A (en) * 2010-11-15 2017-09-14 スケーラブル ディスプレイ テクノロジーズ インコーポレイテッド System and method for calibrating display system using manual and semi-manual techniques
US10503059B2 (en) 2010-11-15 2019-12-10 Scalable Display Technologies, Inc. System and method for calibrating a display system using manual and semi-manual techniques
US11269244B2 (en) 2010-11-15 2022-03-08 Scalable Display Technologies, Inc. System and method for calibrating a display system using manual and semi-manual techniques
CN115343898A (en) * 2021-04-27 2022-11-15 中强光电股份有限公司 Projection system and projection image superposition method
US11979689B2 (en) 2021-04-27 2024-05-07 Coretronic Corporation Projection system and projected image stacking method

Similar Documents

Publication Publication Date Title
US6793350B1 (en) Projecting warped images onto curved surfaces
Raskar et al. Quadric transfer for immersive curved screen displays
JP4425673B2 (en) System for projecting multiple output images onto the display surface
US7133083B2 (en) Dynamic shadow removal from front projection displays
US8358873B2 (en) Hybrid system for multi-projector geometry calibration
US6709116B1 (en) Shape-adaptive projector system
US6755537B1 (en) Method for globally aligning multiple projected images
JP4425672B2 (en) How to display an image on the display screen
CN110191326B (en) Projection system resolution expansion method and device and projection system
JP2004289822A (en) Method for determining largest rectangle on display surface
Raskar et al. Efficient image generation for multiprojector and multisurface displays
JP2005500756A (en) Multi-projector mosaic with automatic alignment
US11082673B2 (en) Projecting images and videos onto engineered curved surfaces
JP2018504009A (en) Digital video rendering
JP2006221599A (en) Method and apparatus for generating mapping function, and compound picture develop method, and its device
US20040119708A1 (en) Image display method and image display device
CN110060349B (en) Method for expanding field angle of augmented reality head-mounted display equipment
JP2005004201A (en) Method and system for projecting image onto display surface
Raskar et al. Multi-projector imagery on curved surfaces
Johnson et al. A personal surround environment: Projective display with correction for display surface geometry and extreme lens distortion
EP3525458B1 (en) Projecting images and videos onto curved fabricated surfaces
Yuen et al. Inexpensive immersive projection
US20030052899A1 (en) Dynamic spatial warp
JPH10177660A (en) Image generating method, image generating device and virtual reality experience device
Lee Wand: 360∘ video projection mapping using a 360∘ camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100831