JP5236219B2 - Distortion correction and integration method using divided imaging, mapping function generation method therefor, distortion correction and integration device using divided imaging, and mapping function generation apparatus therefor - Google Patents

Distortion correction and integration method using divided imaging, mapping function generation method therefor, distortion correction and integration device using divided imaging, and mapping function generation apparatus therefor Download PDF

Info

Publication number
JP5236219B2
JP5236219B2 JP2007163457A JP2007163457A JP5236219B2 JP 5236219 B2 JP5236219 B2 JP 5236219B2 JP 2007163457 A JP2007163457 A JP 2007163457A JP 2007163457 A JP2007163457 A JP 2007163457A JP 5236219 B2 JP5236219 B2 JP 5236219B2
Authority
JP
Japan
Prior art keywords
projector
screen
projectors
mapping function
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007163457A
Other languages
Japanese (ja)
Other versions
JP2009005044A (en
Inventor
博之 和田
正人 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Precision Co Ltd
Original Assignee
Mitsubishi Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Precision Co Ltd filed Critical Mitsubishi Precision Co Ltd
Priority to JP2007163457A priority Critical patent/JP5236219B2/en
Publication of JP2009005044A publication Critical patent/JP2009005044A/en
Application granted granted Critical
Publication of JP5236219B2 publication Critical patent/JP5236219B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Description

この発明は、コンピュータグラフィックスにおける分割撮像による歪み補正と統合並びにそのためのマッピング関数の生成方法及びこれらの装置、さらにはその応用に関するものである。   The present invention relates to distortion correction and integration by division imaging in computer graphics, a mapping function generation method therefor, an apparatus thereof, and an application thereof.

訓練用シミュレータや研究用シミュレータにおいて没入感・臨場感を得るためには、高い解像度と広い視野が要求される。これをコストパフォーマンス良く実現する方法として、平面スクリーンに多数のプロジェクタから逆歪みをかけた映像を投影して連続した画像に統合するプロジェクタモザイクあるいはマルチプロジェクション技術が期待されている。従来から電子回路やレンズを用いて光学的に歪みを補正する方法は広く用いられていたが、スクリーンのサイズが固定されたり、プロジェクタ設置時の調整が複雑など多くの問題がある。また、複数配置して大画面を構成するため、境目を緩和する専用回路付きの高価なプロジェクタが必要となり、位置合わせやプロジェクタの特性および経年変化による輝度ズレの調整などにも多大の時間と労力を要する。
また、非特許文献1に示したように、設置位置が不明なプロジェクタj(1…n)から投影した映像と、同様に設置位置が不明なカメラで撮像したスクリーン上の歪み映像とが3行3列のマトリクスにより対応づけられ、このマトリクスを利用してプロジェクタ座標の映像に逆歪みをかけ、映像の歪み補正を行うものがあるが、平面スクリーンに限られている。
社団法人情報処理学会、「FIT2003 情報科学技術フォーラム 一般講演論文集 第3分冊」二〇〇三年八月二十五日発行、p.401〜403
A high resolution and a wide field of view are required to obtain an immersive and realistic feeling in training simulators and research simulators. As a method for realizing this with good cost performance, a projector mosaic or a multi-projection technique is anticipated in which images with reverse distortion are projected from a number of projectors onto a flat screen and integrated into a continuous image. Conventionally, a method of optically correcting distortion using an electronic circuit or a lens has been widely used. However, there are many problems such as a fixed screen size and complicated adjustment when a projector is installed. In addition, since multiple screens are used to form a large screen, an expensive projector with a dedicated circuit that relaxes the boundary is required, and a great deal of time and effort is required for alignment, adjustment of projector characteristics, and brightness shift due to aging. Cost.
Further, as shown in Non-Patent Document 1, there are three lines of an image projected from a projector j (1... N) whose installation position is unknown and a distortion image on the screen imaged by a camera whose installation position is unknown. There is a matrix that is associated with a matrix of three columns and uses this matrix to apply reverse distortion to the image of the projector coordinates to correct the distortion of the image, but this is limited to a flat screen.
Information Processing Society of Japan, “FIT2003 Information Science and Technology Forum General Lecture Collection Vol. 3”, published on August 25, 2003, p. 401-403

本発明は、部分画像を投影する比較的低解像度のプロジェクトを複数台用いて、高解像度の大画面をドーム等の二次曲面スクリーン上に表示する実時間映像発生が容易になる方法および手段を提供することにある。   The present invention provides a method and means for facilitating the generation of real-time video by displaying a high-resolution large screen on a quadratic curved screen such as a dome using a plurality of relatively low-resolution projects for projecting partial images. It is to provide.

上記課題を解決するため請求項1に係る分割撮像による歪み補正と統合のためのマッピング関数生成方法は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記複数のプロジェクタごとに分割されたスクリーンを撮影するように配置されたステレオカメラと、コンピュータと、記憶装置とを有し、コンピュータによる処理であって、各プロジェクタpiからスクリーンに投影したテスト点の3次元復元を前記ステレオカメラによる行う第1の過程と、前記復元した各プロジェクタpiの3次元点を1つの座標系に統合し、統合後の3次元点からスクリーン形状を表す2次曲面係数行列(Q)を推定する第2の過程と、前記統合後の各プロジェクタpiの3次元点とこれに対応するテスト点の2次元点から各プロジェクタpiの位置姿勢行列(P)を推定する第3の過程と、前記二次曲面スクリーンの投影面を分割して全体を撮影するように配置し、前記プロジェクタpiが投影する前記二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvm(m=1…M)を備え、前記推定した誤差を含む2次曲面係数行列(Q)と、前記複数の基準仮想カメラvm(m=1…M)の位置姿勢行列と、前記推定した誤差を含む各プロジェクタpiの位置姿勢行列(P)とを用いた計算により、2次曲面係数行列(Q)の誤差と各プロジェクタpiの位置姿勢行列(P)の誤差を含む、基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求める第4の過程と、前記二次曲面スクリーンを見る位置に位置姿勢情報を持つ視点仮想カメラeを設定し、当該視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第4の過程によるマッピング関数Ψvmpiとにより、各プロジェクタと視点仮想カメラeとの間のマッピング関数Ψepiを求める第5の過程と、前記第5の過程のマッピング関数Ψepiによりその逆関数を求める第6の過程と、からなることを特徴とするものである。 In order to solve the above-described problem, a mapping function generation method for distortion correction and integration by divided imaging according to claim 1 is divided into a quadric curved screen, the screen is divided into adjacent screens, and adjacent projection portions include overlapping portions and are continuous. A plurality of n projectors arranged as described above, a stereo camera arranged so as to shoot a screen divided for each of the plurality of projectors, a computer, and a storage device. The first process of performing the three-dimensional restoration of the test points projected from the projectors pi on the screen by the stereo camera, and the three-dimensional points of the restored projectors pi are integrated into one coordinate system. A second step of estimating a quadric surface coefficient matrix (Q) representing the screen shape from the points, and each projector p after the integration From a two-dimensional point of the three-dimensional point and the test point corresponding to the third step of estimating the position and orientation matrix for each projector pi a (P), the whole by dividing the projected surface of the secondary curved screen shooting A quadratic surface coefficient matrix including a plurality of reference virtual cameras vm (m = 1... M) that capture the projection surface of the quadric surface screen projected by the projector pi and including the estimated error. (Q) and a calculation using the position and orientation matrix of the plurality of reference virtual cameras vm (m = 1... M) and the position and orientation matrix (P) of each projector pi including the estimated error. A fourth step of obtaining a mapping function Ψvmpi between the reference virtual camera vm and the projector pi , including an error of the surface coefficient matrix (Q) and an error of the position and orientation matrix (P) of each projector pi; A viewpoint virtual camera e having position and orientation information is set at a position where the clean is viewed, a mapping function Ψevm between the position and orientation of the viewpoint virtual camera e and the reference virtual camera vm having the position and orientation is obtained, and the fourth process is performed. A fifth process for obtaining the mapping function Ψepi between each projector and the viewpoint virtual camera e by the mapping function Ψvmpi, and a sixth process for obtaining the inverse function by the mapping function Ψepi of the fifth process. It is characterized by.

上記課題を解決するため請求項2に係る分割撮像による歪み補正と統合のためのマッピング関数生成方法は、請求項1において、第4の過程が、誤差を含むマッピング関数Ψvmpiを初期値としその誤差を最小にして最適化することを特徴とするものである。 Mapping function generation method for distortion correction and integration by division imaging according to claim 2 for solving the foregoing problem resides in that in Claim 1, the fourth process, the mapping function Ψvmpi including an error as the initial value, the It is characterized by optimizing with minimum error.

上記課題を解決するため請求項3に係る分割撮像による歪み補正と統合方法は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する第1の過程と、各プロジェクタから前記ピクセルバッファにおいて歪み補正した映像を前記二次曲面スクリーンに投影する第2の過程からなることを特徴とするものである。   In order to solve the above problem, a distortion correction and integration method using divided imaging according to claim 3 is a quadratic curved screen, and a plurality of screens that are divided into the screen and arranged so that adjacent projection portions include overlapping portions and are continuous. 3. A projector comprising: n projectors; a computer provided for each projector; and a storage device, wherein each computer generates an image for each area projected by each projector in a pixel buffer and claim 1 or 2 in advance. A first process of generating, in a pixel buffer, an image obtained by correcting the distortion of the generated image using the inverse function of the mapping for each projector obtained in step 2, and the quadratic curved surface It consists of the 2nd process of projecting on a screen.

上記課題を解決するため請求項4に係る分割撮像による歪み補正と統合のためのマッピング関数生成方法は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記複数のプロジェクタごとに分割されたスクリーンを撮影するように配置されたステレオカメラと、コンピュータと、記憶装置とを有し、コンピュータによる処理であって、各プロジェクタpiからスクリーンに投影したテスト点の3次元復元を前記ステレオカメラによる行う第1の過程と、前記復元した各プロジェクタpiの3次元点を1つの座標系に統合し、統合後の3次元点からスクリーン形状を表す2次曲面係数行列(Q)を推定する第2の過程と、前記統合後の各プロジェクタpiの3次元点とこれに対応するテスト点の2次元点から各プロジェクタpiの位置姿勢行列(P)を推定する第3の過程と、前記二次曲面スクリーンの投影面を分割して全体を撮影するように配置し、前記プロジェクタpiが投影する前記二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvm(m=1…M)を備え、前記推定した誤差を含む2次曲面係数行列(Q)と、前記複数の基準仮想カメラvm(m=1…M)の位置姿勢行列と、前記推定した誤差を含む各プロジェクタpiの位置姿勢行列(P)とを用いた計算により、2次曲面係数行列(Q)の誤差と各プロジェクタpiの位置姿勢行列(P)の誤差を含む、基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求める第4の過程と、前記二次曲面スクリーンを見る右目又は左目のいずれか一方の位置に位置姿勢情報を持つ右目(又は左目)用の視点仮想カメラeを設定し、当該右目(又は左目)用の視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第4の過程によるマッピング関数Ψvmpiとにより、各プロジェクタと右目(又は左目)用の視点仮想カメラeとの間の右目(又は左目)用のマッピング関数Ψr(l)epiを求め、前記二次曲面スクリーンを見る前記右目又は左目のいずれか一方と異なる他方の位置に位置姿勢情報を持つ左目(又は右目)用の視点仮想カメラeを設定し、当該左目(又は右目)用の視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第4の過程によるマッピング関数Ψvmpiとにより、各プロジェクタと左目(又は右目)用の視点仮想カメラeとの間の左目(又は右目)用のマッピング関数Ψl(r)epiを求める第5の過程と、前記第5の過程の右目用及び左目用のマッピング関数Ψrepi,Ψlepiによりその逆関数を求める第6の過程と、からなることを特徴とするものである。 In order to solve the above problems, a mapping function generation method for distortion correction and integration by divided imaging according to claim 4 is divided into a quadratic curved screen, the screen is divided into the screens, and adjacent projection portions are continuous and include overlapping portions. A plurality of n projectors arranged as described above, a stereo camera arranged so as to shoot a screen divided for each of the plurality of projectors, a computer, and a storage device. The first process of performing the three-dimensional restoration of the test points projected from the projectors pi on the screen by the stereo camera, and the three-dimensional points of the restored projectors pi are integrated into one coordinate system. A second step of estimating a quadric surface coefficient matrix (Q) representing the screen shape from the points, and each projector p after the integration From a two-dimensional point of the three-dimensional point and the test point corresponding to the third step of estimating the position and orientation matrix for each projector pi a (P), the whole by dividing the projected surface of the secondary curved screen shooting A quadratic surface coefficient matrix including a plurality of reference virtual cameras vm (m = 1... M) that capture the projection surface of the quadric surface screen projected by the projector pi and including the estimated error. (Q) and a calculation using the position and orientation matrix of the plurality of reference virtual cameras vm (m = 1... M) and the position and orientation matrix (P) of each projector pi including the estimated error. A fourth step of obtaining a mapping function Ψvmpi between the reference virtual camera vm and the projector pi , including an error of the surface coefficient matrix (Q) and an error of the position and orientation matrix (P) of each projector pi; A right-eye (or left-eye) viewpoint virtual camera e having position and orientation information is set at either the right eye or the left eye to view the clean, and the position and orientation of the right-eye (or left-eye) viewpoint virtual camera e The mapping function Ψevm between the reference virtual cameras vm having the position and orientation is obtained, and the right eye (or left eye) between each projector and the viewpoint virtual camera e for the right eye (or left eye) is determined by the mapping function Ψvmpi in the fourth process. ) Mapping function Ψr (l) epi for the left eye (or right eye) viewpoint virtual camera e having position and orientation information at the other position different from either the right eye or the left eye viewing the quadric curved screen And a mapping function Ψevm between the position and orientation of the viewpoint virtual camera e for the left eye (or right eye) and the reference virtual camera vm having the position and orientation is obtained. A fifth step of obtaining a left eye (or right eye) mapping function ψl (r) epi between each projector and the left eye (or right eye) viewpoint virtual camera e using the mapping function ψvmpi in the fourth step. And the sixth step of obtaining the inverse function by the right eye and left eye mapping functions ψrepi and ψlepi of the fifth step.

上記課題を解決するため請求項5に係る分割撮像による歪み補正と統合のためのマッピング関数生成方法は、請求項4において、第4の過程が、誤差を含むマッピング関数Ψvmpiを初期値としその誤差を最小にして最適化することを特徴とするものである。 In order to solve the above-mentioned problem, the mapping function generation method for distortion correction and integration by divided imaging according to claim 5 is the fourth process, wherein the fourth process uses the mapping function Ψvmpi including an error as an initial value , It is characterized by optimizing with minimum error.

上記課題を解決するため請求項6に係る分割撮像による歪み補正と統合方法は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、前記各コンピュータにより各プロジェクタが投影する領域毎の右目用及び左目用の映像をピクセルバッファに生成するとともに予め請求項4又は請求項5において求めた各プロジェクタ毎の右目用及び左目用のマッピング関数Ψrepi,Ψlepiの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する第1の過程と、各プロジェクタから前記ピクセルバッファにおいて歪み補正した右目用及び左目用の映像を前記二次曲面スクリーンに投影する第2の過程からなることを特徴とするものである。   In order to solve the above-described problem, the distortion correction and integration method by divided imaging according to claim 6 includes a quadric curved screen, and a plurality of screens that are divided into the screen and arranged so that adjacent projection portions include overlapping portions and are continuous. n projectors, a computer provided for each projector, and a storage device, and each computer generates right-eye and left-eye images for each area projected by each projector in a pixel buffer and requests in advance. A first step of generating, in a pixel buffer, an image obtained by correcting the distortion of the generated image by using an inverse function of the mapping functions Ψ repi and Ψ lepi for the right eye and the left eye for each projector obtained in item 4 or claim 5; Right eye and left eye images corrected for distortion in the pixel buffer from each projector are converted into the secondary music. It consists of the 2nd process projected on a surface screen.

上記課題を解決するため請求項7に係る分割撮像による歪み補正と統合方法は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、コンピュータと、記憶装置とを有し、前記コンピュータにより各プロジェクタが投影する領域毎の映像を生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する第1の過程と、各プロジェクタから前記ピクセルバッファにおいて歪み補正した映像を前記二次曲面スクリーンに投影して前記共通して重複する部分の明るさを大きくする第2の過程からなることを特徴とするものである。   In order to solve the above-described problem, the distortion correction and integration method using divided imaging according to claim 7 includes a quadratic curved screen and a plurality of screens that are divided into the screens and that are adjacent to each other so that adjacent projection portions include overlapping portions. An inverse function of the mapping for each projector obtained in advance in claim 1 or 2 and generating an image for each area projected by each projector by the computer having n projectors, a computer, and a storage device Accordingly, a first process of generating a distortion-corrected image of the generated image in the pixel buffer, and a projection of the distortion-corrected image in the pixel buffer from each projector onto the quadric curved screen overlaps in common. It consists of the 2nd process which enlarges the brightness of a part, It is characterized by the above-mentioned.

上記課題を解決するため請求項8に係る分割撮像による歪み補正と統合方法は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する第1の過程と、各プロジェクタから前記歪み補正した映像を前記二次曲面スクリーンに投影する第2の過程からなることを特徴とするものである。   In order to solve the above problem, a distortion correction and integration method using divided imaging according to claim 8 is a quadratic curved screen, and a plurality of screens that are divided into the screen and arranged so that adjacent projection portions include overlapping portions and are continuous. each of the projectors obtained in advance according to claim 1 or 2, wherein the projector includes n projectors and video devices, and the video generated from the video devices is divided and generated so as to be projected onto the plurality of n projectors onto the screen. And a second process of projecting the distortion-corrected video image from each projector onto the quadric curved screen. It is characterized by.

上記課題を解決するため請求項9に係る分割撮像による歪み補正と統合方法は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項4において求めた各プロジェクタ毎の右目用及び左目用のマッピング関数の逆関数により、前記分割生成した映像を歪み補正した映像を生成する第1の過程と、各プロジェクタから前記歪み補正した右目用及び左目用の映像を前記二次曲面スクリーンに投影する第2の過程からなることを特徴とするものである。   In order to solve the above problem, a distortion correction and integration method using divided imaging according to claim 9 includes a quadratic curved screen, and a plurality of screens that are divided into the screen and arranged so that adjacent projection portions are continuous including overlapping portions. n projectors and video devices, and separately generating and projecting images from the video devices onto the screen onto the plurality of n projectors, and for the right eye for each projector previously obtained in claim 4 A first process of generating a distortion-corrected image of the divided and generated image by an inverse function of a left-eye mapping function, and the distortion-corrected right-eye and left-eye images from the projectors on the quadric surface screen It consists of the 2nd process to project.

上記課題を解決するため請求項10に係る分割撮像による歪み補正と統合方法は、二次曲面スクリーンと、前記スクリーン前方に位置して前記スクリーンに投影する領域を共通にして重複する部分を有するように配置された複数nのプロジェクタと、ビデオ機器とを有し、前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する第1の過程と、各プロジェクタから前記歪み補正した映像を前記二次曲面スクリーンに投影して前記共通して重複する部分の明るさを大きくする第2の過程からなることを特徴とするものである。   In order to solve the above-described problem, the distortion correction and integration method by divided imaging according to claim 10 has a quadratic curved screen and an overlapping portion that is located in front of the screen and has a common area projected onto the screen. 3. The apparatus according to claim 1, further comprising: a plurality of n projectors arranged in a plurality of projectors; and a video device, wherein the image generated from the video device is divided and generated so as to be projected onto the plurality of n projectors onto the screen. A first process of generating an image obtained by correcting the divisionally generated image by distortion correction using an inverse function of the mapping for each projector obtained, and projecting the distortion corrected image from each projector onto the quadric curved screen It is characterized by comprising the second process of increasing the brightness of the overlapping portions in common.

上記課題を解決するため請求項11に係る分割撮像による歪み補正と統合方法は、請求項8又は請求項9又は請求項10記載のものにおいて、ビデオ機器が、テレビジョン装置、ビデオ再生装置、パーソナルコンピュータであることを特徴とするものである。   In order to solve the above problem, the distortion correction and integration method by divided imaging according to claim 11 is the method according to claim 8, claim 9, or claim 10, wherein the video equipment is a television device, a video playback device, a personal computer. It is characterized by being a computer.

上記課題を解決するため請求項12に係る分割撮像による歪み補正と統合方法は、請求項3又は請求項6又は請求項7又は請求項8又は請求項9又は請求項10又は請求項11に記載のものにおいて、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、コンピュータと、前記スクリーン前方に位置してスクリーンを撮影するように配置されたステレオカメラとを有し、前記スクリーンに前記プロジェクタのいずれもから投影しない状態でステレオカメラにより撮影する第1の過程と、前記各プロジェクタより前記スクリーンに黒状態の映像を投影してステレオカメラにより撮影するとともに複数nのプロジェクタのn回繰り返す第2の過程と、コンピュータにおいて、第2の過程による各プロジェクタ毎の映像の輝度から第1の過程により得られた映像の輝度との差により各プロジェクタによる画面の平均値と当該平均値の和により最大値を得るとともに最大値と平均値の差によりオフセット値を得る第3の過程と、コンピュータにおいて、一定周期で投影する映像の輝度を計測し、その平均値に従って、明画像か暗画像かを判定し、暗画像の場合に、各プロジェクタの映像の前記重複する部分のコントラストを前記オフセット値分下げるとともに輝度をオフセット値分下げて映像生成する第4の過程とからなることを特徴とするものである。   In order to solve the above-described problem, the distortion correction and integration method by divided imaging according to claim 12 is described in claim 3, claim 6, claim 7, claim 8, claim 9, claim 10, or claim 11. A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, a computer, and a screen positioned in front of the screen. A stereo camera arranged to take a picture, and a first process of taking a picture with the stereo camera in a state where none of the projectors projects on the screen; and a black picture from each projector on the screen. A second process of projecting and shooting with a stereo camera and repeating n times by a plurality of n projectors; And obtaining the maximum value from the average value of the screen by each projector and the sum of the average values by the difference between the luminance of the image for each projector in the second process and the luminance of the image obtained in the first process. The third process of obtaining the offset value by the difference between the maximum value and the average value, and the computer measures the luminance of the image projected at a fixed period, determines whether it is a bright image or a dark image according to the average value, In this case, the image processing apparatus includes a fourth process of generating an image by reducing the contrast of the overlapping portion of the image of each projector by the offset value and reducing the luminance by the offset value.

上記課題を解決するため請求項13に係る分割撮像による歪み補正と統合方法は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ前方に設けた偏光板と、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピング関数の逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する第1の過程と、各プロジェクタから前記ピクセルバッファにおいて歪み補正した映像を前記二次曲面スクリーンに投影する第2の過程と、夜間情景を表すときに前記偏光板により減光させる第3の過程からなることを特徴とするものである。   In order to solve the above-mentioned problem, the distortion correction and integration method by divided imaging according to claim 13 includes a quadratic curved screen and a plurality of screens that are divided into the screen and arranged so that adjacent projection portions are continuous including overlapping portions. n projectors, a polarizing plate provided in front of each of the projectors, a computer provided for each of the projectors, and a storage device, and a video for each area projected by each projector by each of the computers is used as a pixel buffer. A first step of generating an image in which a distortion correction of the generated image is generated in a pixel buffer by using an inverse function of the mapping function for each projector previously generated in claim 1 or 2, and from each projector, A second process of projecting a distortion corrected image in the pixel buffer onto the quadric curved screen , It is characterized in the that and a third process of dimmed by the polarizing plate to represent nighttime scene.

上記課題を解決するため請求項14に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記スクリーン前方に位置してスクリーンを撮影するように配置されたステレオカメラと、前記二次曲面スクリーンの投影面を分割して全体を撮影するように配置し、前記プロジェクタpiが投影する前記二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvm(m=1…M)と、前記二次曲面スクリーンを見る位置に配置された位置姿勢情報を持つ視点仮想カメラeと、コンピュータと、記憶装置とを有し、各プロジェクタpiからスクリーンに投影したテスト点をステレオカメラで撮像して3次元復元を行うテスト点3次元復元手段と、前記復元した各プロジェクタpiの3次元点を1つの座標系に統合し、統合後の3次元点からスクリーン形状を表す2次曲面係数行列(Q)を推定する2次曲面係数行列(Q)推定手段と、前記統合後の各プロジェクタpiの3次元点とこれに対応するテスト点の2次元点から各プロジェクタpiの位置姿勢行列(P)を推定するプロジェクタ位置姿勢推定手段と、前記推定した誤差を含む2次曲面係数行列(Q)と、前記複数の基準仮想カメラvm(m=1…M)の位置姿勢行列と、前記推定した誤差を含む各プロジェクタpiの位置姿勢行列(P)とを用いた計算により、2次曲面係数行列(Q)の誤差と各プロジェクタpiの位置姿勢行列(P)の誤差を含む、基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求める第1のマッピング関数計算手段と、当該視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第1のマッピング関数計算手段によるマッピング関数Ψvmpiとにより、各プロジェクタと視点仮想カメラeとの間のマッピング関数Ψepiを求める第2のマッピング関数計算手段と、前記第2のマッピング関数計算手段によるマッピング関数Ψepiによりその逆関数を求める逆関数計算手段と、前記複数プロジェクタ毎にマッピング関数Ψvmpi,Ψepi及びその逆関数を格納する記憶装置とからなることを特徴とするものである。 In order to solve the above problem, a mapping function generating apparatus for distortion correction and integration by divided imaging according to claim 14 is divided into a quadric curved screen and the screen, and adjacent projection portions are continuous including overlapping portions. A plurality of projectors arranged in such a manner, a stereo camera arranged so as to photograph the screen positioned in front of the screen, and arranged so as to photograph the whole by dividing the projection surface of the quadric curved screen And a plurality of reference virtual cameras vm (m = 1... M) for photographing the projection surface of the quadric curved screen projected by the projector pi, and position and orientation information arranged at the position where the quadric curved screen is viewed. A viewpoint virtual camera e, a computer, and a storage device, and a test point projected from each projector pi onto the screen A test point three-dimensional restoration means for performing three-dimensional restoration by imaging with a laser, and the restored three-dimensional point of each projector pi is integrated into one coordinate system, and a secondary representing the screen shape from the integrated three-dimensional point A quadratic surface coefficient matrix (Q) estimation means for estimating a surface coefficient matrix (Q), and a position and orientation of each projector pi from the two-dimensional points of the integrated three-dimensional points of the projectors pi and the corresponding test points. A projector position / orientation estimation means for estimating a matrix (P), a quadratic surface coefficient matrix (Q) including the estimated error, a position / orientation matrix of the plurality of reference virtual cameras vm (m = 1... M) , By using the position and orientation matrix (P) of each projector pi including the estimated error, a reference including an error of the quadratic surface coefficient matrix (Q) and an error of the position and orientation matrix (P) of each projector pi Virtual First mapping function calculation means for obtaining a mapping function ψvmpi between the camera pi and the projector pi, a mapping function ψevm between the position and orientation of the viewpoint virtual camera e and the reference virtual camera vm having the position and orientation, and the first The second mapping function calculating means for obtaining the mapping function Ψepi between each projector and the viewpoint virtual camera e by the mapping function Ψvmpi by the mapping function calculating means, and the mapping function Ψepi by the second mapping function calculating means Inverse function calculation means for obtaining the inverse function and a storage device for storing the mapping functions ψvmpi, ψepi and the inverse function for each of the plurality of projectors.

上記課題を解決するため請求項15に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置は、請求項14に記載のものにおいて、第1のマッピング関数計算手段が、誤差を含むマッピング関数Ψvmpiを初期値としその誤差を最小にして最適化する最適化手段を備えることを特徴とするものである。 In order to solve the above problem, the mapping function generation apparatus for distortion correction and integration by divided imaging according to claim 15 is the mapping function generation apparatus according to claim 14, wherein the first mapping function calculation means includes a mapping function including an error. the Ψvmpi the initial value and is characterized in that it comprises optimizing means for optimizing and the minimum error.

上記課題を解決するため請求項16に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する映像生成手段と、前記各コンピュータのピクセルバッファからの歪み補正した各映像を前記二次曲面スクリーンに投影する複数nのプロジェクタとからなることを特徴とするものである。   In order to solve the above problem, a mapping function generating apparatus for distortion correction and integration by divided imaging according to claim 16 is divided into a quadratic curved screen and the screen, and adjacent projection portions are continuous including overlapping portions. A plurality of projectors arranged in such a manner, a computer provided for each of the projectors, and a storage device, and each computer generates an image for each area projected by each projector in a pixel buffer and is charged in advance. The image generation means for generating, in a pixel buffer, an image obtained by correcting the distortion of the generated image, by the inverse function of the mapping for each projector obtained in item 14 or claim 15, and distortion correction from the pixel buffer of each computer A plurality of projectors for projecting each image onto the quadric curved screen, Those characterized by comprising.

上記課題を解決するため請求項17に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記スクリーン前方に位置してスクリーンを撮影するように配置されたステレオカメラと、前記二次曲面スクリーンの投影面を分割して全体を撮影するように配置し、前記プロジェクタpiが投影する前記二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvm(m=1…M)と、前記二次曲面スクリーンを見る右目の位置に配置された位置姿勢情報を持つ右目用の視点仮想カメラer及び左目の位置に配置された位置姿勢情報を持つ左目用の視点仮想カメラelと、コンピュータと、記憶装置とを有し、各プロジェクタpiからスクリーンに投影したテスト点をステレオカメラで撮像して3次元復元を行うテスト点3次元復元手段と、前記復元した各プロジェクタpiの3次元点を1つの座標系に統合し、統合後の3次元点からスクリーン形状を表す2次曲面係数行列(Q)を推定する2次曲面係数行列(Q)推定手段と、前記統合後の各プロジェクタpiの3次元点とこれに対応するテスト点の2次元点から各プロジェクタpiの位置姿勢行列(P)を推定するプロジェクタ位置姿勢推定手段と、前記推定した誤差を含む2次曲面係数行列(Q)と、前記複数の基準仮想カメラvm(m=1…M)の位置姿勢行列と、前記推定した誤差を含む各プロジェクタpiの位置姿勢行列(P)とを用いた計算により、2次曲面係数行列(Q)の誤差と各プロジェクタpiの位置姿勢行列(P)の誤差を含む、基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求める第1のマッピング関数計算手段と、当該右目(又は左目)用の視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第1のマッピング関数計算手段によるマッピング関数Ψvmpiとにより、各プロジェクタと右目(又は左目)用の視点仮想カメラeとの間の右目(又は左目)用のマッピング関数Ψr(l)epiを求め、当該左目(又は右目)用の視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第1のマッピング関数計算手段によるマッピング関数Ψvmpiとにより、各プロジェクタと左目(又は右目)用の視点仮想カメラeとの間の左目(又は右目)用のマッピング関数Ψl(r)epiを求める第2のマッピング関数計算手段と、前記第2のマッピング関数計算手段の右目用及び左目用のマッピング関数Ψrepi,Ψlepiによりその逆関数を求める逆関数計算手段と、前記複数プロジェクタ毎にマッピング関数Ψvmpi,Ψepi及びその逆関数を格納する記憶装置とからなることを特徴とするものである。 In order to solve the above problem, a mapping function generating apparatus for distortion correction and integration by divided imaging according to claim 17 is divided into a quadric curved screen and the screen, and adjacent projection portions are continuous including overlapping portions. A plurality of projectors arranged in such a manner, a stereo camera arranged so as to photograph the screen positioned in front of the screen, and arranged so as to photograph the whole by dividing the projection surface of the quadric curved screen A plurality of reference virtual cameras vm (m = 1... M) for photographing the projection surface of the quadric curved screen projected by the projector pi, and a position and orientation arranged at the position of the right eye viewing the quadric curved screen. A right-eye viewpoint virtual camera er having information, a left-eye viewpoint virtual camera el having position and orientation information arranged at the position of the left eye, and a computer A test point projected on the screen from each projector pi with a stereo camera to perform a three-dimensional restoration, and a three-dimensional point of each restored projector pi. Quadratic surface coefficient matrix (Q) estimating means for estimating a quadratic surface coefficient matrix (Q) representing a screen shape from three-dimensional points after integration into one coordinate system, and for each projector pi after the integration Projector position / orientation estimation means for estimating the position / orientation matrix (P) of each projector pi from the three-dimensional points and the corresponding two-dimensional points of the test points; a quadratic surface coefficient matrix (Q) including the estimated error ; the position and orientation matrix of the plurality of reference virtual camera vm (m = 1 ... M) , and by calculation using the position and orientation matrix for each projector pi including an error that the estimated (P), 2-order songs Error and the position and orientation matrix for each projector pi of the coefficient matrix (Q) includes an error of (P), a first mapping function calculation means for calculating a mapping function Ψvmpi between the reference virtual camera vm and the projector pi, the right eye (or The mapping function Ψevm between the position and orientation of the viewpoint virtual camera e for the left eye) and the reference virtual camera vm having the position and orientation is obtained, and each projector and the right eye (or A right eye (or left eye) mapping function Ψr (l) epi between the left eye viewpoint virtual camera e and the position and orientation of the left eye (or right eye) viewpoint virtual camera e are obtained. A mapping function Ψevm between the reference virtual cameras vm is obtained, and the mapping function Ψvm by the first mapping function calculating means is obtained. a second mapping function calculating means for obtaining a left eye (or right eye) mapping function Ψl (r) epi between each projector and the left eye (or right eye) viewpoint virtual camera e by pi; Inverse function calculation means for obtaining the inverse function by the right eye and left eye mapping functions Ψrepi, Ψlepi of the mapping function calculation means of the above, and a storage device for storing the mapping functions Ψvmpi, Ψepi and the inverse function for each of the plurality of projectors It is characterized by.

上記課題を解決するため請求項18に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置は、請求項17に記載のものにおいて、第1のマッピング関数計算手段が、誤差を含むマッピング関数Ψvmpiを初期値としその誤差を最小にして最適化する最適化手段を備えることを特徴とするものである。
In order to solve the above problem, the mapping function generating apparatus for distortion correction and integration by divided imaging according to claim 18 is the one according to claim 17, wherein the first mapping function calculation means includes a mapping function including an error. the Ψvmpi the initial value and is characterized in that it comprises optimizing means for optimizing and the minimum error.

上記課題を解決するため請求項19に係る分割撮像による歪み補正と統合装置は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、前記各コンピュータにより各プロジェクタが投影する領域毎の右目用及び左目用の映像をピクセルバッファに生成するとともに予め請求項17又は請求項18において求めた各プロジェクタ毎の右目用及び左目用のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する映像生成手段と、前記ピクセルバッファにおいて歪み補正した右目用及び左目用の映像を前記二次曲面スクリーンに投影する複数nのプロジェクタとからなることを特徴とするものである。   In order to solve the above-mentioned problem, the distortion correction and integration device by divided imaging according to claim 19 includes a quadratic curved screen, and a plurality of screens divided into the screen and arranged so that adjacent projection portions are continuous including overlapping portions. n projectors, a computer provided for each projector, and a storage device, and each computer generates right-eye and left-eye images for each area projected by each projector in a pixel buffer and requests in advance. An image generation means for generating in the pixel buffer an image obtained by correcting the distortion of the generated image by the inverse function of the mapping for the right eye and the left eye for each projector obtained in claim 17 or claim 18, and distortion in the pixel buffer A plurality of n programs that project the corrected right-eye and left-eye images onto the quadric curved screen. And it is characterized in that comprising the Ekuta.

上記課題を解決するため請求項20に係る分割撮像による歪み補正と統合装置は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、コンピュータと、記憶装置とを有し、前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する映像生成手段と、前記各コンピュータのピクセルバッファからの歪み補正した各映像を前記二次曲面スクリーンに投影して前記共通して重複する部分の明るさを大きくするように配置された複数nのプロジェクタとからなることを特徴とするものである。   In order to solve the above-mentioned problem, the distortion correction and integration device by divided imaging according to claim 20 is a quadratic curved screen, and a plurality of screens that are divided into the screen and are arranged so that adjacent projection portions are continuous including overlapping portions. n projectors, a computer, and a storage device, and each computer generates an image of each area projected by each projector in a pixel buffer and each projector obtained in advance in claim 14 or claim 15 Image generation means for generating a distortion-corrected image of the generated image in a pixel buffer by an inverse function of mapping, and projecting each distortion-corrected image from the pixel buffer of each computer onto the quadric curved screen A plurality of n projects arranged so as to increase the brightness of common overlapping portions. And it is characterized in that comprising a.

上記課題を解決するため請求項21に係る分割撮像による歪み補正と統合装置は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する映像生成手段と、前記歪み補正した各映像を前記二次曲面スクリーンに投影する複数nの各プロジェクタとからなることを特徴とするものである。   In order to solve the above-described problem, the distortion correction and integration apparatus according to divided imaging according to claim 21 includes a quadratic curved screen, and a plurality of divisions that are divided into the screen and that are adjacent to each other so that adjacent projection portions include overlapping portions. 16. Each projector having n projectors and a video device is divided and generated so that an image from the video device is projected onto the screen onto the plurality of n projectors. An image generation means for generating a distortion-corrected image of the divided and generated image, and a plurality of n projectors for projecting the distortion-corrected images onto the quadric curved screen. It is a feature.

上記課題を解決するため請求項22に係る分割撮像による歪み補正と統合装置は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項17において求めた各プロジェクタ毎の右目用及び左目用のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する映像生成手段と、前記歪み補正した右目用及び左目用の映像を前記二次曲面スクリーンに投影する複数nの各プロジェクタからなることを特徴とするものである。   In order to solve the above-mentioned problem, the distortion correction and integration device by divided imaging according to claim 22 is a quadratic curved screen, and a plurality of the screens divided into the screens and arranged so that adjacent projection portions include overlapping portions and are continuous. n projectors and video devices, wherein the images from the video devices are divided and generated so as to be projected onto the screen onto the plurality of n projectors, and the right eye for each projector previously obtained in claim 17 and Image generating means for generating a distortion-corrected image of the divided and generated image by an inverse function of mapping for the left eye, and a plurality of n projections for projecting the distortion-corrected right-eye and left-eye images to the quadric surface screen It is characterized by comprising each projector.

上記課題を解決するため請求項23に係る分割撮像による歪み補正と統合装置は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する映像生成手段と、前記歪み補正した映像を前記二次曲面スクリーンに投影して前記共通して重複する部分の明るさを大きくするように配置された複数nのプロジェクタからなることを特徴とするものである。   In order to solve the above-described problem, the distortion correction and integration apparatus according to divided imaging according to claim 23 includes a quadratic curved screen, and a plurality of screens that are divided into the screens and that are adjacent to each other so that adjacent projection portions include overlapping portions. 16. Each projector having n projectors and a video device is divided and generated so that an image from the video device is projected onto the screen onto the plurality of n projectors. Image generation means for generating a distortion-corrected image of the divided and generated image by an inverse function of the mapping, and brightness of the common overlapping portion by projecting the distortion-corrected image on the quadric curved screen It is characterized by comprising a plurality of n projectors arranged so as to increase.

上記課題を解決するため請求項24に係る分割撮像による歪み補正と統合装置は、請求項21又は請求項22又は請求項23記載のものにおいて、ビデオ機器が、テレビジョン装置、ビデオ再生装置、パーソナルコンピュータであることを特徴とするものである。   In order to solve the above-mentioned problem, the distortion correction and integration device by divided imaging according to claim 24 is the one according to claim 21 or claim 22 or claim 23, wherein the video equipment is a television device, a video playback device, a personal computer. It is characterized by being a computer.

上記課題を解決するため請求項25に係る分割撮像による歪み補正と統合装置は、請求項16又は請求項19又は請求項20又は請求項21又は請求項22又は請求項23又は請求項24に記載のものにおいて、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記スクリーン前方に位置してスクリーンを撮影するように配置されたステレオカメラとを有し、プロジェクタの何れからも投影しない第1の状態のスクリーンを撮影するとともに前記各プロジェクタより黒状態を投影したスクリーンの第2の状態をプロジェクタ毎に撮影するカメラと、前記カメラが撮影した前記第2の状態を投影した各プロジェクタ毎の映像の輝度から、前記第1の状態を撮影した映像の輝度との差により各プロジェクタによる画面の平均値と当該平均値の和により最大値を得るとともに最大値と平均値の差によりオフセット値を得るオフセット計算手段と、前記各コンピュータにより、一定周期で投影する映像の輝度を計測し、その平均値に従って、明画像か暗画像かを判定し、暗画像の場合に、各プロジェクタ毎の映像の前記重複する部分のコントラストを前記オフセット値分下げるとともに輝度をオフセット値分上げて映像生成する映像生成手段とからなることを特徴とするものである。   In order to solve the above-described problem, the distortion correction and integration device by divided imaging according to claim 25 is described in claim 16, claim 19, claim 20, claim 21, claim 22, claim 23, or claim 24. A quadratic curved screen, a plurality of n projectors that are divided into the screen and are arranged so that adjacent projections are continuous including an overlapping portion, and are located in front of the screen so as to photograph the screen And a stereo camera arranged on the projector for photographing a screen in a first state that is not projected from any of the projectors, and photographing a second state of the screen in which a black state is projected from each projector for each projector. And the first state from the brightness of the image of each projector that projects the second state captured by the camera. By each computer, the offset calculation means for obtaining an offset value by the difference between the maximum value and the average value and obtaining the maximum value by the sum of the average value and the average value of the screen by each projector due to the difference between the brightness of the captured video, The brightness of the image projected at a fixed period is measured, and it is determined whether it is a bright image or a dark image according to the average value. In the case of a dark image, the contrast of the overlapping portion of the image for each projector is calculated by the offset value. And a video generation means for generating a video by lowering the luminance and increasing the offset value.

上記課題を解決するため請求項26に係る分割撮像による歪み補正と統合装置は、二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、偏光板と、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する映像生成手段と、前記各コンピュータのピクセルバッファからの歪み補正した各映像を前記二次曲面スクリーンに投影する複数nのプロジェクタと、前記各プロジェクタ前方に設け、夜間情景を表すときに各プロジェクタからの光量を減光させる偏光板とからなることを特徴とするものである。   In order to solve the above-mentioned problem, the distortion correction and integration device by divided imaging according to claim 26 is a quadratic curved screen, and a plurality of screens that are divided into the screen and arranged so that adjacent projection portions include overlapping portions and are continuous. 15. A projector comprising: n projectors; a polarizing plate; a computer provided for each projector; and a storage device, wherein each computer generates an image for each area projected by each projector in a pixel buffer and Alternatively, the image generation means for generating, in a pixel buffer, an image obtained by correcting the distortion of the generated image by the inverse function of the mapping for each projector obtained in claim 15, and each image after distortion correction from the pixel buffer of each computer A plurality of projectors for projecting the image onto the quadric curved screen, and each of the projectors Provided on the front and is characterized by comprising a polarizing plate for dimming the quantity of light from the projector to represent a night scene.

上記課題を解決するため請求項27に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置は、請求項14又は請求項15又は請求項17又は請求項18に記載のものにおいて、各プロジェクタが自由度を持ったフレキシブルアームにより床面に設置されたことを特徴とするものである。   In order to solve the above-mentioned problem, a mapping function generating apparatus for distortion correction and integration by divided imaging according to claim 27 is the projector according to claim 14, claim 15, claim 17, or claim 18. Is installed on the floor surface by a flexible arm having a degree of freedom.

上記課題を解決するため請求項28に係る分割撮像による歪み補正と統合装置は、請求項16又は請求項19〜26のいずれかに記載のものにおいて、各プロジェクタが自由度を持ったフレキシブルアームにより床面に設置されたことを特徴とするものである。   In order to solve the above-mentioned problem, the distortion correction and integration device by divided imaging according to claim 28 is the one according to any one of claims 16 or 19 to 26, wherein each projector is a flexible arm having a degree of freedom. It is characterized by being installed on the floor.

請求項1に係る分割撮像による歪み補正と統合のためのマッピング関数生成方法によると、二次曲面スクリーンに投影したテスト点をもとにスクリーン形状を推定し、視点位置及びプロジェクタ位置との空間的相対関係を求め、二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求め、二次曲面スクリーンを見る位置に位置姿勢情報を持つ視点仮想カメラeを設定し、各プロジェクタと視点仮想カメラeとの間のマッピング関数Ψepiを求めるから、パラメトリックなスクリーンに対してカメラ位置と実際の視点位置が異なる場合でも、カメラ位置を計測せずに、基準点を数学的に求めて高精度にマッピング関数を求めることができ、広視野角スクリーンに適用することができる。   According to the mapping function generation method for distortion correction and integration by division imaging according to claim 1, the screen shape is estimated based on the test points projected on the quadric curved screen, and the spatial position between the viewpoint position and the projector position is estimated. A relative function is obtained, a mapping function Ψvmpi between a plurality of reference virtual cameras vm and a projector pi for photographing the projection surface of the quadric curved screen is obtained, and a viewpoint virtual camera e having position and orientation information at a position where the quadric curved screen is viewed is obtained. Since the mapping function Ψepi is set between each projector and the viewpoint virtual camera e, even if the camera position and the actual viewpoint position are different from each other on the parametric screen, the reference point is determined without measuring the camera position. Mathematically determined mapping function can be obtained with high accuracy and can be applied to wide viewing angle screens. it can.

請求項2に係る分割撮像による歪み補正と統合のためのマッピング関数生成方法によると、請求項1における、第4の過程が、マッピング関数Ψvmpiを初期値としその誤差を最小にして最適化することができる。   According to the mapping function generation method for distortion correction and integration by divided imaging according to claim 2, the fourth process in claim 1 is to optimize the mapping function Ψvmpi with an initial value as the minimum value. Can do.

請求項3に係る分割撮像による歪み補正と統合方法によると、1つの二次曲面スクリーンに投影する映像を複数のプロジェクタとそれらに備えたコンピュータにより生成し、投影するため、解像度を高くすることができ、映像の細かな部分を表示することができ、また、複数のプロジェクタに備えたコンピュータの処理は、それぞれ異なる映像をスクリーンに投影したときに正しく見えるように補正してレンダリングすることで、レンダリングの負荷を軽減することができる。また、異なる投影領域の部分映像を高解像度でレンダリングすることができるため、従来のようにデータベース映像の解像度に依存せずに、スクリーンに投影される映像の解像度を向上させることができる。これにより、プロジェクタの数を増加させることでスクリーン上の映像の解像度を向上させることができる。   According to the distortion correction and integration method by divided imaging according to claim 3, the image to be projected on one quadric curved screen is generated and projected by a plurality of projectors and a computer equipped therewith, so that the resolution can be increased. It is possible to display a detailed part of the image, and the processing of the computer equipped with multiple projectors can be rendered by correcting and rendering so that different images can be seen correctly when projected on the screen Can reduce the load. Further, since partial videos in different projection areas can be rendered with high resolution, the resolution of the video projected on the screen can be improved without depending on the resolution of the database video as in the past. Thereby, the resolution of the image on the screen can be improved by increasing the number of projectors.

請求項4に係る分割撮像による歪み補正と統合のためのマッピング関数生成方法によると、二次曲面スクリーンに投影したテスト点をもとにスクリーン形状を推定し、視点位置及びプロジェクタ位置との空間的相対関係を求め、二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求め、二次曲面スクリーンを見る位置に位置姿勢情報を持つ右目用及び左目用の視点仮想カメラeを設定し、各プロジェクタと右目用及び左目用の視点仮想カメラeとの間のマッピング関数Ψrepi,lepiを求めるから、パラメトリックなスクリーンに対してカメラ位置と実際の視点位置が異なる場合でも、カメラ位置を計測せずに、基準点を数学的に求めて高精度にマッピング関数を求めることができ、広視野角スクリーンに適用することができる。   According to the mapping function generation method for distortion correction and integration by divided imaging according to claim 4, the screen shape is estimated based on the test points projected on the quadric curved screen, and the spatial position between the viewpoint position and the projector position is estimated. A relative function is obtained, a mapping function Ψvmpi between a plurality of reference virtual cameras vm and a projector pi for photographing the projection surface of the quadric curved screen is obtained, and for the right eye and the left eye having position and orientation information at a position where the quadric curved screen is viewed Since the viewpoint virtual camera e is set and the mapping function Ψ repi, lepi between each projector and the right-eye and left-eye viewpoint virtual cameras e is obtained, the camera position differs from the actual viewpoint position with respect to the parametric screen. Even if the camera position is not measured, the mapping function is obtained with high accuracy by mathematically determining the reference point. And can be applied to a wide viewing angle screen.

請求項5に係る分割撮像による歪み補正と統合のためのマッピング関数生成方法によると、請求項4における、第4の過程が、マッピング関数Ψvmpiを初期値としその誤差を最小にして最適化することができる。   According to the mapping function generation method for distortion correction and integration by divided imaging according to claim 5, the fourth process in claim 4 is to optimize the mapping function Ψvmpi as an initial value with the error minimized. Can do.

請求項6に係る分割撮像による歪み補正と統合方法によると、1つの二次曲面スクリーンに投影する映像を複数のプロジェクタとそれらに備えたコンピュータにより生成し、投影するため、解像度を高くすることができ、映像の細かな部分を表示することができ、また、複数のプロジェクタに備えたコンピュータの処理は、それぞれ異なる領域の映像をスクリーンに投影したときに正しく見えるように補正して右目用と左目用についてレンダリングすることで、レンダリングの負荷を軽減することができる。また、異なる投影領域の部分映像を高解像度でレンダリングすることができるため、従来のようにデータベース映像の解像度に依存せずに、スクリーンに投影される映像の解像度を向上させることができる。これにより、プロジェクタの数を増加させることでスクリーン上の映像の解像度を向上させることができる。   According to the distortion correction and integration method by divided imaging according to the sixth aspect, the image to be projected on one quadric curved screen is generated and projected by a plurality of projectors and a computer equipped with them, so that the resolution can be increased. It is possible to display a detailed portion of the image, and the processing of the computer equipped with the multiple projectors is corrected so that it can be correctly viewed when images of different areas are projected on the screen, and the right eye and the left eye Rendering can be used to reduce the rendering load. Further, since partial videos in different projection areas can be rendered with high resolution, the resolution of the video projected on the screen can be improved without depending on the resolution of the database video as in the past. Thereby, the resolution of the image on the screen can be improved by increasing the number of projectors.

請求項7に係る分割撮像による歪み補正と統合方法によると、プロジェクタを数台使用し投影領域を重ね合わせることよって投影領域の明るさを向上させるため、高価なプロジェクタを使用せず必要な明るさを得ることができ、プロジェクタの台数の変更により投影領域の明るさを調整することができ、プロジェクタの重ね合わせと歪み補正を組み合わせることにより、決まった位置の明るさを向上させることができる。   According to the distortion correction and integration method by divided imaging according to claim 7, since the brightness of the projection area is improved by using several projectors and overlapping the projection areas, the necessary brightness without using an expensive projector. The brightness of the projection area can be adjusted by changing the number of projectors, and the brightness at a fixed position can be improved by combining the projector overlay and distortion correction.

請求項8に係る分割撮像による歪み補正と統合方法によると、1つの二次曲面スクリーンに投影する映像をビデオ機器により生成し、投影するため、解像度を高くすることができ、映像の細かな部分を表示することができ、また、ビデオ機器の映像の処理は、分割したそれぞれプロジェクタ毎に異なる映像をレンダリングすることで、レンダリングの負荷を軽減することができる。また、異なる投影領域の部分映像を高解像度でレンダリングすることができるため、スクリーンに投影される映像の解像度を向上させることができる。これにより、プロジェクタの数を増加させることでスクリーン上の映像の解像度を向上させることができる。   According to the distortion correction and integration method by divided imaging according to claim 8, since the video to be projected onto one quadric curved screen is generated and projected by the video equipment, the resolution can be increased, and a fine portion of the video In addition, the video processing of the video device can reduce the rendering load by rendering a different video for each divided projector. In addition, since partial videos in different projection areas can be rendered with high resolution, the resolution of the video projected on the screen can be improved. Thereby, the resolution of the image on the screen can be improved by increasing the number of projectors.

請求項9に係る分割撮像による歪み補正と統合方法によると、1つの二次曲面スクリーンに投影する映像をビデオ機器により生成し、投影するため、解像度を高くすることができ、映像の細かな部分を表示することができ、また、ビデオ機器の映像の処理は、分割したそれぞれプロジェクタ毎に異なる映像を右目用と左目用についてレンダリングすることで、レンダリングの負荷を軽減することができる。また、異なる投影領域の部分映像を高解像度でレンダリングすることができるため、スクリーンに投影される映像の解像度を向上させることができる。これにより、プロジェクタの数を増加させることでスクリーン上の映像の解像度を向上させることができる。   According to the distortion correction and integration method by divided imaging according to claim 9, since the video to be projected on one quadric curved screen is generated and projected by the video equipment, the resolution can be increased, and the detailed portion of the video In the video processing of the video equipment, the rendering load can be reduced by rendering different videos for each of the divided projectors for the right eye and the left eye. In addition, since partial videos in different projection areas can be rendered with high resolution, the resolution of the video projected on the screen can be improved. Thereby, the resolution of the image on the screen can be improved by increasing the number of projectors.

請求項10に係る分割撮像による歪み補正と統合方法によると、プロジェクタを数台使用し投影領域を重ね合わせることよって投影領域の明るさを向上させるため、高価なプロジェクタを使用せず必要な明るさを得ることができ、プロジェクタの台数の変更により投影領域の明るさを調整することができ、プロジェクタの重ね合わせと歪み補正を組み合わせることにより、決まった位置の明るさを向上させることができる。   According to the distortion correction and integration method by divided imaging according to claim 10, since the brightness of the projection area is improved by using several projectors and overlapping the projection areas, the necessary brightness is obtained without using an expensive projector. The brightness of the projection area can be adjusted by changing the number of projectors, and the brightness at a fixed position can be improved by combining the projector overlay and distortion correction.

請求項11に係る分割撮像による歪み補正と統合方法によると、ビデオ機器としてテレビジョン装置、ビデオ再生装置、パーソナルコンピュータ等の家庭用の機器を用いて、簡単に実現することができる。   According to the distortion correction and integration method using divided imaging according to the eleventh aspect, it can be easily realized by using household equipment such as a television apparatus, a video reproduction apparatus, and a personal computer as the video equipment.

請求項12に係る分割撮像による歪み補正と統合方法によると、一定周期で投影する映像の輝度を計測し、その平均値に従って、シーンごとに明画像か暗画像かを判定し、暗画像の場合に、オフセットを変更するから、黒を出した状態でのプロジェクタ投影領域の重複部分における輝度の目立ちを軽減することができ、特別なブレンディング用装置を必要とすることなく、例えばグラフィックスボードの機能を用いて実現することができる。   According to the distortion correction and integration method by divided imaging according to claim 12, the brightness of the image projected at a constant period is measured, and whether the image is a bright image or a dark image is determined for each scene according to the average value. In addition, since the offset is changed, it is possible to reduce the conspicuous brightness in the overlapping area of the projector projection area in the state where the black is projected, and for example, the function of the graphics board without requiring a special blending device. It can be realized using.

請求項13に係る分割撮像による歪み補正と統合方法によると、段階的に減光することができるため最適な減光率に調整が行うことができるので各プロジェクタによる投影領域の重複部分がより目立たなくすることが可能となる。   According to the distortion correction and integration method by divided imaging according to claim 13, since the light can be gradually reduced, the optimum light attenuation rate can be adjusted, so that the overlapping portion of the projection area by each projector is more conspicuous. It becomes possible to eliminate.

請求項14に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置によると、二次曲面スクリーンに投影したテスト点をもとにスクリーン形状を推定し、視点位置及びプロジェクタ位置との空間的相対関係を求め、二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求め、二次曲面スクリーンを見る位置に位置姿勢情報を持つ視点仮想カメラeを設定し、各プロジェクタと視点仮想カメラeとの間のマッピング関数Ψepiを求めるから、パラメトリックなスクリーンに対してカメラ位置と実際の視点位置が異なる場合でも、カメラ位置を計測せずに、基準点を数学的に求めて高精度にマッピング関数を求めることができ、広視野角スクリーンに適用することができる。   According to the mapping function generating apparatus for distortion correction and integration by divided imaging according to claim 14, the screen shape is estimated based on the test points projected on the quadric curved screen, and the spatial position between the viewpoint position and the projector position is estimated. A relative function is obtained, a mapping function Ψvmpi between a plurality of reference virtual cameras vm and a projector pi for photographing the projection surface of the quadric curved screen is obtained, and a viewpoint virtual camera e having position and orientation information at a position where the quadric curved screen is viewed is obtained. Since the mapping function Ψepi is set between each projector and the viewpoint virtual camera e, even if the camera position and the actual viewpoint position are different from each other on the parametric screen, the reference point is determined without measuring the camera position. Mathematically determined mapping function can be obtained with high accuracy and applied to a wide viewing angle screen Can do.

請求項15に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置によると、請求項14において、マッピング関数Ψvmpiを初期値としその誤差を最小にして最適化することができる。   According to the mapping function generating apparatus for distortion correction and integration by divided imaging according to the fifteenth aspect, in the fourteenth aspect, the mapping function Ψvmpi can be set as an initial value and the error can be minimized to be optimized.

請求項16に係る分割撮像による歪み補正と統合装置によると、1つの二次曲面スクリーンに投影する映像を複数のプロジェクタとそれらに備えたコンピュータにより生成し、投影するため、解像度を高くすることができ、映像の細かな部分を表示することができ、また、複数のプロジェクタに備えたコンピュータの処理は、それぞれ異なる映像をレンダリングすることで、レンダリングの負荷を軽減することができる。また、異なる投影領域の部分映像を高解像度でレンダリングすることができるため、従来のようにデータベース映像の解像度に依存せずに、スクリーンに投影される映像の解像度を向上させることができる。これにより、プロジェクタの数を増加させることでスクリーン上の映像の解像度を向上させることができる。   According to the distortion correction and integration device by divided imaging according to claim 16, the image to be projected on one quadratic curved screen is generated and projected by a plurality of projectors and a computer equipped therewith, so that the resolution can be increased. It is possible to display a detailed portion of the video, and the processing of the computer provided in the plurality of projectors can reduce the rendering load by rendering each different video. Further, since partial videos in different projection areas can be rendered with high resolution, the resolution of the video projected on the screen can be improved without depending on the resolution of the database video as in the past. Thereby, the resolution of the image on the screen can be improved by increasing the number of projectors.

請求項17に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置によると、二次曲面スクリーンに投影したテスト点をもとにスクリーン形状を推定し、視点位置及びプロジェクタ位置との空間的相対関係を求め、二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求め、二次曲面スクリーンを見る位置に位置姿勢情報を持つ右目用及び左目用の視点仮想カメラeを設定し、各プロジェクタと右目用及び左目用の視点仮想カメラeとの間のマッピング関数Ψrepi,lepiを求めるから、パラメトリックなスクリーンに対してカメラ位置と実際の視点位置が異なる場合でも、カメラ位置を計測せずに、基準点を数学的に求めて高精度にマッピング関数を求めることができ、広視野角スクリーンに適用することができる。   According to the mapping function generation device for distortion correction and integration by divided imaging according to claim 17, the screen shape is estimated based on the test points projected on the quadric curved screen, and the spatial position between the viewpoint position and the projector position is estimated. A relative function is obtained, a mapping function Ψvmpi between a plurality of reference virtual cameras vm and a projector pi for photographing the projection surface of the quadric curved screen is obtained, and for the right eye and the left eye having position and orientation information at a position where the quadric curved screen is viewed Since the viewpoint virtual camera e is set and the mapping function Ψ repi, lepi between each projector and the right-eye and left-eye viewpoint virtual cameras e is obtained, the camera position differs from the actual viewpoint position with respect to the parametric screen. Even in this case, the mapping function can be obtained with high accuracy by mathematically determining the reference point without measuring the camera position. It can be applied to a wide viewing angle screen.

請求項18に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置によると、請求項4における、第4の過程が、マッピング関数Ψvmpiを初期値としその誤差を最小にして最適化することができる。   According to the mapping function generation device for distortion correction and integration by divided imaging according to claim 18, the fourth process in claim 4 is to optimize the mapping function Ψvmpi with an initial value as a minimum and an error thereof. Can do.

請求項19に係る分割撮像による歪み補正と統合装置によると、1つの二次曲面スクリーンに投影する映像を複数のプロジェクタとそれらに備えたコンピュータにより生成し、投影するため、解像度を高くすることができ、映像の細かな部分を表示することができ、また、複数のプロジェクタに備えたコンピュータの処理は、それぞれ異なる領域の映像を右目用と左目用についてレンダリングすることで、レンダリングの負荷を軽減することができる。また、異なる投影領域の部分映像を高解像度でレンダリングすることができるため、従来のようにデータベース映像の解像度に依存せずに、スクリーンに投影される映像の解像度を向上させることができる。これにより、プロジェクタの数を増加させることでスクリーン上の映像の解像度を向上させることができる。   According to the distortion correction and integration device by divided imaging according to claim 19, the image to be projected on one quadric curved screen is generated and projected by a plurality of projectors and a computer equipped therewith, so that the resolution can be increased. It is possible to display a detailed part of the video, and the processing of the computer equipped with multiple projectors reduces the rendering load by rendering the video of different areas for the right eye and the left eye respectively. be able to. Further, since partial videos in different projection areas can be rendered with high resolution, the resolution of the video projected on the screen can be improved without depending on the resolution of the database video as in the past. Thereby, the resolution of the image on the screen can be improved by increasing the number of projectors.

請求項20に係る分割撮像による歪み補正と統合装置によると、プロジェクタを数台使用し投影領域を重ね合わせることよって投影領域の明るさを向上させるため、高価なプロジェクタを使用せず必要な明るさを得ることができ、プロジェクタの台数の変更により投影領域の明るさを調整することができ、プロジェクタの重ね合わせと歪み補正を組み合わせることにより、決まった位置の明るさを向上させることができる。   According to the distortion correction and integration device by divided imaging according to claim 20, since the brightness of the projection area is improved by using several projectors and overlaying the projection areas, the necessary brightness without using an expensive projector. The brightness of the projection area can be adjusted by changing the number of projectors, and the brightness at a fixed position can be improved by combining the projector overlay and distortion correction.

請求項21に係る分割撮像による歪み補正と統合装置によると、1つの二次曲面スクリーンに投影する映像をビデオ機器により生成し、投影するため、解像度を高くすることができ、映像の細かな部分を表示することができ、また、ビデオ機器の映像の処理は、分割したそれぞれプロジェクタ毎に異なる映像を右目用と左目用についてレンダリングすることで、レンダリングの負荷を軽減することができる。また、異なる投影領域の部分映像を高解像度でレンダリングすることができるため、スクリーンに投影される映像の解像度を向上させることができる。これにより、プロジェクタの数を増加させることでスクリーン上の映像の解像度を向上させることができる。   According to the distortion correction and integration device by divided imaging according to claim 21, since the video to be projected onto one quadric curved screen is generated and projected by the video equipment, the resolution can be increased, and the detailed portion of the video In the video processing of the video equipment, the rendering load can be reduced by rendering different videos for each of the divided projectors for the right eye and the left eye. In addition, since partial videos in different projection areas can be rendered with high resolution, the resolution of the video projected on the screen can be improved. Thereby, the resolution of the image on the screen can be improved by increasing the number of projectors.

請求項22に係る分割撮像による歪み補正と統合装置によると、1つの二次曲面スクリーンに投影する映像をビデオ機器により生成し、投影するため、解像度を高くすることができ、映像の細かな部分を表示することができ、また、ビデオ機器の映像の処理は、分割したそれぞれプロジェクタ毎に異なる映像を右目用と左目用についてレンダリングすることで、レンダリングの負荷を軽減することができる。また、異なる投影領域の部分映像を高解像度でレンダリングすることができるため、スクリーンに投影される映像の解像度を向上させることができる。これにより、プロジェクタの数を増加させることでスクリーン上の映像の解像度を向上させることができる。   According to the distortion correction and integration device by divided imaging according to claim 22, the video device generates and projects an image to be projected onto one quadric curved screen, so that the resolution can be increased, and a fine portion of the image In the video processing of the video equipment, the rendering load can be reduced by rendering different videos for each of the divided projectors for the right eye and the left eye. In addition, since partial videos in different projection areas can be rendered with high resolution, the resolution of the video projected on the screen can be improved. Thereby, the resolution of the image on the screen can be improved by increasing the number of projectors.

請求項23に係る分割撮像による歪み補正と統合装置によると、プロジェクタを数台使用し投影領域を重ね合わせることよって投影領域の明るさを向上させるため、高価なプロジェクタを使用せず必要な明るさを得ることができ、プロジェクタの台数の変更により投影領域の明るさを調整することができ、プロジェクタの重ね合わせと歪み補正を組み合わせることにより、決まった位置の明るさを向上させることができる。   According to the distortion correction and integration device by divided imaging according to claim 23, since the brightness of the projection area is improved by using several projectors and overlapping the projection areas, the necessary brightness without using an expensive projector. The brightness of the projection area can be adjusted by changing the number of projectors, and the brightness at a fixed position can be improved by combining the projector overlay and distortion correction.

請求項24に係る分割撮像による歪み補正と統合装置によると、ビデオ機器としてテレビジョン装置、ビデオ再生装置、パーソナルコンピュータ等の家庭用の機器を用いて、簡単に実現することができる。   According to the distortion correction and integration device by division imaging according to the twenty-fourth aspect, it can be easily realized by using a household device such as a television device, a video reproduction device, or a personal computer as the video device.

請求項25に係る分割撮像による歪み補正と統合装置によると、一定周期で投影する映像の輝度を計測し、その平均値に従って、シーンごとに明画像か暗画像かを判定し、暗画像の場合に、オフセットを変更するから、黒を出した状態でのプロジェクタ投影領域の重複部分における輝度の目立ちを軽減することができ、特別なブレンディング用装置を必要とすることなく、例えばグラフィックスボードの機能を用いて実現することができる。   According to the distortion correction and integration device by divided imaging according to claim 25, the brightness of the image projected at a fixed period is measured, and whether the image is a bright image or a dark image is determined for each scene according to the average value. In addition, since the offset is changed, it is possible to reduce the conspicuous brightness in the overlapping area of the projector projection area in the state where the black is projected, and for example, the function of the graphics board without requiring a special blending device. It can be realized using.

請求項26に係る分割撮像による歪み補正と統合装置によると、段階的に減光することができるため最適な減光率に調整が行うことができるので各プロジェクタによる投影領域の重複部分がより目立たなくすることが可能となる。   According to the distortion correction and integrated device according to the 26th aspect of the present invention, since the light can be gradually reduced, the optimum light attenuation rate can be adjusted, so that the overlapping portions of the projection areas of the projectors are more conspicuous. It becomes possible to eliminate.

請求項27に係る分割撮像による歪み補正と統合のためのマッピング関数生成装置によると、スクリーンとプロジェクタを設置する床面との位置関係を厳密に設定しなくともフレキシブルアームにより調整幅が広範囲となるため、短時間で表示システムを構成することができる。   According to the mapping function generation device for distortion correction and integration by divided imaging according to claim 27, the adjustment range is wide by the flexible arm even if the positional relationship between the screen and the floor on which the projector is installed is not strictly set. Therefore, a display system can be configured in a short time.

請求項28に係る分割撮像による歪み補正と統合装置によると、スクリーンとプロジェクタを設置する床面との位置関係を厳密に設定しなくともフレキシブルアームにより調整幅が広範囲となるため、短時間で表示システムを構成することができる。   According to the distortion correction and integration device by split imaging according to claim 28, since the adjustment range is wide by the flexible arm without strictly setting the positional relationship between the screen and the floor on which the projector is installed, the display can be performed in a short time. The system can be configured.

([1]二次曲面スクリーンに係るマッピング関数、その逆関数及び映像発生)
以下、本発明を説明するための前提技術例について図を参照して説明する。図5(a),(b),(c)は二次曲面スクリーンに係る補正関数の生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。図6(a)は二次曲面スクリーンに係るマッピング関数の生成方法の一実施例を説明するフロー図、及び図6(b)は二次曲面スクリーンに係る映像発生方法の一実施例を説明するフロー図である。図5において、505は二次曲面スクリーン、502j(j=1,2,3,…n)は前記スクリーン前方に設けられるプロジェクタ、503jは前記プロジェクタ502j毎に対応して備えられる複数のコンピュータである。5041,5042はデジタルカメラ、505は前記デジタルカメラ504を接続するコンピュータ、506はコンピュータ505内の変換行列計算手段、507はコンピュータ505内の二次曲面パラメータ(Qv)計算手段、508はコンピュータ505内の記憶装置、509jは各コンピュータ503j内のマッピング関数及び逆関数計算手段、510jは各コンピュータ503j内の記憶装置、511jは各コンピュータ503jに備えられる画像生成手段、512aj,512bjは各コンピュータ503jに備えられるピクセルバッファであり、当該コンピュータ503j、画像生成手段511jとともに映像生成手段を構成する。513は各コンピュータ503j,505を接続するネットワークである。514jは各コンピュータ503jのオフセット計算手段である。
([1] Mapping function related to quadratic curved screen, inverse function thereof and image generation)
Hereinafter, an example of a premise technique for explaining the present invention will be described with reference to the drawings. FIGS. 5A, 5B, and 5C are functional block diagrams illustrating an embodiment of a correction function generation device and a video generation device related to a quadratic curved screen. FIG. 6A is a flowchart for explaining an embodiment of a mapping function generating method related to a quadric curved screen, and FIG. 6B shows an embodiment of an image generating method related to a quadric curved screen. FIG. In FIG. 5, 505 is a quadric curved screen, 502j (j = 1, 2, 3,... N) is a projector provided in front of the screen, and 503j is a plurality of computers provided corresponding to each projector 502j. . 5041 and 5042 are digital cameras, 505 is a computer to which the digital camera 504 is connected, 506 is a transformation matrix calculation means in the computer 505, 507 is a quadric surface parameter (Qv) calculation means in the computer 505, and 508 is in the computer 505. 509j is a mapping function and inverse function calculation means in each computer 503j, 510j is a storage device in each computer 503j, 511j is an image generation means provided in each computer 503j, and 512aj and 512bj are provided in each computer 503j. A pixel buffer, and constitutes a video generation means together with the computer 503j and the image generation means 511j. A network 513 connects the computers 503j and 505. Reference numeral 514j denotes offset calculation means of each computer 503j.

(プロジェクタの配置取り付け)
二次曲面スクリーン505はその面が二次曲面例えば円筒形型又は球面を形成し、周囲を円形に形成している。図7(a)は、円筒型の一部側面を欠いた形状をしたものを示し、二次曲面スクリーン505は床面である基台701の上に側面を垂直にして固定される。スクリーン505の周囲に所定の間隔で柱7031,7032,7033,7034,7035が設けられる。柱7031,7032,7033,7034,7035のそれぞれには、フレキシブルアーム7051,7052,7053,7054,7055が取り付けられる。フレキシブルアーム7051,7052,7053,7054,7055には、プロジェクタ5021,5022,5023,5024,5025がそれぞれ取り付けられ、二次曲面スクリーン505の凸面を間にして凹面に対向するように周囲に位置させる。図7(b)に例えばフレキシブルアーム7051とプロジェクタ5021の連結状態を示す。プロジェクタ5021,5022,5023,5024,5025から二次曲面スクリーン505に光を投影すると、図7(c)のように二次曲面スクリーン505に上方から見た場合で説明すると、5つの投影光の互いに隣接する領域が互いに重なる部分を有するように連続し、途中に光が当たらない部分が生じないように、フレキシブルアーム7051,7052,7053,7054,7055を調整する。この時、各プロジェクタ5021,5022,5023,5024,5025からの各投影領域(各領域を一点鎖線、二点鎖線、三点鎖線、四点鎖線で示している。)がスクリーンをカバーしていればよく、形状、面積を同じにする必要はない。
なお、実施例において、二次曲面スクリーン505を円筒型としたがこれに限らず球面と双曲面、楕円面等で形成しても良く、また、表示面を凹面にしたが凸面でも良い。さらに、プロジェクタの数を5の場合を説明するが、数に制限なく本発明が適用できる。
(Projector mounting)
The surface of the secondary curved screen 505 forms a secondary curved surface, for example, a cylindrical shape or a spherical surface, and the periphery is formed in a circular shape. FIG. 7A shows a cylindrical shape with a part of the side surface omitted, and the secondary curved screen 505 is fixed on a base 701 that is a floor surface with the side surface vertical. Columns 7031, 7032, 7033, 7034, and 7035 are provided around the screen 505 at predetermined intervals. Flexible arms 7051, 7052, 7053, 7054, and 7055 are attached to the columns 7031, 7032, 7033, 7034, and 7035, respectively. Projectors 5021, 5022, 5023, 5024, and 5025 are attached to flexible arms 7051, 7052, 7053, 7054, and 7055, respectively, and are positioned around the convex surface of the secondary curved screen 505 so as to face the concave surface. . FIG. 7B shows a connected state of the flexible arm 7051 and the projector 5021, for example. When light is projected from the projectors 5021, 5022, 5023, 5024, and 5025 onto the quadric curved screen 505, as viewed from above on the quadric curved screen 505 as shown in FIG. The flexible arms 7051, 7052, 7053, 7054, and 7055 are adjusted so that areas adjacent to each other are continuous so as to have portions that overlap each other, and portions that do not receive light on the way are not generated. At this time, projection areas from the projectors 5021, 5022, 5023, 5024, and 5025 (each area is indicated by a one-dot chain line, two-dot chain line, three-dot chain line, and four-dot chain line) cover the screen. The shape and area need not be the same.
In the embodiment, the quadric curved screen 505 is cylindrical. However, the present invention is not limited to this, and it may be formed of a spherical surface, a hyperboloid, an ellipsoid, or the like. Furthermore, although the case where the number of projectors is five will be described, the present invention can be applied without limitation to the number.

(歪み補正の原理)
視点と視点と投影中心が一致する場合、映像歪みは生じない。しかし、一般的には視点と投影中心は一致しないため歪みが発生する。この歪みを補正するには、視点から見て歪みが無くなるように、予め、投影する原画像に対して逆の歪みをかけて投影すれば良い。
図8に逆歪みによる歪み補正の模式図を示す。図8では、プロジェクタの投影により発生する歪fを映像発生時f−1で逆歪をかけて投影するとf(f−1)で歪が相殺されることを示している。すなわち、プロジェクタ映像とスクリーン上の歪を関係付けるマッピング関数fを求める。その逆関数f−1はマッピング関数より求められる。図8では歪みを検出する段階において設置するカメラ位置及び方向が視点及び視線方向と同じであると想定している。
(Principle of distortion correction)
When the viewpoint, the viewpoint, and the projection center match, there is no video distortion. However, distortion generally occurs because the viewpoint and the projection center do not match. In order to correct this distortion, the original image to be projected may be projected in a reverse distortion in advance so that the distortion disappears when viewed from the viewpoint.
FIG. 8 shows a schematic diagram of distortion correction by reverse distortion. FIG. 8 shows that if the distortion f generated by the projection of the projector is projected with reverse distortion at f −1 at the time of image generation, the distortion is offset by f (f −1 ). That is, a mapping function f that relates the projector image and the distortion on the screen is obtained. The inverse function f −1 is obtained from the mapping function. In FIG. 8, it is assumed that the position and direction of the camera installed at the stage of detecting distortion are the same as the viewpoint and the line-of-sight direction.

以下の手順により、マッピング関数を求める。
([1−1]スクリーン上の複数点の3D座標位置の計測)
いずれかの例えばプロジェクタ502jから光点を二次曲面スクリーン505に投影する。光点は、予め定められたテストパターンを構成する所定の座標点を示す。この光点をステレオカメラを構成するデジタルカメラ5041,5042で撮像することにより三次元位置Pを三角測量の原理から求める。iは点数を示す。このときステレオカメラは所定のキャリブレーション処理によりそれぞれのカメラのレンズの焦点距離や画素数の内部特性を示す内部パラメータ及び外部位置関係を示す外部パラメータが分かっていることを前提としている。左カメラ5041の内部及び外部パラメータを表すマトリクスをAc1、Mc1とする。同様に右カメラ5042の内部及び外部パラメータを表すマトリクスをAc2、Mc2とする。このとき、スクリーン上三次元位置Pと左カメラ画像上の光点の位置p c1、右カメラ画像上の光点の位置p c2との関係は
c1=Ac1c1
c2=Ac2c2 (1)
で表される。ここで、Mc1、Mc2
c1=[I|0]
c2=[Rc2|Tc2] (2)
である。
左カメラ5041の投影中心を座標の原点とするため、左カメラ5041の外部パラメータMc1は単位マトリクスIを用いて表される。また、右カメラ5042の投影中心は左カメラ5041の投影中心から回転Rc2、平行移動Tc2させた位置となるため、右カメラ5042の外部パラメータMc2はRc2、Tc2を用いて表すことができる。図9、図10において、左カメラ5041の投影中心(Center Of Projection)(以後COPと呼ぶ場合がある。)をCOPc1、右カメラ5042のCOPをCOPc2とする。また、各カメラのCOPと画像上の光点の位置を結んだ直線をlc1、lc2とするとスクリーン上の三次元位置Pはlc1、lc2を用いてこれらの交点に推定することができる。交点が見つからないときは、lc1、lc2の距離が最小となる共通法線を求め、その法線の中点をPとして決定する。また、プロジェクタ画像座標上の光点の位置をp pj、プロジェクタの内部パラメータを表すマトリクスをApjとすると、p pj、Apj、P、左カメラ5041のCOPを原点としたときのプロジェクタの回転マトリクスRpj、平行移動マトリクスTpjは以下の関係を持つ。
pj=Apj[Rpj|Tpj]P (3)
ここで、jはプロジェクタ数を表す。また、プロジェクタ画像座標上の位置p pjはテストパターンの点の位置であるため既知である。Apjは所定のキャリブレーション処理により得ているため既知である。よって、p pj,Apj,Pを用いてRpj,Tpjを求めることができる。Rpj,Tpjは対応関係を持つすべてのp pj,Pを用いて繰り返し計算を行ない、誤差が最小となるときの値を用いる。これらの計算は、カメラ5041,5042が接続されるコンピュータ505において行われ、これらの計算結果は記憶装置508に記憶される。
次に、以上の方法を用いて得られたプロジェクタの内部パラメータを利用して二次曲面の種類(球面、双曲面、楕円面等)と形状を表す情報である二次曲面パラメータQを求める。
The mapping function is obtained by the following procedure.
([1-1] Measurement of 3D coordinate positions of multiple points on the screen)
A light spot is projected onto the quadric curved screen 505 from any one of the projectors 502j, for example. The light spot indicates a predetermined coordinate point constituting a predetermined test pattern. By imaging the light spot with a digital camera 5041,5042 constituting the stereo camera obtains a three-dimensional position P i from the principle of triangulation. i indicates a score. At this time, the stereo camera is premised on that an internal parameter indicating the internal characteristics of the focal length and the number of pixels of each camera lens and an external parameter indicating the external positional relationship are known by a predetermined calibration process. The matrices representing the internal and external parameters of the left camera 5041 are A c1 and M c1 . Similarly, let A c2 and M c2 be matrices representing internal and external parameters of the right camera 5042. At this time, the relationship between the three-dimensional position P i on the screen, the position p i c1 of the light spot on the left camera image, and the position p i c2 of the light spot on the right camera image is p i c1 = A c1 M c1 P i
p i c2 = A c2 M c2 P i (1)
It is represented by Here, M c1 and M c2 are M c1 = [I | 0]
M c2 = [R c2 | T c2 ] (2)
It is.
To the projection center of the left camera 5041 as the origin of coordinates, external parameters M c1 of the left camera 5041 is represented using a unit matrix I. Further, since the projection center of the right camera 5042 is a position that is rotated R c2 and translated T c2 from the projection center of the left camera 5041, the external parameter M c2 of the right camera 5042 is expressed using R c2 and T c2. Can do. 9 and 10, the projection center (Center Of Projection) of the left camera 5041 (hereinafter sometimes referred to as COP) is COP c1 and the COP of the right camera 5042 is COP c2 . Also, if the straight lines connecting the COP of each camera and the position of the light spot on the image are l c1 and l c2 , the three-dimensional position P i on the screen is estimated at these intersections using l c1 and l c2. Can do. If no intersection point is found, a common normal that minimizes the distance between l c1 and l c2 is obtained, and the midpoint of the normal is determined as P i . Also, assuming that the position of the light spot on the projector image coordinates is p i pj and the matrix representing the internal parameters of the projector is A pj , when p i pj , A pj , P i , and the COP of the left camera 5041 are the origin. The rotation matrix R pj and the translation matrix T pj of the projector have the following relationship.
p i pj = A pj [R pj | T pj ] P i (3)
Here, j represents the number of projectors. Also, the position p i pj on the projector image coordinates is known because it is the position of the point of the test pattern. Apj is known because it is obtained by a predetermined calibration process. Therefore, R pj and T pj can be obtained using p i pj , A pj and P i . R pj and T pj are repeatedly calculated using all the corresponding p i pj and P i , and the values when the error is minimized are used. These calculations are performed in the computer 505 to which the cameras 5041 and 5042 are connected, and the calculation results are stored in the storage device 508.
Next, using the internal parameters of the projector obtained by the above method, a quadric surface parameter Q, which is information representing the type and shape of the quadric surface (spherical surface, hyperboloid, ellipsoid, etc.) and shape, is obtained.

([1−2]二次曲面パラメータQの計算)
マッピング関数f()を求めるためには二次曲面Qを求める必要がある。そこでまず、左カメラ5041のプロジェクションマトリクスをPc1、プロジェクタのプロジェクションマトリクスをP prjとして、これらのプロジェクションマトリクス、左カメラ画像上の光点の位置p c1、プロジェクタ画像座標上のテストパターンの一光点であるコーナー位置p pjを用いて、三次元位置Pを求める。求める方法としてはステレオカメラで三次元位置を求めた場合と同様の方法を用いる。計算は、カメラ5041,5042が接続されるコンピュータ505において行われる。ここで、Pc1、P prjは以下のように表される。
c1 =Ac1[I|0]
prj=Apj[Rpj|Tpj] (4)
求めた三次元位置Pが二次曲面Qの上にあるとき、

Figure 0005236219
であり、この関数をQの要素を並べたベクトル《V》を用いて変形すれば、
Figure 0005236219
(ここで、例えば《h′》はベクトルh′を示す表記である。なお、この明細書、図面においてベクトル表記を、《 》を用いた場合と、矢印を上部に付した場合と白抜き又は肉太の場合とで併用して表す場合がある。)
N点(N≧9)用いれば、以下の連立方程式が成立する。
X《V》 = 《0》
但し XはN行10列のマトリクスである。
この連立方程式を解けば、《V》、即ちQが求まる。 ([1-2] Calculation of quadric surface parameter Q)
In order to obtain the mapping function f (), it is necessary to obtain the quadric surface Q. Therefore, first, assuming that the projection matrix of the left camera 5041 is P c1 and the projection matrix of the projector is P j prj , the projection matrix, the light spot position p i c1 on the left camera image, and one of the test patterns on the projector image coordinates The three-dimensional position P i is obtained using the corner position p i pj which is a light spot. As a method for obtaining, a method similar to that for obtaining a three-dimensional position with a stereo camera is used. The calculation is performed in the computer 505 to which the cameras 5041 and 5042 are connected. Here, P c1 and P j prj are expressed as follows.
P c1 = A c1 [I | 0]
P j prj = A pj [R pj | T pj ] (4)
When the obtained three-dimensional position P i is on the quadric surface Q,
Figure 0005236219
If this function is transformed using a vector << V >> in which elements of Q are arranged,
Figure 0005236219
(Here, for example, << h '>> is a notation indicating a vector h'. In this specification and drawings, the vector notation is indicated by using <<>>, the case where an arrow is attached at the top, and white or (It may be used in combination with meat thickness.)
If N points (N ≧ 9) are used, the following simultaneous equations are established.
X << V >> = << 0 >>
X is a matrix of N rows and 10 columns.
By solving these simultaneous equations, << V >>, that is, Q can be obtained.

([1−3]マッピング関数f()の導出の原理)
二次曲面例えばスクリーン上の1点

Figure 0005236219
を、異なる視点即ちプロジェクタ502j及びカメラ5041又は5042から見たときの像p及びp′の関係を示すマッピング関数fを求める。以下、図11をもとに説明する。すなわち、カメラの位置及び方向が視点及び視線方向と同じである場合を考える。
今、射影空間Pにおける点を
Figure 0005236219
、射影空間pにおける対応する点を
Figure 0005236219
とすれば、
Figure 0005236219
の対応がある。但し、式中のtは転置を示す。
また、Pの点
Figure 0005236219
をプロジェクタの座標系Ψから見たpの点を
Figure 0005236219
、カメラ座標系Ψ′から見た点を
Figure 0005236219
とすれば、
Figure 0005236219
ここで、
Figure 0005236219
はΨ′におけるエピポールであり、Hはホモグラフィー行列である。
今、
Figure 0005236219
が二次曲面上にあるとの制約を課すと、
Figure 0005236219
より
Figure 0005236219
これを展開して、次のλに関する二次方程式を得る。(λは図11の
Figure 0005236219

Figure 0005236219
との関係を示す倍率
Figure 0005236219
、Q33は二次曲面規定マトリクスQの上から3×3部を抜き出したもので回転を示す。また、《q》は平行移動量、
である。)
Figure 0005236219
44=1として良いので、これを解き、λを求めると、
Figure 0005236219
式(8)に、このλを代入して整理すれば、
Figure 0005236219
となる。
右辺は
Figure 0005236219
でまとめられ、次式を得る。
Figure 0005236219
Figure 0005236219
と置けば次式となる。
Figure 0005236219
これが、カメラ設置位置と視点が一致する場合における、スクリーン505に投影された点
Figure 0005236219
をプロジェクタ座標Ψから見た点
Figure 0005236219
と、カメラ座標系Ψ′から見た点
Figure 0005236219
の対応を示すマッピング関数
Figure 0005236219
である。 ([1-3] Principle of Derivation of Mapping Function f ())
Quadratic surface, for example, one point on the screen
Figure 0005236219
Is a mapping function f indicating the relationship between the images p i and p i ′ when viewed from different viewpoints, ie, the projector 502j and the camera 5041 or 5042. Hereinafter, a description will be given with reference to FIG. That is, consider the case where the camera position and direction are the same as the viewpoint and line-of-sight direction.
Now, the point in the projective space P 2
Figure 0005236219
, The corresponding point in the projective space p 3
Figure 0005236219
given that,
Figure 0005236219
There is correspondence. However, t in a formula shows transposition.
In addition, in terms of P 3
Figure 0005236219
P 2 point from the projector coordinate system Ψ
Figure 0005236219
, The point seen from the camera coordinate system Ψ ′
Figure 0005236219
given that,
Figure 0005236219
here,
Figure 0005236219
Is the epipole in ψ ′ and H is the homography matrix.
now,
Figure 0005236219
Imposes the constraint that is on a quadric surface
Figure 0005236219
Than
Figure 0005236219
This is expanded to obtain a quadratic equation for the following λ. (Λ is shown in FIG.
Figure 0005236219
When
Figure 0005236219
Magnification showing the relationship with
Figure 0005236219
, Q 33 is a 3 × 3 portion extracted from the top of the quadric surface defining matrix Q and indicates rotation. Moreover, << q >> is the amount of parallel movement,
It is. )
Figure 0005236219
Since q 44 = 1 is good, if this is solved and λ is obtained,
Figure 0005236219
Substituting this λ into equation (8) and organizing it,
Figure 0005236219
It becomes.
The right side is
Figure 0005236219
And the following formula is obtained.
Figure 0005236219
Figure 0005236219
The following formula is obtained.
Figure 0005236219
This is the point projected on the screen 505 when the camera installation position matches the viewpoint
Figure 0005236219
From the projector coordinate Ψ
Figure 0005236219
And the point seen from the camera coordinate system Ψ ′
Figure 0005236219
Mapping function to show the correspondence of
Figure 0005236219
It is.

([1−4]対角化仮想カメラ法によるマッピング関数)
([1−4−1]原理)
カメラ設置位置と視点が一致しない場合でも、スクリーンの形状情報を用いて、視点にカメラを仮想的に移してキャリブレーションが行えることを説明する。
訓練装置等の精度を要求される表示システムにおいては、視点位置は基準点からの変位により規定されるのが普通である。例えば、ドームスクリーンの場合ドーム中心を通る基線の後方1mなどと基準点からの変位で規定される。図12に、基準点1201、カメラ1202の設置位置及び姿勢、並びに1203で参照される視点及び視線方向すなわち仮想カメラの位置及び姿勢の関係を示す。設置位置・姿勢が不確かなカメラから、指定された視点位置・姿勢に直接移す回転・平行移動量を求めると考えず、一旦基準点に正確に移し、この点からの変位を用いて最終的に指定された視点位置・姿勢に移動すると二段階で考える。この考えに立てば、スクリーンが二次曲面の場合、一般的に基準点はスクリーンの中心であるので、カメラを任意の位置・姿勢から基準点の位置・姿勢へ移動することは、二次曲面規定行列の対角化に対応する。この対応を用いればカメラの姿勢位置を実際に計測することなく、曖昧な位置姿勢から基準点への移動量が正確に求まり、最終的に指定された視点の位置姿勢へ移動できる。これは、カメラを仮想的に指定の視点位置姿勢に配置してキャリブレーションを行ったことに対応する。
([1-4] Mapping function by diagonalized virtual camera method)
([1-4-1] Principle)
Even when the camera installation position and the viewpoint do not match, it will be described that calibration can be performed by virtually moving the camera to the viewpoint using the screen shape information.
In a display system that requires accuracy such as a training apparatus, the viewpoint position is usually defined by a displacement from a reference point. For example, in the case of a dome screen, it is defined by 1 m behind the base line passing through the center of the dome and the displacement from the reference point. FIG. 12 shows the relationship between the reference point 1201, the installation position and orientation of the camera 1202, and the viewpoint and line-of-sight direction referenced by 1203, that is, the position and orientation of the virtual camera. Without thinking of finding the amount of rotation / translation to move directly to the specified viewpoint position / orientation from a camera with an uncertain installation position / orientation, move to the reference point accurately and finally use the displacement from this point. Thinking in two stages when moving to the specified viewpoint position / posture. Based on this idea, when the screen is a quadric surface, the reference point is generally the center of the screen, so moving the camera from any position / posture to the position / posture of the reference point is a quadric surface Corresponds to diagonalization of the prescribed matrix. If this correspondence is used, the amount of movement from the ambiguous position / posture to the reference point can be accurately obtained without actually measuring the posture position of the camera, and it is possible to move to the position / posture of the designated viewpoint. This corresponds to the fact that the camera is virtually placed at the designated viewpoint position and orientation for calibration.

([1−4−2]対角化による中心への移動)
カメラ座標系で求めた二次曲面の種類と形状を表す情報である二次曲面パラメータをQ、視点を原点とする視点座標系における二次曲面パラメータをQとする。両者の関係は、Hを視点座標系からカメラ座標系への変換(移動、回転)行列として次式で与えられる。
= HQH (16)
二次曲面パラメータQは、前記([1−2]二次曲面パラメータQの計算)により説明した方法で得られる。
カメラ座標系から二次曲面の中心を原点とする基準座標系への変換行列をSとし、基準座標系から視点座標系への変換行列をMとする二段階の変換を考えれば、Hは次式で表される。
H = MS (17)
Sは、式(18)のようにQを対角化する。

Figure 0005236219
このSは式(19)のように分解することができる。
Figure 0005236219
ここで、R33は式(20)に示すQ33を対角化する回転行列であり、Q33及びqは式(20)で示されたQの成分である。また、ΛはQ33を対角化した行列、すなわちR33 −13333である。この回転行列R33によりQ33が対角化されることは数学的に保証されている。
Figure 0005236219
式(17)の導出を説明する。
座標変換によるQの対角化SQSを、Qを対角化する相似変換S−1QSと捉えて直接的にSを求められない。なぜならば、Sは回転行列Rと平行移動行列Tの積からなるがTによりSが正規直交行列とならないからである。
しかしSの3行3列の回転成分R22は正規直交行列となるため座標変換による対角化問題を相似変換の問題へおきかえることが可能である。すなわち、座標変換によるQ33の対角化R−1 333333=Λは相似変換の問題に帰着できる。これにより、未知のR33がQ33の固有ベクトルを並べたものとして決まり、
Figure 0005236219
となる。展開すると
Figure 0005236219
ここで対角行列Dは、
Figure 0005236219
の関係から次の連立する方程式ができる。
ΛT+R33q =0
Λ+q33 =0 (24)
Λ+T 33q+q33T =0
上の2式より、
T =−Λ−1 33
=−q33Λ−1 (25)
33及びTを用いてSを求めれば、
Figure 0005236219
Mは設計時に指定される既知の変換行列であるのでHが決まり、これによりQvが求まり、最終的にマッピング関数f()が式(15)から計算できる。発明者はこの方法を「対角化仮想カメラ法」と呼ぶ。 ([1-4-2] Moving to the center by diagonalization)
The quadric surface parameter is information that represents the quadric surface type and shape determined by the camera coordinate system Q, a quadric surface parameter at the viewpoint coordinate system with its origin at the viewpoint and Q v. The relationship between the two is given by the following equation using H as a transformation (movement, rotation) matrix from the viewpoint coordinate system to the camera coordinate system.
Q v = H t QH (16)
The quadric surface parameter Q is obtained by the method described above ([1-2] Calculation of quadric surface parameter Q).
Considering a two-step conversion from S to the reference coordinate system with the center of the quadric surface as the origin from the camera coordinate system and M as the conversion matrix from the reference coordinate system to the viewpoint coordinate system, H is It is expressed by a formula.
H = MS (17)
S diagonalizes Q as shown in equation (18).
Figure 0005236219
This S can be decomposed as shown in equation (19).
Figure 0005236219
Here, R 33 is a rotation matrix that diagonalizes Q 33 shown in equation (20), and Q 33 and q are components of Q shown in equation (20). Λ is a matrix obtained by diagonalizing Q 33 , that is, R 33 −1 Q 33 R 33 . It is mathematically guaranteed that Q 33 is diagonalized by this rotation matrix R 33 .
Figure 0005236219
Derivation of Expression (17) will be described.
The diagonalization S t QS of Q by coordinate transformation is regarded as a similarity transformation S −1 QS that diagonalizes Q, and S cannot be obtained directly. This is because S is a product of the rotation matrix R and the translation matrix T, but S does not become an orthonormal matrix due to T.
However, since the rotation component R22 of S in 3 rows and 3 columns is an orthonormal matrix, it is possible to replace the diagonalization problem by coordinate transformation with the problem of similarity transformation. That is, the diagonalization of Q 33 by coordinate transformation R −1 33 Q 33 R 33 = Λ can be reduced to the problem of similarity transformation. As a result, unknown R 33 is determined as an array of Q 33 eigenvectors,
Figure 0005236219
It becomes. When expanded
Figure 0005236219
Where the diagonal matrix D is
Figure 0005236219
From this relationship, the following simultaneous equations can be obtained.
ΛT + R 33 q = 0
T t Λ + q t R 33 = 0 (24)
T t Λ + T t R t 33 q + q t R 33 T = 0
From the above two formulas,
T = −Λ −1 R t 33 q
T t = −q t R 33 Λ −1 (25)
If S is calculated using R 33 and T,
Figure 0005236219
Since M is a known transformation matrix designated at the time of design, H is determined, whereby Qv is obtained, and finally the mapping function f () can be calculated from the equation (15). The inventor calls this method the “diagonalized virtual camera method”.

すなわち、Mは設計時に指定される既知の変換行列であるので、変換行列計算手段506の計算によりHが決まり(図6(a)のステップP601)、これにより二次曲面パラメータ(Qv)計算手段507の計算においてQvが求まる(図6(a)のステップP602)。これらの結果はテーブルとして記憶装置508に格納しておく。各コンピュータ503jのマッピング関数及び逆関数計算手段jにおいてマッピング関数f()が式(15)から計算できる(図6(a)のステップP603)。マッピング関数及び逆関数計算手段509jでは、マッピング関数f()からその逆関数を求める(図6(a)のステップP604)。ステップP601からステップP602、ステップP603、ステップP604をプロジェクタ502jの複数n回(実施例ではn=4)繰り返した後、前記ステップP604で求めた逆関数を各コンピュータ503jの記憶装置510jに格納する(図6(a)のステップP605)。これら一連の処理に得られるマッピング関数及び逆関数を適当な数の仮想視点について、予め求めてテーブルとして保持しておく。   That is, since M is a known transformation matrix designated at the time of design, H is determined by the calculation of the transformation matrix calculation means 506 (step P601 in FIG. 6A), and thereby the quadratic surface parameter (Qv) calculation means. Qv is obtained in the calculation of 507 (step P602 in FIG. 6A). These results are stored in the storage device 508 as a table. In the mapping function and inverse function calculation means j of each computer 503j, the mapping function f () can be calculated from the equation (15) (step P603 in FIG. 6A). The mapping function and inverse function calculation means 509j obtains the inverse function from the mapping function f () (step P604 in FIG. 6A). After step P601 to step P602, step P603, and step P604 are repeated n times (in the embodiment, n = 4) for the projector 502j, the inverse function obtained in step P604 is stored in the storage device 510j of each computer 503j ( Step P605 in FIG. Mapping functions and inverse functions obtained in the series of processes are obtained in advance for a suitable number of virtual viewpoints and stored as a table.

([1−5]本発明の実施例・広角の二次曲面スクリーンに用いた例)
以下、前述の前提技術に基づいた本発明の実施例について図を参照して説明する。図1(a),(b),(c)は二次曲面スクリーンに係る補正関数の生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。図2(a)は二次曲面スクリーンに係るマッピング関数の生成方法の一実施例を説明するフロー図、及び図2(b)は二次曲面スクリーンに係る映像発生方法の一実施例を説明するフロー図である。図1において、101は二次曲面スクリーン、102i(i=1,2,3,…n)は前記スクリーン周辺に配置されるプロジェクタ、103iは前記プロジェクタ102i毎に対応して備えられる複数のコンピュータである。1041i,1042i(i=1,2,3,…n)は前記プロジェクタが投影する映像を撮像することができるステレオカメラを構成するデジタルカメラ、105は前記デジタルカメラ1041i,1042iを接続するコンピュータ、106はコンピュータ105内のテスト点3次元復元手段、107はコンピュータ105内の二次曲面係数行列推定手段、108はコンピュータ105内の記憶装置、1091i,1092iは各コンピュータ103i内の第1及び第2のマッピング関数及び逆関数計算手段、110iは各コンピュータ103i内の記憶装置、111iは各コンピュータ103iに備えられる画像生成手段、112ai,112biは各コンピュータ103iに備えられるピクセルバッファであり、当該コンピュータ103i、画像生成手段111iとともに映像生成手段を構成する。113は各コンピュータ103i,105を接続するネットワークである。114iは各コンピュータ103iのオフセット計算手段、115m(m=1,2…M)はデジタルカメラで構成し、プロジェクタ102iが投影する二次曲面スクリーン101の面を撮影するように外周に位置する基準仮想カメラである。
([1-5] Example of the present invention / Example used for a wide-angle quadric curved screen)
Hereinafter, embodiments of the present invention based on the above-mentioned prerequisite technology will be described with reference to the drawings. FIGS. 1A, 1B, and 1C are functional block diagrams illustrating an embodiment of a correction function generation device and a video generation device related to a quadratic curved screen. FIG. 2A is a flowchart for explaining an embodiment of a mapping function generating method relating to a quadric curved screen, and FIG. FIG. In FIG. 1, 101 is a quadratic curved screen, 102i (i = 1, 2, 3,... N) is a projector arranged around the screen, and 103i is a plurality of computers provided corresponding to each projector 102i. is there. 1041i, 1042i (i = 1, 2, 3,... N) are digital cameras constituting a stereo camera capable of capturing images projected by the projector, 105 is a computer connecting the digital cameras 1041i, 1042i, 106 Is a test point three-dimensional restoration means in the computer 105, 107 is a quadric surface coefficient matrix estimation means in the computer 105, 108 is a storage device in the computer 105, 1091i and 1092i are first and second in each computer 103i. Mapping function and inverse function calculating means, 110i is a storage device in each computer 103i, 111i is an image generating means provided in each computer 103i, 112ai and 112bi are pixel buffers provided in each computer 103i. i, constitutes the image generating means with the image generating unit 111i. A network 113 connects the computers 103 i and 105. 114i is an offset calculation means of each computer 103i, 115m (m = 1, 2,... M) is a digital camera, and a reference virtual located on the outer periphery so as to photograph the surface of the secondary curved screen 101 projected by the projector 102i. It is a camera.

([1−5−1]3次元点の復元・統合・スクリーン形状の推定)
(1)3次元点の復元(図2(a)のステップP101)
ステレオカメラ1041i,1042iによる3次元点の復元を図3に示す。プロジェクタpi(102i(i=1,2,3,…n))から既知のテストパターンのテスト点xpi (2次元点:k=1…K)を投影する。これをcmの位置のステレオカメラcm(1041i,1042i)で得られた画像をもとに、ステレオ視の原理からカメラcm(1041i,1042i)を原点とするスクリーン101上の3次元位置Xcmpi を三角測量の原理から復元する。プロジェクタpj(102j)に関してもカメラcm(1041i,1042i)を用いて同様に行いXcmpj を復元する。このとき、ステレオカメラcm(1041i,1042i)の位置は、対象とするi番目のプロジェクタpi(102i)の全投影領域と、それに隣接するj番目のプロジェクタpj(102j)の投影領域の一部が重複した部分を含んで撮影可能な位置であれば自由に設置できる。以上の手順を全プロジェクタ102pi(102i)に対して行い全ての3次元点を求める。これらの計算は、カメラ1041i,1042iが接続されるコンピュータ105のテスト点3次元復元手段106において行われ、これらの計算結果は記憶装置108に記憶される。
(2)座標系の統合(図2(a)のステップP102)
次に、スクリーン形状を推定するために、異なるカメラ座標系で復元した各プロジェクタ102iの3次元点を1つのカメラ座標系へ統合する。統合は、(a)一旦基準とするカメラcn(例えばステレオカメラ1041iの左カメラ)の座標系に統合、(b)これを、スクリーン101に正対しかつスクリーン全体が画角内に入る位置に設置した仮想的なカメラvm(以後「基準仮想カメラvm」と呼ぶ。)の座標系へ変換の2段階で行う。(これはステレオカメラ10413の左カメラの座標系に統合した各プロジェクタの3次元点をもとに基準仮想カメラvm(115m)の位置姿勢を決定しているためである。)
ステップ(a) 各カメラ座標系の3次元点を基準カメラcn(ステレオカメラ1041i)の座標系へ変換するには、各カメラ間の相対関係、回転《Rcncm》,並進《tcncm》が必要である。未知の《Rcncm》,《tcncm》はカメラcn,cmの両座標系で復元した既知の同一プロジェクタの共通3次元点Xcmpi とXcnpi が満たすべき拘束条件、式(27)の最適化問題を解くことで得られる。

Figure 0005236219
誤差がなければ右辺は零である。また、基準仮想カメラvm(115m)の画角及び解像度はステレオカメラと同じとし、レンズの歪み及び画像中心のずれがない理想的なカメラとする。これにより基準カメラcn(1041i)と基準仮想カメラvm(115m)間のスケールを考える必要がない。
ステップ(b) 基準カメラcnから基準仮想カメラvm(115m)への変換には、cnの座標系における3次元点をもとに決めた基準仮想カメラvm(115m)の位置姿勢を表す既知の《Rcvmcn》,《tcvmcn》を用いる。最終的に統合された基準仮想カメラvm(115m)の座標系における各プロジェクタの3次元点Xvmpi は、ステップ(a)で求めた《Rcncm》,《tcncm》と前記《Rcvmcn》,《tcvmcn》を用いて次式から得る。
vmpi =《Rvmcn》《Rcncm》Xcmpi
+《Rvmcn》《tcncm》+《tvmcn》 (28)
これらの計算は、カメラ1041i,1042iが接続されるコンピュータ105の二次曲面係数行列推定手段107において行われ、これらの計算結果は記憶装置108に記憶される。
(3)スクリーンの推定(図2(a)のステップP102)
統合後の各プロジェクタの3次元点Xvmpi は2次曲面係数行列(パラメータマトリックス)Qの上にあるので、式(29)の最適化問題を解いて未知の係数行列Q(4×4)を得る。
Figure 0005236219
これらの計算は、カメラ1041i,1042iが接続されるコンピュータ105の二次曲面係数行列推定手段107において行われ、これらの計算結果は記憶装置108に記憶される。 ([1-5-1] 3D point reconstruction / integration / screen shape estimation)
(1) Restoration of three-dimensional points (Step P101 in FIG. 2A)
FIG. 3 shows restoration of a three-dimensional point by the stereo cameras 1041i and 1042i. A test point x pi k (two-dimensional point: k = 1... K) of a known test pattern is projected from the projector pi (102i (i = 1, 2, 3,... N)). Based on the image obtained by the stereo camera cm (1041i, 1042i) at the position of cm, the three-dimensional position X cmpi k on the screen 101 with the camera cm (1041i, 1042i) as the origin from the principle of stereo vision. From the principle of triangulation. For the projector pj (102j), X cmpj k is restored in the same manner using the camera cm (1041i, 1042i). At this time, the position of the stereo camera cm (1041i, 1042i) is such that the entire projection area of the i-th projector pi (102i) as a target and a part of the projection area of the j-th projector pj (102j) adjacent to it. Any position that can be photographed including overlapping portions can be freely installed. The above procedure is performed for all projectors 102pi (102i) to obtain all three-dimensional points. These calculations are performed in the test point three-dimensional restoration means 106 of the computer 105 to which the cameras 1041 i and 1042 i are connected, and the calculation results are stored in the storage device 108.
(2) Integration of coordinate system (step P102 in FIG. 2A)
Next, in order to estimate the screen shape, the three-dimensional points of the projectors 102i restored in different camera coordinate systems are integrated into one camera coordinate system. Integration is (a) once integrated into the coordinate system of the reference camera cn (for example, the left camera of the stereo camera 1041i). (B) This is installed at a position that faces the screen 101 and the entire screen falls within the angle of view. This is performed in two stages of conversion to the coordinate system of the virtual camera vm (hereinafter referred to as “reference virtual camera vm”). (This is because the position and orientation of the reference virtual camera vm (115m) is determined based on the three-dimensional point of each projector integrated into the coordinate system of the left camera of the stereo camera 10413.)
Step (a) In order to convert the three-dimensional point of each camera coordinate system to the coordinate system of the reference camera cn (stereo camera 1041i), a relative relationship between each camera, rotation << R cncm >>, translation << t cncm >> is required. It is. The unknown << R cncm >> and << t cncm >> are the constraint conditions to be satisfied by the common three-dimensional points X cmpi k and X cnpi k of the same projector restored in the coordinate systems of the cameras cn and cm. It can be obtained by solving an optimization problem.
Figure 0005236219
If there is no error, the right side is zero. The angle of view and resolution of the reference virtual camera vm (115m) are the same as those of the stereo camera, and the camera is an ideal camera free from lens distortion and image center shift. This eliminates the need to consider the scale between the reference camera cn (1041i) and the reference virtual camera vm (115m).
Step (b) For conversion from the reference camera cn to the reference virtual camera vm (115m), a known << representing the position and orientation of the reference virtual camera vm (115m) determined based on the three-dimensional point in the coordinate system of cn. R cvmcn >>, << t cvmcn >> is used. The 3D points X vmpi k of each projector in the coordinate system of the finally integrated reference virtual camera vm (115m), obtained in step (a) "R cncm", "t cncm" and the "R cvmcn" , << t cvmcn >> is obtained from the following equation.
X vmpi k = "R vmcn" "R cncm" X cmpi k
+ << R vmcn >><< t cncm >> + << t vmcn >> (28)
These calculations are performed by the quadric surface coefficient matrix estimation means 107 of the computer 105 to which the cameras 1041 i and 1042 i are connected, and the calculation results are stored in the storage device 108.
(3) Screen estimation (step P102 in FIG. 2A)
Since the three-dimensional point X vmp i k of each projector after the integration is on the quadratic surface coefficient matrix (parameter matrix) Q, the optimization problem of Equation (29) is solved and the unknown coefficient matrix Q (4 × 4) Get.
Figure 0005236219
These calculations are performed by the quadric surface coefficient matrix estimation means 107 of the computer 105 to which the cameras 1041 i and 1042 i are connected, and the calculation results are stored in the storage device 108.

([1−5−2]マッピング関数導出)
(1)プロジェクタの位置姿勢の検出(図2(a)のステップP103)
プロジェクタpiの射影行列を《Ppi》とすれば、基準仮想カメラvm(115m)の座標系における3次元点Xvmpi と対応するテストパターンの2次元点xpi は誤差が無いとき次の関係を持つ。
pi =《Ppi》Xvmpi (30)
従って、未知の射影行列《Ppi》は、Xvmpi と対応するテストパターンの2次元点xpi (何れも既知)を用いた式(31)の最適化問題を解くことで得られる。

Figure 0005236219
この射影行列《Ppi》は《Ppi》=《Kpi》[《Rpi》|《tpi》]のように内部パラメータ《Kpi》と位置姿勢を表す行列《Rpi》,《tpi》に分離でき、プロジェクタpi(102i)の内部パラメータは既知であるのでスクリーン101に対するプロジェクタpi(102i)の回転《Rpi》、並進《tpi》が得られる。これらの計算は、各プロジェクタ102iが接続されるコンピュータ103の第1のマッピング関数及び逆関数計算手段1091iにおいて行われ、これらの計算結果は記憶装置110iに記憶される。
(2)マッピング関数Ψvmpiの計算(図2(a)のステップP104)
投影による歪みを補正するには、予め投影する映像に歪みを与えておけば、投影時の歪みで逆歪みが相殺されて歪みのない映像となる。これが基本的な考えであり、このことは、プロジェクタpiの画素位置xpiの投影像がスクリーンを介してカメラ(即ち視点)の画素位置xcに対応するマッピング関数Ψpicを見つけることに帰着する。ここで添え字pi,cはプロジェクタi及び実カメラの座標系を示し、変換方法はcからpiである。また、vを視点、rを基準座標系とする。
このΨpicを得る方法はコンピュータビジョン技術の典型的な応用としてよく知られている。方法は各種あるが、発明者はカメラとプロジェクタの内部パラメータを事前に計測し既知であるとして、プロジェクタからテストパターンをスクリーンに投影し、これをカメラで撮影して対応関係を得ることは、上述した通りである。
平面の場合、このΨpicはホモグラフィマトリクスHを用いて以下の関係にある。
pi=Hx (31−2)
また、2次曲面を対象とした場合は次式に拡張されることが知られている。第一項は平面と同様の式であり、第二項が曲面による補正項である。
pi
=Hx−(q±√((q−x 33))e (31−3)
ここで、Tは転置、eはエピポール、Q33,qは次式で決まる4行4列の2次曲面係数行列Qの各要素である。
Figure 0005236219
式(31−3)のΨpicで示された対応から、予め逆に歪ませる量が分かるので、映像を出すプロジェクタ側で逆歪みをかけておけば投影時の歪みで逆歪みが相殺され、歪みのない映像がカメラ位置(視点)から見える。
基準仮想カメラvm(115m)の位置姿勢、プロジェクタpi(102i)の位置姿勢《Rpi》,《tpi》、スクリーン形状を表す行列Qを用いて、補正に必要な各プロジェクタpi(102i)と基準仮想カメラvm(115m)間のマッピング関数Ψvmpi,(m=1…M,i=1…N)が式(32)(式(31−3)を変形したもの)のように求まる。
vm
=Avmpi pi±(√(x pi pi pi))evm (32)
ここで、Avmpi=Hvmpi−evm《q pi》,Epi=《qpi》《q pi》−Q33piであり、p以外のプロジェクタpi(102i)のマッピング関数についても同様にして求めることができる。これらの計算は、各プロジェクタ102iが接続されるコンピュータ103の第1のマッピング関数及び逆関数計算手段1091iにおいて行われ、これらの計算結果は記憶装置110iに記憶される。
(3)マッピング関数Ψvmpiの最適化(図2(a)のステップP104−2)
以上の計算で得られたマッピング関数Ψvmpiは様々な誤差を含んでおり、そのままでは使えない。そこで、前出のマッピング関数Ψvmpi、具体的にはAvmpi,Epi,evmを初期化して、以下の再投影誤差Cを計算しマッピング関数Ψvmpiの最適化を行う。

=Σk,i|x vm−(Avmpi pi±(√(x pi pi pi))evm)|
(33)
即ち、既知のx vmとx piを用いて式(33)を最小化するAvmpi,Epi,evmを求める。これらの計算は、各プロジェクタ102iが接続されるコンピュータ103の第1のマッピング関数及び逆関数計算手段1091iにおいて行われ、これらの計算結果は記憶装置110iに記憶される。 ([1-5-2] Mapping function derivation)
(1) Detecting the position and orientation of the projector (Step P103 in FIG. 2A)
If the projection matrix of the projector pi is << P pi >>, the two-dimensional point x pi k of the test pattern corresponding to the three-dimensional point X vmpi k in the coordinate system of the reference virtual camera vm (115m) Have a relationship.
x pi k = << P pi >> X vmp i k (30)
Therefore, the unknown projection matrix << P pi >> can be obtained by solving the optimization problem of Expression (31) using the two-dimensional points x pi k (both known) of the test pattern corresponding to X vmp i k .
Figure 0005236219
The projection matrix "P pi" is "P pi" = "K pi " [ "R pi" | "t pi"] matrix representing internal parameters "K pi" and the position and orientation as "R pi", "t pi >> and the internal parameters of the projector pi (102i) are known, so that the rotation << R pi >> and the translation << t pi >> of the projector pi (102i) with respect to the screen 101 are obtained. These calculations are performed in the first mapping function and inverse function calculation means 1091i of the computer 103 to which each projector 102i is connected, and these calculation results are stored in the storage device 110i.
(2) Calculation of mapping function Ψvmpi (step P104 in FIG. 2A)
In order to correct distortion due to projection, if distortion is given to an image to be projected in advance, reverse distortion is canceled out by distortion at the time of projection, resulting in an image without distortion. This is a basic idea, and this results in finding a mapping function Ψ pic where the projection image of the pixel position xpi of the projector pi corresponds to the pixel position xc of the camera (ie, the viewpoint) via the screen. Here, the subscripts pi and c indicate the coordinate system of the projector i and the real camera, and the conversion method is from c to pi. Further, v is a viewpoint and r is a reference coordinate system.
This method of obtaining Ψpic is well known as a typical application of computer vision technology. Although there are various methods, the inventor measures the internal parameters of the camera and the projector in advance and assumes that the parameters are known in advance. That's right.
In the case of a plane, this Ψpic has the following relationship using the homography matrix H.
x pi = Hx c (31-2)
Further, it is known that when a quadric surface is targeted, it is expanded to the following equation. The first term is an expression similar to a plane, and the second term is a correction term by a curved surface.
x pi
= Hx c - (q T x c ± √ ((q T x c) 2 -x T c Q 33 x c)) e c (31-3)
Here, T is the transpose, e c is epipoles, Q 33, q is each element of the quadratic surface coefficient matrix Q of four rows and four columns determined by the following equation.
Figure 0005236219
From the correspondence indicated by Ψpic in equation (31-3), the amount of reverse distortion is known in advance, so if reverse distortion is applied on the projector side that displays the image, the reverse distortion is canceled out by the distortion at the time of projection, and the distortion An image with no image can be seen from the camera position (viewpoint).
Using the position and orientation of the reference virtual camera vm (115m), the position and orientation of the projector pi (102i) << R pi >>, << t pi >>, and the matrix Q representing the screen shape, each projector pi (102i) required for correction A mapping function ψvmpi, (m = 1... M, i = 1... N) between the reference virtual cameras vm (115m) is obtained as in Expression (32) (which is a modification of Expression (31-3)).
x k vm
= A vmpi x k pi ± ( √ (x k pi T E pi x k pi)) e vm (32)
Here, A vmpi = H vmpi -e vm "q T pi", E pi = "q pi"" a q T pi" -Q 33pi, also applies mapping function other than p i projector pi (102i) Can be obtained. These calculations are performed in the first mapping function and inverse function calculation means 1091i of the computer 103 to which each projector 102i is connected, and these calculation results are stored in the storage device 110i.
(3) Optimization of mapping function Ψvmpi (step P104-2 in FIG. 2A)
The mapping function Ψvmpi obtained by the above calculation includes various errors and cannot be used as it is. Therefore, the above mapping function ψvmpi, specifically, A vmpi , E pi , and e vm are initialized, the following reprojection error C is calculated, and the mapping function ψvmpi is optimized.
C
= Σ k, i | x k vm − (A vmpix x k pi ± (√ (x k pi T e pi x k pi )) e vm ) |
(33)
That is, A vmpi , E pi , and e vm that minimize Equation (33) are obtained using known x k vm and x k pi . These calculations are performed in the first mapping function and inverse function calculation means 1091i of the computer 103 to which each projector 102i is connected, and these calculation results are stored in the storage device 110i.

([1−5−3]マッピング関数Ψvmpiの符号判定(図2(a)のステップP104))
図4(a)に示すように、スクリーン形状を表す2次曲面Qは、1つの基準仮想カメラv1(1151)の光軸が放線であり中心がQの中心と一致する平面Πを境界にて前の曲面と奥の曲面の2つの面を持つ。この2つの面のどちらに対する補正かにより、式(32)中の符号が決まる。この場合は、手前の面が−、奥の面が+となる。プロジェクタp1(1021)とp5(1025)を見ると、投影領域が境界平面Πをまたがり、式(32)の正負の判定がどこで起こるかの判断が難しい。
この不都合を防ぐため、図4(b)に示すように、基準仮想カメラvm(115m)を複数設置することで符号判定の問題を回避した。図4(b)の例では基準仮想カメラv1(1151),v2(1152),v3(1153)をスクリーン101の周囲に配置し、それぞれの基準仮想カメラv1(1151),v2(1152),v3(1153)が分担してスクリーン全体を見込む。これにより、新しく設置した基準仮想カメラvm(115m)から見ると、対応するプロジェクタは常に2次曲面スクリーン101の奥の面に映像を投影することかでき、符号のあいまいな状態を回避できる。図4(b)の例では、プロジェクタp1(1021),p2(1022)に関して基準仮想カメラv2(1152),v3(1153)とのマッピング関数が必要となる。また、最適化処理もプロジェクタp2〜p4(1022〜1024)は基準仮想カメラv1(1151)の、プロジェクタp1(1021)は基準仮想カメラv2(1152)の、プロジェクタp5(1025)は基準仮想カメラv3(1153)の2次元点を用いて行う必要がある。これらの計算は、各プロジェクタ102iが接続されるコンピュータ103の第1のマッピング関数及び逆関数計算手段1091iにおいて基準仮想カメラ115mを接続するコンピュータ105とともに行われ、これらの計算結果は記憶装置110iに記憶される。
([1-5-3] Sign Determination of Mapping Function Ψvmpi (Step P104 in FIG. 2A))
As shown in FIG. 4A, the quadric surface Q representing the screen shape is bounded by a plane plane where the optical axis of one reference virtual camera v1 (1151) is a ray and the center coincides with the center of Q. It has two surfaces, the front curved surface and the back curved surface. The sign in equation (32) is determined depending on which of the two surfaces is corrected. In this case, the front surface is-and the back surface is +. When looking at the projectors p1 (1021) and p5 (1025), it is difficult to determine where the projection area straddles the boundary plane 、 and whether the positive / negative determination of Expression (32) occurs.
In order to prevent this inconvenience, as shown in FIG. 4B, the problem of sign determination is avoided by installing a plurality of reference virtual cameras vm (115m). In the example of FIG. 4B, reference virtual cameras v1 (1151), v2 (1152), and v3 (1153) are arranged around the screen 101, and the respective reference virtual cameras v1 (1151), v2 (1152), and v3 are arranged. (1153) shares and expects the whole screen. As a result, when viewed from the newly installed reference virtual camera vm (115m), the corresponding projector can always project an image on the back surface of the quadric curved screen 101, and an ambiguous code state can be avoided. In the example of FIG. 4B, a mapping function with the reference virtual cameras v2 (1152) and v3 (1153) is required for the projectors p1 (1021) and p2 (1022). Further, the optimization processing is also performed for the projectors p2 to p4 (1022 to 1024) of the reference virtual camera v1 (1151), the projector p1 (1021) of the reference virtual camera v2 (1152), and the projector p5 (1025) of the reference virtual camera v3. It is necessary to use the two-dimensional point (1153). These calculations are performed together with the computer 105 connecting the reference virtual camera 115m in the first mapping function and inverse function calculation means 1091i of the computer 103 to which each projector 102i is connected, and the calculation results are stored in the storage device 110i. Is done.

([1−5−4]マッピング関数Ψepiの計算(図2(a)のステップP105))
実際の視点位置から見て歪みがなく連続に見えるために各プロジェクタpi(i=1…I)と実際の視点eとの間のマッピング関数Ψepiを求める。各プロジェクタpi(102i)と基準仮想カメラvm(115m)間のマッピング関数Ψvmpi(m=1…M)は既に求まっているため、基準仮想カメラvm(115m)と視点間のマッピング関数Ψevmが求まれば式(34)から間接的にΨepiを求めることができる。
Ψepi=ΨevmΨvmpi (m=1…M,i=1…I) (34)
基準仮想カメラvm(115m)から見た視点eの位置姿勢は仮想カメラ法を用いて幾何学的に求まるので、その位置姿勢情報を持つ仮想カメラ(すなわち視点仮想カメラe)eと基準仮想カメラvm間のマッピング関数Ψevmも求まる。図4の例では、4つの仮想カメラ(3つの基準仮想カメラv1〜v3(1151〜1153)と視点仮想カメラv0(1154)≡e)を用いるため、図4(b)に示すように、マッピング関数についても各基準仮想カメラvm(115m)と視点仮想カメラv0(1154)間のマッピング関数Ψevm(m=1…3)が必要であり、各基準仮想カメラvm(115m)に対して仮想カメラ法を適用することでΨev1,Ψev2,Ψev3が求まる。基準仮想カメラvm(115m)及び視点仮想カメラv0(1154)は理想的なカメラであり、視点仮想カメラv0(1154)の位置姿勢も幾何学的に求まるので、マッピング関数Ψev1,Ψev2,Ψev3に対しては最適化を行う必要がない。図4の場合の各プロジェクタと視点仮想カメラv0(1154)間のマッピング関数は次のように表される。
Ψepi=Ψev1Ψv1pi (i=2…4)
Ψep1=Ψev2Ψv2p1; Ψep5=Ψev3Ψv3p5 (35)
これらの計算は、各プロジェクタ102iが接続されるコンピュータ103の第2のマッピング関数及び逆関数計算手段1092iにおいて基準仮想カメラ115mを接続するコンピュータ105とともに行われ、これらの計算結果は記憶装置110iに記憶される。
第2のマッピング関数及び逆関数計算手段1092iでは、マッピング関数f()からその逆関数を求める(図2(a)のステップP106)。前記ステップP106で求めた逆関数を各コンピュータ103iの記憶装置110iに格納する。これら一連の処理に得られるマッピング関数及び逆関数を適当な数の仮想視点について、予め求めてテーブルとして保持しておく。
(Calculation of [1-5-4] Mapping Function Ψepi (Step P105 in FIG. 2A))
A mapping function Ψepi between each projector pi (i = 1... I) and the actual viewpoint e is obtained in order to look continuous without distortion when viewed from the actual viewpoint position. Since the mapping function Ψvmpi (m = 1... M) between each projector pi (102i) and the reference virtual camera vm (115m) has already been obtained, the mapping function Ψevm between the reference virtual camera vm (115m) and the viewpoint is obtained. For example, Ψepi can be obtained indirectly from Expression (34).
Ψepi = Ψevm Ψvmpi (m = 1... M, i = 1... I) (34)
Since the position and orientation of the viewpoint e viewed from the reference virtual camera vm (115m) is obtained geometrically using the virtual camera method, the virtual camera (that is, the viewpoint virtual camera e) e having the position and orientation information and the reference virtual camera vm A mapping function Ψevm is also obtained. In the example of FIG. 4, since four virtual cameras (three reference virtual cameras v1 to v3 (1151 to 1153) and viewpoint virtual camera v0 (1154) ≡e) are used, mapping is performed as shown in FIG. 4B. As for the function, a mapping function Ψevm (m = 1... 3) between each reference virtual camera vm (115m) and the viewpoint virtual camera v0 (1154) is required, and the virtual camera method is used for each reference virtual camera vm (115m). Is applied to obtain Ψev1, Ψev2, and Ψev3. Since the reference virtual camera vm (115m) and the viewpoint virtual camera v0 (1154) are ideal cameras, and the position and orientation of the viewpoint virtual camera v0 (1154) can be obtained geometrically, the mapping functions Ψev1, Ψev2, and Ψev3 There is no need for optimization. The mapping function between each projector and the viewpoint virtual camera v0 (1154) in the case of FIG. 4 is expressed as follows.
Ψepi = Ψev1Ψv1pi (i = 2... 4)
Ψep1 = Ψev2Ψv2p1; Ψep5 = Ψev3Ψv3p5 (35)
These calculations are performed together with the computer 105 connecting the reference virtual camera 115m in the second mapping function and inverse function calculation means 1092i of the computer 103 to which each projector 102i is connected, and the calculation results are stored in the storage device 110i. Is done.
The second mapping function and inverse function calculation means 1092i obtains the inverse function from the mapping function f () (step P106 in FIG. 2A). The inverse function obtained in step P106 is stored in the storage device 110i of each computer 103i. Mapping functions and inverse functions obtained in the series of processes are obtained in advance for a suitable number of virtual viewpoints and stored as a table.

([2]並列処理による負荷分散)
図6の場合、スクリーンの円周は、正対した位置から俯瞰しない限り、楕円となる。前記の「[1−4−2]対角化による中心への移動」において説明した対角化により仮想した視点位置をスクリーンに正対することが可能となるため、円に概説する矩形を計算により直接求めることができ、オーバーラップを許した視野分割ができる。
([2] Load distribution by parallel processing)
In the case of FIG. 6, the circumference of the screen is an ellipse unless it is looked down from a directly facing position. Since the diagonal viewpoint described in “[1-4-2] Moving to the center by diagonalization” described above makes it possible to face the virtual viewpoint position directly on the screen, the rectangle outlined in the circle is calculated. The field of view can be obtained directly and overlapped.

([2−1]矩形を用いた視野角の分割
図13(a)にスクリーンの縁を表す円に外接する矩形とそれを用いた視野の分割とオーバーラップの関係を示す。また、図13(b)に視野角の分割法を示す。以下では、図中の投影可能領域内に各分割が含まれるとして説明する。
([2-1] Division of Viewing Angle Using Rectangle FIG. 13A shows the relationship between the rectangle circumscribing the circle representing the edge of the screen and the division and overlap of the field of view using the rectangle. (B) shows the viewing angle division method, which will be described below assuming that each division is included in the projectable region in the figure.

([2−2]複合するための変換行列)
以下では、視野の4分割(4並列)を例に変換行列の計算を示す。しかし、ここでの議論は、4分割以外でも一般性を失うことはない。プロジェクタ502jのプロジェクタ座標から仮想のカメラ座標(図13(a)に示す4分割した領域)へのマッピング関数f()は以下のようにして求める。
(1)スクリーンの半径rを求め、これを用いて図13(a)に示すWrct及びHrctを計算する。
(2)円に外接する矩形領域を重複部Hover,Woverを持つように4等分、外接矩形表示領域から、4等分された該当領域への変換行列H rctを計算する。
(3)H rctを用いて当該プロジェクタ502jに対応して備えられるコンピュータ103iのマッピング関数及び逆関数計算手段509jにおいてマッピング関数f()を計算する。
以下、順に説明する。
([2-2] Transformation matrix for combining)
In the following, the calculation of the transformation matrix is shown by taking 4 fields of view (4 parallel) as an example. However, the discussion here does not lose generality other than the four divisions. The mapping function f j () from the projector coordinates of the projector 502 j to the virtual camera coordinates (the region divided into four as shown in FIG. 13A) is obtained as follows.
(1) Obtain the radius r of the screen and use this to calculate W rct and H rct shown in FIG.
(2) A rectangular matrix circumscribing the circle is divided into four so as to have overlapping portions H over and W over , and a transformation matrix H j rct from the circumscribed rectangular display area to the corresponding area divided into four is calculated.
(3) The mapping function f j () is calculated in the mapping function and inverse function calculation means 509j of the computer 103i provided corresponding to the projector 502j using H j rct .
Hereinafter, it demonstrates in order.

([2−2−1]円の半径)
前記した式(15)の平方根の中の

Figure 0005236219
を用いた
Figure 0005236219
はカメラ座標でのスクリーンの縁を表す楕円を示す式である。従って、カメラ座標系における二次曲面行列Qを、視点座標系に変換したQを用いて計算し直したEに対応するEを用いた以下の式
Figure 0005236219
は、スクリーンに正対する視点座標系でのスクリーンの縁に対応する円を示す式となる。
また、Evで規定される円と任意の点
Figure 0005236219
の距離dは、
Figure 0005236219
の関係がある。
ここで、
Figure 0005236219
として展開すれば、
11 +2e12
+2e13+2e23
+e22 +e33
=d (37)
この距離dが最大となる点が、円の中心であり、また、このときの距離が半径となる。dを最大とする点
Figure 0005236219
は次の関係を満足する。
∂d/∂x=2e11+2e12+2e13=0
∂d/∂y=2e12+2e22+2e23=0 (38)
上式で示した連立方程式を解けば、
=(e1322−e1223)/(e 12−e1122
=(e1123−e1213)/(e 12−e1122) (39)
この座標点は、円の中心であるので、(x,y)と表記する。この中心点(x,y)を用いれば、半径rは、
r=√(e11 +2e12+2e13
+2e23+e22 +e33) (40)
となる。 ([2-2-1] Circle radius)
In the square root of the above equation (15)
Figure 0005236219
Used
Figure 0005236219
Is an equation representing an ellipse representing the edge of the screen in camera coordinates. Therefore, the following equation using E v corresponding to E recalculated using Q v converted from the quadratic surface matrix Q in the camera coordinate system into the viewpoint coordinate system:
Figure 0005236219
Is an expression showing a circle corresponding to the edge of the screen in the viewpoint coordinate system directly facing the screen.
Also, the circle defined by Ev and any point
Figure 0005236219
The distance d of
Figure 0005236219
There is a relationship.
here,
Figure 0005236219
Expand as
e 11 x 2 i + 2e 12 x i y i
+ 2e 13 x i + 2e 23 y i
+ E 22 y 2 i + e 33
= D 2 (37)
The point where the distance d is maximum is the center of the circle, and the distance at this time is the radius. Point that maximizes d
Figure 0005236219
Satisfies the following relationship:
∂d 2 / ∂x i = 2e 11 x i + 2e 12 y i + 2e 13 = 0
∂d 2 / ∂y i = 2e 12 x i + 2e 22 y i + 2e 23 = 0 (38)
Solving the simultaneous equations shown above,
x i = (e 13 e 22 -e 12 e 23) / (e 2 12 -e 11 e 22)
y i = (e 11 e 23 -e 12 e 13 ) / (e 2 12 -e 11 e 22 ) (39)
Since this coordinate point is the center of the circle, it is expressed as (x c , y c ). Using this center point (x c , y c ), the radius r is
r = √ (e 11 x 2 c + 2e 12 x c y c + 2e 13 x c
+ 2e 23 y c + e 22 y 2 c + e 33) (40)
It becomes.

([2−2−2]視野の分割)
図13(a)のように横方向の投影映像の重なりの幅をWover、縦方向の重なり幅をHoverとすれば、分割した視野の大きさWrct及びHrctは次式となる。
Wrct=r+(Wovr/2)
Hrct=r+(Hovr/2) (41)
これを用いて、図13(a)に示す原点をOとする座標系から原点をOとする各視野の座標系への変換行列は、以下となる。

Figure 0005236219
各視野は、各プロジェクタ502j毎の映像が投影される領域を決める。 ([2-2-2] Field division)
As shown in FIG. 13A, if the overlapping width of the projected images in the horizontal direction is W over and the overlapping width in the vertical direction is H over , the divided visual field sizes Wrct and Hrct are as follows.
Wrct = r + (Wovr / 2)
Hrct = r + (Hovr / 2) (41)
Using this, the transformation matrix from the coordinate system having the origin as O shown in FIG. 13A to the coordinate system of each visual field having the origin as O j is as follows.
Figure 0005236219
Each field of view determines an area in which an image for each projector 502j is projected.

([2−2−3]マッピング関数f())
式(15)にHjrctを操作した以下の式が上記のように視野角を分割した場合のプロジェクタ502jに関する新たなマッピング関数f()である。

Figure 0005236219
([2-2-3] Mapping function f ())
The following expression obtained by operating Hjrct to Expression (15) is a new mapping function f j () related to the projector 502j when the viewing angle is divided as described above.
Figure 0005236219

([2−3]輝度調整)
投影領域の重複部分は輝度が高くなるため投影する映像の輝度を補正する必要がある。この輝度補正は、スクリーン上で重複する各プロジェクタの画素位置に重み係数を予めテーブルとして保持しておき、歪み補正時に画素値と対応する重み係数の乗算により行われる。重みの決定方法を図14に示す。図14のプログラムは疑似言語で記述したものである。
ここで、(p,q)はカメラ座標系における画素位置、i,jは(1…4)のプロジェクタ番号、Hはプロジェクタの横方向の画素数、Wは縦方向の画素数、α(p,q)はプロジェクタiの画素位置(p,q)における重み係数をそれぞれ表す。プロジェクタiとプロジェクタjの重なり部分を判定してその部分の重みを重複幅に反比例して与えている。
([2-3] Brightness adjustment)
Since the overlapping portion of the projection area has high luminance, it is necessary to correct the luminance of the projected image. This luminance correction is performed by preliminarily holding a weighting coefficient at a pixel position of each projector overlapping on the screen as a table, and multiplying the pixel value and the corresponding weighting coefficient at the time of distortion correction. FIG. 14 shows a method for determining the weight. The program in FIG. 14 is written in a pseudo language.
Here, (p, q) is the pixel position in the camera coordinate system, i, j is the projector number of (1... 4), H is the number of pixels in the horizontal direction of the projector, W is the number of pixels in the vertical direction, and α i ( p i , q i ) represent weighting factors at the pixel position (p i , q i ) of the projector i, respectively. The overlapping part of the projector i and the projector j is determined, and the weight of the part is given in inverse proportion to the overlapping width.

([3]プロジェクタの漏れ光によるブラックオフセットの軽減)
([3−1]ブラックオフセットの軽減の必要性)
複数のプロジェクタを用いて高解像度の映像を生成しようとする場合、各プロジェクタの投影領域に重複部分が生じる。重複部分は各プロジェクタの輝度が加算され、重複しない部分よりも明るくなる。プロジェクタが完全な黒を表示できれば問題ないが、投影する映像が黒であっても、プロジェクタの漏れ光により投影される領域は完全に黒にはならない(図15(a)参照)。また、重複領域はそれぞれのプロジェクタの漏れ光が重なるためさらに明るくなる。つまり、プロジェクタの漏れ光によりブラックオフセットが生じ、黒を出した状態でも重複部分が目立つことになる。
([3] Reduction of black offset due to projector leakage light)
([3-1] Necessity of reducing black offset)
When a high-resolution video is generated using a plurality of projectors, an overlapping portion is generated in the projection area of each projector. The overlapping part is added with the brightness of each projector, and becomes brighter than the non-overlapping part. There is no problem as long as the projector can display complete black, but even if the projected image is black, the area projected by the leakage light of the projector is not completely black (see FIG. 15A). In addition, the overlapping area becomes brighter because the leakage light of the projectors overlaps. In other words, a black offset occurs due to light leaked from the projector, and the overlapped portion becomes conspicuous even when black is emitted.

([3−2]ブラックオフセットの軽減)
プロジェクタの漏れ光によるブラックオフセット部分はプロジェクタに依存しており調整することはできない。調整できるのは投影する映像の色のみである。単純な色のかさ上げでは色の値が1.0以上になった場合(色の値を0.0〜1.0に正規化してある。)にその色が1.0に補正されてしまい元の映像の色と異なってしまう。そこで元の映像のコントラストを下げ、色を保持しながらかさ上げをすることで色の変化が生じないようにする(図15(b)参照)。実現方法としては、Cg(C for Graphics by nVidia)言語を用いてグラフィックスボードが持つfragment shader機能を活用し、撮影する映像の色を補正することで重複部分の輝度の目立ち(図15(c)、図15(d)参照)を軽減させる。
Cgで用いた色の補正式は以下の式(44)の通りである。この式を用いることでブラックレベルを調整し、重複部分のブレンディングを行うαブレンド機能を利用することができる(図15(e)参照)。そして、ブラックオフセットによる輝度のズレを軽減することができる。図15(f)に重複部分の例を説明する。
C_new
=K*C_org+C_offset (44)
但し、
C_new:補正された色(The corrected color)
K:コントラストを下げる係数(The coefficient for reducing the contrast)
C_org:画像のオリジナルの輝度(The original color of image)
C_offset:輝度のオフセット(The offset of color)
([3-2] Reduction of black offset)
The black offset portion due to the leakage light of the projector depends on the projector and cannot be adjusted. Only the color of the projected image can be adjusted. If the color value becomes 1.0 or more with simple color raising (the color value is normalized to 0.0 to 1.0), the color is corrected to 1.0. It will be different from the color of the original video. Therefore, the contrast of the original image is lowered, and the color is not changed by raising the image while keeping the color (see FIG. 15B). As an implementation method, by using the fragment shader function of the graphics board using the Cg (C for Graphics by nVidia) language and correcting the color of the video to be captured, the brightness of the overlapping portion is conspicuous (FIG. 15 (c ), (See FIG. 15D).
The color correction formula used in Cg is as shown in the following formula (44). By using this equation, it is possible to use the α blend function for adjusting the black level and blending overlapping portions (see FIG. 15E). In addition, it is possible to reduce luminance deviation due to black offset. An example of the overlapping portion will be described with reference to FIG.
C_new
= K * C_org + C_offset (44)
However,
C_new: Corrected color (The corrected color)
K: the coefficient for reducing the contrast (the coefficient for reducing the contrast)
C_org: The original color of image (The original color of image)
C_offset: The brightness of color (The offset of color)

([3−3]KおよびC_offsetの計算方法)
カメラ画像の輝度から決定する。
1.プロジェクタ5021〜5024又は102iから何も投影しない状態をカメラ5041又は1042jで撮像する。(Background Imageとして使用する。)その画像をImg_bkgrndとする(図16のステップP1601)。
2.各プロジェクタ5021〜5024又は102iから黒を出した状態をカメラ5041又は102iで撮影する(図16のステップP1602)。その画像をImg_blkofst_nとする。nはプロジェクタの番号とする。画像から得られる輝度をIとすると、オフセット計算部514j又は114jにおいて以下の計算をする。

Figure 0005236219
Figure 0005236219
offset=(Imax−I ave)/256 (47)
(図16のステップP1603)
なお、式(45)の分母のWimg,Himgはそれぞれカメラでスクリーン505又は101を撮像したときのスクリーン505又は101の周囲にある矩形の幅、高さである(図13(a)参照)。式(47)の分母の256は例えばカメラが持つ輝度値を8bitで持つとした場合の2=256である。
K=1.0−C offset (48)
これらにより式(44)を得て、補正した色を得る。このとき、一定周期で投影する映像の輝度を計測し、その平均値に従って、ブラックオフセットにかさ上げするC_offsetを前記一定の周期で計算して変更することで、シーンごとにC_newを作成し、黒レベルの調整を行う。従って、明画像か暗画像かを判定し、暗画像の場合にオフセットを調整するため、ブラックオフセットによる輝度のずれを軽減することができる。また、重複する部分についてアルファブレンディングにより重複する部分の輝度を下げて他の領域と目立たなくしている。(図16のステップP1604)。 ([3-3] K and C_offset calculation method)
Determined from the brightness of the camera image.
1. A state in which nothing is projected from the projectors 5021 to 5024 or 102i is captured by the camera 5041 or 1042j. (Used as Background Image.) Let the image be Img_bkgrnd (step P1601 in FIG. 16).
2. A state in which black is emitted from each projector 5021 to 5024 or 102i is photographed by the camera 5041 or 102i (step P1602 in FIG. 16). Let the image be Img_blkofst_n. n is a projector number. Assuming that the luminance obtained from the image is I, the offset calculator 514j or 114j performs the following calculation.
Figure 0005236219
Figure 0005236219
C n offset = (I max −I n ave ) / 256 (47)
(Step P1603 in FIG. 16)
Note that Wimg and Himg in the denominator of Expression (45) are the width and height of a rectangle around the screen 505 or 101 when the screen 505 or 101 is imaged by the camera, respectively (see FIG. 13A). The denominator 256 in the equation (47) is, for example, 2 8 = 256 when the luminance value of the camera is 8 bits.
K = 1.0−C n offset (48)
Thus, the equation (44) is obtained, and a corrected color is obtained. At this time, the brightness of the projected image is measured at a fixed period, and C_offset to be raised to the black offset is calculated and changed at the fixed period according to the average value, thereby creating C_new for each scene. Adjust the level. Therefore, since it is determined whether the image is a bright image or a dark image, and the offset is adjusted in the case of a dark image, a luminance shift due to a black offset can be reduced. Further, the luminance of the overlapping portion is lowered by alpha blending to make it inconspicuous from other regions. (Step P1604 in FIG. 16).

([4]映像発生)
従来、映像のレンダリングを行う場合に、一般的にはグラフィックスボードが持つフレームバッファ(メモリ領域)に映像を書き込み、そのバッファをディスプレイやプロジェクタなどを経由して表示するものであった。
プロジェクションクラスタ(複数のプロジェクタの投影領域のそれぞれの全体によりスクリーンをカバーするようにしたもの)では、映像の歪みを補正する際にバッファに保持されている映像データに対しサンプリング(映像の参照)を行い参照したデータを元に映像を再度作成することで歪みを補正する。このバッファが大きければ大きいほど映像を高精細に描画することができる。このバッファがフレームバッファの場合、フレームバッファはディスプレイやプロジェクタとの解像度に依存するため、ディスプレイやプロジェクタの解像度以上にバッファを大きくすることはできない。よって、高解像度化をディスプレイやプロジェクタの機能以上にすることが難しい。
本発明において、映像データを格納する際に、フレームバッファの代わりにピクセルバッファを使用する。直接ピクセルバッファへ格納しオフスクリーンレンダリングを行うことで、ディスプレイやプロジェクタの解像度の制限を受けない。ピクセルバッファのサイズは2のべき乗という制限はあるが任意に設定可能である。実際には、グラフィックスカードの機能にも依存するためピクセルバッファのサイズにも限界は存在するが、フレームバッファよりも大きなサイズのバッファを確保することができる。
ピクセルバッファのサイズは任意に決定され、ディスプレイの解像度以上の映像をバッファに格納する。ここではバッファサイズを2048×2048とする。
ピクセルバッファを使用する場合、直接バッファにレンダリングすることができるためフレームバッファを使用する必要がない。また、OpenGLの拡張命令を使用することで、ピクセルバッファに格納されたデータを直接テクスチャとして扱うことができる。
図5のピクセルバッファ512aj,512bj又は図1のピクセルバッファ112aj,112bjは、Quadric Transfer(QT)を用いてデータのサンプリングを行う。QTはカメラ画像座標からプロジェクタ画像座標への変換を表し、その逆変換(QT_inv)はプロジェクタ画像座標からカメラ画像座標への変換を表す。プロジェクションクラスタではQT_invを用いてデータのサンプリングを行う。
サンプリング方法としては、プロジェクタ画像座標の(0,0)から順に(1024,768)までの座標を走査し、その位置がカメラ画像座標ではどの位置に対応するかを求める。また、カメラをOpenGL上の視点と考えると、テクスチャメモリの格納した映像をカメラから見た映像とみなすことができる。この関係(ここでは変換マトリクス

Figure 0005236219
とする)を利用し、プロジェクタ画像座標のある位置がテクスチャ座標のどの位置に対応するかを求めることができ、そのテクスチャ座標の位置の色をサンプリングして色情報として保持する(図18参照)。
サンプリング結果を元に歪み補正を施した映像を作成し、プロジェクタから投影する。投影された映像はスクリーン上で正しく映像として表示される。
図5の各プロジェクタ503j毎に備えられたコンピュータ503jの画像生成手段511jにより生成された画像を、ピクセルバッファ512jaにレンダリングし、この画像を当該プロジェクタ503jについて求めたマッピングの逆関数f−1()により、歪み補正した映像をピクセルバッファ512jbに生成する(図6(b)のステップS601)。この歪み補正した映像を各プロジェクタ503jから二次曲面スクリーン505に投影する(図6(b)のステップS602)。
図1による場合、各プロジェクタ102i毎に備えられたコンピュータ103iの画像生成手段111iにより生成された画像を、ピクセルバッファ112aiにレンダリングし、この画像を当該プロジェクタ102iについて求めたマッピングの逆関数f−1()により、歪み補正した映像をピクセルバッファ112ibに生成する(図2(b)のステップS101)。この歪み補正した映像を各プロジェクタ102iから二次曲面スクリーン10に投影する(図2(b)のステップS102)。図4(c)に表示システムを示し、各プロジェクタ102i(i=1〜5)は図示しないフレキシブルアームにより支柱401〜405を介して床面406上に設置されている。 ([4] Video generation)
Conventionally, when video rendering is performed, the video is generally written in a frame buffer (memory area) of the graphics board, and the buffer is displayed via a display or a projector.
In a projection cluster (the screen is covered by the entire projection area of a plurality of projectors), the video data stored in the buffer is sampled (video reference) when correcting the video distortion. The distortion is corrected by recreating the video based on the referenced data. The larger the buffer, the higher the resolution of the video. When this buffer is a frame buffer, the frame buffer depends on the resolution with the display or projector, and therefore the buffer cannot be made larger than the resolution of the display or projector. Therefore, it is difficult to increase the resolution beyond the function of the display or projector.
In the present invention, a pixel buffer is used instead of a frame buffer when storing video data. By storing directly in the pixel buffer and performing off-screen rendering, the resolution of the display or projector is not limited. Although the size of the pixel buffer is limited to a power of 2, it can be arbitrarily set. Actually, the size of the pixel buffer is limited because it depends on the function of the graphics card, but a buffer having a size larger than the frame buffer can be secured.
The size of the pixel buffer is arbitrarily determined, and video having a display resolution or higher is stored in the buffer. Here, the buffer size is 2048 × 2048.
When using a pixel buffer, it is not necessary to use a frame buffer because it can be rendered directly into the buffer. Further, by using an OpenGL extension instruction, data stored in the pixel buffer can be directly handled as a texture.
The pixel buffers 512aj and 512bj in FIG. 5 or the pixel buffers 112aj and 112bj in FIG. 1 perform data sampling using a quadratic transfer (QT). QT represents conversion from camera image coordinates to projector image coordinates, and inverse conversion (QT_inv) represents conversion from projector image coordinates to camera image coordinates. In the projection cluster, data sampling is performed using QT_inv.
As a sampling method, the coordinates from (0, 0) to (1024, 768) of the projector image coordinates are sequentially scanned, and the position corresponding to the position in the camera image coordinates is obtained. If the camera is considered as a viewpoint on OpenGL, an image stored in the texture memory can be regarded as an image viewed from the camera. This relationship (here transformation matrix
Figure 0005236219
The position of the projector image coordinates corresponds to which position of the texture coordinates, and the color at the position of the texture coordinates is sampled and held as color information (see FIG. 18). .
Based on the sampling result, an image with distortion correction is created and projected from the projector. The projected image is correctly displayed as an image on the screen.
The image generated by the image generation means 511j of the computer 503j provided for each projector 503j in FIG. 5 is rendered in the pixel buffer 512ja, and the inverse function f −1 () of the mapping obtained for the projector 503j. Thus, a distortion-corrected video is generated in the pixel buffer 512jb (step S601 in FIG. 6B). This distortion-corrected image is projected from each projector 503j onto the secondary curved screen 505 (step S602 in FIG. 6B).
In the case of FIG. 1, the image generated by the image generation means 111i of the computer 103i provided for each projector 102i is rendered in the pixel buffer 112ai, and the inverse function f −1 of the mapping obtained for this projector 102i is obtained. By (), the distortion corrected video is generated in the pixel buffer 112ib (step S101 in FIG. 2B). This distortion-corrected image is projected from each projector 102i onto the quadric curved screen 10 (step S102 in FIG. 2B). FIG. 4C shows a display system, and each projector 102 i (i = 1 to 5) is installed on the floor surface 406 via a column 401 to 405 by a flexible arm (not shown).

前述の([2−3]輝度調整)においては投影領域の重複部分の広さを図13(a)のように重ならない部分よりも比較的小さく設定してあるが、図17(a)のように例えば2台のプロジェクタ1701、1702による投影領域1703,1704の重複部分を大きくして、複合映像発生し、重ね合わせにより投影領域の明るさを向上することができる。このとき、スクリーンは上記のように二次曲面でも良いが、平面スクリーン1705であっても良い。
この2台のプロジェクタ使用の場合も、図5の2台のコンピュータ5031,5032により各プロジェクタ5021,5022毎の映像を生成するとともに各プロジェクタ5021,5022毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファ512aに生成し(図17(b)のステップS1701)、各プロジェクタ5021,5022からピクセルバッファ512bにおいて歪み補正した映像を二次曲面スクリーン505に投影して前記共通して重複する部分の明るさを大きくする(図17(b)のステップS1702)。
この2台のプロジェクタ使用の場合も、図1の例えば2台のコンピュータ1031,1032により各プロジェクタ1021,1022毎の映像を生成するとともに各プロジェクタ1021,1022毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファ112a1,112a2に生成し(図17(b)のステップS1701)、各プロジェクタ1021,1022からピクセルバッファ112b1,112b2において歪み補正した映像を二次曲面スクリーン101に投影して前記共通して重複する部分の明るさを大きくする(図17(b)のステップS1702)。
In the above ([2-3] brightness adjustment), the width of the overlapping portion of the projection area is set to be relatively smaller than the non-overlapping portion as shown in FIG. As described above, for example, the overlapping portions of the projection areas 1703 and 1704 by the two projectors 1701 and 1702 can be enlarged to generate a composite image, and the brightness of the projection area can be improved by superposition. At this time, the screen may be a quadratic curved surface as described above, but may be a flat screen 1705.
Also in the case of using these two projectors, the two computers 5031 and 5032 in FIG. 5 generate images for each projector 5021 and 5022 and the generated images by the inverse function of the mapping for each projector 5021 and 5022. Is generated in the pixel buffer 512a (step S1701 in FIG. 17B), and the images corrected for distortion in the pixel buffer 512b are projected from the projectors 5021 and 5022 onto the quadric curved screen 505. Thus, the brightness of the overlapping portion is increased (step S1702 in FIG. 17B).
Also in the case of using these two projectors, for example, the two computers 1031 and 1032 in FIG. 1 generate images for each of the projectors 1021 and 1022, and the generated by the inverse function of the mapping for each of the projectors 1021 and 1022 A video whose distortion is corrected is generated in the pixel buffers 112a1 and 112a2 (step S1701 in FIG. 17B), and the video whose distortion is corrected in the pixel buffers 112b1 and 112b2 is projected from the projectors 1021 and 1022 onto the quadric curved screen 101. Then, the brightness of the common overlapping portion is increased (step S1702 in FIG. 17B).

前述の([3]プロジェクタの漏れ光によるブラックオフセットの軽減)において、プロジェクタが完全な黒を表示できれば問題ないが、投影する映像が黒であっても、プロジェクタの漏れ光により投影される領域は完全に黒にはならないことを説明した。これは、夜間の暗い情景の映像を投影している場合では人間の目がわずかな輝度差に対しても敏感に感じ取れる為、一層目立ちやすい傾向となる。
この場合、考えられる措置として、ソフト的に投影する元の映像の輝度を補正することで、ブラックオフセットによって生じる重複領域の輝度を下げ重複部分の目立ちを軽減させることができるが、これだけで夜間のシーンでは完全に重複部分を認識させないようにするのは困難である。
このため、元の映像の輝度の補正と合わせて偏光板を組み合わせて重複部分に対する減光率を段階的に調整することで、重複部分をより感じさせない映像を表示することが可能となる。
減光率を段階的に調整可能なフローを図19(a)に、その装置を図19(b)に示す。図19(b)において、1901はプロジェクタ、1902は偏光子、1903は検光子、1904は前記検光子1903を回転させるモータ、歯車、その他の機械部品、電気回路を含む回転手段である。1906は、検光子の周囲に設け前記回転手段1904の歯車とかみ合うように形成した歯車の歯である。
偏光子1902は、それ自身が位置するプロジェクタ1901の映像領域が図示しない他のプロジェクタとの映像領域との重複部分に対応した個所の範囲をカバーする(カバーするように斜線で示している。)。検光子1903の回転状態により、プロジェクタ1901からスクリーンへの投影光について重複部分のみの輝度を調整する。
Maluの法則により
I(θ)=I(0)cos2θ
ただし、I(θ):偏光子と検光子を通過した際の光の強度
I(0):偏光子を通過した際の光の強度
となるため検光子の角度を変えることで重複部分の輝度を調整することが可能となる。
図5の各コンピュータ503jにより各プロジェクタ502j毎の映像をピクセルバッファ512aに生成するとともに、各プロジェクタ502j毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファ512bに生成する(P1901)。各プロジェクタ502jから前記ピクセルバッファ512bにおいて歪み補正した映像を二次曲面スクリーン505に投影する(P1902)。夜間情景を表すときに操作者は回転手段1904を操作し、検光子1903を回転させる。検光子1903の回転に応じて、プロジェクタ502jからの光を減光させる(P1903)。
重複部分の輝度を各プロジェクタ502j単体による輝度と同程度まで落とせば重複部分は目立たなくなる。
図1による場合、各コンピュータ103jにより各プロジェクタ102j毎の映像をピクセルバッファ112ajに生成するとともに、各プロジェクタ102j毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファ112bjに生成する(P1901)。各プロジェクタ102jから前記ピクセルバッファ112bjにおいて歪み補正した映像を二次曲面スクリーン101に投影する(P1902)。夜間情景を表すときに操作者は回転手段1904を操作し、検光子1903を回転させる。検光子1903の回転に応じて、プロジェクタ102jからの光を減光させる(P1903)。
重複部分の輝度を各プロジェクタ102j単体による輝度と同程度まで落とせば重複部分は目立たなくなる。
In the above ([3] Reduction of black offset due to leakage light from projector), there is no problem if the projector can display perfect black, but even if the projected image is black, the area projected by the leakage light of the projector is I explained that it was not completely black. This is because when a dark scene image at night is projected, the human eye can be sensitive to even a slight difference in luminance, and thus tends to be more noticeable.
In this case, as a possible measure, by correcting the brightness of the original image to be projected softly, the brightness of the overlapping area caused by black offset can be reduced and the conspicuousness of the overlapping part can be reduced. It is difficult to prevent the overlap part from being completely recognized in the scene.
For this reason, it is possible to display an image in which the overlapping portion is not felt more by combining the polarizing plates in combination with the correction of the luminance of the original image and adjusting the dimming rate for the overlapping portion in a stepwise manner.
FIG. 19A shows a flow in which the light attenuation rate can be adjusted stepwise, and FIG. 19B shows the apparatus. In FIG. 19B, 1901 is a projector, 1902 is a polarizer, 1903 is an analyzer, 1904 is a rotating means including a motor, gears, other mechanical parts, and an electric circuit for rotating the analyzer 1903. Reference numeral 1906 denotes gear teeth provided around the analyzer so as to mesh with the gear of the rotating means 1904.
Polarizer 1902 covers the range of the area corresponding to the overlapping portion of the image area of projector 1901 where it is located with the image area of another projector (not shown) (indicated by hatching to cover). . Depending on the rotation state of the analyzer 1903, the brightness of only the overlapping portion of the projection light from the projector 1901 onto the screen is adjusted.
According to Malu's law, I (θ) = I (0) cos2θ
However, I (θ): intensity of light when passing through the polarizer and analyzer I (0): intensity of light when passing through the polarizer, so the luminance of the overlapping portion is changed by changing the angle of the analyzer Can be adjusted.
Each computer 503j in FIG. 5 generates an image for each projector 502j in the pixel buffer 512a, and generates an image obtained by correcting the distortion of the generated image in the pixel buffer 512b by an inverse function of the mapping for each projector 502j ( P1901). Each projector 502j projects the image corrected for distortion in the pixel buffer 512b onto the quadric curved screen 505 (P1902). When representing a night scene, the operator operates the rotating means 1904 to rotate the analyzer 1903. The light from the projector 502j is dimmed according to the rotation of the analyzer 1903 (P1903).
If the luminance of the overlapping portion is reduced to the same level as the luminance of each projector 502j alone, the overlapping portion becomes inconspicuous.
In the case of FIG. 1, each computer 103j generates an image for each projector 102j in the pixel buffer 112aj, and generates an image obtained by correcting the distortion of the generated image in the pixel buffer 112bj by an inverse function of the mapping for each projector 102j. (P1901). Each projector 102j projects the image corrected for distortion in the pixel buffer 112bj onto the quadric curved screen 101 (P1902). When representing a night scene, the operator operates the rotating means 1904 to rotate the analyzer 1903. In accordance with the rotation of the analyzer 1903, the light from the projector 102j is reduced (P1903).
If the luminance of the overlapping portion is reduced to the same level as the luminance of each projector 102j alone, the overlapping portion becomes inconspicuous.

(ステレオ映像表示への応用)
上述した技術は、ステレオ映像表示においても実現することができる。図20(a)は二次曲面スクリーンに係るマッピング関数の生成方法の一実施例を説明するフロー図、及び図20(b)は二次曲面スクリーンに係る映像発生方法の一実施例を説明するフロー図である。図21は二次曲面スクリーンに係る補正関数の生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。図21において、2101は二次曲面スクリーン、21021i,21022i(i=1,2,3,…n)は前記スクリーン周辺に配置されるプロジェクタ、2103iは前記プロジェクタ21021i,21022i毎に対応して備えられる複数のコンピュータである。21041i,21042i(i=1,2,3,…n)は前記プロジェクタ21021i,21022iが投影する映像を撮像することができるステレオカメラを構成するデジタルカメラ、2105は前記デジタルカメラ21041i,21042iを接続するコンピュータ、2106はコンピュータ2105内のテスト点3次元復元手段、2107はコンピュータ2105内の二次曲面係数行列推定手段、2108はコンピュータ2105内の記憶装置、21091i,21092iは各コンピュータ2103i内の第1及び第2のマッピング関数及び逆関数計算手段、2110iは各コンピュータ2103i内の記憶装置、2111iは各コンピュータ2103iに備えられる画像生成手段、2112ai,2112biは各コンピュータ2103iに備えられるピクセルバッファであり、当該コンピュータ2103i、画像生成手段2111iとともに映像生成手段を構成する。2113は各コンピュータ2103i,2105を接続するネットワークである。2114iは各コンピュータ2103iのオフセット計算手段、2115m(m=1,2…M)はデジタルカメラで構成し、プロジェクタ2102iが投影する二次曲面スクリーン2101の面を撮影するように外周に位置する基準仮想カメラである。
(Application to stereo image display)
The above-described technique can also be realized in stereo video display. FIG. 20A is a flowchart for explaining an embodiment of a mapping function generating method related to a quadratic curved screen, and FIG. 20B is a flowchart explaining an embodiment of an image generating method related to a quadric curved screen. FIG. FIG. 21 is a functional block diagram for explaining an embodiment of a correction function generating apparatus and video generating apparatus relating to a quadratic curved screen. In FIG. 21, 2101 is a quadric curved screen, 21021i, 21022i (i = 1, 2, 3,... N) are projectors arranged around the screen, and 2103i is provided corresponding to each projector 21021i, 21022i. Multiple computers. 21041i, 21042i (i = 1, 2, 3,... N) are digital cameras constituting a stereo camera that can capture images projected by the projectors 21021i, 21022i, and 2105 connects the digital cameras 21041i, 21042i. Computer 2106 is a test point three-dimensional restoration means in the computer 2105, 2107 is a quadric surface coefficient matrix estimation means in the computer 2105, 2108 is a storage device in the computer 2105, 21091i and 21092i are first and second in each computer 2103i. Second mapping function and inverse function calculating means, 2110i is a storage device in each computer 2103i, 2111i is an image generating means provided in each computer 2103i, 2112ai, 2112bi is each computer A pixel buffer provided in 2103I, constitute the image generating means the computer 2103I, together with the image generating means 2111I. Reference numeral 2113 denotes a network connecting the computers 2103i and 2105. Reference numeral 2114i is an offset calculation means of each computer 2103i, 2115m (m = 1, 2,... M) is a digital camera, and a reference virtual located on the outer periphery so as to photograph the surface of the secondary curved screen 2101 projected by the projector 2102i. It is a camera.

([1]ステレオ表示のための二次曲面スクリーンに係るマッピング関数、その逆関数)
ステレオ表示は、前述の実施例1において、図1について説明した1つの視点の代わりに、左右両目の視点についてマッピング関数及び逆マッピング関数を求めて、左右それぞれの目用の画像を発生するものである。
すなわち、ステレオ表示のための二次曲面スクリーンに係るマッピング関数、その逆関数は、以下のように得る。
各プロジェクタpi(21021i,21022i)からスクリーン2101に投影したテスト点の3次元復元を前記ステレオカメラ21021i,21022iによる行う(図20(a)のステップP2001)。
前記復元した各プロジェクタpi(21021i,21022i)の3次元点を1つの(例えば)カメラ21021iの座標系に統合し、統合後の3次元点からスクリーン形状を表す2次曲面係数行列(Q)を推定する(図20(a)のステップP2002)。
前記統合後の各プロジェクタpi(21021i,21022i)の3次元点とこれに対応するテスト点の2次元点から各プロジェクタpi(21021i,21022i)の位置姿勢(P)を推定する(図20(a)のステップP2003)。
前記二次曲面スクリーン2101の投影面を分割して全体を撮影するように配置し、前記プロジェクタpi(21021i,21022i)が投影する前記二次曲面スクリーン2101の投影面を撮影する複数の基準仮想カメラVm(2115m)(m=1…M)を備え、前記推定した2次曲面係数行列(Q)と、前記複数の基準仮想カメラVm(2115m)(m=1…M)の位置姿勢と前記推定した各プロジェクタpi(21021i,21022i)の位置姿勢(P)から、プロジェクタpi(21021i,21022i)の画素位置の投影像がスクリーン2101を介して基準仮想カメラVm(2115m)の画素位置に対応する基準仮想カメラVm(2115m)とプロジェクタpi(21021i,21022i)間のマッピング関数Ψvmpiを求める(図20(a)のステップP2004)。
ステップP2004において、図1と共に説明した式(33)により、そこで、前出のマッピング関数Ψvmpi、具体的にはAvmpi,Epi,evmを初期化して、以下の再投影誤差Cを計算しマッピング関数Ψvmpiの最適化を行う(図20(a)のステップP2004−2)。
前記二次曲面スクリーン2101を見る右目又は左目のいずれか一方の位置に位置姿勢情報を持つ右目(又は左目)用の視点仮想カメラe(161514又は161524)を設定し、当該右目(又は左目)用の視点仮想カメラe(161514又は161524)の位置姿勢と前記位置姿勢を持つ基準仮想カメラVm(2115m)間のマッピング関数Ψevmを求め、前記ステップP2024によるマッピング関数Ψvmpiとにより、
各プロジェクタ21021i(右目用の場合)(又は左目用のプロジェクタ21022i)と右目(又は左目)用の視点仮想カメラe(161514又は161524)との間の右目(又は左目)用のマッピング関数Ψr(l)epiを求め、前記二次曲面スクリーン2101を見る前記右目又は左目のいずれか一方と異なる他方の位置に位置姿勢情報を持つ左目(又は右目)用の視点仮想カメラe(161514又は161524)を設定し、当該左目(又は右目)用の視点仮想カメラe(161514又は161524)の位置姿勢と前記位置姿勢を持つ基準仮想カメラVm(2115m)間のマッピング関数Ψevmを求め、前記第4の過程によるマッピング関数Ψvmpiとにより、各プロジェクタ21021i(21022i)と左目(又は右目)用の視点仮想カメラe(161514又は161524)との間の左目(又は右目)用のマッピング関数Ψl(r)epiを求める(図20(a)のステップP2005)。
前記ステップP2004による右目用及び左目用のマッピング関数Ψrepi,Ψlepiによりその逆関数を求める第(図20(a)のステップP2006)。
([1] Mapping function related to quadratic surface for stereo display and its inverse function)
The stereo display is to generate a mapping function and an inverse mapping function for the viewpoints of both the left and right eyes instead of the one viewpoint described with reference to FIG. is there.
That is, a mapping function related to a quadric curved screen for stereo display and its inverse function are obtained as follows.
Three-dimensional restoration of the test points projected on the screen 2101 from each projector pi (21021i, 21022i) is performed by the stereo cameras 21021i, 21022i (step P2001 in FIG. 20A).
The restored three-dimensional points of each projector pi (21021i, 21022i) are integrated into the coordinate system of one (for example) camera 21021i, and a quadratic surface coefficient matrix (Q) representing the screen shape from the integrated three-dimensional points is obtained. Estimate (step P2002 in FIG. 20A).
The position and orientation (P) of each projector pi (21021i, 21022i) is estimated from the three-dimensional point of each projector pi (21021i, 21022i) after integration and the two-dimensional point corresponding to the test point (FIG. 20 (a)). ) Step P2003).
A plurality of reference virtual cameras that divide the projection surface of the quadric curved screen 2101 and shoot the entire image, and photograph the projection surface of the quadric curved screen 2101 projected by the projector pi (21021i, 21022i). Vm (2115m) (m = 1... M), the estimated quadric surface coefficient matrix (Q), the position and orientation of the plurality of reference virtual cameras Vm (2115m) (m = 1. From the position and orientation (P) of each projector pi (21021i, 21022i), the projected image at the pixel position of the projector pi (21021i, 21022i) corresponds to the pixel position of the reference virtual camera Vm (2115m) via the screen 2101. Map between virtual camera Vm (2115m) and projector pi (21021i, 21022i) Request grayed function Pusaivmpi (step P2004 in FIG. 20 (a)).
In step P2004, the above-described mapping function Ψvmpi, specifically, A vmpi , E pi , and e vm are initialized by the expression (33) described in conjunction with FIG. The mapping function Ψvmpi is optimized (step P2004-2 in FIG. 20A).
A viewpoint virtual camera e (161514 or 161524) for right eye (or left eye) having position and orientation information is set at either position of the right eye or left eye looking at the quadric curved screen 2101, and for the right eye (or left eye). The mapping function Ψevm between the position and orientation of the viewpoint virtual camera e (161514 or 161524) and the reference virtual camera Vm (2115m) having the position and orientation is obtained, and by the mapping function Ψvmpi in step P2024,
Mapping function Ψr (l for right eye (or left eye) between each projector 21021i (for right eye) (or left eye projector 21022i) and right eye (or left eye) viewpoint virtual camera e (161514 or 161524) ) Find the epi and set the left-eye (or right-eye) viewpoint virtual camera e (161514 or 161524) having position and orientation information at the other position different from either the right eye or the left eye viewing the quadric curved screen 2101 Then, a mapping function Ψevm between the position and orientation of the viewpoint virtual camera e (161514 or 161524) for the left eye (or right eye) and the reference virtual camera Vm (2115m) having the position and orientation is obtained, and mapping according to the fourth process is performed. By the function Ψvmpi, each projector 21021i (21022i) and the left (Or right) obtaining the mapping function Ψl (r) epi for the left eye (or right) between for the viewpoint virtual camera e (one hundred sixty-one thousand five hundred and fourteen or 161524) (step P2005 in FIG. 20 (a)).
The inverse function is obtained by the right-eye and left-eye mapping functions ψrepi and ψlepi in step P2004 (step P2006 in FIG. 20A).

([2]ステレオ映像発生)
また、ステレオ表示は以下のように行う。
各コンピュータ2103iの画像生成手段2111iにより各プロジェクタ21021i,21022i毎の右目用及び左目用の映像をピクセルバッファ2112aiに生成するとともに上記のように求めた各プロジェクタ21021i,21022i毎の右目用及び左目用のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファ2012ibに生成する(図20(b)のステップS2001)。各プロジェクタ21021i,21022iから前記ピクセルバッファ2012bにおいて歪み補正した右目用及び左目用の映像を前記二次曲面スクリーン2101に投影する(図20(b)のステップS2002)。
([2] Stereo image generation)
Stereo display is performed as follows.
The image generation means 2111i of each computer 2103i generates right-eye and left-eye images for each projector 21021i, 21022i in the pixel buffer 2112ai, and for the right-eye and left-eye for each projector 21021i, 21022i obtained as described above. An image obtained by correcting the distortion of the generated image is generated in the pixel buffer 2012 ib using an inverse function of mapping (step S2001 in FIG. 20B). The right and left eye images corrected for distortion in the pixel buffer 2012b are projected from the projectors 21021i and 21022i onto the quadric curved screen 2101 (step S2002 in FIG. 20B).

実施例2として説明した技術もステレオ表示に適用することができる。実施例3として説明した技術もステレオ表示に適用することができる。   The technique described as the second embodiment can also be applied to the stereo display. The technique described as the third embodiment can also be applied to stereo display.

図22(a)は実施例5を説明する機能ブロック図であり、2201はビデオ機器であり、テレビジョン装置、ビデオ再生装置、パーソナルコンピュータ等を用いる。2202は歪み補正映像生成部、2203はビデオ機器2201の信号を歪み補正映像生成部2202での処理に適するように信号変換する変換器、2204は変換器2203からの出力信号を一時格納するメモリ、2205,2206,2207,2208はプロジェクタとスクリーンとの位置に応じて実施例1で説明したようにマッピング関数の逆関数により映像を歪み補正する歪み補正手段、2209,2210,2211,2212は歪み補正した映像を一時格納する補正後メモリ、2213,2214,2215,2216は補正した映像信号をプロジェクタに投影するに適した信号に変換する変換器、2217,2218,2219,2220はプロジェクタ、2221は二次曲面スクリーンである。
マッピング関数及びその逆関数は、実施例1で説明したように図示しないコンピュータにより求めておく。
メモリ2204はフレームメモリで構成する場合があるが、これである必要はなく、ラインメモリでもよい。また、メモリ2204は必須のものでなく、変換器2203から直接歪み補正手段2205〜2208に直接接続してもよい。補正後メモリ2209,2210,2211,2212は、フレームメモリで構成する場合があるが、これである必要はなく、ラインメモリでもよい。また、補正後メモリ2209,2210,2211,2212は必須のものでなく、歪み補正手段2205,2206,2207,2208のそれぞれは直接に変換器2213,2214,2215,2216に接続してもよい。
プロジェクタ2217,2218,2219,2220の数は任意の数nを用いることができ、この実施例では4台の例を図示した。
FIG. 22A is a functional block diagram for explaining the fifth embodiment, and 2201 denotes a video device, which uses a television device, a video reproduction device, a personal computer, or the like. 2202 is a distortion-corrected video generation unit, 2203 is a converter that converts a signal of the video device 2201 so that it is suitable for processing by the distortion-corrected video generation unit 2202, 2204 is a memory that temporarily stores an output signal from the converter 2203, 2205, 2206, 2207, and 2208 are distortion correction means for correcting the distortion of the image by the inverse function of the mapping function as described in the first embodiment according to the position of the projector and the screen, and 2209, 2210, 2211, and 2212 are distortion correction. After correction, 2213, 2214, 2215, and 2216 are converters that convert the corrected video signals into signals suitable for projection onto the projector, 2217, 2218, 2219, and 2220 are projectors, and 2221 is the second memory. This is a second curved screen.
The mapping function and its inverse function are obtained by a computer (not shown) as described in the first embodiment.
The memory 2204 may be composed of a frame memory, but this need not be the case and may be a line memory. Further, the memory 2204 is not essential, and may be directly connected from the converter 2203 to the distortion correction means 2205 to 2208. Although the post-correction memories 2209, 2210, 2211, and 212 may be configured by frame memories, this need not be the case and may be line memories. Further, the post-correction memories 2209, 2210, 2211, and 2212 are not essential, and each of the distortion correction means 2205, 2206, 2207, and 2208 may be directly connected to the converters 2213, 2214, 2215, and 2216.
Arbitrary number n can be used as the number of projectors 2217, 2218, 2219, and 2220, and four examples are illustrated in this embodiment.

ビデオ機器2201からの映像(図22(b))は、変換器2203で処理に適するように変換され、メモリ2204に一時格納される。メモリ2204の映像は、プロジェクタ2217,2218,2219,2220のそれぞれに投影される範囲で分割されて、その範囲でそれぞれが歪み補正手段2205,2206,2207,2208に歪み補正され(図23のステップST2301)て、補正後メモリ2209,2210,2211,2212に一時格納される(図22(c))。映像信号は、変換器2213,2214,2215,2216で処理され、プロジェクタ2217,2218,2219,2220によりスクリーン2221に投影される(図23のステップST2302)。   Video from the video equipment 2201 (FIG. 22B) is converted by the converter 2203 so as to be suitable for processing, and is temporarily stored in the memory 2204. The video in the memory 2204 is divided by ranges projected onto the projectors 2217, 2218, 2219, and 2220, and distortion is corrected by the distortion correction means 2205, 2206, 2207, and 2208 within that range (step in FIG. 23). ST2301) and temporarily stored in the corrected memories 2209, 2210, 2211, and 2122 (FIG. 22C). Video signals are processed by converters 2213, 2214, 2215, and 2216, and projected onto screen 2221 by projectors 2217, 2218, 2219, and 2220 (step ST2302 in FIG. 23).

変換器2213,2214,2215,2216において、実施例1の([2−3]輝度調整)において説明したように輝度調整により、各プロジェクタ2217,2218,2219,2220の互いに重複する投影領域の輝度を補正することができる。   In the converters 2213, 2214, 2215, and 2216, the brightness of the overlapping projection areas of the projectors 2217, 2218, 2219, and 2220 is adjusted by the brightness adjustment as described in ([2-3] brightness adjustment) of the first embodiment. Can be corrected.

図22において、図示しないコンピュータにより、実施例1の([3]プロジェクタの漏れ光によるブラックオフセットの軽減)において説明したようにオフセット調整がされている。   In FIG. 22, offset adjustment is performed by a computer (not shown) as described in the first embodiment ([3] Reduction of black offset due to leakage light of projector).

例えば、2台のプロジェクタの投影領域の重複部分を大きくして、上述の実施例2のようにして、共通して重複する部分の明るさを大きくすることができる。
ビデオ機器2201からの映像は、変換器2203で処理に適するように変換され、メモリ2204に一時格納される。メモリ2204の映像は、プロジェクタ2217,2218,2219,2220のそれぞれに投影される範囲で分割されて、その範囲でそれぞれが歪み補正手段2205,2206,2207,2208に歪み補正され(図24のステップST2401)て、補正後メモリ2209,2210,2211,2212に一時格納される。映像信号は、変換器2213,2214,2215,2216で処理され、プロジェクタ2217,2218,2219,2220によりスクリーン2221に投影して共通して重複する部分の明るさを大きくする(図24のステップST2402)。
For example, the overlapping portion of the projection areas of two projectors can be enlarged, and the brightness of the overlapping portion can be increased as in the second embodiment.
The video from the video device 2201 is converted by the converter 2203 so as to be suitable for processing, and temporarily stored in the memory 2204. Images in the memory 2204 are divided by ranges projected onto the projectors 2217, 2218, 2219, and 2220, and distortion is corrected by the distortion correction units 2205, 2206, 2207, and 2208 within the ranges (steps in FIG. 24). ST2401) and temporarily stored in the corrected memories 2209, 2210, 2211 and 2122. Video signals are processed by converters 2213, 2214, 2215, and 2216, and are projected onto a screen 2221 by projectors 2217, 2218, 2219, and 2220 to increase the brightness of common overlapping portions (step ST2402 in FIG. 24). ).

各プロジェクタ2217,2218,2219,2220の前方に実施例3のような偏光子と検光子を配置して、プロジェクタからの光を減光して、プロジェクタの漏れ光を目立たなくすることができる。   A polarizer and an analyzer as in the third embodiment are arranged in front of the projectors 2217, 2218, 2219, and 2220, and the light from the projector can be reduced to make the leaked light from the projector inconspicuous.

偶数個のプロジェクタ2217,2218,2219,2220を右目用と左見用に区分して、実施例4を適用して、左右両目の視点についてマッピング関数及び逆マッピング関数を求めて、ビデオ機器2201からの映像に立体用の映像を用いてステレオ映像を実現することができる。
例えば、プロジェクタ2217,2219を右目用、プロジェクタ2218,2220を左目用とする。
ビデオ機器2201からの各プロジェクタ2217,2218,2219,2220の右目用及び左目用の映像が、各プロジェクタ2217,2218,2219,2220の右目用及び左目用のマッピングの逆関数により、歪み補正される(図25のステップST2501)。各プロジェクタ2217,2218,2219,2220から前記歪み補正された右目用及び左目用の映像が前記二次曲面スクリーン2221に投影される(図25のステップST2502)。
By dividing the even number of projectors 2217, 2218, 2219, and 2220 into those for the right eye and those for the left eye and applying the fourth embodiment, the mapping function and the inverse mapping function are obtained for the viewpoints of both the left and right eyes. Stereo images can be realized by using stereoscopic images as the images.
For example, projectors 2217 and 2219 are for the right eye, and projectors 2218 and 2220 are for the left eye.
Distortion correction is performed on the right-eye and left-eye images of the projectors 2217, 2218, 2219, and 2220 from the video equipment 2201 by the inverse functions of the right-eye and left-eye mappings of the projectors 2217, 2218, 2219, and 2220. (Step ST2501 in FIG. 25). The right-eye and left-eye images corrected for distortion are projected onto the quadric curved screen 2221 from the projectors 2217, 2218, 2219, and 2220 (step ST2502 in FIG. 25).

マッピング関数の生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。It is a functional block diagram explaining one Example of the production | generation apparatus of a mapping function, and an image generation apparatus. マッピング関数の生成方法及び映像発生方法の一実施例を説明するフロー図である。It is a flowchart explaining one Example of the production | generation method of a mapping function, and a video generation method. 3次元点の復元を説明する図である。It is a figure explaining restoration | restoration of a three-dimensional point. カメラとプロジェクタとスクリーンの配置を説明する図である。It is a figure explaining arrangement | positioning of a camera, a projector, and a screen. マッピング関数の生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。It is a functional block diagram explaining one Example of the production | generation apparatus of a mapping function, and an image generation apparatus. マッピング関数の生成方法及び映像発生方法の一実施例を説明するフロー図である。It is a flowchart explaining one Example of the production | generation method of a mapping function, and a video generation method. プロジェクタの配置取り付けを説明する図である。It is a figure explaining the arrangement | positioning attachment of a projector. 逆歪みによる歪み補正の模式図である。It is a schematic diagram of distortion correction by reverse distortion. スクリーン上の点を説明する図である。It is a figure explaining the point on a screen. スクリーン上の点を説明する図である。It is a figure explaining the point on a screen. スクリーン上の点を異なる視点から見たときのイメージ平面における位置関係を説明する図である。It is a figure explaining the positional relationship in an image plane when the point on a screen is seen from a different viewpoint. カメラ設置位置から基準点を経て視点位置への移動を説明する図である。It is a figure explaining the movement to a viewpoint position through a reference point from a camera installation position. スクリーンの視野の分割と視野角を説明する図である。It is a figure explaining division | segmentation and the viewing angle of the visual field of a screen. 重複部分の重さの決定方法を説明するプログラムである。It is a program explaining the determination method of the weight of an overlap part. オフセットの軽減を説明する図である。It is a figure explaining reduction of offset. オフセットの軽減法を説明するフロー図である。It is a flowchart explaining the offset reduction method. 複合映像の重ね合わせによる明るさ向上を説明する図である。It is a figure explaining the brightness improvement by the superimposition of a composite image. ピクセルバッファによるサンプリングを説明する図である。It is a figure explaining the sampling by a pixel buffer. 夜間情景の投影時の重複部分の輝度調整を説明する図である。It is a figure explaining the brightness | luminance adjustment of the duplication part at the time of the projection of a night scene. マッピング関数の生成方法及び映像発生方法の一実施例を説明するフロー図である。It is a flowchart explaining one Example of the production | generation method of a mapping function, and a video generation method. マッピング関数の生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。It is a functional block diagram explaining one Example of the production | generation apparatus of a mapping function, and an image generation apparatus. 映像発生装置の一実施例を説明する機能ブロック図及び歪み補正の説明である。It is the functional block diagram explaining one Example of a video generator, and description of distortion correction. 映像発生方法の一実施例を説明するフロー図である。It is a flowchart explaining one Example of a video generation method. 複合映像の重ね合わせによる明るさ向上を説明するフロー図である。It is a flowchart explaining the brightness improvement by the superimposition of a composite image. 映像発生方法の一実施例を説明するフロー図である。It is a flowchart explaining one Example of a video generation method.

符号の説明Explanation of symbols

101…二次曲面スクリーン、102i…プロジェクタ、103i…コンピュータ、1041i,1042i…デジタルカメラ(ステレオカメラ)、105…コンピュータ、106…テスト点3次元復元手段、107…二次曲面係数行列推定手段、108…記憶装置、1091i,1092i…マッピング関数及び逆関数計算手段、110i…各コンピュータ103i内の記憶装置、111i…画像生成手段、112ai,112bi…ピクセルバッファ、113…ネットワーク。114i…オフセット計算手段、115m…基準仮想カメラ。   DESCRIPTION OF SYMBOLS 101 ... Quadric surface screen, 102i ... Projector, 103i ... Computer, 1041i, 1042i ... Digital camera (stereo camera), 105 ... Computer, 106 ... Test point three-dimensional reconstruction means, 107 ... Quadric surface coefficient matrix estimation means, 108 ... storage device, 1091i, 1092i ... mapping function and inverse function calculation means, 110i ... storage device in each computer 103i, 111i ... image generation means, 112ai, 112bi ... pixel buffer, 113 ... network. 114i: Offset calculation means, 115m: Reference virtual camera.

Claims (28)

二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記複数のプロジェクタごとに分割されたスクリーンを撮影するように配置されたステレオカメラと、コンピュータと、記憶装置とを有し、
コンピュータによる処理であって、
各プロジェクタpiからスクリーンに投影したテスト点の3次元復元を前記ステレオカメラによる行う第1の過程と、
前記復元した各プロジェクタpiの3次元点を1つの座標系に統合し、統合後の3次元点からスクリーン形状を表す2次曲面係数行列(Q)を推定する第2の過程と、
前記統合後の各プロジェクタpiの3次元点とこれに対応するテスト点の2次元点から各プロジェクタpiの位置姿勢行列(P)を推定する第3の過程と、
前記二次曲面スクリーンの投影面を分割して全体を撮影するように配置し、前記プロジェクタpiが投影する前記二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvm(m=1…M)を備え、前記推定した誤差を含む2次曲面係数行列(Q)と、前記複数の基準仮想カメラvm(m=1…M)の位置姿勢行列と、前記推定した誤差を含む各プロジェクタpiの位置姿勢行列(P)とを用いた計算により、2次曲面係数行列(Q)の誤差と各プロジェクタpiの位置姿勢行列(P)の誤差を含む、基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求める第4の過程と、
前記二次曲面スクリーンを見る位置に位置姿勢情報を持つ視点仮想カメラeを設定し、当該視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第4の過程によるマッピング関数Ψvmpiとにより、各プロジェクタと視点仮想カメラeとの間のマッピング関数Ψepiを求める第5の過程と、
前記第5の過程のマッピング関数Ψepiによりその逆関数を求める第6の過程と、
からなることを特徴とする分割撮像による歪み補正と統合のためのマッピング関数生成方法。
Arranged to shoot a quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and a screen divided for each of the plurality of projectors A stereo camera, a computer, and a storage device,
Computer processing,
A first step of performing three-dimensional reconstruction of the test points projected from the projectors pi on the screen by the stereo camera;
A second step of integrating the restored three-dimensional points of each projector pi into one coordinate system and estimating a quadric surface coefficient matrix (Q) representing the screen shape from the integrated three-dimensional points;
A third step of estimating the position and orientation matrix (P) of each projector pi from the three-dimensional point of each projector pi after integration and the two-dimensional point of the test point corresponding thereto;
A plurality of reference virtual cameras vm (m = 1... M) that divide the projection surface of the quadratic curved screen and shoot the whole and image the projection surface of the quadric curved screen projected by the projector pi. ) wherein the and estimated quadratic surface coefficient matrix including an error (Q), the position and orientation matrix of the plurality of reference virtual camera vm (m = 1 ... M) , for each projector pi including an error that the estimated the calculation using the position and orientation matrix (P), 2 quadratic surface coefficient matrix error and the position and orientation matrix for each projector pi of (Q) includes an error of (P), the reference virtual camera vm and mapping functions between the projector pi A fourth process for obtaining Ψvmpi;
A viewpoint virtual camera e having position and orientation information is set at a position where the quadric curved screen is viewed, a mapping function Ψevm between the position and orientation of the viewpoint virtual camera e and the reference virtual camera vm having the position and orientation is obtained, A fifth step of obtaining a mapping function ψepi between each projector and the viewpoint virtual camera e by the mapping function ψvmpi in step 4;
A sixth step of obtaining the inverse function by the mapping function Ψepi of the fifth step;
A mapping function generation method for distortion correction and integration by divided imaging, characterized by comprising:
請求項1における、第4の過程が、誤差を含むマッピング関数Ψvmpiを初期値としその誤差を最小にして最適化することを特徴とする分割撮像による歪み補正と統合のためのマッピング関数生成方法。 In claim 1, the fourth process, the mapping function Ψvmpi including an error as the initial value, the mapping function generating method for integrating the distortion correction by dividing an imaging characterized by optimized the error to a minimum . 二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、
前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する第1の過程と、
各プロジェクタから前記ピクセルバッファにおいて歪み補正した映像を前記二次曲面スクリーンに投影する第2の過程からなることを特徴とする分割撮像による歪み補正と統合方法。
A quadratic curved screen, a plurality of n projectors that are divided into the screens and arranged so that adjacent projection portions are continuous including overlapping portions, a computer provided for each projector, and a storage device ,
An image for each area projected by each projector is generated in the pixel buffer by each computer, and the generated image is distortion-corrected by an inverse function of the mapping for each projector previously obtained in claim 1 or 2. A first process for generating the pixel buffer;
A distortion correction and integration method by divided imaging, comprising a second process of projecting an image corrected for distortion in the pixel buffer from each projector onto the quadric curved screen.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記複数のプロジェクタごとに分割されたスクリーンを撮影するように配置されたステレオカメラと、コンピュータと、記憶装置とを有し、
コンピュータによる処理であって、
各プロジェクタpiからスクリーンに投影したテスト点の3次元復元を前記ステレオカメラによる行う第1の過程と、
前記復元した各プロジェクタpiの3次元点を1つの座標系に統合し、統合後の3次元点からスクリーン形状を表す2次曲面係数行列(Q)を推定する第2の過程と、
前記統合後の各プロジェクタpiの3次元点とこれに対応するテスト点の2次元点から各プロジェクタpiの位置姿勢行列(P)を推定する第3の過程と、
前記二次曲面スクリーンの投影面を分割して全体を撮影するように配置し、前記プロジェクタpiが投影する前記二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvm(m=1…M)を備え、前記推定した誤差を含む2次曲面係数行列(Q)と、前記複数の基準仮想カメラvm(m=1…M)の位置姿勢行列と、前記推定した誤差を含む各プロジェクタpiの位置姿勢行列(P)とを用いた計算により、2次曲面係数行列(Q)の誤差と各プロジェクタpiの位置姿勢行列(P)の誤差を含む、基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求める第4の過程と、
前記二次曲面スクリーンを見る右目又は左目のいずれか一方の位置に位置姿勢情報を持つ右目(又は左目)用の視点仮想カメラeを設定し、当該右目(又は左目)用の視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第4の過程によるマッピング関数Ψvmpiとにより、各プロジェクタと右目(又は左目)用の視点仮想カメラeとの間の右目(又は左目)用のマッピング関数Ψr(l)epiを求め、前記二次曲面スクリーンを見る前記右目又は左目のいずれか一方と異なる他方の位置に位置姿勢情報を持つ左目(又は右目)用の視点仮想カメラeを設定し、当該左目(又は右目)用の視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第4の過程によるマッピング関数Ψvmpiとにより、各プロジェクタと左目(又は右目)用の視点仮想カメラeとの間の左目(又は右目)用のマッピング関数Ψl(r)epiを求める第5の過程と、
前記第5の過程の右目用及び左目用のマッピング関数Ψrepi,Ψlepiによりその逆関数を求める第6の過程と、
からなることを特徴とする分割撮像による歪み補正と統合のためのマッピング関数生成方法。
Arranged to shoot a quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and a screen divided for each of the plurality of projectors A stereo camera, a computer, and a storage device,
Computer processing,
A first step of performing three-dimensional reconstruction of the test points projected from the projectors pi on the screen by the stereo camera;
A second step of integrating the restored three-dimensional points of each projector pi into one coordinate system and estimating a quadric surface coefficient matrix (Q) representing the screen shape from the integrated three-dimensional points;
A third step of estimating the position and orientation matrix (P) of each projector pi from the three-dimensional point of each projector pi after integration and the two-dimensional point of the test point corresponding thereto;
A plurality of reference virtual cameras vm (m = 1... M) that divide the projection surface of the quadratic curved screen and shoot the whole and image the projection surface of the quadric curved screen projected by the projector pi. ) wherein the and estimated quadratic surface coefficient matrix including an error (Q), the position and orientation matrix of the plurality of reference virtual camera vm (m = 1 ... M) , for each projector pi including an error that the estimated the calculation using the position and orientation matrix (P), 2 quadratic surface coefficient matrix error and the position and orientation matrix for each projector pi of (Q) includes an error of (P), the reference virtual camera vm and mapping functions between the projector pi A fourth process for obtaining Ψvmpi;
A right-eye (or left-eye) viewpoint virtual camera e having position and orientation information is set at one of the positions of the right eye and the left eye viewing the quadratic curved screen, and the right-eye (or left-eye) viewpoint virtual camera e is set. A mapping function Ψevm between the position and orientation and the reference virtual camera vm having the position and orientation is obtained, and the mapping function Ψvmpi according to the fourth process is used to connect between each projector and the viewpoint virtual camera e for the right eye (or left eye). A right eye (or left eye) mapping function Ψr (l) epi is obtained, and the left eye (or right eye) having position and orientation information at the other position different from either the right eye or the left eye viewing the quadric surface screen Mapping function between the position and orientation of the viewpoint virtual camera e for the left eye (or right eye) and the reference virtual camera vm having the position and orientation by setting the viewpoint virtual camera e evm is obtained, and the left eye (or right eye) mapping function Ψl (r) epi between each projector and the left eye (or right eye) viewpoint virtual camera e is obtained by the mapping function Ψvmpi in the fourth process. The fifth step,
A sixth step of obtaining the inverse function by the right eye and left eye mapping functions ψ repi, ψ lepi of the fifth step;
A mapping function generation method for distortion correction and integration by divided imaging, characterized by comprising:
請求項4における、第4の過程が、誤差を含むマッピング関数Ψvmpiを初期値としその誤差を最小にして最適化することを特徴とする分割撮像による歪み補正と統合のためのマッピング関数生成方法。 In claim 4, the fourth process, the mapping function Ψvmpi including an error as the initial value, the mapping function generating method for integrating the distortion correction by dividing an imaging characterized by optimized the error to a minimum . 二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、
前記各コンピュータにより各プロジェクタが投影する領域毎の右目用及び左目用の映像をピクセルバッファに生成するとともに予め請求項4又は請求項5において求めた各プロジェクタ毎の右目用及び左目用のマッピング関数Ψrepi,Ψlepiの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する第1の過程と、
各プロジェクタから前記ピクセルバッファにおいて歪み補正した右目用及び左目用の映像を前記二次曲面スクリーンに投影する第2の過程からなることを特徴とする分割撮像による歪み補正と統合方法。
A quadratic curved screen, a plurality of n projectors that are divided into the screens and arranged so that adjacent projection portions are continuous including overlapping portions, a computer provided for each projector, and a storage device ,
6. A right-eye and left-eye mapping function Ψrepi for each projector obtained in advance in claim 4 or claim 5 while generating images for right-eye and left-eye for each area projected by each projector by the computers. , Ψlepi inverse function, a first process of generating a distortion-corrected image in the pixel buffer,
A distortion correction and integration method by divided imaging, comprising a second step of projecting right-eye and left-eye images corrected for distortion in the pixel buffer from each projector onto the quadric curved screen.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、コンピュータと、記憶装置とを有し、
前記コンピュータにより各プロジェクタが投影する領域毎の映像を生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する第1の過程と、
各プロジェクタから前記ピクセルバッファにおいて歪み補正した映像を前記二次曲面スクリーンに投影して前記共通して重複する部分の明るさを大きくする第2の過程からなることを特徴とする分割撮像による歪み補正と統合方法。
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projection locations are continuous including an overlapping portion, a computer, and a storage device,
The computer generates an image for each area projected by each projector, and the image obtained by correcting distortion of the generated image by an inverse function of the mapping for each projector previously obtained in claim 1 or 2 is used as a pixel buffer. A first process to generate;
Distortion correction by divided imaging, characterized in that it comprises a second step of projecting the image corrected for distortion in the pixel buffer from each projector onto the quadric curved screen and increasing the brightness of the common overlapping portion. And how to integrate.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、
前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する第1の過程と、
各プロジェクタから前記歪み補正した映像を前記二次曲面スクリーンに投影する第2の過程からなることを特徴とする分割撮像による歪み補正と統合方法。
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and video equipment,
The video generated from the video device is divided and generated so as to be projected onto the plurality of n projectors onto the screen, and the divided and generated video is obtained by using an inverse function of mapping for each projector previously obtained in claim 1 or 2. A first process for generating a distortion-corrected image;
A distortion correction and integration method by divided imaging, comprising a second step of projecting the distortion-corrected video from each projector onto the quadric curved screen.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、
前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項4において求めた各プロジェクタ毎の右目用及び左目用のマッピング関数の逆関数により、前記分割生成した映像を歪み補正した映像を生成する第1の過程と、
各プロジェクタから前記歪み補正した右目用及び左目用の映像を前記二次曲面スクリーンに投影する第2の過程からなることを特徴とする分割撮像による歪み補正と統合方法。
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and video equipment,
The division from the video device is generated by projecting the image onto the screen onto the plurality of n projectors, and the division is performed according to the inverse function of the mapping function for the right eye and the left eye for each projector previously obtained in claim 4. A first step of generating a distortion corrected image of the generated image;
A distortion correction and integration method by divided imaging, comprising a second step of projecting the distortion-corrected right-eye and left-eye images from each projector onto the quadric curved screen.
二次曲面スクリーンと、前記スクリーン前方に位置して前記スクリーンに投影する領域を共通にして重複する部分を有するように配置された複数nのプロジェクタと、ビデオ機器とを有し、
前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する第1の過程と、
各プロジェクタから前記歪み補正した映像を前記二次曲面スクリーンに投影して前記共通して重複する部分の明るさを大きくする第2の過程からなることを特徴とする分割撮像による歪み補正と統合方法。
A quadratic curved screen, a plurality of n projectors disposed in front of the screen and arranged to have a common area projected onto the screen and overlapping, and a video device,
The video generated from the video device is divided and generated so as to be projected onto the plurality of n projectors onto the screen, and the divided and generated video is obtained by using an inverse function of mapping for each projector previously obtained in claim 1 or 2. A first process for generating a distortion-corrected image;
Distortion correction and integration method by divided imaging, characterized by comprising a second step of projecting the distortion-corrected image from each projector onto the quadric curved screen and increasing the brightness of the common overlapping portion .
ビデオ機器が、テレビジョン装置、ビデオ再生装置、パーソナルコンピュータであることを特徴とする請求項8又は請求項9又は請求項10記載の分割撮像による歪み補正と統合方法。   11. The distortion correction and integration method by divided imaging according to claim 8, wherein the video device is a television device, a video playback device, or a personal computer. 請求項3又は請求項6又は請求項7又は請求項8又は請求項9又は請求項10又は請求項11に記載の分割撮像による歪み補正と統合方法において、
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、コンピュータと、前記スクリーン前方に位置してスクリーンを撮影するように配置されたステレオカメラとを有し、
前記スクリーンに前記プロジェクタのいずれもから投影しない状態でステレオカメラにより撮影する第1の過程と、
前記各プロジェクタより前記スクリーンに黒状態の映像を投影してステレオカメラにより撮影するとともに複数nのプロジェクタのn回繰り返す第2の過程と、
コンピュータにおいて、第2の過程による各プロジェクタ毎の映像の輝度から第1の過程により得られた映像の輝度との差により各プロジェクタによる画面の平均値と当該平均値の和により最大値を得るとともに最大値と平均値の差によりオフセット値を得る第3の過程と、
コンピュータにおいて、一定周期で投影する映像の輝度を計測し、その平均値に従って、ブラックオフセットにかさ上げするオフセット値を一定周期で計算して変化させ黒レベルの調整を行う第4の過程とからなることを特徴とする分割撮像による歪み補正と統合方法。
In the distortion correction and integration method by divided imaging according to claim 3 or claim 6 or claim 7 or claim 8 or claim 9 or claim 10 or claim 11,
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, a computer, and a screen located in front of the screen so as to photograph the screen A stereo camera arranged,
A first step of photographing with a stereo camera in a state where none of the projectors projects onto the screen;
A second process in which a black image is projected from the projectors onto the screen and photographed by a stereo camera and repeated n times by a plurality of n projectors;
In the computer, the maximum value is obtained by the sum of the average value of the screen by each projector and the average value based on the difference between the brightness of the image for each projector in the second process and the brightness of the image obtained in the first process. A third step of obtaining an offset value by the difference between the maximum value and the average value;
The computer comprises a fourth process in which the luminance of the image projected at a constant cycle is measured, and the black level is adjusted by calculating and changing the offset value to be raised to the black offset at a constant cycle according to the average value. Distortion correction and integration method by divided imaging characterized by this.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ前方に設けた偏光板と、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、
前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項1又は請求項2において求めた各プロジェクタ毎のマッピング関数の逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する第1の過程と、
各プロジェクタから前記ピクセルバッファにおいて歪み補正した映像を前記二次曲面スクリーンに投影する第2の過程と、
夜間情景を表すときに前記偏光板により減光させる第3の過程からなることを特徴とする分割撮像による歪み補正と統合方法。
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, a polarizing plate provided in front of each projector, and each projector A computer provided with a storage device;
The computer generates a video for each area projected by each projector in the pixel buffer, and the distortion of the generated video is corrected by an inverse function of the mapping function for each projector previously obtained in claim 1 or claim 2. A first step of generating an image in a pixel buffer;
A second process of projecting, from each projector, a distortion corrected image in the pixel buffer onto the quadric curved screen;
A distortion correction and integration method by divided imaging, comprising a third process of dimming with the polarizing plate when representing a night scene.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記スクリーン前方に位置してスクリーンを撮影するように配置されたステレオカメラと、前記二次曲面スクリーンの投影面を分割して全体を撮影するように配置し、前記プロジェクタpiが投影する前記二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvm(m=1…M)と、前記二次曲面スクリーンを見る位置に配置された位置姿勢情報を持つ視点仮想カメラeと、コンピュータと、記憶装置とを有し、
各プロジェクタpiからスクリーンに投影したテスト点をステレオカメラで撮像して3次元復元を行うテスト点3次元復元手段と、
前記復元した各プロジェクタpiの3次元点を1つの座標系に統合し、統合後の3次元点からスクリーン形状を表す2次曲面係数行列(Q)を推定する2次曲面係数行列(Q)推定手段と、
前記統合後の各プロジェクタpiの3次元点とこれに対応するテスト点の2次元点から各プロジェクタpiの位置姿勢行列(P)を推定するプロジェクタ位置姿勢推定手段と、
前記推定した誤差を含む2次曲面係数行列(Q)と、前記複数の基準仮想カメラvm(m=1…M)の位置姿勢行列と、前記推定した誤差を含む各プロジェクタpiの位置姿勢行列(P)とを用いた計算により、2次曲面係数行列(Q)の誤差と各プロジェクタpiの位置姿勢行列(P)の誤差を含む、基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求める第1のマッピング関数計算手段と、
当該視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第1のマッピング関数計算手段によるマッピング関数Ψvmpiとにより、各プロジェクタと視点仮想カメラeとの間のマッピング関数Ψepiを求める第2のマッピング関数計算手段と、
前記第2のマッピング関数計算手段によるマッピング関数Ψepiによりその逆関数を求める逆関数計算手段と、
前記複数プロジェクタ毎にマッピング関数Ψvmpi,Ψepi及びその逆関数を格納する記憶装置と
からなることを特徴とする分割撮像による歪み補正と統合のためのマッピング関数生成装置。
A quadratic curved screen, a plurality of n projectors that are divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and are arranged to photograph the screen in front of the screen A stereo camera and a plurality of reference virtual cameras vm (m (m) arranged to divide the projection surface of the quadratic curved screen and shoot the whole and image the projection surface of the quadric curved screen projected by the projector pi. = 1... M), a viewpoint virtual camera e having position and orientation information arranged at a position to view the quadric curved screen, a computer, and a storage device,
A test point 3D restoration means for performing a 3D restoration by imaging a test point projected from each projector pi on a screen with a stereo camera;
Quadratic surface coefficient matrix (Q) estimation that integrates the restored three-dimensional points of each projector pi into one coordinate system and estimates a quadratic surface coefficient matrix (Q) representing the screen shape from the integrated three-dimensional points. Means,
Projector position / orientation estimation means for estimating a position / orientation matrix (P) of each projector pi from the three-dimensional point of each projector pi after integration and the two-dimensional point of the test point corresponding thereto;
Wherein the estimated quadratic surface coefficient matrix including an error (Q), the plurality of reference position and orientation matrix of the virtual camera vm (m = 1 ... M) , the position and orientation matrix for each projector pi including an error that the estimated ( P) to obtain a mapping function Ψvmpi between the reference virtual camera vm and the projector pi , including the error of the quadratic surface coefficient matrix (Q) and the error of the position and orientation matrix (P) of each projector pi . 1 mapping function calculation means;
A mapping function ψevm between the position and orientation of the viewpoint virtual camera e and the reference virtual camera vm having the position and orientation is obtained, and the mapping function ψvmpi by the first mapping function calculation means is used to determine whether each projector and the viewpoint virtual camera e A second mapping function calculation means for obtaining a mapping function Ψepi between
An inverse function calculating means for obtaining an inverse function by a mapping function Ψepi by the second mapping function calculating means;
A mapping function generating apparatus for distortion correction and integration by divided imaging, comprising a storage device storing mapping functions Ψvmpi, Ψepi and the inverse function for each of the plurality of projectors.
請求項14の分割撮像による歪み補正と統合のためのマッピング関数生成装置において、第1のマッピング関数計算手段が、誤差を含むマッピング関数Ψvmpiを初期値としその誤差を最小にして最適化する最適化手段を備えることを特徴とする分割撮像による歪み補正と統合のためのマッピング関数生成装置。 In mapping function generator for distortion correction and integration by resolution imaging of claim 14, optimal first mapping function calculation means, a mapping function Ψvmpi including an error as the initial value, to optimize the error minimized A mapping function generation apparatus for distortion correction and integration by divided imaging, characterized by comprising: 二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、
前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する映像生成手段と、
前記各コンピュータのピクセルバッファからの歪み補正した各映像を前記二次曲面スクリーンに投影する複数nのプロジェクタとからなることを特徴とする分割撮像による歪み補正と統合装置。
A quadratic curved screen, a plurality of n projectors that are divided into the screens and arranged so that adjacent projection portions are continuous including overlapping portions, a computer provided for each projector, and a storage device ,
An image for each region projected by each projector is generated in the pixel buffer by each computer, and the generated image is distortion-corrected by an inverse function of the mapping for each projector previously obtained in claim 14 or claim 15. Video generation means for generating a pixel buffer;
An apparatus for distortion correction and integration by divided imaging, comprising: a plurality of n projectors that project each distortion-corrected image from a pixel buffer of each computer onto the quadric curved screen.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記スクリーン前方に位置してスクリーンを撮影するように配置されたステレオカメラと、前記二次曲面スクリーンの投影面を分割して全体を撮影するように配置し、前記プロジェクタpiが投影する前記二次曲面スクリーンの投影面を撮影する複数の基準仮想カメラvm(m=1…M)と、
前記二次曲面スクリーンを見る右目の位置に配置された位置姿勢情報を持つ右目用の視点仮想カメラer及び左目の位置に配置された位置姿勢情報を持つ左目用の視点仮想カメラelと、コンピュータと、記憶装置とを有し、
各プロジェクタpiからスクリーンに投影したテスト点をステレオカメラで撮像して3次元復元を行うテスト点3次元復元手段と、
前記復元した各プロジェクタpiの3次元点を1つの座標系に統合し、統合後の3次元点からスクリーン形状を表す2次曲面係数行列(Q)を推定する2次曲面係数行列(Q)推定手段と、
前記統合後の各プロジェクタpiの3次元点とこれに対応するテスト点の2次元点から各プロジェクタpiの位置姿勢行列(P)を推定するプロジェクタ位置姿勢推定手段と、
前記推定した誤差を含む2次曲面係数行列(Q)と、前記複数の基準仮想カメラvm(m=1…M)の位置姿勢行列と、前記推定した誤差を含む各プロジェクタpiの位置姿勢行列(P)とを用いた計算により、2次曲面係数行列(Q)の誤差と各プロジェクタpiの位置姿勢行列(P)の誤差を含む、基準仮想カメラvmとプロジェクタpi間のマッピング関数Ψvmpiを求める第1のマッピング関数計算手段と、
当該右目(又は左目)用の視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第1のマッピング関数計算手段によるマッピング関数Ψvmpiとにより、各プロジェクタと右目(又は左目)用の視点仮想カメラeとの間の右目(又は左目)用のマッピング関数Ψr(l)epiを求め、当該左目(又は右目)用の視点仮想カメラeの位置姿勢と前記位置姿勢を持つ基準仮想カメラvm間のマッピング関数Ψevmを求め、前記第1のマッピング関数計算手段によるマッピング関数Ψvmpiとにより、各プロジェクタと左目(又は右目)用の視点仮想カメラeとの間の左目(又は右目)用のマッピング関数Ψl(r)epiを求める第2のマッピング関数計算手段と、
前記第2のマッピング関数計算手段の右目用及び左目用のマッピング関数Ψrepi,Ψlepiによりその逆関数を求める逆関数計算手段と、
前記複数プロジェクタ毎にマッピング関数Ψvmpi,Ψepi及びその逆関数を格納する記憶装置と
からなることを特徴とする分割撮像による歪み補正と統合のためのマッピング関数生成装置。
A quadratic curved screen, a plurality of n projectors that are divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and are arranged to photograph the screen in front of the screen A stereo camera and a plurality of reference virtual cameras vm (m (m) arranged to divide the projection surface of the quadratic curved screen and shoot the whole and image the projection surface of the quadric curved screen projected by the projector pi. = 1 ... M)
A viewpoint virtual camera er for right eye having position and orientation information arranged at the position of the right eye viewing the quadratic curved screen, a viewpoint virtual camera el for left eye having position and orientation information arranged at the position of the left eye, a computer, A storage device,
A test point 3D restoration means for performing a 3D restoration by imaging a test point projected from each projector pi on a screen with a stereo camera;
Quadratic surface coefficient matrix (Q) estimation that integrates the restored three-dimensional points of each projector pi into one coordinate system and estimates a quadratic surface coefficient matrix (Q) representing the screen shape from the integrated three-dimensional points. Means,
Projector position / orientation estimation means for estimating a position / orientation matrix (P) of each projector pi from the three-dimensional point of each projector pi after integration and the two-dimensional point of the test point corresponding thereto;
Wherein the estimated quadratic surface coefficient matrix including an error (Q), the plurality of reference position and orientation matrix of the virtual camera vm (m = 1 ... M) , the position and orientation matrix for each projector pi including an error that the estimated ( P) to obtain a mapping function Ψvmpi between the reference virtual camera vm and the projector pi , including the error of the quadratic surface coefficient matrix (Q) and the error of the position and orientation matrix (P) of each projector pi . 1 mapping function calculation means;
A mapping function Ψevm between the position and orientation of the viewpoint virtual camera e for the right eye (or left eye) and the reference virtual camera vm having the position and orientation is obtained, and each projector is determined by the mapping function Ψvmpi by the first mapping function calculation means. A right eye (or left eye) mapping function Ψr (l) epi between the left eye (or left eye) viewpoint virtual camera e, and the position and orientation of the left eye (or right eye) viewpoint virtual camera e The mapping function Ψevm between the reference virtual cameras vm having the position and orientation is obtained, and the left eye between each projector and the viewpoint virtual camera e for the left eye (or right eye) is determined by the mapping function Ψvmpi by the first mapping function calculation means. A second mapping function calculating means for obtaining a mapping function Ψl (r) epi for (or the right eye);
Inverse function calculation means for obtaining the inverse function by the right eye and left eye mapping functions Ψ repi, Ψ lepi of the second mapping function calculation means;
A mapping function generating apparatus for distortion correction and integration by divided imaging, comprising a storage device storing mapping functions Ψvmpi, Ψepi and the inverse function for each of the plurality of projectors.
請求項17に記載の分割撮像による歪み補正と統合のためのマッピング関数生成装置において、第1のマッピング関数計算手段が、誤差を含むマッピング関数Ψvmpiを初期値としその誤差を最小にして最適化する最適化手段を備えることを特徴とする分割撮像による歪み補正と統合のためのマッピング関数生成装置。 In mapping function generator for distortion correction and integration by resolution imaging of claim 17, optimizing the first mapping function calculation means, and a mapping function Ψvmpi including an error as the initial value, and the minimum error A mapping function generation device for distortion correction and integration by divided imaging, comprising: an optimization unit that performs the above-described optimization. 二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、
前記各コンピュータにより各プロジェクタが投影する領域毎の右目用及び左目用の映像をピクセルバッファに生成するとともに予め請求項17又は請求項18において求めた各プロジェクタ毎の右目用及び左目用のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する映像生成手段と、
前記ピクセルバッファにおいて歪み補正した右目用及び左目用の映像を前記二次曲面スクリーンに投影する複数nのプロジェクタとからなることを特徴とする分割撮像による歪み補正と統合装置。
A quadratic curved screen, a plurality of n projectors that are divided into the screens and arranged so that adjacent projection portions are continuous including overlapping portions, a computer provided for each projector, and a storage device ,
The right-eye and left-eye images for each area projected by each projector are generated in the pixel buffer by the computers, and the inverse of the right-eye and left-eye mapping for each projector previously obtained in claim 17 or 18. Image generating means for generating, in a pixel buffer, an image obtained by correcting the distortion of the generated image by a function;
An apparatus for distortion correction and integration by divided imaging, comprising: a plurality of n projectors that project right-eye and left-eye images corrected for distortion in the pixel buffer onto the quadric curved screen.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、コンピュータと、記憶装置とを有し、
前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する映像生成手段と、
前記各コンピュータのピクセルバッファからの歪み補正した各映像を前記二次曲面スクリーンに投影して前記共通して重複する部分の明るさを大きくするように配置された複数nのプロジェクタとからなることを特徴とする分割撮像による歪み補正と統合装置。
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projection locations are continuous including an overlapping portion, a computer, and a storage device,
An image for each region projected by each projector is generated in the pixel buffer by each computer, and the generated image is distortion-corrected by an inverse function of the mapping for each projector previously obtained in claim 14 or claim 15. Video generation means for generating a pixel buffer;
A plurality of projectors arranged so as to project the distortion-corrected images from the pixel buffer of each computer onto the quadric curved screen to increase the brightness of the common overlapping portion. Distortion correction and integration device by featured divided imaging.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、
前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する映像生成手段と、
前記歪み補正した各映像を前記二次曲面スクリーンに投影する複数nの各プロジェクタとからなることを特徴とする分割撮像による歪み補正と統合装置。
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and video equipment,
The video generated from the video device is divided and generated so as to be projected onto the plurality of n projectors onto the screen, and the divided and generated video is obtained by an inverse function of mapping for each projector previously obtained in claim 14 or claim 15. A video generation means for generating a video with distortion corrected,
An apparatus for distortion correction and integration by divided imaging, comprising: a plurality of n projectors that project the distortion-corrected images onto the quadric curved screen.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、
前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項17において求めた各プロジェクタ毎の右目用及び左目用のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する映像生成手段と、
前記歪み補正した右目用及び左目用の映像を前記二次曲面スクリーンに投影する複数nの各プロジェクタからなることを特徴とする分割撮像による歪み補正と統合装置。
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and video equipment,
The division generation is performed by dividing and generating the image from the video device so as to be projected onto the n projectors on the screen, and by the inverse function of the right-eye and left-eye mapping for each projector previously obtained in claim 17. Image generation means for generating a distortion corrected image,
An apparatus for distortion correction and integration by divided imaging, comprising a plurality of n projectors that project the distortion-corrected right-eye and left-eye images onto the quadric curved screen.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、ビデオ機器とを有し、
前記ビデオ機器からの映像を前記スクリーンへ前記複数nのプロジェクタに投影するように分割生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記分割生成した映像を歪み補正した映像を生成する映像生成手段と、
前記歪み補正した映像を前記二次曲面スクリーンに投影して前記共通して重複する部分の明るさを大きくするように配置された複数nのプロジェクタからなることを特徴とする分割撮像による歪み補正と統合装置。
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and video equipment,
The video generated from the video device is divided and generated so as to be projected onto the plurality of n projectors onto the screen, and the divided and generated video is obtained by an inverse function of mapping for each projector previously obtained in claim 14 or claim 15. A video generation means for generating a video with distortion corrected,
Distortion correction by divided imaging, comprising: a plurality of n projectors arranged to project the distortion-corrected image on the quadric curved screen and increase the brightness of the common overlapping portion; Integrated device.
ビデオ機器が、テレビジョン装置、ビデオ再生装置、パーソナルコンピュータであることを特徴とする請求項21又は請求項22又は請求項23記載の分割撮像による歪み補正と統合装置。   24. The distortion correction / integration apparatus according to claim 21, 22 or 23, wherein the video equipment is a television apparatus, a video reproduction apparatus, or a personal computer. 請求項16又は請求項19又は請求項20又は請求項21又は請求項22又は請求項23又は請求項24に記載の分割撮像による歪み補正と統合装置において、  In the distortion correction and integration device by divided imaging according to claim 16 or claim 19 or claim 20 or claim 21 or claim 22 or claim 23 or claim 24,
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、前記スクリーン前方に位置してスクリーンを撮影するように配置されたステレオカメラとを有し、  A quadratic curved screen, a plurality of n projectors that are divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, and are arranged to photograph the screen in front of the screen A stereo camera,
プロジェクタの何れからも投影しない第1の状態のスクリーンを撮影するとともに前記各プロジェクタより黒状態を投影したスクリーンの第2の状態をプロジェクタ毎に撮影するカメラと、  A camera that shoots a screen in a first state that is not projected from any of the projectors and that shoots a second state of the screen that projects a black state from each projector;
前記カメラが撮影した前記第2の状態を投影した各プロジェクタ毎の映像の輝度から、前記第1の状態を撮影した映像の輝度との差により各プロジェクタによる画面の平均値と当該平均値の和により最大値を得るとともに最大値と平均値の差によりオフセット値を得るオフセット計算手段と、  The average value of the screen by each projector and the sum of the average values by the difference between the luminance of the video for each projector that has projected the second state photographed by the camera and the luminance of the video that has photographed the first state An offset calculation means for obtaining a maximum value by means of and obtaining an offset value by a difference between the maximum value and the average value;
前記各コンピュータにより、一定周期で投影する映像の輝度を計測し、その平均値に従って、ブラックオフセットにかさ上げするオフセット値を一定周期で計算して変化させ黒レベルの調整を行って映像生成する映像生成手段とからなることを特徴とする分割撮像による歪み補正と統合装置。  A video for generating a video by measuring the luminance of a video projected at a constant cycle by each of the computers, adjusting the black level according to the average value, calculating and changing the offset value to be raised to a black offset at a fixed cycle An apparatus for distortion correction and integration by divided imaging, characterized by comprising: generating means.
二次曲面スクリーンと、前記スクリーンに分割しかつ隣接投影箇所が重複部分を含み連続になるように配置された複数nのプロジェクタと、偏光板と、前記各プロジェクタ毎に備えたコンピュータと、記憶装置とを有し、
前記各コンピュータにより各プロジェクタが投影する領域毎の映像をピクセルバッファに生成するとともに予め請求項14又は請求項15において求めた各プロジェクタ毎のマッピングの逆関数により、前記生成した映像を歪み補正した映像をピクセルバッファに生成する映像生成手段と、
前記各コンピュータのピクセルバッファからの歪み補正した各映像を前記二次曲面スクリーンに投影する複数nのプロジェクタと、
前記各プロジェクタ前方に設け、夜間情景を表すときに各プロジェクタからの光量を減光させる偏光板とからなることを特徴とする分割撮像による歪み補正と統合装置。
A quadratic curved screen, a plurality of n projectors divided into the screens and arranged so that adjacent projections are continuous including overlapping portions, a polarizing plate, a computer provided for each projector, and a storage device And
An image for each region projected by each projector is generated in the pixel buffer by each computer, and the generated image is distortion-corrected by an inverse function of the mapping for each projector previously obtained in claim 14 or claim 15. Video generation means for generating a pixel buffer;
A plurality of projectors for projecting each distortion-corrected image from the pixel buffer of each computer onto the quadric curved screen;
A distortion correction and integration apparatus using divided imaging, which is provided in front of each projector and includes a polarizing plate that reduces the amount of light from each projector when representing a night scene.
各プロジェクタが自由度を持ったフレキシブルアームにより床面に設置されたことを特徴とする請求項14又は請求項15又は請求項17又は請求項18に記載の分割撮像による歪み補正と統合のためのマッピング関数生成装置。   19. Each of the projectors is installed on a floor surface by a flexible arm having a degree of freedom, and is used for distortion correction and integration by divided imaging according to claim 14 or claim 15 or claim 17 or claim 18. Mapping function generator. 各プロジェクタが自由度を持ったフレキシブルアームにより床面に設置されたことを特徴とする請求項16又は請求項19〜26のいずれかに記載の分割撮像による歪み補正と統合装置。   27. The distortion correction and integration device by divided imaging according to claim 16, wherein each projector is installed on a floor surface by a flexible arm having a degree of freedom.
JP2007163457A 2007-06-21 2007-06-21 Distortion correction and integration method using divided imaging, mapping function generation method therefor, distortion correction and integration device using divided imaging, and mapping function generation apparatus therefor Active JP5236219B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007163457A JP5236219B2 (en) 2007-06-21 2007-06-21 Distortion correction and integration method using divided imaging, mapping function generation method therefor, distortion correction and integration device using divided imaging, and mapping function generation apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007163457A JP5236219B2 (en) 2007-06-21 2007-06-21 Distortion correction and integration method using divided imaging, mapping function generation method therefor, distortion correction and integration device using divided imaging, and mapping function generation apparatus therefor

Publications (2)

Publication Number Publication Date
JP2009005044A JP2009005044A (en) 2009-01-08
JP5236219B2 true JP5236219B2 (en) 2013-07-17

Family

ID=40320957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007163457A Active JP5236219B2 (en) 2007-06-21 2007-06-21 Distortion correction and integration method using divided imaging, mapping function generation method therefor, distortion correction and integration device using divided imaging, and mapping function generation apparatus therefor

Country Status (1)

Country Link
JP (1) JP5236219B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355601B2 (en) * 2010-01-15 2013-01-15 Seiko Epson Corporation Real-time geometry aware projection and fast re-calibration
JP5783829B2 (en) * 2011-07-21 2015-09-24 三菱プレシジョン株式会社 Method for correcting image distortion, device for correcting image distortion, simulated visual field display device, and simulator for operation training
JP6083185B2 (en) 2012-10-12 2017-02-22 セイコーエプソン株式会社 Projector, projector black level area setting method
JP2014134611A (en) * 2013-01-09 2014-07-24 Ricoh Co Ltd Geometric distortion correction device, projector, and geometric distortion correction method
KR101669926B1 (en) 2014-02-03 2016-11-09 (주)에프엑스기어 User view point related image processing apparatus and method thereof
WO2015141080A1 (en) * 2014-03-18 2015-09-24 アドバンストヘルスケア株式会社 Projector system and calibration board
JP6458396B2 (en) * 2014-08-18 2019-01-30 株式会社リコー Image processing system and image projection apparatus
JP6608208B2 (en) * 2015-07-24 2019-11-20 国立大学法人静岡大学 Image display device
WO2019138637A1 (en) * 2018-01-10 2019-07-18 コニカミノルタプラネタリウム株式会社 Planetarium control device, planetarium system, and control program for planetarium control device
JP7467947B2 (en) 2020-01-31 2024-04-16 セイコーエプソン株式会社 METHOD FOR CONTROLLING IMAGE PROJECTION SYSTEM AND IMAGE PROJECTION SYSTEM
JP7163943B2 (en) 2020-09-10 2022-11-01 セイコーエプソン株式会社 INFORMATION GENERATION METHOD, INFORMATION GENERATION SYSTEM AND PROGRAM
CN113840135B (en) * 2021-09-03 2023-10-20 大连中科创达软件有限公司 Color cast detection method, device, equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3880582B2 (en) * 2004-02-13 2007-02-14 Necビューテクノロジー株式会社 Projector with multiple cameras
JP4013922B2 (en) * 2004-06-14 2007-11-28 松下電工株式会社 Virtual reality generation apparatus and method
JP4751084B2 (en) * 2005-01-11 2011-08-17 三菱プレシジョン株式会社 Mapping function generation method and apparatus, and composite video generation method and apparatus

Also Published As

Publication number Publication date
JP2009005044A (en) 2009-01-08

Similar Documents

Publication Publication Date Title
JP5236219B2 (en) Distortion correction and integration method using divided imaging, mapping function generation method therefor, distortion correction and integration device using divided imaging, and mapping function generation apparatus therefor
US8358873B2 (en) Hybrid system for multi-projector geometry calibration
US6793350B1 (en) Projecting warped images onto curved surfaces
Raskar et al. Multi-projector displays using camera-based registration
KR100653200B1 (en) Method and apparatus for providing panoramic view with geometry correction
US9195121B2 (en) Markerless geometric registration of multiple projectors on extruded surfaces using an uncalibrated camera
US6709116B1 (en) Shape-adaptive projector system
US6755537B1 (en) Method for globally aligning multiple projected images
US6834965B2 (en) Self-configurable ad-hoc projector cluster
US6628298B1 (en) Apparatus and method for rendering synthetic objects into real scenes using measurements of scene illumination
US6715888B1 (en) Method and system for displaying images on curved surfaces
US20040257540A1 (en) Single or multi-projector for arbitrary surfaces without calibration nor reconstruction
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
US20090073259A1 (en) Imaging system and method
CN109314753A (en) Medial view is generated using light stream
KR20160034847A (en) System and method for calibrating a display system using a short throw camera
JP4751084B2 (en) Mapping function generation method and apparatus, and composite video generation method and apparatus
KR20160118868A (en) System and method for displaying panorama image using single look-up table
JP2005500756A (en) Multi-projector mosaic with automatic alignment
JP2004289822A (en) Method for determining largest rectangle on display surface
US20020061194A1 (en) Three-dimensional-picture-generating apparatus, three-dimensional-picture-generating method and program-presenting medium
US20100002074A1 (en) Method, device, and computer program for reducing the resolution of an input image
JP2002071315A (en) Projection planar measuring system
JP2004015205A (en) Multi-projection system and correction data acquisition method in multi-projection system
Ikeda et al. Calibration method for an omnidirectional multicamera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130327

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5236219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250