JP4554231B2 - Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus - Google Patents

Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus Download PDF

Info

Publication number
JP4554231B2
JP4554231B2 JP2004040361A JP2004040361A JP4554231B2 JP 4554231 B2 JP4554231 B2 JP 4554231B2 JP 2004040361 A JP2004040361 A JP 2004040361A JP 2004040361 A JP2004040361 A JP 2004040361A JP 4554231 B2 JP4554231 B2 JP 4554231B2
Authority
JP
Japan
Prior art keywords
image
eye
screen
projector
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004040361A
Other languages
Japanese (ja)
Other versions
JP2005234698A (en
Inventor
正人 緒方
博之 和田
景範 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Precision Co Ltd
Original Assignee
Mitsubishi Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Precision Co Ltd filed Critical Mitsubishi Precision Co Ltd
Priority to JP2004040361A priority Critical patent/JP4554231B2/en
Publication of JP2005234698A publication Critical patent/JP2005234698A/en
Application granted granted Critical
Publication of JP4554231B2 publication Critical patent/JP4554231B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

この発明は、コンピュータグラフィックスによる並列映像発生に際して用いる歪みパラメータの生成方法及び映像発生の方法並びにこれらの装置、さらにはその応用に関するものである。   The present invention relates to a distortion parameter generation method and a video generation method used in parallel video generation by computer graphics, to these apparatuses, and to applications thereof.

映像を扱う対象を分割してこれらを各演算処理器で並列映像発生処理し、各映像を複数のプロジェクタでスクリーンに投影し、一つの合成した映像を得るものがある。
複数のプロジェクタでスクリーンに投影して連続した一つの映像を得るには、表示スクリーンとプロジェクタの空間的関係を知る必要があるが、図3(a)の様に、スクリーンSとプロジェクタPの位置関係が正対しない状況がある。このような場合、映像が歪んで投影される。図3(b)の様に、映像発生元で逆の歪みを加えておけば投影されたとき正しく映像が写ることとなる。
There are some which divide a target to handle video, generate parallel video by each processor, project each video on a screen by a plurality of projectors, and obtain one synthesized video.
In order to obtain a single continuous image by projecting onto a screen with a plurality of projectors, it is necessary to know the spatial relationship between the display screen and the projector. However, as shown in FIG. There is a situation where the relationship is not confronted. In such a case, the image is projected with distortion. As shown in FIG. 3B, if reverse distortion is applied at the image generation source, the image will be correctly captured when projected.

しかし、従来の映像発生は、映像発生部と表示した映像間に情報の帰還がなく、予め表示するスクリーンを想定して映像を歪ませるパラメータを与えるため、スクリーンの配置、スクリーンの形状を容易に変更できない、部分に分けて発生した表示映像の連続性を保つ調整が複雑であるなどの問題点があった。
また、非特許文献1に示したように、設置位置が不明なプロジェクタi(1…n)から投影した映像と、同様に設置位置が不明なカメラで撮像したスクリーン上の歪み映像とが3行3列のマトリクスにより対応づけられ、このマトリクスを利用してプロジェクタ座標の映像に逆歪みをかけ、映像の歪み補正を行うものがあるが、単一スクリーンに限られている。
社団法人情報処理学会、「FIT2003 情報科学技術フォーラム 一般講演論文集 第3分冊」二〇〇三年八月二十五日発行、p.401〜403
However, in the conventional video generation, there is no feedback of information between the video generator and the displayed video, and parameters are given to distort the video assuming a screen to be displayed in advance. There are problems such as inability to change, complicated adjustment to maintain the continuity of the display video generated in divided parts.
Further, as shown in Non-Patent Document 1, there are three lines of an image projected from a projector i (1... N) whose installation position is unknown and a distortion image on the screen imaged by a camera whose installation position is unknown. There is a matrix that is associated with a matrix of three columns and uses this matrix to apply reverse distortion to the image of the projector coordinates to correct the distortion of the image, but this is limited to a single screen.
Information Processing Society of Japan, “FIT2003 Information Science and Technology Forum General Lecture Collection Vol. 3”, published on August 25, 2003, p. 401-403

本発明は、表示スクリーンと映像発生部間の情報帰還を、カメラで撮像した画像により行い、複数スクリーンの配置、スクリーンの形状を容易に変更でき、部分に分けて発生した表示映像の連続性を保つ調整が容易になる方法及び手段を提供することにある。   The present invention performs feedback of information between the display screen and the image generation unit using an image captured by a camera, and can easily change the arrangement of the plurality of screens and the shape of the screen, and the continuity of the generated display image divided into parts It is an object of the present invention to provide a method and means that facilitate adjustment to be maintained.

上記課題を解決するため請求項1に係る歪みパラメータの生成方法は、複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる複数pのプロジェクタと、前記複数pのプロジェクタ毎に対応して備えられる複数mのコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有し、前記プロジェクタに対応したコンピュータiにより作成された白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンを当該プロジェクタに対応するスクリーンに投影する第1の課程と、前記テストパターンが投影されている前記スクリーンを、視点となる位置もしくは視点位置より後方に配置された前記デジタルカメラにより撮像する第2の課程と、前記撮像した画像から、表示映像とスクリーンとの合致に必要な、スクリーンを構成する頂点と、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーとを画像認識により検出し、その位置を、デジタルカメラを接続した前記コンピュータを用いて求める第3の課程と、前記第3の課程で求めた前記頂点と前記コーナーとにより、歪み調整と合成およびスクリーンと表示映像を合致させるための変換マトリクス、スケールマトリクス及び移動マトリクスをデジタルカメラを接続した前記コンピュータにより求める第4の課程と、第1の課程から第4の課程を、前記複数nの各スクリーンについて、備えられる複数pのプロジェクタが実行した後、各投影映像を1つの滑らかな映像に合成しかつスクリーンに合致させるための前記第4の課程で求めた各変換マトリクス、スケールマトリクス及び移動マトリクスの積をとり合成した合成マトリクスを、歪パラメータとして、プロジェクタ毎に記憶装置に格納する第5の課程とからなることを特徴とするものである。
In order to solve the above problem, a distortion parameter generating method according to claim 1 is a projection space configured by combining a plurality of n screens, and a plurality of p projectors provided corresponding to each of the plurality of n screens, A white and black rectangle created by a computer i having a plurality of m computers provided corresponding to each of the plurality of p projectors, a digital camera connected to the computer, and a storage device, and corresponding to the projector. A first process for projecting a test pattern common to each projector in a checkered pattern arranged vertically and horizontally on a screen corresponding to the projector, and the screen on which the test pattern is projected from a position as a viewpoint or a viewpoint position a second course of imaging by arranged the digital camera to the rear, the shooting From images, display necessary for matching between the image and the screen, the vertex constituting the screen, necessary for synthesizing the correction into one smooth image distortion of each projection image, of the rectangular portion of the test pattern and corners four is adjacent portions constitutes, detected through image recognition, the vertex of its position, and a third course determined using the computer connected to the digital camera, obtained by the third program the said corner and a conversion matrix for matching the displayed image distortion adjustment synthesis and screen and the scale matrix and movement matrix, and a fourth program obtained by the computer connected to the digital camera, the first course the fourth course, for each screen of the plurality n, after the projector is running multiple p provided, each projection Each transformation matrix obtained by the fourth program for meeting the synthesized and screen images into a single smooth image, a scale matrix and synthetic synthetic matrix taking the product of the moving matrix, as distortion parameters, for each projector And a fifth course stored in the storage device.

上記課題を解決するため請求項2に係る映像発生方法は、複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる複数pのプロジェクタと、前記複数pのプロジェクタ毎に対応して備えられる複数mのコンピュータとを有し、複数mの各々のコンピュータの処理において、コンピュータにより生成された画像が格納されているフレームメモリから画像を読み出す第1の課程と、前記読み出した画像をテクスチャマッピングする仮想面を請求項1において生成した歪みパラメータを用いて回転させる第2の課程と、前記回転させた仮想面に前記読み出した画像をテクスチャパターンとして貼り付ける第3の課程と、前記回転させた仮想面に貼り付けた映像をフレームメモリに格納する第4の課程と、前記第4の課程で格納したフレームメモリ内の映像を当該コンピュータに対応するプロジェクタにより対応するスクリーンへ投影する第5の課程とからなることを特徴とするものである。   In order to solve the above problem, a video generation method according to a second aspect of the present invention is a projection space configured by combining a plurality of n screens, a plurality of p projectors provided corresponding to each of the plurality of n screens, and the plurality of p A first process of reading an image from a frame memory in which an image generated by the computer is stored in the processing of each of the plurality of computers. A second process of rotating a virtual surface for texture mapping of the read image using the distortion parameter generated in claim 1, and a third step of pasting the read image as a texture pattern on the rotated virtual surface And storing the video pasted on the rotated virtual surface in the frame memory. And course of the video in the fourth frame memory storing at course and is characterized in that comprising a fifth program for projecting the corresponding screen by the projector corresponding to the computer.

上記課題を解決するため請求項3に係る歪みパラメータ生成装置は、複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる複数pのプロジェクタと、前記複数pのプロジェクタ毎に対応して備えられる複数mのコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有する歪みパラメータ生成装置であって、白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンを対応するスクリーン毎に投影する前記複数のプロジェクタと、視点となる位置もしくは視点位置より後方に配置され、前記スクリーンに投影されている前記テストパターンを撮像するデジタルカメラと、前記デジタルカメラを接続したコンピュータにより構成され、前記撮像した画像から、表示映像とスクリーンとの合致に必要な、各スクリーンを構成する頂点と、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーとを画像認識により検出し、その位置を求める位置検出手段と、前記位置検出手段で求めた各スクリーン毎の前記頂点と前記コーナーとにより、歪み調整と合成およびスクリーンと表示映像を合致させるための各スクリーンに係る変換マトリクス、スケールマトリクス及び移動マトリクス前記デジタルカメラを接続したコンピュータにより求めるマトリクス計算手段と、前記マトリクス計算手段により求めた各変換マトリクス、スケールマトリクス及び移動マトリクスの積をとり合成した合成マトリクスを、歪パラメータとして、プロジェクタ毎に格納する記憶装置とを備えたことを特徴とするものである。
In order to solve the above-described problem, a distortion parameter generation device according to a third aspect of the present invention is a projection space configured by combining a plurality of n screens, a plurality of p projectors provided corresponding to each of the plurality of n screens, and the plurality of projectors. A distortion parameter generation device having a plurality of m computers provided corresponding to each projector of p, a digital camera connected to the computer, and a storage device, wherein white and black rectangles are alternately arranged vertically and horizontally A plurality of projectors that project a common test pattern of each projector for each corresponding screen, and a digital camera that is positioned behind the viewpoint or behind the viewpoint and images the test pattern projected on the screen And a computer connected to the digital camera. From the captured image, necessary for matching the displayed image and the screen, the vertex constituting each screen, required to be combined into one smooth image to correct distortion of the projected image, the rectangular test pattern a corner constituting four are adjacent portions of the section, detected by the image recognition, a position detecting means for determining the position by the said corner the apex of each screen which has been determined by the position detection means, the strain transformation matrix according to the screen to match the adjustment and synthesis, and screen display image, scale matrix and movement matrix, and the matrix calculation means for calculating a computer connected to the digital camera, the transformation matrix determined by the matrix calculation means , take the product of the scale matrix and movement matrix synthesis and synthetic The Torikusu, as distortion parameters, is characterized in that a storage device for storing for each projector.

上記課題を解決するため請求項4に係る映像発生装置は、複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる複数pのプロジェクタと、前記複数pのプロジェクタ毎に対応して備えられる複数mのコンピュータとを有し、前記複数mのコンピュータの各々において、生成した画像が格納されているフレームメモリから画像を読み出す画像読み出し手段と、前記読み出した画像をテクスチャマッピングする仮想面を請求項3において生成した歪みパラメータを用いて回転させる仮想面回転手段と、前記回転させた仮想面に前記読み出した画像をテクスチャパターンとして貼り付ける画像貼り付け手段と、前記回転させた仮想面に貼り付けた映像を格納するフレームメモリと、前記格納したフレームメモリ内の映像を当該コンピュータに対応するスクリーンへ投影するプロジェクタとからなることを特徴とするものである。   In order to solve the above-described problem, a video generation device according to a fourth aspect of the present invention is a projection space configured by combining a plurality of n screens, a plurality of p projectors provided corresponding to each of the plurality of n screens, and the plurality of p A plurality of m computers provided for each projector, and each of the plurality of m computers includes an image reading unit that reads an image from a frame memory in which a generated image is stored, and the read image Virtual surface rotating means for rotating the virtual surface for texture mapping using the distortion parameter generated in claim 3, image pasting means for pasting the read image as a texture pattern on the rotated virtual surface, A frame memory for storing video pasted on the rotated virtual surface; The image of the frame memory is characterized in that comprising a projector for projecting onto a screen corresponding to the computer.

上記課題を解決するため請求項5に係る歪みパラメータの生成方法は、スクリーンを備える投影空間において、左目用プロジェクタと、右目用プロジェクタと、前記左目用プロジェクタと右目用プロジェクタとの各々に対応して備えられる左目用、右目用のコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有し、前記スクリーンを前記デジタルカメラで撮像する第1の課程と、前記撮像した画像から、表示映像とスクリーンとの合致に必要な、スクリーンを構成する頂点を画像認識により検出し、その位置を前記デジタルカメラを接続した前記コンピュータを用いて求める第2の課程と、前記左目用又は右目用のコンピュータにより作成された白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンをスクリーンに左又は右目用のいずれか1つのプロジェクタにより投影する第3の課程と、前記撮像した画像から、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーを画像認識により検出し、その位置を、前記デジタルカメラを接続した前記コンピュータを用いて求める第4の課程と、前記第2の課程で求めた前記頂点と前記第4の課程で求めた前記コーナーとにより、歪み調整と合成およびスクリーンと表示映像を合致させるための左又は右目用のいずれか一方の変換マトリクス、スケールマトリクス及び移動マトリクスを前記デジタルカメラを接続した前記コンピュータにより求める第5の課程と、コンピュータにより作成され白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンをスクリーンに前記第3の課程による左又は右目用のいずれか一方のプロジェクタ以外の他の目用の1つのプロジェクタにより投影する第6の課程と、前記撮像した画像から、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーを画像認識により検出し、その位置を、前記デジタルカメラを接続した前記コンピュータを用いて求める第7の課程と、前記第2の課程で求めた前記頂点と前記第7の課程で求めた前記コーナーとにより第5の課程による左又は右目用のいずれか一方以外の、歪み調整と合成およびスクリーンと表示映像を合致させるための左又は右目用のいずれか他方の変換マトリクス、スケールマトリクス及び移動マトリクスを前記デジタルカメラを接続した前記コンピュータを用いて求める第8の課程と、投影映像を1つの滑らかな映像に合成しかつスクリーンに合致させるための前記第5の課程及び第8の課程で求めた各変換マトリクス、スケールマトリクス及び移動マトリクスの積をとり合成した合成マトリクスを、歪パラメータとして記憶装置に格納する第9の課程とからなることを特徴とするものである。
In order to solve the above-described problem, a distortion parameter generation method according to claim 5 is provided for a left-eye projector, a right-eye projector, the left-eye projector, and a right-eye projector in a projection space including a screen. A first process of having a left-eye computer, a right-eye computer, a digital camera connected to the computer, and a storage device, and imaging the screen with the digital camera, and a display video from the captured image A second step of detecting a vertex necessary for matching between the screen and the screen by image recognition and obtaining the position using the computer connected to the digital camera, and the computer for the left eye or the right eye each projector common of the hands of the checkered pattern that the rectangle of black and white that have been created are arranged in vertical and horizontal directions alternately by A third program for projecting either one projector for the left or right eye bets pattern on the screen, the image of which an image is captured, required to be combined into one smooth image to correct distortion of the projected image , A fourth step of detecting a corner formed by an adjacent part of the four rectangular portions of the test pattern by image recognition and obtaining the position using the computer connected to the digital camera; Either the left or right eye conversion matrix, the scale matrix, and the distortion adjustment and synthesis, and the screen and the display image are matched by the vertex obtained in the process and the corner obtained in the fourth process. the movement matrix, and fifth courses determined by the computer connected to the digital camera, created by a computer Re one projector for other eyes than one projector left or right eye according to the third course of each projector common test pattern to the screen of the checkerboard arranged rectangular white and black vertically and horizontally alternately And a portion adjacent to the four rectangular portions of the test pattern necessary for correcting the distortion of each projected image and synthesizing it into one smooth image from the captured image. The corners to be configured are detected by image recognition, and the positions thereof are determined by the seventh process obtained using the computer connected to the digital camera, the vertexes obtained in the second process, and the seventh process. In addition to the left or right eye according to the fifth step depending on the corner, the left or right eye for adjusting the distortion and synthesis and matching the screen and the display image An eighth process for obtaining the other conversion matrix, scale matrix, and movement matrix for use with the computer connected to the digital camera, and for combining the projected image into one smooth image and matching it to the screen And a ninth process of storing a composite matrix obtained by combining the products of the conversion matrix, the scale matrix and the movement matrix obtained in the fifth process and the eighth process in the storage device as a distortion parameter. It is a feature.

上記課題を解決するため請求項6に係る映像発生方法は、スクリーンを備える投影空間において、左目用プロジェクタと、右目用プロジェクタと、前記左目用プロジェクタと右目用プロジェクタとの各々に対応して備えられるコンピュータとを有し、前記コンピュータの処理において、コンピュータにより生成された左目用又は右目用のいずれか一方の画像が格納されているフレームメモリから画像を読み出す第1の課程と、前記読み出した画像をテクスチャマッピングする左目用又は右目用のいずれか一方の仮想面を請求項5において生成した左目用又は右目用のいずれか一方の歪みパラメータを用いて回転させる第2の課程と、前記第2の課程により回転させた仮想面に前記読み出した画像をテクスチャパターンとして貼り付ける第3の課程と、前記第3の課程により仮想面に貼り付けた映像をフレームメモリに格納する第4の課程と、前記第4の課程で格納したフレームメモリ内の映像を左目用又は右目用のいずれか一方のプロジェクタによりスクリーンへ投影する第5の課程と、コンピュータにより生成され前記第1の課程により読み出される左又は右目用のいずれか一方の画像以外の他の目用の画像が格納されているフレームメモリから画像を読み出す第6の課程と、第2課程における左目用又は右目用のいずれか一方の仮想面以外の仮想面であって、前記読み出した画像をテクスチャマッピングする左目用又は右目用のいずれか一方の仮想面を、請求項5において生成した左目用又は右目用のいずれか一方の歪みパラメータであって、第2課程における左目用又は右目用のいずれか一方のパラメータ以外のパラメータを用いて回転させる第7の課程と、前記第7の課程により回転させた仮想面に前記第6の課程により読み出した画像をテクスチャパターンとして貼り付ける第8の課程と、前記第8の課程により仮想面に貼り付けた映像をフレームメモリに格納する第9の課程と、前記第9の課程で格納したフレームメモリ内の映像を、前記第5の課程による左目用又は右目用のいずれか一方のプロジェクタ以外の左目用又は右目用のいずれか一方のプロジェクタによりスクリーンへ投影する第10の課程と、からなることを特徴とするものである。   In order to solve the above-described problem, a video generation method according to a sixth aspect of the present invention is provided corresponding to each of the left-eye projector, the right-eye projector, the left-eye projector, and the right-eye projector in a projection space including a screen. A first process of reading an image from a frame memory in which either the left-eye image or the right-eye image generated by the computer is stored in the processing of the computer; and A second step of rotating either one of the left-eye or right-eye virtual surfaces to be texture-mapped using either the left-eye or right-eye distortion parameter generated in claim 5; and the second step. And pasting the read image as a texture pattern on the virtual plane rotated by The fourth process for storing the image pasted on the virtual surface in the third process in the frame memory, and the image in the frame memory stored in the fourth process for either the left eye or the right eye A frame in which a fifth process for projecting onto a screen by one projector and an image for another eye other than one of the left and right eye images generated by the computer and read by the first process are stored. A virtual surface other than the virtual surface for either the left eye or the right eye in the sixth process for reading an image from the memory and the second process, and for either the left eye or the right eye for texture mapping the read image One of the virtual planes is the distortion parameter for either the left eye or the right eye generated in claim 5, and is used for the left eye or the right eye in the second process. A seventh process for rotating using a parameter other than any one of the parameters, and an eighth process for pasting the image read out in the sixth process as a texture pattern on the virtual surface rotated in the seventh process The process, the ninth process for storing the image pasted on the virtual surface in the eighth process in the frame memory, and the image in the frame memory stored in the ninth process are converted into the left eye by the fifth process. And a tenth process of projecting onto a screen by either the left-eye or right-eye projector other than the right-eye or right-eye projector.

上記課題を解決するため請求項7に係る歪みパラメータ生成装置は、スクリーンを備える投影空間において、左目用プロジェクタと、右目用プロジェクタと、前記左目用プロジェクタと右目用プロジェクタとの各々に対応して備えられる左目用、右目用のコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有し、白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンを前記スクリーンに投影する左目用のプロジェクタと、白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンを前記スクリーンに投影する右目用のプロジェクタと、視点となる位置に配置され、前記スクリーンを撮像するとともに左目用のプロジェクタ及び右目用プロジェクタからスクリーンに投影されているそれぞれのテストパターンを撮像する前記デジタルカメラと、前記デジタルカメラを接続したコンピュータにより構成され、前記デジタルカメラで撮像したスクリーンの画像から、表示映像とスクリーンとの合致に必要な、前記スクリーンを構成する頂点を画像認識により検出し、その位置を求めるとともに、左目用のプロジェクタ及び右目用のプロジェクタからのそれぞれのテストパターンをデジタルカメラで撮像した画像から、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーを画像認識により検出し、その位置を求める位置検出手段と、前記位置検出手段で求めた前記頂点と左右目用のプロジェクタの各々が投影した前記コーナーとにより、歪み調整と合成およびスクリーンと表示映像を合致させるための左右目用の各々の変換マトリクス、スケールマトリクス及び移動マトリクスを前記コンピュータにより求めるマトリクス計算手段と、前記マトリクス計算手段により求めた投影映像を1つの滑らかな映像に合成しかつスクリーンに合致させるための左右目用の各々の変換マトリクス、スケールマトリクス及び移動マトリクスの積をとり合成した合成マトリクスを、左右目用の各々の歪パラメータとして格納する記憶装置とを備えたことを特徴とするものである。
In order to solve the above-described problem, a distortion parameter generation device according to a seventh aspect includes a left-eye projector, a right-eye projector, and a left-eye projector and a right-eye projector in a projection space including a screen. A test pattern common to each of the checkered projectors in which white and black rectangles are arranged alternately in the vertical and horizontal directions on the screen, and the left-eye computer, the right-eye computer, the digital camera connected to the computer, and the storage device. A projector for the left eye that projects, a projector for the right eye that projects a test pattern common to each projector in a checkered pattern in which white and black rectangles are arranged alternately in the vertical and horizontal directions , and a position serving as a viewpoint. Screen from left eye projector and right eye projector Said digital camera for capturing each test pattern being projected, is configured by a computer connected to the digital camera, from the screen of an image captured by the digital camera, required to conform with the displayed image and the screen, the Detect the vertices that make up the screen by image recognition, determine the position, and correct the distortion of each projected video from the images captured by the digital camera with the test patterns from the left-eye projector and right-eye projector. needed to be combined into one smooth video, corners four are adjacent portions of the rectangular portion of the test pattern constituting detected by the image recognition, a position detecting means for determining the position, the position detecting means Before the projection of the vertex and the left and right eye projectors obtained in step By the corners, each of the transformation matrix for the left and right eye for matching the synthesis and screen display image distortion adjustment, a matrix calculating means for calculating the scale matrix and movement matrix by the computer, the projection obtained by the matrix calculation means As a distortion parameter for the left and right eyes , a composite matrix that is the product of the transformation matrix, scale matrix, and movement matrix for the left and right eyes to synthesize the video into one smooth image and match the screen. And a storage device for storing.

上記課題を解決するため請求項8に係る映像発生装置は、スクリーンを備える投影空間において、左目用プロジェクタと、右目用プロジェクタと、前記左目用プロジェクタと右目用プロジェクタとの各々に対応して備えられる左目用及び右目用のコンピュータとを有し、前記コンピュータにおいて、左目用の画像が格納されているフレームメモリから画像を読み出す左目用画像読み出し手段と、右目用の画像が格納されているフレームメモリから画像を読み出す右目用画像読み出し手段と、前記左目用画像読み出し手段により読み出した画像をテクスチャマッピングする仮想面を請求項7において生成した左目用の歪みパラメータを用いて回転させる左目用の仮想面回転手段と、前記右目用画像読み出し手段により読み出した画像をテクスチャマッピングする仮想面を請求項7において生成した右目用の歪みパラメータを用いて回転させる右目用の仮想面回転手段と、前記左目用の仮想面回転手段により回転させた仮想面に前記左目用画像読み出し手段により読み出した画像をテクスチャパターンとして貼り付ける左目用画像貼り付け手段と、前記右目用の仮想面回転手段により回転させた仮想面に前記右目用画像読み出し手段により読み出した画像をテクスチャパターンとして貼り付ける右目用画像貼り付け手段と、前記左目用画像貼り付け手段により仮想面に貼り付けた映像を格納する左目用フレームメモリと、前記右目用画像貼り付け手段により仮想面に貼り付けた映像を格納する右目用フレームメモリと、前記格納した左目用フレームメモリ内の映像をスクリーンへ投影する左目用プロジェクタと、前記格納した右目用フレームメモリ内の映像をスクリーンへ投影する右目用プロジェクタとからなることを特徴とするものである。   In order to solve the above problem, an image generation apparatus according to claim 8 is provided in a projection space including a screen, corresponding to each of a left-eye projector, a right-eye projector, and the left-eye projector and right-eye projector. A computer for a left eye and a right eye; in the computer, a left-eye image reading means for reading an image from a frame memory in which a left-eye image is stored; and a frame memory in which a right-eye image is stored 8. A right-eye image reading unit for reading an image, and a virtual surface rotating unit for the left eye that rotates a virtual surface for texture mapping of the image read by the left-eye image reading unit using the distortion parameter for the left eye generated in claim 7. And the image read by the right-eye image reading means The virtual surface to be mapped is rotated using the right-eye virtual surface rotating means generated by the right-eye distortion parameter generated in claim 7 and the left-eye image read out to the virtual surface rotated by the left-eye virtual surface rotating means. The image read by the means is pasted as a texture pattern, and the image read by the right-eye image read-out means is pasted as a texture pattern on the virtual plane rotated by the virtual plane rotation means for the right eye. A right-eye image pasting unit, a left-eye frame memory for storing a video pasted on the virtual plane by the left-eye image pasting unit, and a video pasted on the virtual plane by the right-eye image pasting unit are stored. Project the video in the right-eye frame memory and the stored left-eye frame memory onto the screen. A left-eye projector and is characterized in that it consists of a right-eye projector for projecting an image of the storage was the right eye frame memory to the screen.

上記課題を解決するため請求項9に係る歪みパラメータの生成方法は、請求項5に記載の方法であって、複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる左右目用の2台複数p/2組のプロジェクタと、前記左右目用の2台複数p/2組のプロジェクタ毎に対応して備えられる左右目用の複数m組のコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有したことを特徴とするものである。   In order to solve the above-mentioned problem, a distortion parameter generation method according to claim 9 is the method according to claim 5, and corresponds to each of the plurality of n screens in a projection space configured by combining a plurality of n screens. A plurality of p / 2 sets of projectors for left and right eyes, and a plurality of m sets of computers for left and right eyes provided corresponding to the two projectors of the left and right eyes, respectively. And a digital camera connected to the computer and a storage device.

上記課題を解決するため請求項10に係る映像発生方法は、請求項6に記載の方法であって、複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる左右目用の2台複数p/2組のプロジェクタと、前記左右目用の2台複数p/2組のプロジェクタ毎に対応して備えられる左右目用の複数m組のコンピュータとを有したことを特徴とするものである。   In order to solve the above problem, an image generation method according to claim 10 is the method according to claim 6, wherein a projection space configured by combining a plurality of n screens corresponds to each of the plurality of n screens. Two left and right eye plural projectors for the left and right eyes, and two right and left eye plural projectors for the left and right eyes, and a plurality of m sets of computers for the left and right eyes, respectively. It is characterized by that.

上記課題を解決するため請求項11に係る歪みパラメータの生成装置は、請求項7に記載の装置であって、複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる左右目用の2台複数p/2組のプロジェクタと、前記左右目用の2台複数p/2組のプロジェクタ毎に対応して備えられる左右目用の複数m組のコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有したことを特徴とするものである。   In order to solve the above problem, a distortion parameter generating apparatus according to claim 11 is the apparatus according to claim 7, and corresponds to each of the plurality of n screens in a projection space configured by combining a plurality of n screens. A plurality of p / 2 sets of projectors for left and right eyes, and a plurality of m sets of computers for left and right eyes provided corresponding to the two projectors of the left and right eyes, respectively. And a digital camera connected to the computer and a storage device.

上記課題を解決するため請求項12に係る映像発生装置は、請求項8に記載の装置であって、複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる左右目用の2台複数p/2組のプロジェクタと、前記左右目用の2台複数p/2組のプロジェクタ毎に対応して備えられる左右目用の複数m組のコンピュータとを有したことを特徴とするものである。   In order to solve the above problem, an image generating device according to claim 12 is the device according to claim 8, and corresponds to each of the plurality of n screens in a projection space configured by combining a plurality of n screens. Two left and right eye plural projectors for the left and right eyes, and two right and left eye plural projectors for the left and right eyes, and a plurality of m sets of computers for the left and right eyes, respectively. It is characterized by that.

上記課題を解決するため請求項13に係る映像発生方法は、請求項2、請求項6又は請求項10のいずれか1に記載の映像発生方法であって、スクリーンに投影する各プロジェクタの隣り合う映像を一部領域を重ね合わせるようにしたことを特徴とするものである。   In order to solve the above-mentioned problem, a video generation method according to claim 13 is the video generation method according to any one of claim 2, claim 6, or claim 10, wherein each projector that projects on a screen is adjacent to each other. It is characterized in that a part of the video is overlapped.

上記課題を解決するため請求項14に係る映像発生装置は、請求項4、請求項8又は請求項12のいずれか1に記載の装置であって、スクリーンに投影する各プロジェクタの隣り合う映像を一部領域を重ね合わせるようにしたことを特徴とするものである。   In order to solve the above problem, an image generation device according to claim 14 is the device according to any one of claims 4, 8, or 12, wherein an adjacent image of each projector projected on a screen is displayed. This is characterized in that a part of the regions is overlapped.

請求項1に係る歪みパラメータの生成方法によると、複数スクリーン上に所定のテストパターンを投影し、視点から見た各スクリーンの頂点及びスクリーンの形状に従って投影されたテストパターンのコーナーを検出して、視点位置にあるカメラと複数の各スクリーンとの位置関係の変換マトリクス、スケールマトリクス及び移動マトリクスを歪みパラメータとして求めることができる。   According to the distortion parameter generating method according to claim 1, a predetermined test pattern is projected on a plurality of screens, and the vertex of each screen viewed from the viewpoint and the corner of the test pattern projected according to the shape of the screen are detected, A conversion matrix, a scale matrix, and a movement matrix of the positional relationship between the camera at the viewpoint and each of the plurality of screens can be obtained as distortion parameters.

請求項2に係る映像発生方法によると、各スクリーン毎に生成した画像を、請求項1において生成した歪みパラメータを用いることにより、画像をテクスチャマッピングする仮想面を回転して逆の歪みを与えることができ、その仮想面に画像を貼り付けて格納するから、この逆の歪みが与えられた画像をスクリーンに投影して、視点から複数のスクリーンに対し全体で一つの画像の映像が連続性を維持するように正しく見えるように写すことができる。   According to the video generation method according to claim 2, by using the distortion parameter generated in claim 1 for the image generated for each screen, the virtual plane for texture mapping of the image is rotated to give reverse distortion. Since the image is pasted and stored on the virtual plane, the image with the reverse distortion is projected onto the screen, and the image of one image is continuously displayed on the multiple screens from the viewpoint. It can be copied so that it looks correct to maintain.

請求項3に係る歪みパラメータ生成装置によると、プロジェクタで複数スクリーン上に所定のテストパターンを投影し、そのテストパターンをデジタルカメラで撮像し、位置検出手段により視点から見た各スクリーンの頂点及びスクリーンの形状に従って投影されたテストパターンのコーナーを検出し、マトリクス計算手段により視点位置にあるカメラと複数の各スクリーンとの位置関係の変換マトリクス、スケールマトリクス及び移動マトリクスを歪みパラメータとして求めることができ、これを記憶装置に格納しておくことができる。   According to the distortion parameter generating apparatus according to claim 3, a predetermined test pattern is projected on a plurality of screens by a projector, the test pattern is imaged by a digital camera, and the apex of each screen and the screen viewed from the viewpoint by a position detection unit The corner of the test pattern projected according to the shape of the image is detected, and the matrix calculation means can determine the transformation matrix, the scale matrix and the movement matrix of the positional relationship between the camera at the viewpoint position and each of the plurality of screens as the distortion parameter, This can be stored in a storage device.

請求項4に係る映像発生装置によると、画像読み出し手段により各スクリーン毎に生成した画像が格納されているフレームメモリから画像を読み出し、一方、仮想面回転手段は前記読み出した画像をテクスチャマッピングする仮想面を請求項3において生成した歪みパラメータを用いて回転させ、画像貼り付け手段は前記回転させた仮想面に前記読み出した画像をテクスチャパターンとして貼り付けて、画像に逆の歪みを与えることができ、その仮想面に画像を貼り付けてフレームメモリに格納するから、この逆の歪みが与えられた画像をプロジェクタからスクリーンに投影して、視点から複数のスクリーンに対し全体で一つの画像の映像が連続性を維持するように正しく見えるように写すことができる。複数のプロジェクタを用いて1つの大画面映像を合成するから投影距離を短縮することができる。   According to the video generation device of the fourth aspect, the image is read from the frame memory in which the image generated for each screen is stored by the image reading means, while the virtual plane rotating means is a virtual for texture mapping the read image. The surface can be rotated using the distortion parameter generated in claim 3, and the image pasting means can paste the read image as a texture pattern on the rotated virtual surface to give the image a reverse distortion. Since the image is pasted on the virtual plane and stored in the frame memory, the image with the reverse distortion is projected from the projector onto the screen, and one video image from the viewpoint is displayed on the plurality of screens as a whole. It can be copied so that it looks correct so as to maintain continuity. Since one large screen image is synthesized using a plurality of projectors, the projection distance can be shortened.

請求項5に係る歪みパラメータの生成方法によると、スクリーン上に左右用の所定のテストパターンを投影し、視点から見た各スクリーンの頂点及びスクリーンの形状に従って投影されたテストパターンのコーナーを検出して、視点位置にあるカメラとスクリーンとの位置関係の変換マトリクス、スケールマトリクス及び移動マトリクスを左右用の各歪みパラメータとして求めることができる。   According to the distortion parameter generation method according to claim 5, a predetermined test pattern for right and left is projected on the screen, and a vertex of each screen viewed from the viewpoint and a corner of the projected test pattern are detected according to the shape of the screen. Thus, the conversion matrix, scale matrix, and movement matrix of the positional relationship between the camera at the viewpoint position and the screen can be obtained as the left and right distortion parameters.

請求項6に係る映像発生方法によると、左右目用に生成した画像を、請求項5において生成した左右目用のそれぞれの歪みパラメータを用いることにより、画像をテクスチャマッピングする左右目用のそれぞれの仮想面を回転して逆の歪みを与えることができ、その仮想面に画像を貼り付けて格納するから、この逆の歪みが与えられた画像をスクリーンに投影して、視点からスクリーンに対し左右用の画像の映像が正しく見えるように写すことができ、立体視を可能にする。   According to the video generation method of claim 6, by using the distortion parameters for the left and right eyes generated in claim 5 for the images generated for the left and right eyes, the left and right eyes for texture mapping are used. The virtual plane can be rotated to give the reverse distortion, and the image is pasted and stored on the virtual plane, so the image with this reverse distortion is projected onto the screen and left and right with respect to the screen from the viewpoint. Therefore, it is possible to make a stereoscopic view so that the image of the image can be seen correctly.

請求項7に係る歪みパラメータ生成装置によると、プロジェクタでスクリーン上に左右目用の所定のテストパターンを投影し、そのテストパターンをデジタルカメラで撮像し、位置検出手段により視点から見たスクリーンの頂点及びスクリーンの形状に従って投影されたテストパターンのコーナーを検出し、マトリクス計算手段により視点位置にあるカメラと複数の各スクリーンとの位置関係の変換マトリクス、スケールマトリクス及び移動マトリクスを歪みパラメータとして求めることができ、これを記憶装置に格納しておくことができる。   According to the distortion parameter generating device of the seventh aspect, a predetermined test pattern for the left and right eyes is projected on the screen by the projector, the test pattern is imaged by the digital camera, and the vertex of the screen viewed from the viewpoint by the position detection unit. And a corner of the test pattern projected according to the shape of the screen is detected, and a conversion matrix, a scale matrix, and a movement matrix of the positional relationship between the camera at the viewpoint and each of the plurality of screens are obtained as distortion parameters by matrix calculation means. This can be stored in a storage device.

請求項8に係る映像発生装置によると、画像読み出し手段により左右目用に生成した画像が格納されているフレームメモリから画像を読み出し、一方、仮想面回転手段は前記読み出した画像をテクスチャマッピングする仮想面を請求項7において生成した歪みパラメータを用いて回転させ、画像貼り付け手段は前記回転させた仮想面に前記読み出した画像をテクスチャパターンとして貼り付けて、画像に逆の歪みを与えることができ、その仮想面に画像を貼り付けてフレームメモリに格納するから、この逆の歪みが与えられた画像をプロジェクタからスクリーンに投影して、視点からスクリーンに対し左右用の画像の映像が正しく見えるように写すことができ、立体視を可能にする。   According to the video generation device of the eighth aspect, the image is read from the frame memory in which the images generated for the left and right eyes are stored by the image reading unit, while the virtual plane rotating unit is a virtual that performs texture mapping on the read image. The surface can be rotated using the distortion parameter generated in claim 7, and the image pasting means can paste the read image as a texture pattern on the rotated virtual surface to give the image a reverse distortion. Since the image is pasted on the virtual surface and stored in the frame memory, the image with the reverse distortion is projected from the projector onto the screen so that the right and left images can be correctly viewed from the viewpoint to the screen. It is possible to take a stereoscopic view.

請求項9に係る歪みパラメータの生成方法によると、請求項5に記載の方法による効果に加えて、複数スクリーン上に所定のテストパターンを投影し、視点から見た各スクリーンの頂点及びスクリーンの形状に従って投影されたテストパターンのコーナーを検出して、視点位置にあるカメラと複数の各スクリーンとの位置関係の変換マトリクス、スケールマトリクス及び移動マトリクスを歪みパラメータとして求めることができる。   According to the distortion parameter generation method according to claim 9, in addition to the effect of the method according to claim 5, a predetermined test pattern is projected on a plurality of screens, and the vertexes of each screen and the shape of the screen viewed from the viewpoint. The corner of the test pattern projected according to the above is detected, and the conversion matrix, scale matrix, and movement matrix of the positional relationship between the camera at the viewpoint and each of the plurality of screens can be obtained as the distortion parameters.

請求項10に係る映像発生方法によると、請求項6に記載の方法による効果に加えて、各スクリーン毎に生成した画像を、請求項5において生成した歪みパラメータを用いることにより、画像をテクスチャマッピングする仮想面を回転して逆の歪みを与えることができ、その仮想面に画像を貼り付けて格納するから、この逆の歪みが与えられた画像をスクリーンに投影して、視点から複数のスクリーンに対し全体で一つの画像の映像が連続性を維持するように正しく見えるように写すことができる。   According to the video generation method of claim 10, in addition to the effect of the method of claim 6, the image generated for each screen is texture-mapped by using the distortion parameter generated in claim 5. The virtual plane can be rotated to give reverse distortion, and the image is pasted and stored on the virtual plane. On the other hand, the image of one image as a whole can be copied so that it looks correct so as to maintain continuity.

請求項11に係る歪みパラメータ生成装置によると、請求項7に記載の装置による効果に加えて、プロジェクタで複数スクリーン上に所定のテストパターンを投影し、そのテストパターンをデジタルカメラで撮像し、位置検出手段により視点から見た各スクリーンの頂点及びスクリーンの形状に従って投影されたテストパターンのコーナーを検出し、マトリクス計算手段により視点位置にあるカメラと複数の各スクリーンとの位置関係の変換マトリクス、スケールマトリクス及び移動マトリクスを歪みパラメータとして求めることができ、これを記憶装置に格納しておくことができる。   According to the distortion parameter generation device according to claim 11, in addition to the effect of the device according to claim 7, a predetermined test pattern is projected on a plurality of screens by a projector, the test pattern is imaged by a digital camera, and the position The detection means detects the vertex of each screen viewed from the viewpoint and the corner of the test pattern projected according to the shape of the screen, and the matrix calculation means converts the positional relationship between the camera at the viewpoint and the plurality of screens, the scale The matrix and the movement matrix can be obtained as distortion parameters, and can be stored in the storage device.

請求項12に係る映像発生装置によると、請求項8に記載の装置による効果に加えて、画像読み出し手段により各スクリーン毎に生成した画像が格納されているフレームメモリから画像を読み出し、一方、仮想面回転手段は前記読み出した画像をテクスチャマッピングする仮想面を請求項3において生成した歪みパラメータを用いて回転させ、画像貼り付け手段は前記回転させた仮想面に前記読み出した画像をテクスチャパターンとして貼り付けて、画像に逆の歪みを与えることができ、その仮想面に画像を貼り付けてフレームメモリに格納するから、この逆の歪みが与えられた画像をプロジェクタからスクリーンに投影して、視点から複数のスクリーンに対し全体で一つの画像の映像が連続性を維持するように正しく見えるように写すことができる。   According to the video generation device of claim 12, in addition to the effect of the device of claim 8, the image is read out from the frame memory in which the image generated for each screen is stored by the image reading means, The surface rotation means rotates a virtual surface on which the read image is texture-mapped using the distortion parameter generated in claim 3, and the image pasting means pastes the read image on the rotated virtual surface as a texture pattern. In addition, the image can be given an inverse distortion, and the image is pasted on the virtual plane and stored in the frame memory. Make sure that the image of one image is correctly displayed on multiple screens so as to maintain continuity. It can be.

請求項13に係る映像発生方法によると、請求項2、請求項6又は請求項10のいずれか1に記載の方法による効果に加えて、複数プロジェクタをオーパラップして配置し、オーバーラップ領域において色混合を行うことにより、該当プロジェクタより隣接するプロジェクタの特性の相違を視認しにくくすることができる。   According to the image generation method according to claim 13, in addition to the effect of the method according to claim 2, claim 6, or claim 10, a plurality of projectors are arranged in an overlapping manner in the overlap region. By performing color mixing, it is possible to make it difficult to visually recognize the difference in characteristics between adjacent projectors.

請求項14に係る映像発生装置によると、請求項4、請求項8又は請求項12のいずれか1に記載の装置による効果に加えて、オーパラップして配置した複数プロジェクタから投射する際に、オーバーラップ領域において色混合を行うことにより、該当プロジェクタより隣接するプロジェクタの特性の相違を視認しにくくすることができる。   According to the video generation device according to claim 14, in addition to the effect of the device according to any one of claims 4, 8, or 12, when projecting from a plurality of projectors arranged in an overlapping manner, By performing color mixing in the overlap region, it is possible to make it difficult to visually recognize the difference in the characteristics of the projectors adjacent to the projector.

([1]複数スクリーンに係る歪みパラメータ及び映像発生)
以下、本発明の実施例について図を参照して説明する。図1(a)は複数スクリーンに係る歪みパラメータの生成方法の一実施例を説明するフロー図及び図1(b)は複数スクリーンに係る映像発生方法の一実施例を説明するフロー図である。図2は複数スクリーンに係る歪みパラメータの生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。図2において、101i(i=1,2,3,…n)はスクリーン(またはS)、102iは前記スクリーン101i毎に対応して備えられる複数pのプロジェクタ(又はP)、103iは前記複数pのプロジェクタ102i毎に対応して備えられる複数mのコンピュータ(又はPC)である。図2(a)は、p=m=n=3の場合を示す。104はデジタルカメラ、105は前記デジタルカメラ104を接続するコンピュータ、106は前記コンピュータ105により構成される位置検出手段、107は前記コンピュータ105により構成されるマトリクス計算手段、110は記憶装置、111は各コンピュータ103iを接続するネットワークである。112iは各コンピュータ103iにより構成される画像読み出し手段、113iは各コンピュータ103iにより構成される仮想面回転手段、114iは各コンピュータ103iにより構成される画像貼り付け手段、115iは各コンピュータ103iに備えられる第1のフレームメモリ、116iは各コンピュータ103iに備えられる第2のフレームメモリ、118iは各コンピュータ103iに備えられるグラフィックスボードであり、例えば前記第1のフレームメモリ115i、第2のフレームメモリ116iを有する。117iは各コンピュータ103iにより構成される3次元グラフィックス生成手段、各コンピュータ103iはネットワークに関しノードiの関係にあり、コンピュータ105はホストとなる。
複数のスクリーン101iは、例えば四角形、面数は図2(a)において、3面すなわち、i=1,2,3であり、映像投影現場に応じた配置に置かれ、複数のものを組み合わせて投影空間を構成する。プロジェクタ102iはスクリーン101iとは必ずしも正対せず、プロジェクタ102iの光軸とスクリーン101iの面とは直交しなくとも良い。デジタルカメラ104はスクリーンの映像を人がスクリーンの画面を見る位置である視点に配置される。カメラ104、スクリーン101i、プロジェクタ102iの位置関係すなわち空間的配置が不明な状態である。
([1] Distortion parameters and video generation for multiple screens)
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1A is a flowchart for explaining an embodiment of a method for generating distortion parameters for a plurality of screens, and FIG. 1B is a flowchart for explaining an embodiment of a method for generating a video for a plurality of screens. FIG. 2 is a functional block diagram for explaining an embodiment of a distortion parameter generating apparatus and a video generating apparatus relating to a plurality of screens. In FIG. 2, 101i (i = 1,2,3, ... n) is a screen (or S i), 102i projector plurality p provided in correspondence to each of the screen 101i (or P i), 103i is the A plurality of m computers (or PC i ) provided corresponding to each of the plurality of p projectors 102i. FIG. 2A shows the case where p = m = n = 3. 104 is a digital camera, 105 is a computer to which the digital camera 104 is connected, 106 is a position detecting means constituted by the computer 105, 107 is a matrix calculating means constituted by the computer 105, 110 is a storage device, 111 is each This is a network for connecting the computer 103i. 112i is an image reading unit configured by each computer 103i, 113i is a virtual plane rotating unit configured by each computer 103i, 114i is an image pasting unit configured by each computer 103i, and 115i is provided in each computer 103i. 1 frame memory, 116i is a second frame memory provided in each computer 103i, 118i is a graphics board provided in each computer 103i, and has, for example, the first frame memory 115i and the second frame memory 116i. . Reference numeral 117i denotes a three-dimensional graphics generation means constituted by each computer 103i, each computer 103i has a node i relationship with respect to the network, and the computer 105 serves as a host.
The plurality of screens 101i are, for example, a quadrangle, and the number of surfaces is three in FIG. 2A, i = 1, 2, 3, and placed in an arrangement according to the image projection site. Construct a projection space. The projector 102i does not necessarily face the screen 101i, and the optical axis of the projector 102i and the surface of the screen 101i do not have to be orthogonal. The digital camera 104 is arranged at a viewpoint that is a position where a person views the screen image on the screen. The positional relationship of the camera 104, the screen 101i, and the projector 102i, that is, the spatial arrangement is unknown.

([1−1]歪みパラメータの生成)
上記構成による歪みパラメータの生成を説明する。
複合した表示空間にあって、表示映像を連続にするためには表示スクリーン101iとこれに対応するプロジェクタ102iの空間的関係を知る必要がある。
上述したように、表示スクリーン101iとプロジェクタ102iの空間的関係を知るには、プロジェクタプロジェクタ102iより形状が既知のテストパターンを投影して、これをデジタルカメラ104により撮像することにより、図形の変形の程度により空間的関係を求める。
これを表示空間を構成する全スクリーン101i(i=1,2,3)に対して繰り返すことにより、全てのプロジェクタ102iとスクリーン101iの関係が求まる。この関係を用いて、逆に投影前の映像を歪ませて投影することにより歪みの補正が可能となる。
([1-1] Generation of distortion parameters)
Generation of distortion parameters by the above configuration will be described.
In a composite display space, it is necessary to know the spatial relationship between the display screen 101i and the projector 102i corresponding to the display screen 101i in order to make the display image continuous.
As described above, in order to know the spatial relationship between the display screen 101 i and the projector 102 i, a test pattern having a known shape is projected from the projector projector 102 i and captured by the digital camera 104, thereby deforming the figure. Find the spatial relationship by degree.
By repeating this operation for all screens 101i (i = 1, 2, 3) constituting the display space, the relationship between all projectors 102i and the screen 101i can be obtained. Conversely, distortion can be corrected by distorting and projecting the image before projection using this relationship.

まず、単一面のスクリーンに関して歪み補正を伴う映像発生のための歪みパラメータ生成を説明する。複合した表示空間へは、原理的には、空間を構成するスクリーン数分、単一面の方法を繰り返すことにより実施する。
図4はカメラ104、スクリーン101、プロジェクタ102の空間的配置が不明な状態で、既知のテストパターンを用いて空間的関係を求める方法を示したものである。
カメラ104(視点と想定)の撮像面とプロジェクタ102の撮像面の空間的関係は3×3の変換マトリクス(Homograpy Matrix)により関係づけられる。
このHomograpy Matrixの求め方を示したものが図5である。これを求めるには、テストパターンの所定の点についてプロジェクタ102による点Pと対応するカメラ104による点Cを検出することにより数学的に求める。
図6は、図5に対応して、スクリーン、プロジェクタが複数の場合で、プロジェクタの点Pijと対応するカメラの点Cijを検出することにより数学的に求めることを示したものである。
First, distortion parameter generation for image generation with distortion correction for a single screen will be described. In principle, the combined display space is implemented by repeating the method of a single plane for the number of screens constituting the space.
FIG. 4 shows a method for obtaining a spatial relationship using a known test pattern when the spatial arrangement of the camera 104, the screen 101, and the projector 102 is unknown.
The spatial relationship between the imaging surface of the camera 104 (assuming the viewpoint) and the imaging surface of the projector 102 is related by a 3 × 3 conversion matrix (Homography Matrix).
FIG. 5 shows how to obtain the Homography Matrix. In order to obtain this, a predetermined point of the test pattern is mathematically obtained by detecting a point C by the camera 104 corresponding to the point P by the projector 102.
FIG. 6 shows a mathematical calculation by detecting a camera point Cij corresponding to the projector point Pij in the case where there are a plurality of screens and projectors, corresponding to FIG.

各コンピュータ103iは、テストパターンを作成し、これを対応する各プロジェクタ102iにより対応するスクリーン101iに投影する(図1(a)のP101)。テストパターンの例を、図7((i),(ii)の表示はテストパターンを構成しない。)に示す。テストパターンは、黒と白のようにコントラストの強い2種類の矩形(実施例では正方形)縦横に並べた市松模様状のものである。テストパターンのコーナーは、テストパターンを構成する黒と白の正方形の各辺が介する点(例えば図7の701)である。
このとき、表示スクリーン101iとプロジェクタ102iの空間的関係に従ってテストパターンが歪んで投影されることになる。
Each computer 103i creates a test pattern and projects it onto the corresponding screen 101i by each corresponding projector 102i (P101 in FIG. 1A). An example of a test pattern is shown in FIG. 7 ((i) and (ii) display does not constitute a test pattern). The test pattern is a checkered pattern in which two types of rectangles (squares in the embodiment) with high contrast are arranged vertically and horizontally, such as black and white. The corner of the test pattern is a point (for example, 701 in FIG. 7) through which the sides of the black and white squares constituting the test pattern are interposed.
At this time, the test pattern is distorted and projected according to the spatial relationship between the display screen 101i and the projector 102i.

前記テストパターンが投影されている前記スクリーン101iを、視点となる位置に配置された前記デジタルカメラ104により撮像する(図1(a)のP102)。   The screen 101i on which the test pattern is projected is imaged by the digital camera 104 arranged at a position to be a viewpoint (P102 in FIG. 1A).

位置検出手段106は、前記撮像した画像から、スクリーン101iを構成する頂点とテストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーとを画像認識により検出し、その位置を、デジタルカメラ104を接続した前記コンピュータ105により求める(図1(a)のP103)。
スクリーン101iを構成する頂点はスクリーン101iの矩形を構成する辺の端である。この頂点を画像認識により検出する。
The position detection means 106 detects, from the captured image, image recognition of a vertex that constitutes the screen 101i and a corner that is formed by a portion where the four rectangular portions of the test pattern are adjacent to each other, and the position is detected by the digital camera. 104 is obtained by the computer 105 connected to the terminal 104 (P103 in FIG. 1A).
The vertex constituting the screen 101i is the end of the side constituting the rectangle of the screen 101i. This vertex is detected by image recognition.

テストパターンのコーナー点検出を説明する。
テストパターンが投影されている画像をFTcam、テストパターンが投影されていない画像をFcamとする。
・FTcamとFcamの差分を取り、背景を取り除いたテストパターンのみの画像FDTを作成する。
・デジタルカメラ104の画像データ内に、図8に示す矩形領域を設定し、画像FDT内を探索してテストパターンのコーナー点を検出する。図8においてLは探索矩形領域の縦と横の大きさを表しており、単位は「画素」である。「L」はプログラム内で変更することができ任意に決定することができる。探索はプログラムにより自動的に行う。探索は、例えば、図9に示すように画像の左上から順次右下へ向かって行う。矩形領域の半分(L/2)だけ位置をずらしながら探索を行う。
・探索手段として、テストパターンが白と黒の部分の組み合わせであり、コーナー点はコントラストが高い、という特徴を利用する。コーナー点では構造上コントラストが高いため輝度のばらつきを大きいと考えられる。そこで、集団のばらつきを比較する際に用いる統計量として知られる変動係数Cνを評価値として検出を行う。つまり、輝度のばらつきが大きいほど変動係数の値は大きくなり1に近づくことになる。変動係数Cνは次の式で表される。
Cν=σ/μ (1)
ここで、μは領域内の輝度の平均、σは輝度の標準偏差を表す。
・最初に、図8に示した矩形領域の内、図10(a)に示す矩形領域の上半分と左半分の領域の組み合わせで領域内の変動係数を評価し候補点を検出する。ここで候補点は図8に示す矩形領域の中心とする。テストパターンのコントラストが確保されている場合、コーナー点では図10(a)に示す2つの矩形領域の変動係数(101と102からなる左半分の領域によるものと、101と103からなる上半分の領域によるもの)はテストパターンの構造上大きくなる。図7に、矩形領域の上半分と左半分の領域の組み合わせでテストパターン内の探索を行う場合で、ある時の探索領域の位置を表示してある。図7において、(i)による位置ではテストパターンのコーナー点に近いため輝度のばらつきが大きく変動係数の値も大きくなる。しかし、(ii)による位置では輝度の高い部分が領域の大半を占めているため輝度のばらつきが小さく変動係数の値も小さくなる。このように変動係数を用いてコーナー点を探索することが可能である。
図10(a)に示す領域による探索で変動係数の値が大きいと判断した場合、更に図10(b)に示す矩形領域の下半分と右半分の領域の組み合わせによる探索で評価し、候補点の信頼性を向上させる。
・候補点は必ずしもテストパターンのコーナー点と一致しないため、候補点を中心に矩形領域を設定し、輝度情報を用いて縦方向と横方向のエッジ(テストパターンを構成する黒白の領域が接する線)を検出する。エッジの検出は、候補点を中心とした矩形領域内で行う。図11(a)のように左半分の領域、図11(b)のように上半分の領域で、1画素ずつ輝度値を取得し、有る位置の輝度情報とある位置の前後の輝度値の差が最大となる位置をエッジの位置と決定する。このようにして求めた縦のエッジ線と横のエッジ線の交差する位置をテストパターンのコーナー位置として用いる。
The corner point detection of the test pattern will be described.
An image on which the test pattern is projected is denoted by F Tcam , and an image on which the test pattern is not projected is denoted by F cam .
The difference between F Tcam and F cam is taken, and the image F DT of only the test pattern with the background removed is created.
A rectangular area shown in FIG. 8 is set in the image data of the digital camera 104, and the corner of the test pattern is detected by searching the image FDT . In FIG. 8, L represents the vertical and horizontal sizes of the search rectangular area, and the unit is “pixel”. “L” can be changed in the program and can be arbitrarily determined. The search is automatically performed by the program. The search is performed, for example, from the upper left of the image toward the lower right sequentially as shown in FIG. Search is performed while shifting the position by half (L / 2) of the rectangular area.
As a search means, use is made of the feature that the test pattern is a combination of white and black portions, and the corner points have high contrast. The corner point is considered to have a large variation in luminance because of its high structural contrast. Therefore, the variation coefficient Cν, which is known as a statistic used when comparing the variations of the groups, is detected as an evaluation value. That is, as the luminance variation is larger, the value of the variation coefficient is larger and approaches 1. The variation coefficient Cν is expressed by the following equation.
Cν = σ / μ (1)
Here, μ represents the average luminance within the region, and σ represents the standard deviation of luminance.
First, among the rectangular areas shown in FIG. 8, the coefficient of variation in the area is evaluated by a combination of the upper half area and the left half area of the rectangular area shown in FIG. 10A to detect candidate points. Here, the candidate point is the center of the rectangular area shown in FIG. When the contrast of the test pattern is ensured, at the corner points, the coefficient of variation of the two rectangular areas shown in FIG. 10 (a) is due to the left half area consisting of 101 and 102 and the upper half consisting of 101 and 103. This depends on the area of the test pattern. FIG. 7 shows the position of the search area at a certain time when searching within the test pattern using a combination of the upper half and the left half of the rectangular area. In FIG. 7, the position according to (i) is close to the corner point of the test pattern, so that the variation in luminance is large and the value of the coefficient of variation is also large. However, at the position according to (ii), a portion with high luminance occupies most of the area, so that variation in luminance is small and the value of the coefficient of variation is small. Thus, it is possible to search for a corner point using the coefficient of variation.
When it is determined that the value of the coefficient of variation is large in the search by the area shown in FIG. 10A, the evaluation is further performed by the search by the combination of the lower half area and the right half area of the rectangular area shown in FIG. Improve the reliability.
・ Candidate points do not necessarily match the corner points of the test pattern, so a rectangular area is set around the candidate points, and the vertical and horizontal edges (the line where the black and white areas that make up the test pattern touch each other) are set using luminance information. ) Is detected. Edge detection is performed within a rectangular area centered on the candidate point. In the left half area as shown in FIG. 11A and the upper half area as shown in FIG. The position where the difference is maximum is determined as the edge position. The position where the vertical edge line and the horizontal edge line obtained in this way intersect is used as the corner position of the test pattern.

P103の課程で求めた前記頂点と前記コーナーとにより当該デジタルカメラ104が位置する点における視点に対するスクリーン101iとプロジェクタ102iの空間関係による変換マトリクス、スケールマトリクス及び移動マトリクスをデジタルカメラ104を接続した前記コンピュータ105により求める(図1(a)のP104)。   The computer in which the digital camera 104 is connected to a transformation matrix, a scale matrix, and a movement matrix depending on the spatial relationship between the screen 101i and the projector 102i with respect to the viewpoint at the point where the digital camera 104 is located by the vertex and the corner obtained in the process of P103 105 (P104 in FIG. 1A).

(Homography Matrix)
画像処理により、各プロジェクタ102iについて座標Pijと対応するカメラ104の座標Cijが複数検出できれば、次の式(2)が成立するので、

Figure 0004554231
となるマトリクス(3×3)
Figure 0004554231
を推測する。 (Homography Matrix)
If a plurality of coordinates C ij of the camera 104 corresponding to the coordinates P ij can be detected for each projector 102 i by image processing, the following expression (2) is established.
Figure 0004554231
Matrix (3x3)
Figure 0004554231
Guess.

上記の対応する点、Pij(xij ,yij )とCij(xij ,yij )は既知であるので、(1)式は

Figure 0004554231
の要素を未知数とする連立方程式(3)となる
A《h′》=《b》 (3)
ここで、例えば《h′》はベクトルh′を示す表記である。なお、この明細書、図面においてベクトル表記を、《 》を用いた場合と、白抜き又は肉太の場合とで併用して表す。 Since the corresponding points P ij (x ij p , y ij p ) and C ij (x ij C , y ij c ) are known, the equation (1) is
Figure 0004554231
It becomes simultaneous equations (3) with the elements of A as unknowns A << h '>><< b >> (3)
Here, for example, << h '>> is a notation indicating the vector h'. In this specification and drawings, vector notation is used in combination with <<>> and white or thick.

《h′》は

Figure 0004554231
の要素を連続して並べた列ベクトルであり未知な値である。マトリクスA、ベクトル《b》は既知のPij,Cijより決まる。《h′》は9個の未知数を持つが(3)式がスケールに対して同値であるため、
《h》=[h11/h33,h12/h33・・・h33/h33
を導入すれば、
A《h》=《b》 (4)
である。これは8個の未知数を持つ。従って4点以上のPij,Cij(j≧4)を用いれば(4)式の連立方程式は数値的に解ける。この数値的解法は良く知られている。 << h '>>
Figure 0004554231
Is a column vector in which the elements of are consecutively arranged and is an unknown value. The matrix A and the vector << b >> are determined from known P ij and C ij . << h '>> has 9 unknowns, but because Eq. (3) is equivalent to the scale,
<< h >> = [h 11 / h 33 , h 12 / h 33 ... H 33 / h 33 ]
If you introduce
A << h >> = << b >> (4)
It is. This has 8 unknowns. Therefore, if four or more points of P ij and C ij (j ≧ 4) are used, the simultaneous equations of equation (4) can be solved numerically. This numerical solution is well known.

上記で求めた《h》を折り返してマトリクス

Figure 0004554231
とし、この
Figure 0004554231
を用いて、カメラ画像上の歪が無いパターンの点Cijに次の変換
Figure 0004554231
を施せば、撮像時にカメラ位置より見て、歪の無い正しい映像を作ることができる(図5、図6)。
従って、発生した映像に
Figure 0004554231
を操作すれば、撮影時に映像が正しく表示される。 Return the matrix “h” obtained above to matrix
Figure 0004554231
And this
Figure 0004554231
Is used to convert the point C ij of the pattern without distortion on the camera image into the next transformation
Figure 0004554231
If it is applied, it is possible to create a correct video image without distortion when viewed from the camera position during imaging (FIGS. 5 and 6).
Therefore, in the generated video
Figure 0004554231
If you operate, the image will be displayed correctly when shooting.

(複合面の歪補正)
図12は、複合表示空間に前記の処理を複数回適用してそれぞれのプロジェクタ102iとスクリーン101iの関係を求める処理を示す。
(1)プロジェクタ102iよりテストパターンをスクリーン101iに写す。撮像した画像を《Fsi》とする。
但し、《F》=[《C》,《C》・・・,《C》],《C》=[r,g,b
である。ここで、[《C》,《C》・・・,《C》]は画素情報、その添え字「M」は画像の画素数を表している。画像サイズが640×480画素であれば「M」の値は640×480=307200となる。画素情報の各々は、更にr,g,b(赤、緑、青)の3情報を持つ。
(2)プロジェクタ102iのテストパターンを消す。スクリーン101iに写す撮像した画像を《Fbi》とする。
(3)差分を取り背景画像を除く
《F》=《Fsi》−《Fbi
(4)画像《Fi》に対して、前記「Homography Matrix」の導出課程を用いて、マトリクスH′を求める。
(Compound distortion correction)
FIG. 12 shows a process for obtaining the relationship between each projector 102i and the screen 101i by applying the above process to the composite display space a plurality of times.
(1) Copy the test pattern from the projector 102i to the screen 101i. Let the captured image be << F si >>.
However, "F s" = [ " C 1", "C 2" ···, "C M"], "C i" = [r i, g i, b i]
It is. Here, [<< C 1 >>, << C 2 >>... << C M >>] represents pixel information, and the subscript “M” represents the number of pixels of the image. If the image size is 640 × 480 pixels, the value of “M” is 640 × 480 = 307200. Each piece of pixel information further includes three pieces of information of r, g, and b (red, green, and blue).
(2) Erase the test pattern of the projector 102i. Images were captured photograph on the screen 101i and "F bi".
(3) Take the difference and remove the background image << F i >> = << F si >> − << F bi >>
(4) For the image << Fi >>, the matrix H i ′ is obtained using the “Homography Matrix” derivation process.

上記で求めたHomographyマトリクスH′はプロジェクタ座標Pとカメラ位置Fにおけるカメラ座標Cとの対応を示す。
この逆マトリクスを用いて表示すべきモデルの座標点を変換しておけば、位置Fから見て歪の無い映像が見える。
しかし、映像を見るのは視点位置Eであるので、これを視点位置E用に補正する必要がある。以下に補正手順を示す。
(1)画像《F》より正面のスクリーン1012を構成する頂点を求める。図12の《F》はカメラ104から得られた画像を元に検出したスクリーンの頂点の点群を表す。
・《F》にラプラシアンをかけてエッジ部の強調を行う。
・白と黒とで二値化することによりエッジの抽出を行う。
・頂点の検出を行う。

Figure 0004554231
《Sij》は画像輝度であり、座標位置(i,j)を中心とした指定範囲m,l内の輝度を用いて平滑化した値となる。
・画像の輝度《Sij》にラプラシアンをかける。すなわち、画像を精鋭化するため、ラプラシアンフィルタを施す。
・メモリを辿り、上位のM個を抜き出す。
但し、Mはスクリーンの頂点数であり、この場合4である。
上位4個の点の格納アドレスをa(a,a,a,a)とすれば、
Figure 0004554231
となる。
以上の処理により、点群
Figure 0004554231
を求める。
(2)
Figure 0004554231
で規定される変形された点群とスクリーンを規定する正規な(歪のない)点群《m》との対応より、
Figure 0004554231
前記説明の方法により、Hを求める。
(3)Hを用いて、視点Eのカメラ座標と各プロジェクタPの座標系との関係H
′=Hより
=H −1 となる。 The Homography matrix H i ′ obtained above indicates the correspondence between the projector coordinates P i and the camera coordinates C at the camera position F.
By converting the coordinate points of the model to be displayed using this inverse matrix, an image without distortion seen from the position F can be seen.
However, since the viewpoint is viewed at the viewpoint position E, it is necessary to correct this for the viewpoint position E. The correction procedure is shown below.
(1) determine the vertices of the front of the screen 1012 from the image "F b". In FIG. 12, “F C ” represents a point group at the vertex of the screen detected based on the image obtained from the camera 104.
-Apply Laplacian to << F b >> to enhance the edge.
・ Extract edges by binarizing white and black.
・ Vertex detection.

Figure 0004554231
<< S ij >> is the image brightness, which is a value smoothed using the brightness within the designated ranges m and l with the coordinate position (i, j) as the center.
-Apply Laplacian to the image brightness << Sij >>. That is, a Laplacian filter is applied to sharpen the image.
Trace the memory and extract the top M.
However, M is the number of vertices of the screen, and is 4 in this case.
If the storage addresses of the upper four points are a i (a 1 , a 2 , a 3 , a 4 ),
Figure 0004554231
It becomes.
With the above processing, the point cloud
Figure 0004554231
Ask for.
(2)
Figure 0004554231
From the correspondence between the deformed point group defined in (1) and the normal (undistorted) point group << m C >> that defines the screen,
Figure 0004554231
H d is obtained by the method described above.
3 with H d, the relationship H i of the camera coordinate of the viewpoint E and the coordinate system of each projector P i becomes H i '= H i H d from H i = H d -1 H i.

(スクリーンと表示映像の合致)
前記で求めたHをそのまま使用したのでは表示映像とスクリーンとの合致がとれていない。このため、表示映像とスクリーンを合致させるためには、縮小、拡大のためのスケール量と、平行移動量を求める。
(Match screen and display image)
Than was used the H i which has been determined by the not take a match between the displayed image and the screen. For this reason, in order to match the display image with the screen, the scale amount for reduction and enlargement and the parallel movement amount are obtained.

(1)スケール
図13に従い、スケールを求める。
次の計算を行う。
《m1i′》=H −1《m1i −1
《m2i′》=H −1《m2i −1
《m1i》,《m2i》は投影する映像の座標で作成したテストパターンの上部頂点、《m1i′》,《m2i′》は正規座標内のテストパターンの上部頂点である。H −1は投影する映像の座標から正規座標へ変換するための変換マトリクスを表している。H −1を用いることにより、投影する映像の座標上で作成したテストパターンの上部頂点《m1i》,《m2i》が正規座標内のどの位置になるかを計算することができる。視点位置から見て歪みのない映像を視点位置用に補正するために必要な計算である。(図14参照。図12(a)の下方のHi,Hi′,Hd間の関係に対応する。)
《S1i′》=H《S1i
《S2i′》=H《S2i
《S1i》,《S2i》はカメラの画像座標内のスクリーンの上部頂点、《S2i′》,《S2i′》は正規座標内のスクリーンの上部頂点を表している。Hはカメラの画像座標から正規座標へ変換するための変換マトリクスを表している。Hを用いることにより、カメラの画像座標内のスクリーン上部頂点《S1i》,《S2i》が正規座標内のどの位置になるかを計算することができる。視点位置から見て歪みのない映像を視点位置用に補正するために必要な計算である。(図15参照。図12(a)の下方のHi,Hi′,Hd間の関係に対応する。)
2点間の距離を求める。
mi=|《m1i′》−《m2i′》|
=|《S1i′》−《S2i′》|
距離より、スケールを求める。
=lmi/l
表示テストパターンのスケールをkxi′,kyi′とすれば、求めるスケールは
xi=kxi′k
yi=kyi′k
従って、スケールマトリクスHSi

Figure 0004554231
(1) Scale A scale is obtained according to FIG.
Perform the following calculation:
<< m 1i '>> = H i -1 << m 1i -1 >>
<< m 2i '>> = H i -1 << m 2i -1 >>
<< m 1i >> and << m 2i >> are the upper vertices of the test pattern created with the coordinates of the projected image, and << m 1i ′ >> and << m 2i ′ >> are the upper vertices of the test pattern within the normal coordinates. H i −1 represents a conversion matrix for converting the coordinates of the projected image into normal coordinates. By using H i −1 , it is possible to calculate which position in the normal coordinates the upper vertices << m 1i >> and << m 2i >> of the test pattern created on the coordinates of the projected image are. This is a calculation necessary for correcting an image having no distortion as viewed from the viewpoint position for the viewpoint position. (See FIG. 14. Corresponds to the relationship between Hi, Hi ′, and Hd below FIG. 12A.)
<< S 1i '>> = H d << S 1i >>
<< S 2i '>> = H d << S 2i >>
<< S 1i >> and << S 2i >> represent the upper vertices of the screen in the image coordinates of the camera, and << S 2i ′ >> and << S 2i ′ >> represent the upper vertices of the screen in the normal coordinates. H d represents a conversion matrix for converting the image coordinates of the camera into normal coordinates. The use of H d, it is possible to screen the upper apex "S 1i" in the image coordinates of the camera, "S 2i" to calculate whether made at any position in the regular coordinates. This is a calculation necessary for correcting an image having no distortion as viewed from the viewpoint position for the viewpoint position. (See FIG. 15. Corresponds to the relationship between Hi, Hi ′, and Hd below FIG. 12A.)
Find the distance between two points.
l mi = | << m 1i '>>- << m 2i '>> |
l i = | << S 1i '>>- << S 2i '>> |
Find the scale from the distance.
k i = l mi / l i
If the scale of the display test pattern k xi ', k yi' and, seek scale k xi = k xi 'k i
k yi = k yi 'k i
Therefore, the scale matrix H Si is
Figure 0004554231

(平行移動量)
スクリーンと表示領域を合致させるには、平行移動によりスクリーンの基点と、それに対応する画像の基点を合わせる必要がある。以下が平行移動量である。
《Oti′》=H《Oti
《OSi′》=H《OSi
ここで、《Oti》,《OSi》は、カメラの画像座標におけるテストパターンの中心位置とスクリーンの中心位置である。また、《Oti′》,《OSi′》は、正規座標におけるテストパターンの中心位置とスクリーンの中心位置である。
移動ベクトル《T》は、
《T》=(《OSi′》−《Oti′》
従って、移動マトリクスHtiは、

Figure 0004554231

となる。 (Translation amount)
In order to match the screen and the display area, it is necessary to match the base point of the screen and the base point of the corresponding image by translation. The following is the amount of translation.
"O ti '" = H i "O ti"
<< O Si '>> = H d << O Si >>
Here, "O ti", "O Si" is the center position and the screen center position of the test pattern in the image coordinates of the camera. Further, << O ti '>> and << O Si '>> are the center position of the test pattern and the center position of the screen in normal coordinates.
The movement vector << T i >>
<< T i >> = ( << O Si '>>- << O ti '>>
Therefore, the movement matrix H ti is
Figure 0004554231

It becomes.

(最終マトリクス)
回転(Hに含まれる。)、平行移動Hti、スケールマトリクスHSiを用いて、スクリーンと表示映像を合致させるための最終マトリクスH TOTALは、
TOTAL=HtiSi
である。
(Final matrix)
Using rotation (included in H i ), translation H ti , and scale matrix H Si , the final matrix H i TOTAL for matching the screen and the displayed image is:
H i TOTAL = H ti H Si H i
It is.

第1の課程(P101)から第2の課程(P102)、第3の課程(P103)、第4の課程(P104)を、前記複数n回繰り返した後、前記第4の課程(P104)で求めた各変換マトリクス、スケールマトリクス及び移動マトリクスを歪パラメータとして記憶装置に格納する第5の課程(図1(a)のP105)。
上述した複合面の歪補正により、
TOTAL,H TOTAL,H TOTAL
を、それぞれ求める。
ここに添え字1〜3はスクリーン101iの番号を示す。(また、このスクリーンの番号にてコンピュータ103i番号が対応している。)
求めた、H TOTAL,H TOTAL,H TOTALを歪パラメータファイルとして記憶装置110に格納する。
各スクリーン101iについてテストパターンを表示する際に、1つのスクリーン例えば中央のスクリーン1012に各々に対応するプロジェクタ1021,1022,1023からテストパターンを重ねて投影して同じ大きさにしておき、それを各スクリーン101iで表示する。
After repeating the first course (P101) to the second course (P102), the third course (P103), and the fourth course (P104) a plurality of n times, the fourth course (P104) 5th process (P105 of Fig.1 (a)) which stores each conversion matrix, scale matrix, and movement matrix which were calculated | required in a memory | storage device as a distortion parameter.
By the distortion correction of the composite surface described above,
H 1 TOTAL , H 2 TOTAL , H 3 TOTAL
For each.
Here, the suffixes 1 to 3 indicate the numbers of the screen 101i. (The computer 103i number corresponds to this screen number.)
The obtained H 1 TOTAL , H 2 TOTAL , and H 3 TOTAL are stored in the storage device 110 as a distortion parameter file.
When displaying the test pattern for each screen 101i, the test patterns are projected onto one screen, for example, the central screen 1012 from the projectors 1021, 1022, and 1023 corresponding to each screen 101i, and the same size is projected. Displayed on the screen 101i.

([1−2]映像発生)
図1(b)、図2及び図4を参照して説明する。
(a)コンピュータ103iの画像読み出し手段1121iは、その3次元グラフィックス生成手段117iを用いてレンダリング(画像生成)された結果が格納されている第1のフレームメモリ115iの内容を読む(図1(b)のS101)。図16(a)のように歪がない映像が第1のフレームメモリ115iに格納されている。このときのレンダリング(画像生成)は透過投影による。
(b)仮想面回転手段113iは、テクスチャマッピングする面を上述の「[1]歪みパラメータの生成」において生成した歪みパラメータから[H TOTAL−1を用いて回転させる(図16(b))(図1(b)のS102)。
(c)画像貼り付け手段114iは、映像発生の投影法を平行投影として、上記課程S102のテクスチャマッピング面へ第1のフレームメモリ115iの内容の映像をテクスチャパターンとして貼り付ける(図1(b)のS103)。貼り付けることにより逆歪がかけられることになる。
(d)逆歪をかけた映像すなわち回転させたテクスチャマッピング面に貼り付けた映像を第2のフレームメモリ116iに格納される(図1(b)のS104)。このときのレンダリングは平行投影による。
(e)第2のフレームメモリ116iの内容が、プロジェクタ102iを経由してスクリーン101iに投影される(図1(b)のS105)。このとき、映像の歪が補正されている。
以上の(a)〜(e)の手順をi=1〜3まで繰り返して全スクリーン101iへ表示を行う。
図17に、複数コンピュータ103iにより読み出された前記(a)の歪みのない画像(左列のパス1の画像)と、前記(d)の逆歪みがかけられた画像(右列のパス2の画像)が示される。
([1-2] Video generation)
This will be described with reference to FIGS. 1B, 2 and 4.
(A) The image reading unit 1121i of the computer 103i reads the contents of the first frame memory 115i in which the results rendered (image generation) using the three-dimensional graphics generation unit 117i are stored (FIG. 1 ( b) S101). As shown in FIG. 16A, an image without distortion is stored in the first frame memory 115i. Rendering (image generation) at this time is based on transmission projection.
(B) The virtual surface rotating unit 113i rotates the surface to be texture-mapped using [H i TOTAL ] −1 from the distortion parameter generated in the above “[1] Generation of distortion parameter” (FIG. 16B). (S102 in FIG. 1B).
(C) The image pasting means 114i pastes the video of the contents of the first frame memory 115i as a texture pattern on the texture mapping surface of the step S102 using parallel projection as the video generation projection method (FIG. 1B). S103). The reverse distortion is applied by pasting.
(D) The video with reverse distortion, that is, the video pasted on the rotated texture mapping surface is stored in the second frame memory 116i (S104 in FIG. 1B). The rendering at this time is based on parallel projection.
(E) The contents of the second frame memory 116i are projected onto the screen 101i via the projector 102i (S105 in FIG. 1B). At this time, the distortion of the image is corrected.
The above steps (a) to (e) are repeated until i = 1 to 3 to display on all screens 101i.
FIG. 17 shows the image (a) without distortion (image in pass 1 in the left column) read by the plurality of computers 103i and the image subjected to reverse distortion in (d) (pass 2 in the right column). Image).

(その他)
上述の説明では、スクリーン101i、プロジェクタ102i及びコンピュータ103iの数を同数のp=m=n=3の場合を説明した。p,m,nの数は同数に限らない。例えば、各スクリーン101iに画像を投影するプロジェクタ102ijを複数、例えば、図18のように、2台毎設け、これらからの画像を各スクリーン101i上に例えば上下の縦に並ぶように設けるようにしても良い。これらの画像は全体で1つの映像となるように投影される。複数のプロジェクタから投影されたスクリーンが複数の場合についての表示例を図19に示す。
また、図2(e)のように、コンピュータ103の1台にグラフィックスボード118を複数例えば2つを設け、各グラフィックスボード118j,118(j+1)をプロジェクタ102iに接続する。コンピュータ103は、各グラフィックスボード118j,118(j+1)の各々に対し上述したような必要な処理を例えば時分割により行う。
また、上記説明では、デジタルカメラ104はコンピュータ105に接続している場合を示したが、プロジェクタ102i毎に対応して備えられる複数nのコンピュータ103iのいずれか1に接続させ、コンピュータ105のホストの機能を兼用させても良い。
さらに、上述の実施例の説明では、スクリーンは101iは、四角形、面数は3面のものを例示したが、本発明では各スクリーンの形状、面数に依存しない。例えば、正12面体(正5角形、12面)、直方体(4角形、6面)などの複合スクリーンにも適用可能である。また、図2では背面投影の例を示しているが、図6のようにテストパターンの対応点を取る方式のため前面投影にも対応することができる。
(Other)
In the above description, the case where the number of the screen 101i, the projector 102i, and the computer 103i is the same number, p = m = n = 3, has been described. The number of p, m, and n is not limited to the same number. For example, a plurality of projectors 102ij that project an image on each screen 101i, for example, two projectors 102ij are provided as shown in FIG. 18, for example, and images from these projectors 102ij are provided so as to be arranged vertically on each screen 101i. Also good. These images are projected so as to form one video as a whole. FIG. 19 shows a display example when there are a plurality of screens projected from a plurality of projectors.
As shown in FIG. 2E, a plurality of, for example, two graphics boards 118 are provided in one computer 103, and the graphics boards 118j and 118 (j + 1) are connected to the projector 102i. The computer 103 performs the necessary processing as described above for each of the graphics boards 118j and 118 (j + 1) by, for example, time division.
In the above description, the digital camera 104 is connected to the computer 105. However, the digital camera 104 is connected to any one of a plurality of n computers 103i provided for each projector 102i, and the host of the computer 105 is connected. The function may be shared.
Further, in the description of the above-described embodiment, the screen 101i is a quadrangle and the number of surfaces is three. However, the present invention does not depend on the shape and the number of surfaces of each screen. For example, the present invention can also be applied to a composite screen such as a regular dodecahedron (regular pentagon, 12 planes), a rectangular parallelepiped (tetragonal, 6 planes). Further, FIG. 2 shows an example of rear projection, but front projection can also be handled due to the method of taking corresponding points of the test pattern as shown in FIG.

([2]立体視への応用、歪みパラメータの検出)
以下、偏光型立体視へ応用した実施例について図を参照して説明する。
図20は偏光型立体視に係る歪みパラメータの生成方法の一実施例を説明するフロー図及び図21は立体視に係る映像発生方法の一実施例を説明するフロー図である。図22は立体視に係る歪みパラメータの生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。
図22(a),(b),(c)において、2001はスクリーン、20021は左目用映像を投射する左目用プロジェクタ、20022は右目用映像を投射する右目用プロジェクタ、20031は前記左目用プロジェクタ20021に対応して備えられる左目用のコンピュータ、20032は前記右目用プロジェクタ20022に対応して備えられる右目用のコンピュータ、2004は前記右目用のコンピュータ20032に接続されるデジタルカメラ、2006は前記右目用のコンピュータ20032により構成される位置検出手段、2007は前記右目用のコンピュータ20032により構成されるマトリクス計算手段、2010は記憶装置である。20121は前記左目用のコンピュータ20031により構成される画像読み出し手段、20122は前記右目用のコンピュータ20032により構成される画像読み出し手段、20131は前記左目用のコンピュータ20031により構成される仮想面回転手段、20132は前記右目用のコンピュータ20032により構成される仮想面回転手段、20141は前記左目用のコンピュータ20031により構成される画像貼り付け手段、20142は前記右目用のコンピュータ20032により構成される画像貼り付け手段、20151は前記左目用のコンピュータ20031に備えられる第1のフレームメモリ、20152は前記右目用のコンピュータ20032に備えられる第1のフレームメモリ、20161は前記左目用のコンピュータ20031に備えられる第2のフレームメモリ、20162は前記右目用のコンピュータ20032に備えられる第2のフレームメモリ、2020171は前記左目用のコンピュータ20031により構成される3次元グラフィックス生成手段、2020172は前記右目用のコンピュータ20032により構成される3次元グラフィックス生成手段である。2021は前記コンピュータ20031に備えられるグラフィクスボード、2022は前記コンピュータ20032に備えられるグラフィックスボードであり、例えば、前記第1のフレームメモリ2015i、第2のフレームメモリ2016iを有する。
図22(d)は、左右目用の画像を立体視するために合致させた状態を示す。
([2] Application to stereoscopic vision, detection of distortion parameters)
Hereinafter, an embodiment applied to polarization-type stereoscopic vision will be described with reference to the drawings.
FIG. 20 is a flowchart for explaining an embodiment of a distortion parameter generation method for polarization type stereoscopic vision, and FIG. 21 is a flowchart for explaining an embodiment of an image generation method for stereoscopic vision. FIG. 22 is a functional block diagram illustrating an embodiment of a distortion parameter generation apparatus and a video generation apparatus related to stereoscopic viewing.
22A, 22B, and 22C, 2001 is a screen, 20021 is a left-eye projector that projects a left-eye image, 20022 is a right-eye projector that projects a right-eye image, and 20031 is the left-eye projector 20001. The computer for the left eye provided corresponding to the projector for the right eye, the computer for the right eye provided for the projector for the right eye 20022, the digital camera connected to the computer for the right eye 2004, and the computer for the right eye 2006. A position detection means constituted by a computer 20032, 2007 a matrix calculation means constituted by the right eye computer 20032, and 2010 a storage device. 20121 is an image reading unit configured by the left eye computer 20003, 20122 is an image reading unit configured by the right eye computer 20032, 20131 is a virtual surface rotating unit 20132 configured by the left eye computer 20031, 20132 Is a virtual surface rotating means constituted by the right eye computer 20032, 20141 is an image pasting means constituted by the left eye computer 20031, 20142 is an image pasting means constituted by the right eye computer 20032, Reference numeral 20151 denotes a first frame memory provided in the left-eye computer 20031; reference numeral 20152 denotes a first frame memory provided in the right-eye computer 20032; and reference numeral 1611 denotes a left-eye computer. The second frame memory provided in the data 20031, 20162 is the second frame memory provided in the right-eye computer 20032, 2010171 is a three-dimensional graphics generation means configured by the left-eye computer 20031, The three-dimensional graphics generation means includes the right eye computer 20032. Reference numeral 2021 denotes a graphics board provided in the computer 20031, and reference numeral 2022 denotes a graphics board provided in the computer 20032, which includes, for example, the first frame memory 2015i and the second frame memory 2016i.
FIG. 22D shows a state in which the left and right eye images are matched for stereoscopic viewing.

([2−1]歪みパラメータの生成)
上記構成による歪みパラメータの生成を説明する。
(a)スクリーン2001をデジタルカメラ2004で撮像する(図20のP201)。
(b)デジタルカメラ2004を接続した右目用のコンピュータ20032は、撮像したスクリーン2001を構成する頂点(角)を画像認識により検出し、その位置を求める(図20のP202)。
(c)例えば、左目用のプロジェクタ20021は、左目用コンピュータ20031により作成されたコントラストが強い2種類の矩形を縦横に並べたテストパターンをスクリーン2001に投影する(図20のP203)。このテストパターンは上述の複数スクリーンにおけるものと同様のものである。
(d)デジタルカメラ2004を接続した右目用のコンピュータ20032の位置検出手段2006は、撮像した画像から、テストパターンの矩形部分の4個が隣接する部分が構成するコーナーを画像認識により検出し、その位置を求める(図20のP204)。
(e)デジタルカメラ2004を接続した右目用のコンピュータ20032のマトリクス計算手段2007は、第2の課程(P202)で求めた前記頂点と前記第4の課程(P204)で求めた前記コーナーとにより左目用の変換マトリクス、スケールマトリクス及び移動マトリクスを求める(図20のP205)。
(f)右目用のプロジェクタ20022は、右目用コンピュータ20032により作成されたコントラストが強い2種類の矩形を縦横に並べたテストパターンをスクリーン2001に投影する(図20のP206)。このテストパターンは上述の第3の課程(P203)におけるものと同一の大きさに合わせて投影する。
(g)デジタルカメラ2004を接続した右目用のコンピュータ20032の位置検出手段2006は、第6の課程(P206)で撮像した画像から、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーを画像認識により検出し、その位置を求める(図20のP207)。
(h)デジタルカメラ2004を接続した右目用のコンピュータ20032は、第2の課程(P202)で求めた前記頂点と前記第7の課程(P207)で求めた前記コーナーとにより右目用の変換マトリクス、スケールマトリクス及び移動マトリクスを求める(図20のP208)。
(i)第5の課程(P205)及び第8の課程(P208)で求めた各変換マトリクス、スケールマトリクス及び移動マトリクスを歪パラメータとして記憶装置2010に格納する(図20のP209)。
上記説明(c)〜(i)においては、上記記述による他、複数スクリーンにおいて説明した([1]歪みパラメータの生成)と同様に行う。
([2-1] Generation of distortion parameters)
Generation of distortion parameters by the above configuration will be described.
(A) The screen 2001 is imaged with the digital camera 2004 (P201 in FIG. 20).
(B) The right eye computer 20032 to which the digital camera 2004 is connected detects vertices (corners) constituting the captured screen 2001 by image recognition, and obtains the position (P202 in FIG. 20).
(C) For example, the left-eye projector 20001 projects a test pattern formed by the left-eye computer 20031 in which two types of rectangles with high contrast are arranged vertically and horizontally on the screen 2001 (P203 in FIG. 20). This test pattern is the same as that in the above-mentioned plural screens.
(D) The position detection means 2006 of the right-eye computer 20032 to which the digital camera 2004 is connected detects, from the captured image, a corner formed by a portion where four rectangular portions of the test pattern are adjacent by image recognition. The position is obtained (P204 in FIG. 20).
(E) The matrix calculation means 2007 of the right-eye computer 20032 connected to the digital camera 2004 uses the vertex obtained in the second process (P202) and the corner obtained in the fourth process (P204) to generate the left eye. Conversion matrix, scale matrix, and movement matrix are obtained (P205 in FIG. 20).
(F) The projector for the right eye 20022 projects on the screen 2001 a test pattern in which two types of rectangles with high contrast created by the right eye computer 20032 are arranged vertically and horizontally (P206 in FIG. 20). This test pattern is projected in accordance with the same size as that in the third process (P203).
(G) The position detection unit 2006 of the right-eye computer 20032 to which the digital camera 2004 is connected forms a portion where four of the rectangular portions of the test pattern are adjacent from the image captured in the sixth process (P206). A corner is detected by image recognition, and its position is obtained (P207 in FIG. 20).
(H) The right eye computer 20032 to which the digital camera 2004 is connected includes a right eye conversion matrix based on the vertex obtained in the second process (P202) and the corner obtained in the seventh process (P207), A scale matrix and a movement matrix are obtained (P208 in FIG. 20).
(I) Each conversion matrix, scale matrix, and movement matrix obtained in the fifth process (P205) and the eighth process (P208) are stored in the storage device 2010 as distortion parameters (P209 in FIG. 20).
In the above explanations (c) to (i), in addition to the above description, the same description as ([1] Generation of distortion parameters) explained for a plurality of screens is performed.

([2−2]映像発生)
上記構成による偏光型立体視の映像発生を説明する。
(a)例えば左目用のコンピュータ20031の左目用画像読み出し手段20121は、その3次元グラフィックス生成手段20171を用いてレンダリング(画像生成)された結果が格納されている第1のフレームメモリ20151の内容を読む(図21のS201)。図16(a)のように歪がない映像が第1のフレームメモリ20151に格納されている。
(b)左目用のコンピュータ20031の左目用の仮想面回転手段20131は前記読み出した画像をテクスチャマッピングする左目用の仮想面を上記([2−1]歪みパラメータの生成)において生成した左目用の歪みパラメータ[H total−1を用いて回転させる(図21のS202)。図16(b)参照。
(c)左目用画像貼り付け手段20141は、前記第2の課程(S202)により回転させた仮想面に前記第1の課程(S201)において読み出した画像をテクスチャパターンとして貼り付ける(図21のS203)。このとき、映像発生の投影法を平行投影とする。貼り付けることにより逆歪がかけられることになる。
(d)逆歪をかけた映像すなわち前記第3の課程(S203)により仮想面(テクスチャマッピング面)に貼り付けた映像を第2のフレームメモリ20161に格納する(図21のS204)。
(e)第2のフレームメモリ20161の内容が、左目用プロジェクタ20021を経由してスクリーン2001に投影される(図21のS205)。このとき、映像の歪が補正されている。
(f)例えば右目用のコンピュータ20032の右目用画像読み出し手段20122は、その3次元グラフィックス生成手段20172を用いてレンダリング(画像生成)された結果が格納されている第1のフレームメモリ20152の内容を読む(図21のS206)。図16(a)のように歪がない映像が第1のフレームメモリ20152に格納されている。
(g)右目用のコンピュータ20032の右目用の仮想面回転手段20132は前記読み出した画像をテクスチャマッピングする右目用の仮想面を上記([2−1]歪みパラメータの生成)において生成した右目用の歪みパラメータ[H total−1を用いて回転させる(図21のS207)。図16(b)参照。
(h)右目用画像貼り付け手段20142は、前記第7の課程(S207)により回転させた仮想面に前記第6の課程(S206)において読み出した画像をテクスチャパターンとして貼り付ける(図21のS208)。このとき、映像発生の投影法を平行投影とする。貼り付けることにより逆歪がかけられることになる。
(i)逆歪をかけた映像すなわち前記第6の課程(S206)により仮想面(テクスチャマッピング面)に貼り付けた映像を第2のフレームメモリ20162に格納する(図21のS209)。
(j)第2のフレームメモリ20162の内容が、右目用プロジェクタ20021を経由してスクリーン2001に投影される(図21のS210)。このとき、映像の歪が補正されている。
([2-2] Video generation)
A description will be given of the generation of a polarized stereoscopic image with the above configuration.
(A) For example, the left-eye image reading unit 20121 of the left-eye computer 20031 stores the contents of the first frame memory 20151 in which the result of rendering (image generation) using the three-dimensional graphics generation unit 20171 is stored. Is read (S201 in FIG. 21). As shown in FIG. 16A, an image without distortion is stored in the first frame memory 20151.
(B) The left-eye virtual surface rotation unit 20131 of the left-eye computer 20031 generates the left-eye virtual surface for texture mapping of the read image in the above ([2-1] Distortion parameter generation). The rotation is performed using the distortion parameter [H i total ] −1 (S202 in FIG. 21). Refer to FIG.
(C) The left-eye image pasting means 20141 pastes the image read in the first process (S201) as a texture pattern on the virtual surface rotated in the second process (S202) (S203 in FIG. 21). ). At this time, the projection method of image generation is parallel projection. The reverse distortion is applied by pasting.
(D) The image subjected to reverse distortion, that is, the image pasted on the virtual surface (texture mapping surface) in the third process (S203) is stored in the second frame memory 20161 (S204 in FIG. 21).
(E) The contents of the second frame memory 20161 are projected on the screen 2001 via the left-eye projector 200001 (S205 in FIG. 21). At this time, the distortion of the image is corrected.
(F) For example, the right-eye image reading unit 20122 of the right-eye computer 20032 stores the contents of the first frame memory 20152 in which the result of rendering (image generation) using the three-dimensional graphics generation unit 20152 is stored. Is read (S206 in FIG. 21). As shown in FIG. 16A, an image without distortion is stored in the first frame memory 20152.
(G) The right-eye virtual surface rotation unit 20132 of the right-eye computer 20032 generates the right-eye virtual surface for texture mapping of the read image in the above ([2-1] Generation of distortion parameters). The rotation is performed using the distortion parameter [H i total ] −1 (S207 in FIG. 21). Refer to FIG.
(H) The right-eye image pasting means 20142 pastes the image read in the sixth process (S206) as a texture pattern on the virtual surface rotated in the seventh process (S207) (S208 in FIG. 21). ). At this time, the projection method of image generation is parallel projection. The reverse distortion is applied by pasting.
(I) The image subjected to reverse distortion, that is, the image pasted on the virtual surface (texture mapping surface) in the sixth process (S206) is stored in the second frame memory 20162 (S209 in FIG. 21).
(J) The contents of the second frame memory 20162 are projected on the screen 2001 via the right-eye projector 200021 (S210 in FIG. 21). At this time, the distortion of the image is corrected.

(その他)
上記説明では、デジタルカメラ2004は右目用のコンピュータ20032に接続している場合を示したが、左目用のコンピュータ20031に同様の機能を持たせて接続しても良く、また左右用のコンピュータ20031,20032とは別に、ホスト用のコンピュータを用意し、実施例1と同様に独立に機能させても良い。
(Other)
In the above description, the digital camera 2004 is connected to the right-eye computer 20032. However, the digital camera 2004 may be connected to the left-eye computer 20031 with the same function. In addition to 20032, a host computer may be prepared to function independently as in the first embodiment.

([3−1]複数スクリーンへの立体視に係る歪みパラメータの生成)
上記例では、複数スクリーンの場合と、単独スクリーンに偏光型立体視への応用の場合を説明したが、偏光型立体視について([2−1]歪みパラメータの生成)の技術と、複数スクリーンの([1−1]歪みパラメータの生成)の技術とを、各スクリーンに応用することにより、スクリーン毎に左右目用の歪みパラメータを得ることができる。複数スクリーンと、各スクリーンに左右目用のプロジェクタと、デジタルカメラと、記憶装置を備えて、上述した([2−1]歪みパラメータの生成)の課程を([1−1]歪みパラメータの生成)で説明したように各スクリーンについて行うことにより実現する。
([3-1] Generation of distortion parameters related to stereoscopic viewing on multiple screens)
In the above example, a case of a plurality of screens and a case of application to polarization-type stereoscopic vision on a single screen have been described. However, the technology of polarization-type stereoscopic vision ([2-1] distortion parameter generation) By applying the technique of ([1-1] distortion parameter generation) to each screen, distortion parameters for the left and right eyes can be obtained for each screen. A plurality of screens, projectors for left and right eyes on each screen, a digital camera, and a storage device are provided, and the process of ([2-1] distortion parameter generation) described above ([1-1] distortion parameter generation) is performed. This is realized by performing each screen as described in the above.

([3−2]複数スクリーンへの立体視に係る映像発生)
上記([3−1]複数スクリーンへの立体視に係る歪みパラメータの生成)で生成したパラメータを用いて各スクリーンへ左右目用の映像を発生させることにより複合スクリーンに立体視映像を投影することができる。
([3-2] Video generation related to stereoscopic viewing on multiple screens)
Projecting stereoscopic images on a composite screen by generating left and right eye images on each screen using the parameters generated in the above ([3-1] Generation of distortion parameters related to stereoscopic viewing on multiple screens). Can do.

上記実施例1及び実施例3において説明した複数スクリーン毎に映像を表示する場合、スクリーンに投影する隣接するプロジェクタをオーバーラップして配置し、その映像が、図23のように、オーパラップ領域(隣接する部分)が重なるように表示させ、重なる部分の映像の色を、プロジェクタAの色を《C》、プロジェクタBの色を《C》とし、
《C》=《C》α(x,y)+(1−α(x,y))《C
なるように、プロジェクタ特性の変化をなだらかに行い、色混合を行なう。例えば、図19に示す波線上の帯内191〜197の部分で色混合が行われる。
When displaying an image for each of a plurality of screens described in the first and third embodiments, adjacent projectors projected on the screen are arranged so as to overlap each other, and the image is displayed in an overlap area ( (Adjacent part) are displayed so that they overlap, and the color of the image of the overlapping part is set to << C A >> for the projector A , and << C B >> for the color of the projector B,
<< C >> = <C A >> α (x, y) + (1−α (x, y)) << C B >>
Thus, the projector characteristics are gently changed to perform color mixing. For example, color mixing is performed in the portions 191 to 197 in the band on the wavy line shown in FIG.

歪みパラメータの生成方法及び映像発生方法の一実施例を説明するフロー図である。It is a flowchart explaining one Example of the production | generation method of a distortion parameter, and a video generation method. 歪みパラメータの生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。It is a functional block diagram for explaining an embodiment of a distortion parameter generation device and a video generation device. 従来の映像発生を説明する図である。It is a figure explaining the conventional image generation | occurrence | production. 空間的位置関係を求める原理図Principle diagram for determining spatial positional relationship 変換マトリクスの求め方の説明図である。It is explanatory drawing of how to obtain | require a conversion matrix. 変換マトリクスの求め方の説明図である。It is explanatory drawing of how to obtain | require a conversion matrix. テストパターンの説明図である。It is explanatory drawing of a test pattern. テストパターンのコーナー探索領域の説明図である。It is explanatory drawing of the corner search area | region of a test pattern. テストパターンのコーナー探索の説明図である。It is explanatory drawing of the corner search of a test pattern. テストパターンのコーナー探索領域の説明図である。It is explanatory drawing of the corner search area | region of a test pattern. テストパターンのコーナー探索の説明図である。It is explanatory drawing of the corner search of a test pattern. プロジェクタの複数スクリーンの関係を求める処理の説明図である。It is explanatory drawing of the process which calculates | requires the relationship of the several screen of a projector. スクリーンと表示映像の合致の説明図である。It is explanatory drawing of the agreement of a screen and a display image. スケールの計算を説明する図である。It is a figure explaining calculation of a scale. スケールの計算を説明する図である。It is a figure explaining calculation of a scale. レンダリングの説明図である。It is explanatory drawing of rendering. 複数コンピュータによる画像生成の説明図である。It is explanatory drawing of the image generation by multiple computers. スクリーンに複数プロジェクタの画像を投影する例の説明図である。It is explanatory drawing of the example which projects the image of a several projector on a screen. 複数プロジェクタの画像を投影したスクリーンを複数有する場合の表示例の説明図である。It is explanatory drawing of the example of a display in the case of having a plurality of screens which projected the image of a plurality of projectors. 歪みパラメータの生成方法の一実施例を説明するフロー図である。It is a flowchart explaining one Example of the production | generation method of a distortion parameter. 映像発生方法の一実施例を説明するフロー図である。It is a flowchart explaining one Example of a video generation method. 歪みパラメータの生成装置及び映像発生装置の一実施例を説明する機能ブロック図である。It is a functional block diagram for explaining an embodiment of a distortion parameter generation device and a video generation device. プロジェクタのオーパラップ領域の表示を説明する図である。It is a figure explaining the display of the overlap area | region of a projector.

符号の説明Explanation of symbols

101i…スクリーン、102i…プロジェクタ、103i…コンピュータ、104…デジタルカメラ、105…コンピュータ、106…位置検出手段、107…マトリクス計算手段、117i…3次元グラフィックス生成手段、110…記憶装置、112i…画像読み出し手段、113i…仮想面回転手段、114i…画像貼り付け手段、115i…第1のフレームメモリ、116i…第2のフレームメモリ。
DESCRIPTION OF SYMBOLS 101i ... Screen, 102i ... Projector, 103i ... Computer, 104 ... Digital camera, 105 ... Computer, 106 ... Position detection means, 107 ... Matrix calculation means, 117i ... Three-dimensional graphics production | generation means, 110 ... Memory | storage device, 112i ... Image Reading means 113i... Virtual surface rotating means 114i. Image pasting means 115i... First frame memory 116i.

Claims (14)

複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる複数pのプロジェクタと、前記複数pのプロジェクタ毎に対応して備えられる複数mのコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有し、
前記プロジェクタに対応したコンピュータiにより作成された白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンを当該プロジェクタに対応するスクリーンに投影する第1の課程と、
前記テストパターンが投影されている前記スクリーンを、視点となる位置もしくは視点位置より後方に配置された前記デジタルカメラにより撮像する第2の課程と、
前記撮像した画像から、表示映像とスクリーンとの合致に必要な、スクリーンを構成する頂点と、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーとを画像認識により検出し、その位置を、デジタルカメラを接続した前記コンピュータを用いて求める第3の課程と、
前記第3の課程で求めた前記頂点と前記コーナーとにより、歪み調整と合成およびスクリーンと表示映像を合致させるための変換マトリクス、スケールマトリクス及び移動マトリクスをデジタルカメラを接続した前記コンピュータにより求める第4の課程と、
第1の課程から第4の課程を、前記複数nの各スクリーンについて、備えられる複数pのプロジェクタが実行した後、各投影映像を1つの滑らかな映像に合成しかつスクリーンに合致させるための前記第4の課程で求めた各変換マトリクス、スケールマトリクス及び移動マトリクスの積をとり合成した合成マトリクスを、歪パラメータとして、プロジェクタ毎に記憶装置に格納する第5の課程と
からなることを特徴とする歪みパラメータの生成方法。
In a projection space configured by combining a plurality of n screens, a plurality of p projectors provided for each of the plurality of n screens, a plurality of m computers provided for each of the plurality of p projectors, and a computer A digital camera connected to the storage device and a storage device,
A first step of projecting a test pattern common to each of the projectors in a checkered pattern in which white and black rectangles alternately arranged vertically and horizontally created by a computer i corresponding to the projector onto a screen corresponding to the projector;
A second process in which the screen on which the test pattern is projected is imaged by the digital camera disposed at a position serving as a viewpoint or behind the viewpoint position ;
From the captured image, the vertex of the test pattern necessary for matching the display image and the screen, and the rectangle of the test pattern necessary for correcting the distortion of each projection image and synthesizing it into one smooth image a corner four portions constitute the adjacent portions, is detected through image recognition, and a third program for determining the position, using the computer connected to the digital camera,
The said third said corner and the apex determined in course of transformation matrix for matching the displayed image distortion adjustment and synthesis, and a screen, a scale matrix and moving matrix is obtained by the computer connected to the digital camera first 4 courses,
After the first to fourth processes are executed for each of the plurality of n screens by a plurality of p projectors provided, the projected images are combined into one smooth image and matched with the screen. A synthesis matrix obtained by combining the products of the conversion matrix, the scale matrix, and the movement matrix obtained in the fourth process is composed of a fifth process for storing in a storage device for each projector as a distortion parameter. Generation method of distortion parameters.
複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる複数pのプロジェクタと、前記複数pのプロジェクタ毎に対応して備えられる複数mのコンピュータとを有し、
複数mの各々のコンピュータの処理において、
コンピュータにより生成された画像が格納されているフレームメモリから画像を読み出す第1の課程と、
前記読み出した画像をテクスチャマッピングする仮想面を請求項1において生成した歪みパラメータを用いて回転させる第2の課程と、
前記回転させた仮想面に前記読み出した画像をテクスチャパターンとして貼り付ける第3の課程と、
前記回転させた仮想面に貼り付けた映像をフレームメモリに格納する第4の課程と、
前記第4の課程で格納したフレームメモリ内の映像を当該コンピュータに対応するプロジェクタにより対応するスクリーンへ投影する第5の課程と
からなることを特徴とする映像発生方法。
In a projection space configured by combining a plurality of n screens, a plurality of p projectors provided corresponding to each of the plurality of n screens and a plurality of m computers provided corresponding to the plurality of p projectors are provided. And
In the processing of each of a plurality of computers,
A first process of reading an image from a frame memory in which an image generated by a computer is stored;
A second step of rotating a virtual surface for texture mapping of the read image using the distortion parameter generated in claim 1;
A third process of pasting the read image as a texture pattern on the rotated virtual surface;
A fourth process of storing the image pasted on the rotated virtual surface in a frame memory;
An image generation method comprising: a fifth process of projecting an image in a frame memory stored in the fourth process onto a corresponding screen by a projector corresponding to the computer.
複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる複数pのプロジェクタと、前記複数pのプロジェクタ毎に対応して備えられる複数mのコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有する歪みパラメータ生成装置であって、
白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンを対応するスクリーン毎に投影する前記複数のプロジェクタと、
視点となる位置もしくは視点位置より後方に配置され、前記スクリーンに投影されている前記テストパターンを撮像するデジタルカメラと、
前記デジタルカメラを接続したコンピュータにより構成され、前記撮像した画像から、表示映像とスクリーンとの合致に必要な、各スクリーンを構成する頂点と、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーとを画像認識により検出し、その位置を求める位置検出手段と、前記位置検出手段で求めた各スクリーン毎の前記頂点と前記コーナーとにより、歪み調整と合成およびスクリーンと表示映像を合致させるための各スクリーンに係る変換マトリクス、スケールマトリクス及び移動マトリクス前記デジタルカメラを接続したコンピュータにより求めるマトリクス計算手段と、
前記マトリクス計算手段により求めた各変換マトリクス、スケールマトリクス及び移動マトリクスの積をとり合成した合成マトリクスを、歪パラメータとして、プロジェクタ毎に格納する記憶装置とを備えたことを特徴とする歪みパラメータ生成装置。
In a projection space configured by combining a plurality of n screens, a plurality of p projectors provided for each of the plurality of n screens, a plurality of m computers provided for each of the plurality of p projectors, and a computer A distortion parameter generation device having a digital camera connected to the storage device and a storage device,
The plurality of projectors that project a test pattern common to each projector in a checkered pattern in which white and black rectangles are alternately arranged vertically and horizontally for each screen,
A digital camera that images the test pattern, which is arranged behind the position that becomes the viewpoint or the viewpoint position , and is projected on the screen;
Wherein it is constituted by a digital camera connected to the computer, from the captured image, necessary for matching the displayed image and the screen, the vertex constituting each screen, one smooth image to correct distortion of the projected image The corners formed by the adjacent portions of the four rectangular portions of the test pattern , which are necessary for synthesis, are detected by image recognition , and position detection means for obtaining the positions thereof, and each of the positions obtained by the position detection means. the said and the apex of each screen corner distortion adjusting the synthesis and transformation matrix according to the screen display image on the screen to match the scale matrix and moving matrix, the matrix calculation means for calculating a computer connected to the digital camera When,
A distortion parameter generation apparatus comprising: a storage device that stores , as a distortion parameter , a composite matrix obtained by combining products of each conversion matrix, scale matrix, and movement matrix obtained by the matrix calculation unit , as a distortion parameter .
複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる複数pのプロジェクタと、前記複数pのプロジェクタ毎に対応して備えられる複数mのコンピュータとを有し、
前記複数mのコンピュータの各々において、
生成した画像が格納されているフレームメモリから画像を読み出す画像読み出し手段と、
前記読み出した画像をテクスチャマッピングする仮想面を請求項3において生成した歪みパラメータを用いて回転させる仮想面回転手段と、
前記回転させた仮想面に前記読み出した画像をテクスチャパターンとして貼り付ける画像貼り付け手段と、
前記回転させた仮想面に貼り付けた映像を格納するフレームメモリと、
前記格納したフレームメモリ内の映像を当該コンピュータに対応するスクリーンへ投影するプロジェクタと
からなることを特徴とする映像発生装置。
In a projection space configured by combining a plurality of n screens, a plurality of p projectors provided corresponding to each of the plurality of n screens and a plurality of m computers provided corresponding to the plurality of p projectors are provided. And
In each of the plurality of m computers,
Image reading means for reading an image from a frame memory in which the generated image is stored;
A virtual surface rotating means for rotating the virtual surface for texture mapping the read image using the distortion parameter generated in claim 3;
Image pasting means for pasting the read image as a texture pattern on the rotated virtual surface;
A frame memory for storing video pasted on the rotated virtual surface;
An image generating apparatus comprising: a projector that projects an image in the stored frame memory onto a screen corresponding to the computer.
スクリーンを備える投影空間において、左目用プロジェクタと、右目用プロジェクタと、前記左目用プロジェクタと右目用プロジェクタとの各々に対応して備えられる左目用、右目用のコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有し、
前記スクリーンを前記デジタルカメラで撮像する第1の課程と、
前記撮像した画像から、表示映像とスクリーンとの合致に必要な、スクリーンを構成する頂点を画像認識により検出し、その位置を前記デジタルカメラを接続した前記コンピュータを用いて求める第2の課程と、
前記左目用又は右目用のコンピュータにより作成された白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンをスクリーンに左又は右目用のいずれか1つのプロジェクタにより投影する第3の課程と、
前記撮像した画像から、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーを画像認識により検出し、その位置を、前記デジタルカメラを接続した前記コンピュータを用いて求める第4の課程と、
前記第2の課程で求めた前記頂点と前記第4の課程で求めた前記コーナーとにより、歪み調整と合成およびスクリーンと表示映像を合致させるための左又は右目用のいずれか一方の変換マトリクス、スケールマトリクス及び移動マトリクスを前記デジタルカメラを接続した前記コンピュータにより求める第5の課程と、
コンピュータにより作成され白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンをスクリーンに前記第3の課程による左又は右目用のいずれか一方のプロジェクタ以外の他の目用の1つのプロジェクタにより投影する第6の課程と、
前記撮像した画像から、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーを画像認識により検出し、その位置を、前記デジタルカメラを接続した前記コンピュータを用いて求める第7の課程と、
前記第2の課程で求めた前記頂点と前記第7の課程で求めた前記コーナーとにより第5の課程による左又は右目用のいずれか一方以外の、歪み調整と合成およびスクリーンと表示映像を合致させるための左又は右目用のいずれか他方の変換マトリクス、スケールマトリクス及び移動マトリクスを前記デジタルカメラを接続した前記コンピュータを用いて求める第8の課程と、
投影映像を1つの滑らかな映像に合成しかつスクリーンに合致させるための前記第5の課程及び第8の課程で求めた各変換マトリクス、スケールマトリクス及び移動マトリクスの積をとり合成した合成マトリクスを、歪パラメータとして記憶装置に格納する第9の課程と
からなることを特徴とする歪みパラメータの生成方法。
In a projection space including a screen, a left-eye projector, a right-eye projector, a left-eye computer and a right-eye computer provided for each of the left-eye projector and the right-eye projector, and a digital camera connected to the computer And a storage device,
A first process of imaging the screen with the digital camera;
A second step of detecting, by image recognition, vertices constituting the screen necessary for matching the display image and the screen from the captured image, and obtaining the position using the computer connected to the digital camera;
A test pattern common to each of the checkered projectors in which white and black rectangles created by the left-eye or right-eye computer are alternately arranged vertically and horizontally is projected onto the screen by any one projector for left or right eyes. And course
From the captured image, a corner formed by the adjacent portions of the four rectangular portions of the test pattern necessary for correcting the distortion of each projected video and synthesizing it into one smooth video is detected by image recognition. A fourth process for determining the position using the computer connected to the digital camera;
Wherein said the said corner obtained in said fourth courses the vertices obtained in 2 courses, left or either the transformation matrix for the right eye for matching the strain regulating synthesis and a screen display image, A fifth process for obtaining a scale matrix and a movement matrix by the computer connected to the digital camera;
A test pattern common to each projector of a checkered pattern in which white and black rectangles are alternately arranged vertically and horizontally created on a computer is used for the eyes other than the left or right projector according to the third process. A sixth process of projecting from one projector;
From the captured image, a corner formed by the adjacent portions of the four rectangular portions of the test pattern necessary for correcting the distortion of each projected video and synthesizing it into one smooth video is detected by image recognition. A seventh step for determining the position using the computer connected to the digital camera;
Matching distortion adjustment and composition and screen and display image other than the left or right eye according to the fifth process based on the vertex obtained in the second process and the corner obtained in the seventh process An eighth process for obtaining the conversion matrix, scale matrix and movement matrix for the other of the left or right eye for using the computer connected to the digital camera;
A synthesized matrix obtained by synthesizing the product of each conversion matrix, scale matrix, and moving matrix obtained in the fifth and eighth processes to synthesize the projected image into one smooth image and match the screen . A distortion parameter generation method comprising the ninth step of storing the distortion parameter in a storage device.
スクリーンを備える投影空間において、左目用プロジェクタと、右目用プロジェクタと、前記左目用プロジェクタと右目用プロジェクタとの各々に対応して備えられるコンピュータとを有し、
前記コンピュータの処理において、
コンピュータにより生成された左目用又は右目用のいずれか一方の画像が格納されているフレームメモリから画像を読み出す第1の課程と、
前記読み出した画像をテクスチャマッピングする左目用又は右目用のいずれか一方の仮想面を請求項5において生成した左目用又は右目用のいずれか一方の歪みパラメータを用いて回転させる第2の課程と、
前記第2の課程により回転させた仮想面に前記読み出した画像をテクスチャパターンとして貼り付ける第3の課程と、
前記第3の課程により仮想面に貼り付けた映像をフレームメモリに格納する第4の課程と、
前記第4の課程で格納したフレームメモリ内の映像を左目用又は右目用のいずれか一方のプロジェクタによりスクリーンへ投影する第5の課程と、
コンピュータにより生成され前記第1の課程により読み出される左又は右目用のいずれか一方の画像以外の他の目用の画像が格納されているフレームメモリから画像を読み出す第6の課程と、
第2課程における左目用又は右目用のいずれか一方の仮想面以外の仮想面であって、前記読み出した画像をテクスチャマッピングする左目用又は右目用のいずれか一方の仮想面を、請求項5において生成した左目用又は右目用のいずれか一方の歪みパラメータであって、第2課程における左目用又は右目用のいずれか一方のパラメータ以外のパラメータを用いて回転させる第7の課程と、
前記第7の課程により回転させた仮想面に前記第6の課程により読み出した画像をテクスチャパターンとして貼り付ける第8の課程と、
前記第8の課程により仮想面に貼り付けた映像をフレームメモリに格納する第9の課程と、
前記第9の課程で格納したフレームメモリ内の映像を、前記第5の課程による左目用又は右目用のいずれか一方のプロジェクタ以外の左目用又は右目用のいずれか一方のプロジェクタによりスクリーンへ投影する第10の課程と、
からなることを特徴とする映像発生方法。
In a projection space including a screen, a left-eye projector, a right-eye projector, and a computer provided corresponding to each of the left-eye projector and the right-eye projector,
In the processing of the computer,
A first process of reading an image from a frame memory in which one of the left-eye image and the right-eye image generated by the computer is stored;
A second step of rotating either the left-eye or right-eye virtual surface for texture mapping the read image using either the left-eye or right-eye distortion parameter generated in claim 5;
A third process for pasting the read-out image as a texture pattern on the virtual surface rotated by the second process;
A fourth process of storing the video pasted on the virtual surface in the third process in a frame memory;
A fifth process of projecting the image in the frame memory stored in the fourth process onto the screen by either the left-eye projector or the right-eye projector;
A sixth process of reading an image from a frame memory in which an image for the eye other than one of the left and right eye images generated by the computer and read by the first process is stored;
The virtual surface other than the left-eye or right-eye virtual surface in the second course, which is one of the left-eye and right-eye virtual surfaces for texture mapping of the read image, A seventh process of rotating using one of the generated distortion parameters for the left eye or the right eye, other than the left eye parameter or the right eye parameter in the second process;
An eighth process of pasting the image read out in the sixth process as a texture pattern on the virtual surface rotated in the seventh process;
A ninth process for storing the image pasted on the virtual surface in the eighth process in a frame memory;
The image in the frame memory stored in the ninth process is projected onto the screen by one of the left-eye or right-eye projectors other than the left-eye or right-eye projector according to the fifth process. 10th course,
A video generation method comprising:
スクリーンを備える投影空間において、左目用プロジェクタと、右目用プロジェクタと、前記左目用プロジェクタと右目用プロジェクタとの各々に対応して備えられる左目用、右目用のコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有し、
白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンを前記スクリーンに投影する左目用のプロジェクタと、
白と黒の矩形を縦横交互に並べた市松模様の各プロジェクタ共通のテストパターンを前記スクリーンに投影する右目用のプロジェクタと、
視点となる位置に配置され、前記スクリーンを撮像するとともに左目用のプロジェクタ及び右目用プロジェクタからスクリーンに投影されているそれぞれのテストパターンを撮像する前記デジタルカメラと、
前記デジタルカメラを接続したコンピュータにより構成され、前記デジタルカメラで撮像したスクリーンの画像から、表示映像とスクリーンとの合致に必要な、前記スクリーンを構成する頂点を画像認識により検出し、その位置を求めるとともに、左目用のプロジェクタ及び右目用のプロジェクタからのそれぞれのテストパターンをデジタルカメラで撮像した画像から、各投影映像の歪みを補正し1つの滑らかな映像に合成するために必要な、テストパターンの前記矩形部分の4個が隣接する部分が構成するコーナーを画像認識により検出し、その位置を求める位置検出手段と、前記位置検出手段で求めた前記頂点と左右目用のプロジェクタの各々が投影した前記コーナーとにより、歪み調整と合成およびスクリーンと表示映像を合致させるための左右目用の各々の変換マトリクス、スケールマトリクス及び移動マトリクスを前記コンピュータにより求めるマトリクス計算手段と、前記マトリクス計算手段により求めた投影映像を1つの滑らかな映像に合成しかつスクリーンに合致させるための左右目用の各々の変換マトリクス、スケールマトリクス及び移動マトリクスの積をとり合成した合成マトリクスを、左右目用の各々の歪パラメータとして格納する記憶装置とを備えたことを特徴とする歪みパラメータ生成装置。
In a projection space including a screen, a left-eye projector, a right-eye projector, a left-eye computer and a right-eye computer provided for each of the left-eye projector and the right-eye projector, and a digital camera connected to the computer And a storage device,
A projector for the left eye that projects a test pattern common to each checkered projector in which white and black rectangles are alternately arranged vertically and horizontally on the screen;
A right-eye projector that projects a test pattern common to each checkered projector in which white and black rectangles are alternately arranged vertically and horizontally on the screen;
The digital camera which is arranged at a position to be a viewpoint, images the screen and images each test pattern projected on the screen from the left-eye projector and the right-eye projector;
The computer is connected to the digital camera, and from the screen image captured by the digital camera, the vertices constituting the screen necessary for matching the display image and the screen are detected by image recognition, and the position is obtained. In addition, the test pattern necessary for correcting the distortion of each projection video and synthesizing it into one smooth video from the image captured by the digital camera with the test pattern from the left-eye projector and the right-eye projector. A corner formed by four adjacent rectangular portions is detected by image recognition, and a position detecting means for obtaining the position, and the vertex obtained by the position detecting means and each of the left and right eye projectors are projected. the said corner, match the synthetic and screen display image distortion adjustment Because each of the transformation matrix for the right and left eyes, scale and matrix and matrix calculation means for moving matrix calculated by the computer, the projected image obtained by the matrix calculation means is combined into a single smooth image and to match the screen A distortion parameter generation comprising: a storage device for storing a composite matrix obtained by combining products of conversion matrices, scale matrices, and movement matrices for left and right eyes as distortion parameters for left and right eyes apparatus.
スクリーンを備える投影空間において、左目用プロジェクタと、右目用プロジェクタと、前記左目用プロジェクタと右目用プロジェクタとの各々に対応して備えられる左目用及び右目用のコンピュータとを有し、
前記コンピュータにおいて、
左目用の画像が格納されているフレームメモリから画像を読み出す左目用画像読み出し手段と、
右目用の画像が格納されているフレームメモリから画像を読み出す右目用画像読み出し手段と、
前記左目用画像読み出し手段により読み出した画像をテクスチャマッピングする仮想面を請求項7において生成した左目用の歪みパラメータを用いて回転させる左目用の仮想面回転手段と、
前記右目用画像読み出し手段により読み出した画像をテクスチャマッピングする仮想面を請求項7において生成した右目用の歪みパラメータを用いて回転させる右目用の仮想面回転手段と、
前記左目用の仮想面回転手段により回転させた仮想面に前記左目用画像読み出し手段により読み出した画像をテクスチャパターンとして貼り付ける左目用画像貼り付け手段と、
前記右目用の仮想面回転手段により回転させた仮想面に前記右目用画像読み出し手段により読み出した画像をテクスチャパターンとして貼り付ける右目用画像貼り付け手段と、
前記左目用画像貼り付け手段により仮想面に貼り付けた映像を格納する左目用フレームメモリと、
前記右目用画像貼り付け手段により仮想面に貼り付けた映像を格納する右目用フレームメモリと、
前記格納した左目用フレームメモリ内の映像をスクリーンへ投影する左目用プロジェクタと、
前記格納した右目用フレームメモリ内の映像をスクリーンへ投影する右目用プロジェクタと
からなることを特徴とする映像発生装置。
In a projection space including a screen, a left-eye projector, a right-eye projector, and a left-eye computer and a right-eye computer provided for each of the left-eye projector and the right-eye projector,
In the computer,
Left-eye image reading means for reading an image from a frame memory in which a left-eye image is stored;
Right-eye image reading means for reading an image from a frame memory in which an image for the right eye is stored;
Virtual surface rotation means for left eye that rotates a virtual surface for texture mapping the image read by the image read means for left eye using the distortion parameter for left eye generated in claim 7;
A virtual surface rotating means for the right eye that rotates a virtual surface for texture mapping the image read by the image reading means for the right eye using the distortion parameter for the right eye generated in claim 7;
A left-eye image pasting unit that pastes the image read out by the left-eye image reading unit on the virtual surface rotated by the left-eye virtual surface rotating unit;
Right-eye image pasting means for pasting the image read by the right-eye image reading means as a texture pattern on the virtual surface rotated by the right-eye virtual surface rotating means;
A frame memory for the left eye for storing the image pasted on the virtual plane by the image pasting means for the left eye;
A frame memory for the right eye for storing the image pasted on the virtual surface by the image pasting means for the right eye;
A left-eye projector that projects the image in the stored left-eye frame memory onto a screen;
An image generator comprising: a right-eye projector that projects the image in the stored right-eye frame memory onto a screen.
複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる左右目用の2台複数p/2組のプロジェクタと、前記左右目用の2台複数p/2組のプロジェクタ毎に対応して備えられる左右目用の複数m組のコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有したことを特徴とする請求項5に記載の歪みパラメータの生成方法。   In a projection space configured by combining a plurality of n screens, two or more p / 2 sets of projectors for the left and right eyes provided corresponding to each of the plurality of n screens, and two or more projectors for the left and right eyes 6. The distortion parameter according to claim 5, comprising a plurality of m sets of computers for left and right eyes provided corresponding to each of two sets of projectors, a digital camera connected to the computer, and a storage device. Generation method. 複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる左右目用の2台複数p/2組のプロジェクタと、前記左右目用の2台複数p/2組のプロジェクタ毎に対応して備えられる左右目用の複数m組のコンピュータとを有したことを特徴とする請求項6に記載の映像発生方法。   In a projection space configured by combining a plurality of n screens, two or more p / 2 sets of projectors for the left and right eyes provided corresponding to each of the plurality of n screens, and two or more projectors for the left and right eyes The video generation method according to claim 6, further comprising: a plurality of m sets of computers for left and right eyes provided corresponding to each of the two sets of projectors. 複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる左右目用の2台複数p/2組のプロジェクタと、前記左右目用の2台複数p/2組のプロジェクタ毎に対応して備えられる左右目用の複数m組のコンピュータと、コンピュータに接続されるデジタルカメラと、記憶装置とを有したことを特徴とする請求項7に記載の歪みパラメータの生成装置。   In a projection space configured by combining a plurality of n screens, two or more p / 2 sets of projectors for the left and right eyes provided corresponding to each of the plurality of n screens, and two or more projectors for the left and right eyes 8. The distortion parameter according to claim 7, comprising a plurality of m sets of computers for left and right eyes provided corresponding to each of two sets of projectors, a digital camera connected to the computer, and a storage device. Generator. 複数nのスクリーンを組み合わせて構成する投影空間において、前記複数nのスクリーン毎に対応して備えられる左右目用の2台複数p/2組のプロジェクタと、前記左右目用の2台複数p/2組のプロジェクタ毎に対応して備えられる左右目用の複数m組のコンピュータとを有したことを特徴とする請求項8に記載の映像発生装置。   In a projection space configured by combining a plurality of n screens, two or more p / 2 sets of projectors for the left and right eyes provided corresponding to each of the plurality of n screens, and two or more projectors for the left and right eyes 9. The image generating apparatus according to claim 8, further comprising a plurality of m sets of computers for left and right eyes provided corresponding to each of the two sets of projectors. スクリーンに投影する各プロジェクタの隣り合う映像を一部領域を重ね合わせるようにしたことを特徴とする請求項2、請求項6又は請求項10のいずれか1に記載の映像発生方法。   11. The image generation method according to claim 2, wherein adjacent areas of the projectors projected on the screen are partially overlapped with each other. スクリーンに投影する各プロジェクタの隣り合う映像を一部領域を重ね合わせるようにしたことを特徴とする請求項4、請求項8又は請求項12のいずれか1に記載の映像発生装置。   13. The video generation apparatus according to claim 4, wherein adjacent video images of the projectors projected onto the screen are partially overlapped with each other.
JP2004040361A 2004-02-17 2004-02-17 Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus Expired - Fee Related JP4554231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004040361A JP4554231B2 (en) 2004-02-17 2004-02-17 Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004040361A JP4554231B2 (en) 2004-02-17 2004-02-17 Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus

Publications (2)

Publication Number Publication Date
JP2005234698A JP2005234698A (en) 2005-09-02
JP4554231B2 true JP4554231B2 (en) 2010-09-29

Family

ID=35017614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004040361A Expired - Fee Related JP4554231B2 (en) 2004-02-17 2004-02-17 Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus

Country Status (1)

Country Link
JP (1) JP4554231B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11948316B2 (en) 2020-03-11 2024-04-02 Samsung Electronics Co., Ltd. Camera module, imaging device, and image processing method using fixed geometric characteristics

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101166719B1 (en) 2008-12-22 2012-07-19 한국전자통신연구원 Method for calculating a limitless homography and method for reconstructing architecture of building using the same
JP2010288062A (en) * 2009-06-11 2010-12-24 Seiko Epson Corp Projector, program, information storage medium, and image projection method
JP5372857B2 (en) 2010-07-16 2013-12-18 三洋電機株式会社 Projection display device
GB2498184A (en) * 2012-01-03 2013-07-10 Liang Kong Interactive autostereoscopic three-dimensional display
JP5605473B2 (en) * 2013-07-30 2014-10-15 三洋電機株式会社 Projection display device
JP2015060012A (en) * 2013-09-17 2015-03-30 株式会社リコー Image processing system, image processing device, image processing method and image processing program as well as display system
WO2019163385A1 (en) * 2018-02-20 2019-08-29 キヤノン株式会社 Image processing device, image processing method and program
JP7391502B2 (en) 2018-02-20 2023-12-05 キヤノン株式会社 Image processing device, image processing method and program
US11240475B2 (en) 2018-04-17 2022-02-01 Sony Corporation Information processing apparatus and method
CN109697747B (en) * 2018-12-24 2023-08-08 大陆汽车车身电子系统(芜湖)有限公司 Rectangular overturning animation generation method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320652A (en) * 2000-05-11 2001-11-16 Nec Corp Projector
JP2001339742A (en) * 2000-03-21 2001-12-07 Olympus Optical Co Ltd Three dimensional image projection apparatus and its correction amount calculator
JP2003036142A (en) * 2001-07-24 2003-02-07 Hitachi Ltd System and method for presentation
JP2003348500A (en) * 2002-03-19 2003-12-05 Fuji Photo Film Co Ltd Projection image adjustment method, image projection method, and projector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001339742A (en) * 2000-03-21 2001-12-07 Olympus Optical Co Ltd Three dimensional image projection apparatus and its correction amount calculator
JP2001320652A (en) * 2000-05-11 2001-11-16 Nec Corp Projector
JP2003036142A (en) * 2001-07-24 2003-02-07 Hitachi Ltd System and method for presentation
JP2003348500A (en) * 2002-03-19 2003-12-05 Fuji Photo Film Co Ltd Projection image adjustment method, image projection method, and projector

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11948316B2 (en) 2020-03-11 2024-04-02 Samsung Electronics Co., Ltd. Camera module, imaging device, and image processing method using fixed geometric characteristics

Also Published As

Publication number Publication date
JP2005234698A (en) 2005-09-02

Similar Documents

Publication Publication Date Title
CN110111262B (en) Projector projection distortion correction method and device and projector
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
CN108122191A (en) Fish eye images are spliced into the method and device of panoramic picture and panoramic video
CN105488775A (en) Six-camera around looking-based cylindrical panoramic generation device and method
CN105959669B (en) It is a kind of based on the micro- pattern matrix rapid generation of integration imaging remapped
US10783607B2 (en) Method of acquiring optimized spherical image using multiple cameras
CN111866523B (en) Panoramic video synthesis method and device, electronic equipment and computer storage medium
CA2464569A1 (en) Single or multi-projector for arbitrary surfaces without calibration nor reconstruction
KR102152436B1 (en) A skeleton processing system for dynamic 3D model based on 3D point cloud and the method thereof
JP4965967B2 (en) Image display system adjustment system
JP4554231B2 (en) Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus
JPH11175762A (en) Light environment measuring instrument and device and method for shading virtual image using same
US8577202B2 (en) Method for processing a video data set
WO2018052100A1 (en) Image processing device, image processing method, and image processing program
CN113643414A (en) Three-dimensional image generation method and device, electronic equipment and storage medium
US20090195758A1 (en) Meshes for separately mapping color bands
Zhang et al. A line scan camera-based structure from motion for high-resolution 3D reconstruction
US20180213215A1 (en) Method and device for displaying a three-dimensional scene on display surface having an arbitrary non-planar shape
JP4354708B2 (en) Multi-view camera system
AU2004306226A1 (en) Stereoscopic imaging
JP4193292B2 (en) Multi-view data input device
CN108269288B (en) Intelligent special-shaped projection non-contact interaction system and method
JP2006221599A (en) Method and apparatus for generating mapping function, and compound picture develop method, and its device
Askarian Bajestani et al. Scalable and view-independent calibration of multi-projector display for arbitrary uneven surfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100416

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100714

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4554231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees