JP2005326247A - Calibrator, calibration method, and calibration program - Google Patents

Calibrator, calibration method, and calibration program Download PDF

Info

Publication number
JP2005326247A
JP2005326247A JP2004144269A JP2004144269A JP2005326247A JP 2005326247 A JP2005326247 A JP 2005326247A JP 2004144269 A JP2004144269 A JP 2004144269A JP 2004144269 A JP2004144269 A JP 2004144269A JP 2005326247 A JP2005326247 A JP 2005326247A
Authority
JP
Japan
Prior art keywords
pattern
image
plane
projection
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004144269A
Other languages
Japanese (ja)
Inventor
Jun Shimamura
潤 島村
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004144269A priority Critical patent/JP2005326247A/en
Publication of JP2005326247A publication Critical patent/JP2005326247A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enhance the accuracy of shape measurement and to beautify a projected image irrespective of the shape of a projection surface. <P>SOLUTION: A pattern picture is generated by a pattern imaging part 14, the picture is transferred to a projector 11, and then an imaging order is issued to an imaging device 12. A pattern imaging picture imaged by the imaging device 12 is stored in a storage device 13 and outputted to a pattern imaging part 14. Nextly, when a pattern extraction part 15 is started, the imaging picture photographed by the imaging part 14 is read from the storage device 13. The extraction part 15 transfers the read imaging picture, as an extracted pattern picture, via a plane area extraction part 16 and a correspondence coordinate calculation part 17 to a plane projection matrix calculation part 18. Lastly, when a parameter estimation part 19 is started, plane ID and a plane projection matrix corresponding to the plane ID are received from a plane projection matrix estimation part 18. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は,プロジェクタ(投影装置)により歪みのない投影を行う際に利用される投影面の三次元座標を算出するために必要なカメラ(撮像装置)とプロジェクタの自動校正を可能とするカメラ・プロジェクタにおける校正装置及び校正方法並びに校正プログラムに係わり、特に、空間的な位置拘束のない任意の平面を用いてカメラの特性、及び、プロジェクタの特性を表す内部パラメータと、カメラとプロジェクタ間の位置、回転の関係を表す外部パラメータを算出する校正装置及び校正方法並びに校正プログラムに関するものである。   The present invention relates to a camera (imaging device) necessary for calculating the three-dimensional coordinates of a projection plane used when performing projection without distortion by a projector (projection device), and a camera that enables automatic calibration of the projector. The present invention relates to a calibration apparatus, a calibration method, and a calibration program in a projector, and in particular, the characteristics of a camera using an arbitrary plane without spatial positional constraints, and internal parameters representing the characteristics of the projector, and the position between the camera and the projector, The present invention relates to a calibration apparatus, a calibration method, and a calibration program for calculating external parameters representing a rotation relationship.

プロジェクタ等の投影装置を利用して前記プロジェクタに入力された画像を投影する際、凹凸面など投影装置の光軸と投影面(スクリーン)の法線が一致しない部分では、投影された画像に歪みが生じることになる。   When projecting an image input to the projector using a projection device such as a projector, the projected image is distorted in areas where the optical axis of the projection device and the normal of the projection surface (screen) do not match, such as an uneven surface. Will occur.

このような歪みを補正する従来技術として、下記文献が開示されている(特許文献1、特許文献2及び特許文献3参照)。   The following documents are disclosed as conventional techniques for correcting such distortion (see Patent Document 1, Patent Document 2, and Patent Document 3).

特許文献1に開示されるものでは光学系を手動で調整する構成とされ、特許文献2,3に開示されるものでは歪みに対応した映像を手動で調整して出力する補正機能が備えられている。   The one disclosed in Patent Document 1 is configured to manually adjust the optical system, and the one disclosed in Patent Documents 2 and 3 includes a correction function for manually adjusting and outputting an image corresponding to distortion. Yes.

また、投影面の三次元形状が任意であっても、投影画面の歪みを自動的に補正するプロジェクタが提案されている(特許文献4参照)。   Further, there has been proposed a projector that automatically corrects the distortion of the projection screen even if the three-dimensional shape of the projection surface is arbitrary (see Patent Document 4).

図22は、このような機能を有するプロジェクタの全体構成を示すブロック図である。図22において、パターン画像生成部220で所定のパターンを生成し、映像出力部221から投影面にパターンを投影する。   FIG. 22 is a block diagram showing an overall configuration of a projector having such a function. In FIG. 22, the pattern image generation unit 220 generates a predetermined pattern, and projects the pattern from the video output unit 221 onto the projection plane.

カメラ222は、この投影面上のパターンを撮影し、投影面獲得部223へ送出する。投影面獲得部223では光投影法の原理を用いて投影面を構成する各点における投影距離と投影方向を測定し、この測定結果を映像補正部224および投影制御部225へ出力する。   The camera 222 captures the pattern on the projection plane and sends it to the projection plane acquisition unit 223. The projection plane acquisition unit 223 measures the projection distance and projection direction at each point constituting the projection plane using the principle of the light projection method, and outputs the measurement results to the video correction unit 224 and the projection control unit 225.

投影面獲得部223からの測定結果を受け付けた映像補正部224は、測定結果から投影面を構成する各点における投影距離と投影方向を測定した後、映像入力部226から得られる原画像に対して、投影面の投影中心を通り、その法線ベクトルは、投影面の法線ベクトルと水平成分が同じで、かつ、床面と平行な仮想投影面に歪みのない映像が表示されるよう、透視変換モデルに基づいて逆投影シミュレーションによって補正した画像を映像出力部221へ出力する。   The video correction unit 224 that has received the measurement result from the projection plane acquisition unit 223 measures the projection distance and the projection direction at each point constituting the projection plane from the measurement result, and then performs the process on the original image obtained from the video input unit 226. The normal vector of the projection plane of the projection plane has the same horizontal component as that of the projection plane, and an image without distortion is displayed on a virtual projection plane parallel to the floor surface. An image corrected by back projection simulation based on the perspective transformation model is output to the video output unit 221.

一方、投影面獲得部223からの測定結果を受け付けた投影制御部225では、映像出力部221が投影出力とする映像を映像補正部224からの出力に切り替えさせる。このような構成とすることにより、任意の三次元形状の投影画面であってもその歪みが自動的に補正される映像が出力される。   On the other hand, in the projection control unit 225 that has received the measurement result from the projection plane acquisition unit 223, the video output unit 221 switches the video that is the projection output to the output from the video correction unit 224. By adopting such a configuration, an image whose distortion is automatically corrected is output even on a projection screen having an arbitrary three-dimensional shape.

上述した従来の技術のうち、特許文献1から特許文献4に開示されるものは、光学系を手動で調整する構成であり、調整誤差が生じるという問題点がある。   Among the above-described conventional techniques, those disclosed in Patent Document 1 to Patent Document 4 have a configuration in which an optical system is manually adjusted and an adjustment error occurs.

また、図22を用いて説明した方法で投影面の形状を測定する場合、カメラとプロジェクタの相対位置姿勢や、透視変換モデルに基づいたカメラとプロジェクタの内部パラメータが、手動調整による誤差で正確に得られていないと、精度の高い形状測定が困難であり、投影される像にも歪みが残ることとなる。   Further, when measuring the shape of the projection plane by the method described with reference to FIG. 22, the relative position and orientation of the camera and the projector and the internal parameters of the camera and the projector based on the perspective transformation model are accurately determined by an error due to manual adjustment. If it is not obtained, it is difficult to measure the shape with high accuracy, and the projected image remains distorted.

これに対してカメラとプロジェクタの相対位置姿勢とカメラとプロジェクタの内部パラメータを求める校正方法が提案されている(特許文献5参照)。   On the other hand, a calibration method for obtaining the relative position and orientation of the camera and projector and the internal parameters of the camera and projector has been proposed (see Patent Document 5).

上記特許文献5に記載の技術によると、まず格子点問距離が既知の市松模様が描かれたボードをカメラによって撮影し、次に撮影した画像からボードとカメラの相対位置姿勢、カメラの内部パラメータを推定する。   According to the technique described in Patent Document 5, a board on which a checkerboard pattern with a known lattice point distance is drawn is first photographed by the camera, and then the relative position and orientation of the board and the camera, the internal parameters of the camera are taken from the photographed image. Is estimated.

次に、ボードにプロジェクタからパターン点を投影してその様子を撮影した画像から、前のステップで推定されたボードの相対位置姿勢に基づき画像中から抽出されたパターン点の空間中での三次元座標を推定する。   Next, 3D in the space of the pattern points extracted from the image based on the relative position and orientation of the board estimated in the previous step, from the image obtained by projecting the pattern points from the projector onto the board Estimate the coordinates.

最後に該パターン点の空間中での三次元座標と投影したパターン点のプロジェクタの投影面での二次元座標とを用いてゾロジエクタの内部パラメータを算出することにより、カメラとプロジェクタの相対位置姿勢とカメラとプロジェクタの内部パラメータを精度よく求めている。
特開平4−131819号公報 特開平8−336092号公報 特開平8一289237号公報 特開2001−061121公報 特開2001−320652公報
Finally, by calculating the internal parameters of the Zodiector using the 3D coordinates in the space of the pattern points and the 2D coordinates of the projected pattern points on the projection plane of the projector, The internal parameters of the camera and projector are accurately obtained.
Japanese Patent Laid-Open No. 4-131819 JP-A-8-336092 JP-A-8-289237 JP 2001-061121 A JP 2001-320652 A

しかしながら上述した特許文献5に記載の技術によれば、校正時に格子点間距離が既知の市松模様が描かれたボードを準備する必要や該ボードを数回移動させて撮影した画像を準備する必要があるため、手間がかかり煩わしいとともに時間がかかるといった問題があった。   However, according to the technique described in Patent Document 5 described above, it is necessary to prepare a board on which a checkerboard pattern with known grid point distances is drawn at the time of calibration, or to prepare an image taken by moving the board several times. Therefore, there is a problem that it is troublesome and troublesome and takes time.

また、格子点間距離が既知の市松模様が描かれたボードと校正時にシステムに与える格子点間距離にずれが生じていると算出されるカメラとプロジェクタの相対位置姿勢や、カメラとプロジェクタの内部パラメータに誤差が生じて、精度の高い形状測定が困難であり、投影される像にも歪みが残るといった問題があった。   Also, the relative position and orientation of the camera and projector calculated when the distance between the grid points given to the system and the board with the checkered pattern with known grid point distances and the system given at the time of calibration, There is a problem that an error occurs in the parameter, it is difficult to measure the shape with high accuracy, and the projected image remains distorted.

本発明は、上述したような従来技術が有する問題点に鑑みてなされたものであり、カメラ・プロジェクタにおける校正装置及びその校正方法並びにその校正プログラムにおいて、空間的な位置拘束のない任意の平面を用いてカメラの特性、及び、プロジェクタの特性を表す内部パラメータと、カメラとプロジェクタ間の位置、回転の関係を表す外部パラメータを自動で精度良く算出する校正装置及びその校正方法並びにその校正プログラムを実現することを目的とする。   The present invention has been made in view of the above-described problems of the prior art. In a calibration apparatus for a camera / projector, a calibration method thereof, and a calibration program thereof, an arbitrary plane having no spatial position constraint is provided. A calibration device, calibration method, and calibration program for automatically and accurately calculating internal parameters representing camera characteristics and projector characteristics, and external parameters representing the position and rotation relationship between the camera and projector are realized. The purpose is to do.

上記課題を解決するために、本発明に関わる校正装置では、少なくとも2平面以上から構成される投影面に対し入力された投影像を投影出力する投影装置と、前記投影面を含むシーンを撮像する撮像装置と、所定のパターン画像を生成し、該パターン画像を投影像として前記投影装置により投影出力し、その時の投影面の状態を前記撮像装置によりパターン撮像画像として撮像するパターン撮像手段と、前記パターン撮像画像から、該画像の画素値を用いて前記パターン画像に該当する画素を抽出して抽出パターン画像とするパターン抽出手段と、前記抽出パターン画像内の抽出画素同士の幾何とパターン画像内の幾何との関係を用いて抽出パターン画像中から投影面内での平面領域を抽出する平面領域抽出手段と、前記平面領域抽出手段で抽出された平面領域上の点とパターン画像上で対応付けられる点を少なくとも4点以上決定する処理を、抽出された全ての平面領域に亘って行なう対応座標算出手段と、前記対応座標から平面上に存在する点同士の関係を表現する平面射影行列を平面領域毎に算出する平面射影行列算出手段と、少なくとも2つ以上の前記平面射影行列から前記投影装置と前記撮像装置各々の内部特性(各相値の焦点距離)および相対位置、姿勢を算出するパラメータ推定手段とを備えてなることを特徴とする。   In order to solve the above-described problems, a calibration apparatus according to the present invention projects a projection apparatus that outputs a projection image input to a projection plane composed of at least two planes, and captures a scene including the projection plane. An imaging device, a pattern imaging means for generating a predetermined pattern image, projecting and outputting the pattern image as a projected image by the projection device, and capturing the state of the projection plane at that time as a pattern captured image by the imaging device; and A pattern extraction unit that extracts a pixel corresponding to the pattern image from the pattern captured image using the pixel value of the image to obtain an extracted pattern image, and the geometry of the extracted pixels in the extracted pattern image and the pattern image A plane area extracting means for extracting a plane area in the projection plane from the extracted pattern image using the relationship with geometry; and the plane area extracting means Corresponding coordinate calculation means for performing processing for determining at least four or more points to be associated with the extracted plane area on the pattern image over all the extracted plane areas; A plane projection matrix calculating means for calculating for each plane region a plane projection matrix that expresses a relationship between points existing in the plane, and internal characteristics (each of the projection apparatus and the imaging apparatus from at least two plane projection matrices) And a parameter estimation means for calculating a relative position and a posture.

あるいは、前記パターン撮像手段において、生成、投影出力する所定のパターン画像が、1色の画素値が該画素値と異なる画素値で表現される画素上に縦横にすき間をあけて組んだ格子縞模様であることを特徴とする。   Alternatively, in the pattern imaging means, the predetermined pattern image to be generated and projected is a checkered pattern in which a pixel value of one color is expressed by a pixel value that is different from the pixel value and is formed with vertical and horizontal gaps. It is characterized by being.

あるいは、前記パターン撮像手段において、生成、投影出力する所定のパターン画像が、1色の画素値が該画素値と異なる画素値で表現される画素上に縦にすき間をあけて組んだ縦縞模様と1色の画素値が該画素値と異なる画素値で表現される画素上に横にすき間をあけて組んだ横縞模様の少なくとも2枚以上の画像であることを特徴とする。   Alternatively, in the pattern imaging unit, a predetermined pattern image generated and projected and output is a vertical stripe pattern in which a pixel value of one color is formed with a vertical gap on a pixel represented by a pixel value different from the pixel value. It is characterized in that it is at least two images of a horizontal stripe pattern in which a pixel value of one color is formed with a gap horizontally on a pixel represented by a pixel value different from the pixel value.

あるいは、前記パターン撮像手段において、生成、投影出力する所定のパターン画像が、投影出力後の投影面の時系列での色変化が2進グレイコードで表現されるように画像上で2色の色が縦横に縞模様として配置された複数の2進グレイコード化パターン画像であることを特徴とする。   Alternatively, in the pattern imaging means, the predetermined pattern image generated and projected and output is a two-color color on the image so that the color change in the time series of the projection plane after the projection output is expressed by a binary gray code. Are a plurality of binary gray coded pattern images arranged in stripes vertically and horizontally.

あるいは、前記パターン抽出手段において、前記パターン撮像画像から、該画像の画素値に対して二値化を行ない、続いて二値化された画像に対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出して抽出パターン画像とすることを特徴とする。   Alternatively, in the pattern extraction unit, binarization is performed on the pixel values of the image from the pattern captured image, and the binarized image is subsequently connected to each connected figure included in the image. In this case, pixels corresponding to the pattern image are extracted to obtain an extracted pattern image by thinning to a line figure having a single line width without losing properties.

あるいは、前記パターン抽出手段において、前記縦縞模様と前記横縞模様もしくは前記2進グレイコード化パターン画像の一対の縦横縞模様を投影出力した投影面の状態を撮像した2枚のパターン撮像画像から、両画像の画素ごとの画素値の差の絶対値を算出して差分画像を生成し、該差分画像の画素値に対して二値化を行ない、該二値化された画像に対して連結成分の輪郭画素を外側に1層分増やす膨張処理と連結成分の輪郭画素を取り除いて、1層分小さくする縮小処理をあらかじめ定められた回数行ない、続いて膨張縮小処理された画像に対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出して抽出パターン画像とすることを特徴とする。   Alternatively, in the pattern extraction unit, from the two pattern captured images obtained by imaging the state of the projection plane on which the vertical stripe pattern and the horizontal stripe pattern or a pair of vertical and horizontal stripe patterns of the binary gray coded pattern image are projected and output. A difference image is generated by calculating an absolute value of a pixel value difference for each pixel of the image, binarization is performed on the pixel value of the difference image, and a connected component of the binarized image is calculated. An expansion process for increasing the outline pixel by one layer and a reduction process for removing the outline pixel of the connected component and reducing it by one layer are performed a predetermined number of times, and then the image subjected to the expansion / reduction process is included in the image. Each of the included connected figures is thinned to a line figure having a single line width without losing connectivity, thereby extracting pixels corresponding to the pattern image to obtain an extracted pattern image. To.

あるいは、前記パターン抽出手段において、前記縦縞模様と前記横縞模様もしくは前記2進グレイコード化パターン画像の一対の縦横縞模様を投影出力した投影面の状態を撮像した少なくとも2枚以上のパターン撮像画像から、該パターン撮像画像各々につき画素値に対して二値化を行ない、該二値化された2枚の画像それぞれに対して連結成分の輪郭画素を外側に1層分増やす膨張処理と連結成分の輪郭画素を取り除いて、1層分小さくする縮小処理をあらかじめ定められた回数行ない、続いて膨張縮小処理された2枚の画像それぞれに対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出し、続いて両画像の論理和演算結果を抽出パターン画像とすることを特徴とする。   Alternatively, in the pattern extraction means, from at least two pattern captured images obtained by imaging the state of a projection plane obtained by projecting and outputting a pair of vertical and horizontal stripe patterns of the vertical stripe pattern and the horizontal stripe pattern or the binary gray coded pattern image. The pixel value is binarized with respect to each of the pattern imaged images, and the dilation processing and the connected component of each of the binarized images are increased by one layer of the connected component outline pixel. The outline pixel is removed, and the reduction process for reducing the size by one layer is performed a predetermined number of times, and then the connection to each connected figure included in the image is lost for each of the two images that have been expanded and reduced. The pixels corresponding to the pattern image are extracted by thinning to a line figure with a single line width without any subsequent extraction, and then the logical sum operation result of both images is extracted. Characterized by an over down image.

あるいは、前記平面領域抽出手段において、前記パターン抽出部から前記抽出パターン画像を受信し、該抽出パターン画像内に記述されている複数の直線同士の交点を全て検出し、該抽出された全交点から各交点を頂点とする四角形に分割し、前記四角形の各辺と前記抽出パターン画像中の直線との重複画素数があらかじめ定められた閾値を越えたら四角平面とする処理を前記分割された全四角形に亘って行ない、隣接する四角平面を統合し該統合された平面領域の個々に各平面を同定する唯一の平面IDを付与し、該平面IDと該平面IDに対応する平面領域内の画像座標を記録することを特徴とする。   Alternatively, in the plane area extraction means, the extraction pattern image is received from the pattern extraction unit, and all intersections of a plurality of straight lines described in the extraction pattern image are detected, and from all the extracted intersections Dividing into a quadrangle with each intersection as a vertex, and processing the square plane when the number of overlapping pixels between each side of the quadrangle and the straight line in the extracted pattern image exceeds a predetermined threshold value And a unique plane ID for identifying each plane is assigned to each of the integrated plane areas, and the plane ID and the image coordinates in the plane area corresponding to the plane ID are provided. Is recorded.

あるいは、前記対応座標算出手段において、前記平面領域抽出手段で抽出された平面領域上の点から前記パターン撮像画像の画素値を用いて該画像上の角や交点となる特徴点を少なくとも4点以上抽出し、該特徴点を含む領域の画素値を用いて照合パターンを作成し、該照合パターンを用いて前記パターン画像上で前記特徴点に対応する対応点を決定することを特徴とする。   Alternatively, in the corresponding coordinate calculation unit, at least four or more feature points that become corners or intersections on the image using the pixel values of the pattern captured image from the points on the plane region extracted by the plane region extraction unit Extracting, creating a collation pattern using pixel values of a region including the feature point, and determining a corresponding point corresponding to the feature point on the pattern image using the collation pattern.

あるいは、前記対応座標算出手段において、前記パターン撮像画像に対し前記2進グレイコード化パターン画像で使用されている2色の色による二値化を行ない、該二値化された複数の画像をパターン画像投影順序に並べた空間コード画像を生成し、該空間コード画像から前記パターン撮像画像の各画素のグレイコードを復元し、該復元されたグレイコードと前記パターン画像で表現された2進グレイコードを用いて前記パターン撮像画像の平面領域上の点に対応する対応点を少なくとも4点以上決定することを特徴とする。   Alternatively, in the corresponding coordinate calculation means, the pattern captured image is binarized by two colors used in the binary gray coded pattern image, and the plurality of binarized images are patterned. A spatial code image arranged in an image projection order is generated, a gray code of each pixel of the pattern captured image is restored from the spatial code image, and a binary gray code expressed by the restored gray code and the pattern image Is used to determine at least four or more corresponding points corresponding to points on the plane area of the pattern-captured image.

あるいは、所定のパターン画像を生成し、該パターン画像を投影像として投影装置により投影出力した後、その時の投影面の状態を撮像装置によりパターン撮像画像として撮像するパターン撮像過程と、前記パターン撮像画像から、該画像の画素値を用いて前記パターン画像に該当する画素を抽出した後に、抽出パターン画像とするパターン抽出過程と、前記抽出パターン画像内の抽出画素同士の幾何とパターン画像内の幾何との関係を用いて抽出パターン画像中から投影面内での平面領域を抽出する平面領域抽出過程と、前記平面領域抽出手段で抽出された平面領域上の点とパターン画像上で対応付けられる点を少なくとも4点以上決定する処理した後、その処理を抽出された全ての平面領域に亘って行なう対応座標算出過程と、前記対応座標算出過程で得られた対応座標から平面上に存在する点同士の関係を表現する平面射影行列を平面領域毎に算出する平面射影行列算出過程と、少なくとも2つ以上の前記平面射影行列から前記投影装置と前記撮像装置各々の内部特性および相対位置、姿勢を算出するパラメータ推定過程と、を備えてなることを特徴とする。   Alternatively, a pattern imaging process of generating a predetermined pattern image, projecting and outputting the pattern image as a projection image by the projection apparatus, and then imaging the state of the projection plane as a pattern captured image by the imaging apparatus, and the pattern captured image Then, after extracting a pixel corresponding to the pattern image using the pixel value of the image, a pattern extraction process to obtain an extraction pattern image, and the geometry of the extracted pixels in the extraction pattern image and the geometry in the pattern image A plane area extraction process for extracting a plane area in the projection plane from the extracted pattern image using the relationship of the above, and a point on the plane area extracted by the plane area extraction means and a point associated with the pattern image Corresponding coordinate calculation process in which at least four or more points are determined and then the processing is performed over all extracted planar areas, and the corresponding A plane projection matrix calculation process for calculating, for each plane area, a plane projection matrix that expresses a relationship between points existing on a plane from the corresponding coordinates obtained in the target calculation process, and at least two or more plane projection matrices And a parameter estimation process for calculating the internal characteristics, relative position, and orientation of each of the projection device and the imaging device.

あるいは、前記パターン撮像過程において、生成、投影出力する所定のパターン画像は、1色の画素値が該画素値と異なる画素値で表現される画素上に縦横にすき間をあけて組んだ格子縞模様であることを特徴とする。   Alternatively, the predetermined pattern image generated and projected and output in the pattern imaging process is a checkered pattern in which a pixel value of one color is formed with a vertical and horizontal gap on a pixel represented by a pixel value different from the pixel value. It is characterized by being.

あるいは、前記パターン撮像過程において、生成、投影出力する所定のパターン画像は、1色の画素値が該画素値と異なる画素値で表現される画素上に縦にすき間をあけて組んだ縦縞模様と1色の画素値が該画素値と異なる画素値で表現される画素上に横にすき間をあけて組んだ横縞模様の少なくとも2枚以上の画像であることを特徴とする。   Alternatively, in the pattern imaging process, the predetermined pattern image generated and projected and output is a vertical stripe pattern in which a pixel value of one color is formed with a vertical gap on a pixel represented by a pixel value different from the pixel value. It is characterized in that it is at least two images of a horizontal stripe pattern in which a pixel value of one color is formed with a gap horizontally on a pixel represented by a pixel value different from the pixel value.

あるいは、前記パターン撮像過程において、生成、投影出力する所定のパターン画像は、投影出力後の投影面の時系列での色変化が2進グレイコードで表現されるように画像上で2色の色が縦横に縞模様として配置された複数の2進グレイコード化パターン画像であることを特徴とする。   Alternatively, the predetermined pattern image generated and projected in the pattern imaging process has two colors on the image so that the color change in the time series of the projection plane after the projection output is expressed by a binary gray code. Are a plurality of binary gray coded pattern images arranged in stripes vertically and horizontally.

あるいは、前記パターン抽出過程において、前記パターン撮像画像から、該画像の画素値に対して二値化を行なった後、続いて二値化された画像に対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出して抽出パターン画像とすること特徴とする。   Alternatively, in the pattern extraction process, after the binarization is performed on the pixel values of the image from the pattern captured image, each connected figure included in the binarized image is subsequently included in the image In this case, pixels corresponding to the pattern image are extracted to obtain an extracted pattern image by thinning to a line figure having a single line width without losing connectivity.

あるいは、前記パターン抽出過程において、前記縦縞模様と前記横縞模様もしくは前記2進グレイコード化パターン画像の一対の縦横縞模様を投影出力した投影面の状態を撮像した2枚のパターン撮像画像から、両画像の画素ごとの画素値の差の絶対値を算出して差分画像を生成した後に、該差分画像の画素値に対して二値化を行なった後に、該二値化された画像に対して連結成分の輪郭画素を外側に1層分増やす膨張処理と連結成分の輪郭画素を取り除いて、1層分小さくする縮小処理をあらかじめ定められた回数行ない、続いて膨張縮小処理された画像に対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出して抽出パターン画像とすることを特徴とする。   Alternatively, in the pattern extraction process, from the two pattern captured images obtained by imaging the state of the projection plane on which the vertical stripe pattern and the horizontal stripe pattern or the pair of vertical and horizontal stripe patterns of the binary gray coded pattern image are projected and output. After calculating the absolute value of the pixel value difference for each pixel of the image and generating a difference image, binarization is performed on the pixel value of the difference image, and then the binarized image is Expansion processing for increasing the contour pixels of the connected component by one layer and reduction processing for removing the contour pixels of the connected component to reduce the size by one layer are performed a predetermined number of times, and then the expansion and reduction processing is performed on the image that has been expanded and contracted. Extracting the pixel corresponding to the pattern image by thinning the line graphic to one line graphic without losing connectivity to each connected graphic included in the image and extracting the pattern image And wherein the Rukoto.

あるいは、前記パターン抽出過程において、前記縦縞模様と前記横縞模様もしくは前記2進グレイコード化パターン画像の一対の縦横縞模様を投影出力した投影面の状態を撮像した少なくとも2枚以上のパターン撮像画像から、該パターン撮像画像各々につき画素値に対して二値化を行なった後に、該二値化された2枚の画像それぞれに対して連結成分の輪郭画素を外側に1層分増やす膨張処理と連結成分の輪郭画素を取り除いて、1層分小さくする縮小処理をあらかじめ定められた回数行ない、続いて膨張縮小処理された2枚の画像それぞれに対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出した後に、続いて両画像の論理和演算結果を抽出パターン画像とすること、
を特徴とする。
Alternatively, in the pattern extraction process, from at least two or more pattern imaged images obtained by imaging the state of the projection plane obtained by projecting and outputting a pair of vertical and horizontal stripe patterns of the vertical stripe pattern and the horizontal stripe pattern or the binary gray coded pattern image Then, after performing binarization on the pixel values for each of the pattern imaged images, the dilation processing is performed to increase the contour pixel of the connected component by one layer outward for each of the two binarized images. The contour pixel of the component is removed, and a reduction process for reducing the size by one layer is performed a predetermined number of times, and then each of the two images subjected to the expansion / reduction process is connected to each connected figure included in the image. The pixels corresponding to the pattern image are extracted by thinning to a line figure with a line width of 1 without losing the image, and then the logical OR operation of both images. To the fruit and extract the pattern image,
It is characterized by.

あるいは、前記平面領域抽出過程において、前記パターン抽出過程から前記抽出パターン画像を受信した後に、該抽出パターン画像内に記述されている複数の直線同士の交点を全て検出し、該抽出された全交点から各交点を頂点とする四角形に分割した後に、前記四角形の各辺と前記抽出パターン画像中の直線との重複画素数があらかじめ定められた閾値を越えたら四角平面とする処理を前記分割された全四角形に亘って行ない、その後、隣接する四角平面を統合し該統合された平面領域の個々に各平面を同定する唯一の平面IDを付与してから、該平面IDと該平面IDに対応する平面領域内の画像座標を記憶すること、
を特徴とする。
Alternatively, in the planar area extraction process, after receiving the extraction pattern image from the pattern extraction process, all intersections of a plurality of straight lines described in the extraction pattern image are detected, and all the extracted intersections are detected. Is divided into quadrangular planes when the number of overlapping pixels between each side of the quadrilateral and the straight line in the extracted pattern image exceeds a predetermined threshold. The process is performed over all squares, and then the adjacent square planes are integrated, and a unique plane ID for identifying each plane is assigned to each of the integrated plane areas, and then the plane ID and the plane ID are associated. Storing image coordinates within a planar area;
It is characterized by.

あるいは、前記対応座標算出過程において、前記平面領域抽出過程で抽出された平面領域上の点から前記パターン撮像画像の画素値を用いて該画像上の角や交点となる特徴点を少なくとも4点以上抽出した後に、該特徴点を含む領域の画素値を用いて照合パターンを作成し、その後、該照合パターンを用いて前記パターン画像上で前記特徴点に対応する対応点を決定することを特徴とする。   Alternatively, in the corresponding coordinate calculation process, at least four or more feature points serving as corners or intersections on the image using pixel values of the pattern captured image from the points on the plane area extracted in the plane area extraction process After the extraction, a matching pattern is created using the pixel value of the region including the feature point, and then a corresponding point corresponding to the feature point is determined on the pattern image using the matching pattern. To do.

あるいは、前記対応座標算出過程において、前記パターン撮像画像に対し前記2進グレイコード化パターン画像で使用されている2色の色による二値化を行なった後、該二値化された複数の画像をパターン画像投影順序に並べた空間コード画像を生成した後に、該空間コード画像から前記パターン撮像画像の各画素のグレイコードを復元し、該復元されたグレイコードと前記パターン画像で表現された2進グレイコードを用いて前記パターン撮像画像の平面領域上の点に対応する対応点を少なくとも4点以上決定することを特徴とする。   Alternatively, in the corresponding coordinate calculation process, the pattern captured image is binarized with two colors used in the binary gray coded pattern image, and then the plurality of binarized images Are generated in the pattern image projection order, and then the gray code of each pixel of the pattern captured image is restored from the spatial code image, and the restored gray code and the pattern image 2 It is characterized in that at least four or more corresponding points corresponding to points on the plane area of the pattern-captured image are determined by using a gray code.

あるいは、校正方法における過程を、コンピュータに実行させるためのプログラムとしたことを特徴とする。   Alternatively, the process in the calibration method is a program for causing a computer to execute the process.

本発明では、撮像装置(カメラ)と投影装置(プロジェクタ)の相対位置姿勢や、カメラとプロジェクタの内部パラメータを精度良く推定でき、精度の高い形状測定が可能となり投影面の形状に関わらず美しい像を投影することが可能となる。   In the present invention, the relative position and orientation of the imaging device (camera) and the projection device (projector) and the internal parameters of the camera and projector can be accurately estimated, and a highly accurate shape measurement is possible, so that a beautiful image can be obtained regardless of the shape of the projection surface. Can be projected.

その理由は、プロジェクタで投影したパターンと該パターンをカメラで撮影したパターン撮像画像の特徴を、自動抽出してカメラとプロジェクタの相対位置姿勢およびカメラとプロジェクタの内部パラメータを算出するため、手動による校正誤差が生じないからである。   The reason for this is that the pattern projected by the projector and the characteristics of the pattern image captured by the camera are automatically extracted to calculate the relative position and orientation of the camera and projector and the internal parameters of the camera and projector. This is because no error occurs.

また本発明では、カメラ及びプロジェクタを交換もしくは、位置姿勢関係を変更しても、即座に校正が行われ、投影面の形状に関わらず美しい像を高速に利用者に提示することが可能となる。   In the present invention, even if the camera and projector are replaced or the position and orientation relationship is changed, calibration is performed immediately, and a beautiful image can be presented to the user at high speed regardless of the shape of the projection surface. .

この理由は、プロジェクタで投影したパターンと該パターンをカメラで撮影したパターン撮像画像のみを用いるため、ボードを準備する必要や該ボードを数回移動させて撮影する必要がなくなるからである。   This is because only the pattern projected by the projector and the pattern captured image obtained by photographing the pattern with the camera are used, so that it is not necessary to prepare the board or photograph the board by moving it several times.

以上述べたように、本発明によれば、カメラとプロジェクタの相対位置姿勢や、カメラとプロジェクタの内部パラメータを精度良く推定できる。そして、その結果を用いれば、精度の高い形状測定が可能となり投影面の形状に関わらず美しい像を投影することが可能となる。その理由は、投影装置で投影したパターンと該パターンを撮影したパターン撮像画像の特徴を自動抽出してカメラとプロジェクタの相対位置姿勢およびカメラとプロジェクタの内部パラメータを算出するため、手動による校正誤差が生じないからである。   As described above, according to the present invention, it is possible to accurately estimate the relative position and orientation of the camera and the projector and the internal parameters of the camera and the projector. By using the result, it is possible to measure the shape with high accuracy and to project a beautiful image regardless of the shape of the projection surface. The reason for this is that the pattern of the pattern projected by the projection device and the characteristics of the pattern captured image obtained by capturing the pattern are automatically extracted to calculate the relative position and orientation of the camera and projector and the internal parameters of the camera and projector. It does not occur.

また、本発明によれば、カメラ及びプロジェクタを交換もしくは、位置姿勢関係を変更しても、即座に校正が行われ、投影面の形状に関わらず美しい像を高速に利用者に提示することが可能となる。この理由は、投影装置で投影したパターンと該パターンを撮影したパターン撮像画像のみを用いるため、ボードを準備する必要や該ボードを数回移動させて撮影する必要がなくなるからである。   In addition, according to the present invention, even if the camera and projector are replaced or the position and orientation relationship is changed, the calibration is performed immediately, and a beautiful image can be presented to the user at high speed regardless of the shape of the projection surface. It becomes possible. This is because only the pattern projected by the projection device and the pattern captured image obtained by photographing the pattern are used, so that it is not necessary to prepare the board or to photograph the board several times.

以下、本発明の実施の形態を図面に基づいて説明する。まず、本発明における校正装置(以下カメラ・プロジェクタ校正装置と称す)の構成例について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, a configuration example of a calibration apparatus (hereinafter referred to as a camera / projector calibration apparatus) according to the present invention will be described.

図1は、この構成例によるカメラ・プロジェクタ校正装置を説明するためのブロック図である。この図1に示す構成例のカメラ・プロジェクタ校正装置は、投影装置11、撮像装置12、記憶装置13、パターン撮像部14、パターン抽出部15、平面領域抽出部16、対応座標抽出部17、平面射影行列算出部18とパラメータ推定部19から概略構成されている。   FIG. 1 is a block diagram for explaining a camera / projector calibration apparatus according to this configuration example. The camera / projector calibration apparatus of the configuration example shown in FIG. 1 includes a projection device 11, an imaging device 12, a storage device 13, a pattern imaging unit 14, a pattern extraction unit 15, a plane area extraction unit 16, a corresponding coordinate extraction unit 17, a plane The projection matrix calculation unit 18 and the parameter estimation unit 19 are roughly configured.

投影装置11は、入力された投影像を投影面に対して投影表示する装置で、例えば液晶素子やDMD半導体素子を具備したプロジェクタ及びレーザプロジェクターなどで実現できる。   The projection device 11 is a device that projects and displays an input projection image on a projection surface, and can be realized by, for example, a projector or a laser projector that includes a liquid crystal element or a DMD semiconductor element.

撮像装置12は、例えば、ビデオカメラ、高速度カメラ、全方位センサ、赤外線センサ、紫外線センサなどのカメラ内部に2次元CCD(Charge Coupled Device)もしくはCMOS(Complementary Metal-Oxide Semiconductor)を有するエリアセンサカメラで実現され、シーンの撮像を行い、撮像した画像を記憶装置13へ出力する。   The imaging device 12 is an area sensor camera having a two-dimensional CCD (Charge Coupled Device) or CMOS (Complementary Metal-Oxide Semiconductor) inside a camera such as a video camera, a high-speed camera, an omnidirectional sensor, an infrared sensor, or an ultraviolet sensor. The scene is captured, and the captured image is output to the storage device 13.

記憶装置13は、情報処理装置が有する、RAMやROMなどの半導体記憶装置、ハードディスクやフレキシブルディスク、光ディスクなどで実現される。   The storage device 13 is realized by a semiconductor storage device such as a RAM or a ROM, a hard disk, a flexible disk, an optical disk, or the like included in the information processing apparatus.

パターン撮像部14は、所定のパターン画像を生成して前記投影装置11へ投影像として出力し、その時の投影面の状態を前記撮像装置12が撮像したパターン撮像画像を記憶装置13へと記録する。   The pattern imaging unit 14 generates a predetermined pattern image and outputs it to the projection device 11 as a projection image. The pattern imaging unit 14 records the pattern captured image captured by the imaging device 12 in the storage device 13 at that time. .

パターン抽出部15は、記憶装置13から前記パターン撮像画像を読み込み、前記パターン画像に該当する画素を抽出して抽出パターン画像として出力する。   The pattern extraction unit 15 reads the pattern captured image from the storage device 13, extracts pixels corresponding to the pattern image, and outputs the extracted pattern image.

平面領域抽出部16は、パターン抽出部15から抽出パターン画像を受信し、該パターン画像から撮像した投影面内での平面領域を全て抽出し、個々の平面を唯一に決定付ける平面IDと該平面IDに対応する平面領域内の全画像座標を対応座標算出部17に転送する。   The plane area extraction unit 16 receives the extracted pattern image from the pattern extraction unit 15, extracts all plane areas in the projection plane imaged from the pattern image, and determines the plane ID and the plane that uniquely determine each plane. All image coordinates in the plane area corresponding to the ID are transferred to the corresponding coordinate calculation unit 17.

対応座標算出部17は、平面IDと該平面IDに対応する平面領域内の全画像座標を受信し、平面領域内の点とパターン画像上で対応付けられる点を少なくとも4点以上決定し、対応座標を平面射影行列算出部18へと出力する。   The corresponding coordinate calculation unit 17 receives the plane ID and all the image coordinates in the plane area corresponding to the plane ID, determines at least four or more points to be associated with the points in the plane area on the pattern image, and The coordinates are output to the plane projection matrix calculation unit 18.

平面射影行列算出部18は、対応座標を受信し、該対応座標から平面上に存在する点同士の関係を表現する平面射影行列を平面領域毎に算出し、出力する。   The plane projection matrix calculating unit 18 receives the corresponding coordinates, calculates a plane projection matrix expressing the relationship between points existing on the plane from the corresponding coordinates, and outputs the calculated plane projection matrix for each plane area.

パラメータ推定部19は、前記平面射影行列を受信し、該平面射影行列から前記投影装置11と前記撮像装置12各々の内部パラメータおよび相対位置、姿勢を算出する。   The parameter estimation unit 19 receives the planar projection matrix and calculates internal parameters, relative positions, and orientations of the projection device 11 and the imaging device 12 from the planar projection matrix.

続いてカメラ・プロジェクタ校正装置で行われる処理フローを詳細に説明する。全体の処理を図2に示す。カメラ・プロジェクタ校正装置では、まずパターン撮像部14が起動される。パターン撮像部14が起動すると、まず所定のパターン画像を生成する(S1)。   Next, the processing flow performed by the camera / projector calibration apparatus will be described in detail. The entire process is shown in FIG. In the camera / projector calibration apparatus, the pattern imaging unit 14 is first activated. When the pattern imaging unit 14 is activated, a predetermined pattern image is first generated (S1).

ここで、所定のパターン画像とは、例えば、1色の画素値が該画素値と異なる画素値で表現される画素上に縦横にすき間をあけて組んだ格子縞模様等で表現されるパターン画像である。   Here, the predetermined pattern image is, for example, a pattern image expressed by a checkered pattern or the like in which a pixel value of one color is formed with a vertical and horizontal gap on a pixel expressed by a pixel value different from the pixel value. is there.

続いて生成したパターン画像を投影装置11に転送、投影出力命令を出す。投影装置11から投影出力完了信号を受信したら、次に撮像装置12に撮像命令を出す。   Subsequently, the generated pattern image is transferred to the projection apparatus 11 and a projection output command is issued. When a projection output completion signal is received from the projection device 11, an imaging command is issued to the imaging device 12.

撮像装置12は撮像命令を受信すると、撮像を行ない、次に撮像したパターン撮像画像を記憶装置13へと保存し、撮像完了信号一をパターン撮像部14へと出力する。パターン撮像部14は、撮像装置12から撮像完了信号を受信にして処理を終了する。   When the imaging device 12 receives the imaging command, the imaging device 12 performs imaging, stores the next captured pattern image in the storage device 13, and outputs an imaging completion signal 1 to the pattern imaging unit 14. The pattern imaging unit 14 receives the imaging completion signal from the imaging device 12 and ends the process.

続いてパターン抽出部15が起動される(S2)。パターン抽出部15での処理を図3に示す。パターン抽出部15では起動すると、まず記憶装置13からパターン撮像部14で撮影されたパターン撮像画像を読み出す(S21)。   Subsequently, the pattern extraction unit 15 is activated (S2). The processing in the pattern extraction unit 15 is shown in FIG. When the pattern extraction unit 15 is activated, first, a pattern captured image captured by the pattern imaging unit 14 is read from the storage device 13 (S21).

パターン抽出部15では、読み出したパターン撮像画像の画素値に対して二値化を行ない(S22)、続いて該二値化画像に対し該画像内に含まれる各々の連結図形の連結性を失うことなく線幅が一の線図形まで細める細線化を行う(S23)。細線化については、従来の技術と特に変わらないので、ここでの詳細な説明は省略する。最後に細線化された画像を抽出パターン画像として平面領域抽出部16へ転送して処理を終了する(S24)。   The pattern extraction unit 15 binarizes the pixel values of the read pattern captured image (S22), and subsequently loses the connectivity of each connected figure included in the image with respect to the binarized image. The line is thinned to a line figure having a single line width (S23). Since the thinning is not particularly different from the conventional technology, detailed description thereof is omitted here. Finally, the thinned image is transferred as an extraction pattern image to the planar area extraction unit 16 and the process is terminated (S24).

続いて平面領域抽出部16が起動される(S3)。図4は平面領域抽出部16での処理の流れを示した図である。平面領域抽出部16では、四角のパターンを投影装置11のイメージプレーンから空間中に存在する平面の投影面に投影し、その様子を撮像装置12のイメージプレーンに撮像した時には、撮像装置12が出力する撮像画像中でも四角に観測されることを利用して平面領域を抽出する(S4)(S5)。   Subsequently, the plane area extraction unit 16 is activated (S3). FIG. 4 is a diagram showing the flow of processing in the planar area extraction unit 16. In the plane area extraction unit 16, when the square pattern is projected from the image plane of the projection device 11 onto a plane projection plane existing in the space and the state is imaged on the image plane of the imaging device 12, the imaging device 12 outputs the image. A plane area is extracted by utilizing the fact that a square image is observed in the captured image (S4) (S5).

なお、空間中に存在する投影面が平面でない場合には、撮像画像中では四角として観測されない。平面領域抽出部16が起動すると、まずパターン抽出部15から抽出パターン画像を受信する(S31)。   In addition, when the projection surface which exists in space is not a plane, it is not observed as a square in a captured image. When the plane area extraction unit 16 is activated, an extraction pattern image is first received from the pattern extraction unit 15 (S31).

続いて該抽出パターン画像内に表現されている複数の直線同士の全交点を検出する。この処理は例えば、抽出パターン画像に対してHough変換を施して得られた直線同士の交点を求める(S32)ことや、コーナー抽出フィルタとして知られるSUSANオペレータなどのフィルタを抽出パターン画像に施すことによって実現できる。   Subsequently, all intersections of a plurality of straight lines expressed in the extracted pattern image are detected. This processing is performed by, for example, obtaining an intersection of straight lines obtained by performing the Hough transform on the extracted pattern image (S32), or applying a filter such as a SUSAN operator known as a corner extraction filter to the extracted pattern image. realizable.

続いて、得られた複数の交点群を対象として、四角形要素に分割する(S33)。四角形分割処理は、例えば、Delaunay三角分割を四角形要素に拡張した方法や、抽出されたある直線同士の交点から交点を構成する2直線の方向に近傍領域を探索して他の2交点を決定し、続いて決定された2交点から同様の方法により最後の1点を決定するなどの方法で実現される。   Subsequently, the obtained plurality of intersection groups are divided into quadrangular elements (S33). For example, the quadrilateral division processing is a method in which Delaunay triangulation is extended to a quadrilateral element, or by searching for neighboring regions in the direction of two straight lines that form the intersection from the intersection of the extracted straight lines, the other two intersections are determined. Subsequently, the last one point is determined by a similar method from the two determined intersection points.

続いて分割された四角形から一つの四角形を選択し(S34)、四角形を構成する4辺と抽出パターン画像中の直線との重複画素数が予め定めた閾値を越えたら該四角形を空間中での平面領域を表す四角平面とする(S35)。   Subsequently, one rectangle is selected from the divided rectangles (S34), and when the number of overlapping pixels between the four sides constituting the rectangle and the straight line in the extracted pattern image exceeds a predetermined threshold value, the rectangle is selected in the space. A square plane representing a plane area is set (S35).

この処理を全四角形要素に対して施す(S36)。続いて、隣接する四角平面を連結統合し(S37)、個々に各平面を同定する唯一の平面IDを付与して平面領域とする(S38)。この処理は、例えば、四角形の面積もしくは四角形の各角度の違いを閾値としたクラスタリングなどで実現できる。最後に全平面IDと該平面IDにそれぞれ対応する平面領域の上の少なくとも4点以上の座標を対応座標算出部17に転送して処理を終了する(S39)。   This process is performed on all square elements (S36). Subsequently, adjacent square planes are connected and integrated (S37), and a unique plane ID for individually identifying each plane is assigned to form a plane area (S38). This processing can be realized by, for example, clustering using a square area or a square angle difference as a threshold. Finally, all the plane IDs and at least four or more coordinates on the plane area respectively corresponding to the plane ID are transferred to the corresponding coordinate calculation unit 17 and the process is terminated (S39).

続いて、対応座標算出部17が起動される。対応座標算出部17では、まず、平面領域抽出部16から全平面IDと該平面IDにそれぞれ対応する平面領域内の全画像座標を受信する(S6)。   Subsequently, the corresponding coordinate calculation unit 17 is activated. First, the corresponding coordinate calculation unit 17 receives all the plane IDs and all image coordinates in the plane area respectively corresponding to the plane ID from the plane area extraction unit 16 (S6).

次に記憶装置13から前記パターン画像と前記パターン撮像画像を読み出し、続いて、パターン撮像画像に対して画像上の角や交点となる特徴点の座標を抽出しておく。   Next, the pattern image and the pattern-captured image are read from the storage device 13, and then the coordinates of feature points that are corners and intersections on the image are extracted from the pattern-captured image.

この特徴点となる点は、前記平面領域抽出部16で求めた直線同士の交点をそのまま用いてもよい。次に、パターン撮像画像の平面領域上での特徴点と該特徴点座標近傍の画素値を用いて照合パターンを作成し、該照合パターンを用いて前記パターン画像で前記特徴点に対応する対応点を決定する。   As the feature point, the intersection of the straight lines obtained by the plane area extraction unit 16 may be used as it is. Next, a matching pattern is created using feature points on the planar area of the pattern captured image and pixel values near the feature point coordinates, and corresponding points corresponding to the feature points in the pattern image using the matching pattern To decide.

この対応点決定処理を各平面IDに対して少なくとも4点以上に対して行なう。また、少なくとも2つ以上の平面IDに対して行なう。最後に全平面IDと該平面ID上の画像座標と該画像座標の対応座標を平面射影行列算出部18に転送して処理を終了する。   This corresponding point determination process is performed on at least four points for each plane ID. Further, it is performed for at least two plane IDs. Finally, the entire plane ID, the image coordinates on the plane ID, and the corresponding coordinates of the image coordinates are transferred to the plane projection matrix calculation unit 18 and the process is terminated.

続いて、平面射影行列算出部18が起動される(S7)。平面射影行列は起動すると、まず対応座標算出部17から全平面IDと該平面ID上の画像座標と該画像座標の対応座標を受信する。   Subsequently, the planar projection matrix calculation unit 18 is activated (S7). When the plane projection matrix is activated, it first receives all plane IDs, image coordinates on the plane ID, and corresponding coordinates of the image coordinates from the corresponding coordinate calculation unit 17.

続いて、受信した平面IDごとにパターン画像とパターン撮影画像の画像間での4点以上の対応点から平面射影行列Hを算出する。平面射影行列Hとは、図23のように同一平面を撮影した2枚の画像間で同一平面上に存在する点の射影的関係を表す行列であり、式(1)のように9つのパラメータ(hij)で表現される。   Subsequently, a plane projection matrix H is calculated from four or more corresponding points between the pattern image and the pattern photographed image for each received plane ID. The planar projection matrix H is a matrix representing the projective relationship of points existing on the same plane between two images obtained by photographing the same plane as shown in FIG. 23, and has nine parameters as shown in Expression (1). (Hij).

4点以上の対応点から平面射影行列Hを算出する方法は、例えば「Hartley R.,“In defence of the eightpoint algorithm,”IEEE Transactions of Pattern Analysis and Machine Intelligence, Vol.19, No.6,pp580-593,1997.」に記載の技術により実現される。最後に平面IDと該平面IDに対応する平面射影行列Hを、パラメータ推定部19に転送して処理を終了する。   For example, “Hartley R.,“ Indefence of the eightpoint algorithm, ”IEEE Transactions of Pattern Analysis and Machine Intelligence, Vol.19, No.6, pp580, is used to calculate the planar projection matrix H from four or more corresponding points. -593, 1997. " Finally, the plane ID and the plane projection matrix H corresponding to the plane ID are transferred to the parameter estimation unit 19 and the process is terminated.

最後にパラメータ推定部19が起動される(S8)。パラメータ推定部19は起動されると、まず平面射影行列推定部18から平面IDと該平面IDに対応する平面射影行列Hを受信する。   Finally, the parameter estimation unit 19 is activated (S8). When the parameter estimation unit 19 is activated, it first receives a plane ID and a plane projection matrix H corresponding to the plane ID from the plane projection matrix estimation unit 18.

続いて、受信した少なくとも2つ以上の平面射影行列Hから前記投影装置11と前記撮像装置12各々の内部特性(各装置の焦点距離)および相対位置、姿勢を算出する。   Subsequently, the internal characteristics (focal length of each device), relative position, and orientation of each of the projection device 11 and the imaging device 12 are calculated from the received at least two or more plane projection matrices H.

平面射影行列Hと前記投影装置11と前記撮像装置12各々の内部特性および相対位置、姿勢の関係は以下のように導かれる。まず、投影装置11及び撮像装置12の内部特性を表す行列それぞれを、次式A,A’とし(f1,f2は焦点距離) The relationship between the planar projection matrix H, the internal characteristics of each of the projection device 11 and the imaging device 12, and the relative position and orientation are derived as follows. First, matrixes representing the internal characteristics of the projection device 11 and the imaging device 12 are represented by the following expressions A and A ′ (f 1 and f 2 are focal lengths), respectively.

空間中に存在する平面の法線ベクトルを次式nとし、 Let n be the normal vector of a plane existing in space,

投影装置11を基準として撮像装置12の相対位置ベクトルを式T,相対姿勢行列式Rを次式のようにそれぞれ表し、 The relative position vector of the imaging device 12 with the projection device 11 as a reference is expressed as T and the relative attitude determinant R is expressed as

投影装置11から平面までの距離をdとすると、平面射影行列Hは式(2)で表現される。 Assuming that the distance from the projection device 11 to the plane is d, the plane projection matrix H is expressed by Expression (2).

実際に観測される平面射影行列Hはスケール成分Sを含むことを考慮し式(2)を変換すると、式(3)のようになる。   In consideration of the fact that the actually observed planar projection matrix H includes the scale component S, the equation (2) is transformed into the following equation (3).

また、投影装置11もしくは撮像装置12の投影中心を相互に投影した点であるエピポールeが、式(4)で表す平面射影行列Hから求まる。   Also, an epipole e, which is a point obtained by projecting the projection centers of the projection device 11 or the imaging device 12 to each other, can be obtained from the planar projection matrix H expressed by Expression (4).

ここで、H1は平面ID=1の平面について求めたH,H2は平面ID=2の平面について求めたHをそれぞれ表している。 Here, H 1 represents H obtained for the plane with the plane ID = 1, and H 2 represents H obtained for the plane with the plane ID = 2.

式(3)、と式(4)で算出されるエピポールの関係から前記投影装置11と前記撮像装置12各々の内部特性を示すA,A’および相対位置T,姿勢Rが導出可能である。   From the relationship between the epipoles calculated by the equations (3) and (4), A, A ′, the relative position T, and the posture R indicating the internal characteristics of the projection device 11 and the imaging device 12 can be derived.

この導出は「Xu,Gang,Terai Junichi and Shum, Heung-Yeung.,“A linear algorithm for camera self-calibration,motion and structure recovery for multi-planar scenes from two perspective images”,Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2000.」に記載の方法等で実現可能である。最後にパラメータ推定部19は、算出した内部特性A,A’および相対位置T,相対姿勢Rを出力して処理を終了する。   This derivation is `` Xu, Gang, Terai Junichi and Shum, Heung-Yeung., “A linear algorithm for camera self-calibration, motion and structure recovery for multi-planar scenes from two perspective images”, Proceedings of IEEE Conference on Computer Vision. and Pattern Recognition, 2000. ”. Finally, the parameter estimation unit 19 outputs the calculated internal characteristics A and A ′, the relative position T, and the relative attitude R, and ends the process.

続いて、本発明における情報提示装置の第2の構成について説明する。   Then, the 2nd structure of the information presentation apparatus in this invention is demonstrated.

この例のカメラ・プロジェクタ校正装置は、投影装置11、撮像装置12、記憶装置13、パターン撮像部14、パターン抽出部15、平面領域抽出部16、対応座標抽出部17、平面射影行列算出部18とパラメータ推定部19とから概略構成されている。   The camera / projector calibration apparatus of this example includes a projection apparatus 11, an imaging apparatus 12, a storage device 13, a pattern imaging section 14, a pattern extraction section 15, a plane area extraction section 16, a corresponding coordinate extraction section 17, and a plane projection matrix calculation section 18. And a parameter estimation unit 19.

この装置の構成は第1の構成とほぼ同様であるが、パターン撮像部14において、縦縞模様と横縞模様の2つの画像を生成して投影出力・撮像を行なうステップと、パターン抽出部15において、両画像の差分画像から抽出パターン画像を生成するステップを新たに設けることにより、投影面の色に影響されない抽出パターン画像の生成を可能とし、その結果、投影装置11、撮像装置12の精度の良い校正を実現している点が異なっている。   The configuration of this apparatus is substantially the same as the first configuration, except that the pattern imaging unit 14 generates two images of a vertical stripe pattern and a horizontal stripe pattern and performs projection output and imaging, and the pattern extraction unit 15 By newly providing a step of generating an extraction pattern image from the difference image between the two images, it is possible to generate an extraction pattern image that is not affected by the color of the projection plane. As a result, the projection device 11 and the imaging device 12 have high accuracy. The difference is that the calibration is realized.

この例のカメラ・プロジェクタ校正装置の全体の処理は、図2で示した第1の構成の処理と同様である。平面領域抽出部16、対応座標抽出部17、平面射影行列算出部18とパラメータ推定部19での処理は、第1の構成の場合の平面領域抽出部16、対応座標抽出部17、平面射影行列算出部18とパラメータ推定部19と同様の処理であるので、ここでの詳細な説明は省略する。   The overall processing of the camera / projector calibration apparatus of this example is the same as the processing of the first configuration shown in FIG. The processes in the plane area extraction unit 16, the corresponding coordinate extraction unit 17, the plane projection matrix calculation unit 18 and the parameter estimation unit 19 are the plane area extraction unit 16, the corresponding coordinate extraction unit 17, the plane projection matrix in the case of the first configuration. Since it is the same process as the calculation part 18 and the parameter estimation part 19, detailed description here is abbreviate | omitted.

パターン撮像部14で行なわれる処理フローを説明する。パターン撮像部14は起動すると、まず所定のパターン画像を生成する。ここで所定のパターンとは例えば、1色の画素値が該画素値と異なる画素値で表現される画素上に縦にすき間をあけて組んだ縦縞模様と1色の画素値が該画素値と異なる画素値で表現される画素上に横にすき間をあけて組んだ横縞模様の2つの画像で表現されるパターンである。   A processing flow performed in the pattern imaging unit 14 will be described. When activated, the pattern imaging unit 14 first generates a predetermined pattern image. Here, the predetermined pattern is, for example, a vertical stripe pattern in which a pixel value of one color is expressed by a pixel value different from the pixel value, and a pixel value of one color is the pixel value. This is a pattern expressed by two images of a horizontal stripe pattern formed by interposing a gap horizontally on pixels expressed by different pixel values.

続いて、生成したパターン画像を1枚ずつ投影装置11に転送、投影出力命令を出す。投影装置11から投影出力完了信号を受信したら、次に撮像装置12に撮像命令を出す。撮像装置12は撮像命令を受信すると、各パターン画像について撮像を行い次に撮像したパターン撮像画像を記憶装置13へと保存し、撮像完了信号をパターン撮像部14へと出力する。パターン撮像部14は撮像装置12から撮像完了信号を受信して処理を終了する。   Subsequently, the generated pattern images are transferred to the projection device 11 one by one and a projection output command is issued. When a projection output completion signal is received from the projection device 11, an imaging command is issued to the imaging device 12. Upon receiving the imaging command, the imaging device 12 captures each pattern image, stores the captured pattern captured image in the storage device 13, and outputs an imaging completion signal to the pattern imaging unit 14. The pattern imaging unit 14 receives the imaging completion signal from the imaging device 12 and ends the process.

続いてパターン抽出部15での処理フローを図5を用いて説明する。パターン抽出部15は起動すると、まず記憶装置13からパターン撮像部14で撮影された縦縞模様を投影した時のパターン撮像画像と横縞模様を投影した時のパターン撮像画像2枚を読み出す(S51,S52)。   Next, a processing flow in the pattern extraction unit 15 will be described with reference to FIG. When the pattern extraction unit 15 is activated, it first reads out from the storage device 13 a pattern captured image when the vertical stripe pattern imaged by the pattern imaging unit 14 is projected and two pattern captured images when the horizontal stripe pattern is projected (S51, S52). ).

次に両画像の差分画像を生成する(S53)。差分処理は同一画像座標を有す画素値同士の差の絶対値を算出することにより実現できる。続いて生成した差分画像の画素値に対して二値化を行ない二値化画像を生成する(S54)。   Next, a difference image between the two images is generated (S53). The difference process can be realized by calculating an absolute value of a difference between pixel values having the same image coordinates. Subsequently, the pixel values of the generated difference image are binarized to generate a binarized image (S54).

続いて、該二値化画像に対して差分処理、二値化処理によって生じた撮像画像内でパターンを構成する線分のかすれ・途切れを埋めるために膨張縮小処理を行なう(S55)。   Subsequently, expansion / reduction processing is performed on the binarized image in order to fill in the blurred / interrupted line segments constituting the pattern in the captured image generated by the difference processing and binarization processing (S55).

この膨張縮小処理は、二値化画像に対して連結成分の輪郭画素を外側に1層分増やす処理と連結成分の輪郭画素を取り除いて1層分小さくする処理をあらかじめ定められた回数行なうことにより実現される。   This expansion / reduction process is performed by performing a predetermined number of times a process of increasing the outline pixel of the connected component by one layer on the binarized image and a process of removing the outline pixel of the connected component and reducing it by one layer. Realized.

続いて,膨張縮小処理後の画像に対し該画像内に含まれる各々の連結図形の連結性を失うことなく線幅が一の線図形まで細める細線化を行う(S56)。細線化については従来の技術と特に変わらないので、ここでの詳細な説明は省略する。最後に細線化された画像を抽出パターン画像として平面領域抽出部16へ転送して処理を終了する(S57)。   Subsequently, thinning is performed on the image after expansion / reduction processing so as to reduce the line width to one line figure without losing the connectivity of each connected figure included in the image (S56). Since the thinning is not particularly different from the conventional technology, detailed description thereof is omitted here. Finally, the thinned image is transferred as an extraction pattern image to the planar area extraction unit 16 and the process is terminated (S57).

続いて、本発明における情報提示装置の第3の構成について説明する。この例のカメラ・プロジェクタ校正装置は、投影装置11、撮像装置12、記憶装置13、パターン撮像部14、パターン抽出部15、平面領域抽出部16、対応座標抽出部17、平面射影行列算出部18とパラメータ推定部19とから概略構成されている。   Next, a third configuration of the information presentation device in the present invention will be described. The camera / projector calibration apparatus of this example includes a projection apparatus 11, an imaging apparatus 12, a storage device 13, a pattern imaging section 14, a pattern extraction section 15, a plane area extraction section 16, a corresponding coordinate extraction section 17, and a plane projection matrix calculation section 18. And a parameter estimation unit 19.

この装置の構成は、第1の構成とほぼ同様であるが、パターン撮像部14において、縦縞模様と横縞模様の2つの画像を生成して投影出力・撮像を行なうステップと、パターン抽出部15において、両画像の2値化、膨張縮小処理、細線化をそれぞれ行なった論理和画像から抽出パターン画像を生成するステップを設けることにより、投影面の形状が複雑な際に投影装置11からの光線が所望の投影面の位置に加え、他の投影面位置まで反射する2次反射の影響を抑えた抽出パターン画像の生成を可能とし、その結果、投影装置11、撮像装置12の精度の良い校正を実現している点が異なっている。   The configuration of this apparatus is substantially the same as that of the first configuration, except that the pattern imaging unit 14 generates two images of a vertical stripe pattern and a horizontal stripe pattern and performs projection output and imaging, and the pattern extraction unit 15 By providing a step of generating an extraction pattern image from a logical sum image obtained by performing binarization, expansion / reduction processing, and thinning of both images, the light from the projection device 11 is emitted when the shape of the projection surface is complicated. In addition to the position of the desired projection plane, it is possible to generate an extraction pattern image that suppresses the influence of secondary reflection that reflects to other projection plane positions. As a result, accurate calibration of the projection apparatus 11 and the imaging apparatus 12 can be performed. What is realized is different.

この例のカメラ・プロジェクタ校正装置の全体の処理は図2で示した第1の構成の処理と同様である。平面領域抽出部16、対応座標抽出部17、平面射影行列算出部18とパラメータ推定部19での処理は、第1の構成の場合の平面領域抽出部16、対応座標抽出部17、平面射影行列算出部18とパラメータ推定部19と同様の処理であるので、ここでの詳細な説明は省略する。   The entire process of the camera / projector calibration apparatus of this example is the same as the process of the first configuration shown in FIG. The processes in the plane area extraction unit 16, the corresponding coordinate extraction unit 17, the plane projection matrix calculation unit 18 and the parameter estimation unit 19 are the plane area extraction unit 16, the corresponding coordinate extraction unit 17, the plane projection matrix in the case of the first configuration. Since it is the same process as the calculation part 18 and the parameter estimation part 19, detailed description here is abbreviate | omitted.

パターン撮像部14で行なわれる処理フローを説明する。パターン撮像部14は起動すると、まず所定のパターン画像を生成する。ここで所定のパターンとは例えば、1色の画素値が該画素値と異なる画素値で表現される画素上に縦にすき間をあけて組んだ縦縞模様と、1色の画素値が該画素値と異なる画素値で表現される画素上に横にすき間をあけて組んだ横縞模様の2枚以上の画像で表現されるパターンである。   A processing flow performed in the pattern imaging unit 14 will be described. When activated, the pattern imaging unit 14 first generates a predetermined pattern image. Here, the predetermined pattern is, for example, a vertical stripe pattern in which a pixel value of one color is formed with a vertical gap on a pixel represented by a pixel value different from the pixel value, and a pixel value of one color is the pixel value. This is a pattern expressed by two or more images of a horizontal stripe pattern formed by interposing a gap horizontally on pixels expressed by different pixel values.

続いて、生成したパターン画像を1枚ずつ投影装置11に転送、投影出力命令を出す。投影装置から投影出力完了信号を受信したら、次に撮像装置12に撮像命令を出す。   Subsequently, the generated pattern images are transferred to the projection device 11 one by one and a projection output command is issued. When a projection output completion signal is received from the projection device, an imaging command is issued to the imaging device 12 next.

撮像装置12は撮像命令を受信すると、各パターン画像について撮像を行い、次に撮像したパターン撮像画像を記憶装置13へと保存し、撮像完了信号をパターン撮像部へと出力する。パターン撮像部14は、撮像装置12から撮像完了信号を受信して処理を終了する。   When receiving the imaging command, the imaging device 12 captures each pattern image, then stores the captured pattern captured image in the storage device 13, and outputs an imaging completion signal to the pattern imaging unit. The pattern imaging unit 14 receives the imaging completion signal from the imaging device 12 and ends the process.

続いて、パターン抽出部15での処理フローを図6を用いて説明する。パターン抽出部15は起動すると、まず記憶装置13からパターン撮像部14で撮影された縦縞模様を投影した時のパターン撮像画像と横縞模様を投影した時のパターン撮像画像2枚以上を読み出す(S61)。   Next, a processing flow in the pattern extraction unit 15 will be described with reference to FIG. When the pattern extraction unit 15 is activated, first, the pattern captured image obtained by projecting the vertical stripe pattern captured by the pattern imaging unit 14 and two or more pattern captured images obtained by projecting the horizontal stripe pattern are read from the storage device 13 (S61). .

続いて、縦横縞両方処理済かをステップS62で判定し、NOなら、両パターン撮像画像の画素値に対して二値化を行ない、二値化画像を生成する(S63)。   Subsequently, it is determined in step S62 whether both vertical and horizontal stripes have been processed. If NO, the pixel values of both pattern captured images are binarized to generate a binarized image (S63).

この二値化処理は、投影面の色の影響を避けるため、両パターン撮像画像から予め撮影しておいたパターン投影前の投影面の画像を減算した差分画像に対して適用しても良い。   In order to avoid the influence of the color of the projection plane, this binarization processing may be applied to a difference image obtained by subtracting an image of the projection plane before pattern projection that has been captured in advance from both pattern captured images.

続いて,2枚の該二値化画像に対して二値化処理によって生じた撮像画像内でパターンを構成する線分のかすれ・途切れを埋めるために膨張縮小処理を行なう(S64)。   Subsequently, expansion / reduction processing is performed on the two binarized images in order to fill in the blurred / discontinuous line segments constituting the pattern in the captured image generated by the binarization processing (S64).

この膨張縮小処理は,二値化画像に対して連結成分の輪郭画素を外側に1層分増やす処理と連結成分の輪郭画素を取り除いて1層分小さくする処理をあらかじめ定められた回数行なうことにより実現される。   This expansion / reduction processing is performed by performing processing for increasing the connected component outline pixel by one layer on the binarized image and processing for removing the connected component contour pixel and reducing it by one layer a predetermined number of times. Realized.

続いて,膨張縮小処理後の両画像に対し該画像内に含まれる各々の連結図形の連結性を失うことなく線幅が一の線図形まで細める細線化を行う(S65)。   Subsequently, the two images after the expansion / reduction processing are thinned so as to reduce the line width to one line figure without losing the connectivity of each connected figure included in the image (S65).

細線化については従来の技術と特に変わらないので、ここでの詳細な説明は省略する。最後に細線化された両画像の論理和画像を生成し抽出パターン画像とする。   Since the thinning is not particularly different from the conventional technology, detailed description thereof is omitted here. Finally, a logical sum image of both the thinned images is generated and used as an extracted pattern image.

前記S62で、YESなら、論理和画像生成処理は同一画像座標を有す画素値のいずれかが値を有すれば1とし、そうでなければ「0」とすることにより実現できる(S66)。また、両画像が2値画像であれば両画像の加算によっても実現できる。最後に該抽出パターン画像を平面領域抽出部16へ転送して処理を終了する(S67)。   If YES in S62, the logical sum image generation processing can be realized by setting 1 if any of the pixel values having the same image coordinates has a value, and setting it to “0” otherwise (S66). Moreover, if both images are binary images, it can also be realized by adding both images. Finally, the extracted pattern image is transferred to the planar area extracting unit 16 and the process is terminated (S67).

続いて、本発明におけるカメラ・プロジェクタ校正装置の第4の構成について説明する。この例のカメラ・プロジェクタ校正装置は、投影装置11、撮像装置12、記憶装置13、パターン撮像部14、パターン抽出部15、平面領域抽出部16、対応座標抽出部17、平面射影行列算出部18とパラメータ推定部19とから概略構成されている。   Next, a fourth configuration of the camera / projector calibration apparatus according to the present invention will be described. The camera / projector calibration apparatus of this example includes a projection apparatus 11, an imaging apparatus 12, a storage device 13, a pattern imaging section 14, a pattern extraction section 15, a plane area extraction section 16, a corresponding coordinate extraction section 17, and a plane projection matrix calculation section 18. And a parameter estimation unit 19.

この装置の構成は第2,3の構成とほぼ同様であるが、パターン撮像部14において、縦縞模様と横縞模様の2つの画像を含む2進グレイコード化パターン画像を生成して投影出力・撮像を行なうステップと、前記2進グレイコード化パターン画像を投影撮像したパターン撮像画像を用いて前記パターン画像とパターン撮像画像の対応点を決定するステップを新たに設けることにより、構成1,2で対応1点の検出時に必要であったパターン画像での照合パターンの生成と該照合パターンとパターン撮像画像との照合処理を不要とし、その結果、計算処理量を削減可能とした投影装置11、撮像装置12の精度の良い,校正を実現している点が異なっている。   The configuration of this apparatus is almost the same as the second and third configurations, but the pattern imaging unit 14 generates a binary gray coded pattern image including two images of a vertical stripe pattern and a horizontal stripe pattern, and outputs the projection output / image. And a step of determining corresponding points between the pattern image and the pattern captured image using a pattern captured image obtained by projecting and capturing the binary gray coded pattern image. Projection apparatus 11 and imaging apparatus that can eliminate the generation of a matching pattern in a pattern image and the matching process between the matching pattern and the pattern captured image, which are necessary when detecting one point, thereby reducing the amount of calculation processing The difference is that 12 calibrations with high accuracy are realized.

この例のカメラ・プロジェクタ校正装置の全体の処理は図2で示した第1の構成の処理と同様である。平面領域抽出部16、平面射影行列算出部18とパラメータ推定部19での処理は、第1の構成の場合の平面領域抽出部16、対応座標抽出部17、平面射影行列算出部18とパラメー夕推定部19と同様の処理であるので、ここでの詳細な説明は省略する。   The entire process of the camera / projector calibration apparatus of this example is the same as the process of the first configuration shown in FIG. The processes in the plane area extraction unit 16, the plane projection matrix calculation unit 18 and the parameter estimation unit 19 are the same as the plane area extraction unit 16, the corresponding coordinate extraction unit 17, the plane projection matrix calculation unit 18 and the parameter setting in the case of the first configuration. Since the processing is the same as that of the estimation unit 19, detailed description thereof is omitted here.

また、パターン抽出部での処理は第2,3の構成とパターン抽出部と同様の処理であるので、ここでの詳細な説明は省略する。   Further, since the processing in the pattern extraction unit is the same as that in the second and third configurations and the pattern extraction unit, detailed description thereof is omitted here.

パターン撮像部14で行なわれる処理フローを説明する。パターン撮像部14は起動すると、まず所定のパターン画像を生成する。ここで所定のパターンとは、例えば、投影出力後の投影面の時系列での色変化が2進グレイコードで表現されるように画像上で2色の色が縦横に縞模様として配置された複数の2進グレイコード化パターン画像である。   A processing flow performed in the pattern imaging unit 14 will be described. When activated, the pattern imaging unit 14 first generates a predetermined pattern image. Here, the predetermined pattern is, for example, that two colors are arranged as a striped pattern vertically and horizontally on the image so that the color change in the time series of the projection surface after the projection output is expressed by a binary gray code. FIG. 5 is a plurality of binary gray coded pattern images.

続いて生成したパターン画像を1枚ずつ投影装置11に転送、投影出力命令を出す。投影装置11から投影出力完了信号を受信したら、次に撮像装置12に撮像命令を出す。撮像装置12は撮像命令を受信すると、撮像を行ない、次に撮像したパターン撮像画像を順次記憶装置13へと保存し、撮像完了信号をパターン撮像部14へと出力する。   Subsequently, the generated pattern images are transferred to the projection device 11 one by one and a projection output command is issued. When a projection output completion signal is received from the projection device 11, an imaging command is issued to the imaging device 12. When the imaging device 12 receives the imaging command, the imaging device 12 performs imaging, sequentially saves the captured pattern images to the storage device 13, and outputs an imaging completion signal to the pattern imaging unit 14.

パターン撮像部14は、撮像装置12から撮像完了信号を受信して処理を終了する。   The pattern imaging unit 14 receives the imaging completion signal from the imaging device 12 and ends the process.

続いて、対応座標算出部17で行われる理を、図24を用いて説明する。対応座標算出部17では、まず、平面領域抽出部16から全平面IDと該平面IDにそれぞれ対応する平面領域内の全画像座標を受信する(S71)。   Next, the reasoning performed by the corresponding coordinate calculation unit 17 will be described with reference to FIG. The corresponding coordinate calculation unit 17 first receives all plane IDs and all image coordinates in the plane area respectively corresponding to the plane ID from the plane area extraction unit 16 (S71).

次に記憶装置13から前記パターン画像と前記パターン撮像画像を全て読み出す(S72)。続いて、前記パターン撮像画像全てに対して、前記パターン画像で使用されている2色の色による二値化を行なう(S73)。   Next, the pattern image and the pattern captured image are all read from the storage device 13 (S72). Subsequently, binarization is performed on all the pattern-captured images using the two colors used in the pattern image (S73).

続いて、該二値化された複数の画像をパターン画像投影順序に並べた空間コード化画像を生成し(S74)、該空間コード化画像から前記パターン撮像画像の各画素におけるグレイコードを復元し(S75)、該復元されたグレイコードと前記パターン画像で表現された2進グレイコードを用いて(S76)、前記パターン撮像画像の平面領域上で前記特徴点に対応する対応点を決定する。この対応点決定処理を各平面IDに対して少なくとも4点以上に対して行ない、全平面ID処理済かを判断(S77)し、NOなら平面IDを1つ選択する(S78)。   Subsequently, a spatially coded image in which the plurality of binarized images are arranged in the pattern image projection order is generated (S74), and the gray code in each pixel of the pattern captured image is restored from the spatially coded image. (S75) Using the restored gray code and the binary gray code represented by the pattern image (S76), a corresponding point corresponding to the feature point is determined on the plane area of the pattern captured image. This corresponding point determination process is performed for at least four points for each plane ID, and it is determined whether all plane IDs have been processed (S77). If NO, one plane ID is selected (S78).

その後、指定画像座標数は処理済みかを判断し(S79)、NOなら該平面ID上の画像座標を1つ選択(S80)した後、該画像座標のグレイコードとパターン画像の2進グレーコードが一致する点を対応点とし、その座標を対応座標として記憶装置13に記憶する(S81)。   Thereafter, it is determined whether the number of designated image coordinates has been processed (S79). If NO, one image coordinate on the plane ID is selected (S80), and then the gray code of the image coordinate and the binary gray code of the pattern image are selected. Are matched points, and the coordinates are stored as corresponding coordinates in the storage device 13 (S81).

また、少なくとも2つ以上の平面IDに対して行なう(S77でYes)。最後に全平面IDと該平面ID上の画像座標と該画像座標の対応座標を平面射影行列算出部18に転送して処理を終了する(S82)。   Further, it is performed for at least two plane IDs (Yes in S77). Finally, the entire plane ID, the image coordinates on the plane ID, and the corresponding coordinates of the image coordinates are transferred to the plane projection matrix calculation unit 18 and the process is terminated (S82).

[第1実施の形態]
次に本発明の第1実施の形態を具体的データに即して説明する。まず、三次元空間中に少なくとも2平面以上から構成されるスクリーン20と、該スクリーン20に対し入力された投影像を投影出力する投影装置11と投影像についてその投影面を含むシーンを撮像する投影装置11がそれぞれ、図7,8に示すように配置されているものとする。
[First Embodiment]
Next, the first embodiment of the present invention will be described with reference to specific data. First, a screen 20 composed of at least two planes in a three-dimensional space, a projection device 11 for projecting and outputting a projection image input to the screen 20, and a projection for capturing a scene including the projection surface of the projection image Assume that the devices 11 are arranged as shown in FIGS.

ここでf1,f2はそれぞれ投影装置11の内部パラメータを決定する焦点距離を示し、Tは投影装置の投影中心からの撮像装置12の投影中心の相対位置、Rは投影装置11内部の液晶などのパネル面に対して撮像装置12内部のCCDなどの撮像面の相対的な姿勢を示す。本実施の形態では前記f1,f2及びT,Rを決定するプロジェクタ・カメラ校正装置について以下説明する。 Here, f 1 and f 2 indicate focal lengths for determining the internal parameters of the projection device 11, T is a relative position of the projection center of the imaging device 12 from the projection center of the projection device, and R is a liquid crystal in the projection device 11. The relative orientation of the imaging surface such as the CCD inside the imaging device 12 is shown with respect to the panel surface. In the present embodiment, a projector / camera calibration apparatus for determining the f 1 , f 2 and T, R will be described below.

カメラ・プロジェクタ校正装置では、まずパターン撮像部14が起動される。パターン撮像部14は起動すると、まず所定のパターン画像を生成する。この例では図9に示すような白の背景に黒で表現された格子縞模様をパターンして生成するものとする。   In the camera / projector calibration apparatus, the pattern imaging unit 14 is first activated. When activated, the pattern imaging unit 14 first generates a predetermined pattern image. In this example, it is assumed that a checkered pattern expressed in black is patterned on a white background as shown in FIG.

続いて生成したパターン画像を投影装置11により投影出力する。続いて撮像装置12が撮像を行ないパターン撮像画像として記憶装置13へ保存し、処理を終了する。この例では、パターン撮像画像として図10に示すような画像が撮像されたものとする。   Subsequently, the generated pattern image is projected and output by the projection device 11. Subsequently, the image pickup device 12 picks up an image, saves it as a pattern picked-up image in the storage device 13, and ends the processing. In this example, it is assumed that an image as illustrated in FIG. 10 is captured as a pattern captured image.

続いて、パターン抽出部15が起動される。パターン抽出部15では、まず記憶装置13から前記パターン撮像画像を読み出す。次に読み出したパターン撮像画像の画素値に対して二値化を行なう。この例では予め与えられた閾値を用いて二値化した結果、図11のような二値化画像が得られる。   Subsequently, the pattern extraction unit 15 is activated. The pattern extraction unit 15 first reads the pattern captured image from the storage device 13. Next, binarization is performed on the pixel values of the read pattern image. In this example, as a result of binarization using a predetermined threshold value, a binarized image as shown in FIG. 11 is obtained.

続いて、該二値化画像に対し細線化処理を行う。この例では、図12のように細線化される。最後に細線化された画像を抽出パターン画像として平面領域抽出部16へ転送して処理を終了する。   Subsequently, a thinning process is performed on the binarized image. In this example, the line is thinned as shown in FIG. Finally, the thinned image is transferred as an extraction pattern image to the planar area extraction unit 16 and the process is terminated.

続いて、平面領域抽出部16が起動される。平面領域抽出部16は、前記抽出パターン画像内に表現されている複数の直線同士の全交点を検出する。この例では前記抽出パターン画像にコーナー検出フィルタを適用することによって、図13の丸印で示す位置で交点が得られたものとする。   Subsequently, the planar area extraction unit 16 is activated. The plane area extraction unit 16 detects all intersections of a plurality of straight lines expressed in the extraction pattern image. In this example, it is assumed that an intersection is obtained at a position indicated by a circle in FIG. 13 by applying a corner detection filter to the extracted pattern image.

続いて、得られた複数の交点群を対象として、四角形要素に分割する。この例では図12の一部分が、図13の太線で示した四角P,Q,R,S,T,Uのように分割されたものとして以下の説明を進める。   Subsequently, the obtained plurality of intersection groups are divided into quadrangular elements. In this example, the following description will be made on the assumption that a part of FIG. 12 is divided into squares P, Q, R, S, T, U indicated by thick lines in FIG.

続いて分割された四角形から一つの四角形を選択し、四角形を構成する4辺と抽出パターン画像中の直線との重複画素数が予め定めた閾値を越えたら該四角形を空間中での平面領域を表す四角平面とする。この例では前記P,Q,R,S,T,UのうちQ,R,S,T,Uは四角形の4辺と抽出パターン画像内の直線との重複画素が閾値以下であり、PとSが四角平面と判定されたものとする。   Subsequently, one quadrangle is selected from the divided quadrangles, and when the number of overlapping pixels between the four sides constituting the quadrangle and the straight line in the extracted pattern image exceeds a predetermined threshold value, the quadrangular region in the space is defined as the quadrangle. The square plane to represent. In this example, among P, Q, R, S, T, and U, Q, R, S, T, and U have overlapping pixels of four sides of a rectangle and a straight line in the extracted pattern image that are equal to or less than a threshold value. Assume that S is determined to be a square plane.

続いて、隣接する四角平面を連結統合し、個々に各平面を同定する唯一の平面IDを付与して、平面領域とする。例えば、図13の例では四角形の面積の変化すなわち隣接する四角形との面積差を閾値としてクラスタリングを行い、PとSが同一領域として統合される。この処理を全ての四角形要素に対して適用した結果、図14のように2つの平面領域が得られる。   Subsequently, adjacent square planes are connected and integrated, and a unique plane ID for individually identifying each plane is assigned to form a plane area. For example, in the example of FIG. 13, clustering is performed using a change in the area of a square, that is, an area difference between adjacent squares as a threshold, and P and S are integrated as the same area. As a result of applying this processing to all the rectangular elements, two planar regions are obtained as shown in FIG.

最後に全平面IDと該平面IDにそれぞれ対応する平面領域の全画像座標を対応座標算出部17に転送して処理を終了する。   Finally, the entire plane ID and all image coordinates of the plane area respectively corresponding to the plane ID are transferred to the corresponding coordinate calculation unit 17 and the process is terminated.

この例では、図14中の白色の平面IDが1、淡い灰色の平面IDが2であったとすると、
{平面ID:画像座標}={1:(1,1),(1,2),(2,1),(2,2)…},{2:(10,10),(10,11),(11.10),(11,11)…}という情報が転送されることとなる。
In this example, if the white plane ID in FIG. 14 is 1 and the light gray plane ID is 2,
{Plane ID: image coordinates} = {1: (1,1), (1,2), (2,1), (2,2) ...}, {2: (10,10), (10,11 ), (11.10), (11,11)...} Is transferred.

続いて、対応座標算出部17が起動される。対応座標算出部17では、まず、平面領域抽出部16から全平面IDと該平面IDにそれぞれ対応する平面領域内の全画像座標
{平面ID:画像座標}={1:(1,1),(1,2),(2,1),(2,2)…},{2:(10,10),(10,11),(11.10),(11,11)…}を受信する。
Subsequently, the corresponding coordinate calculation unit 17 is activated. In the corresponding coordinate calculation unit 17, first, the entire plane ID from the plane region extraction unit 16 and all image coordinates in the plane region respectively corresponding to the plane ID {plane ID: image coordinates} = {1: (1,1), (1,2), (2,1), (2,2)...}, {2: (10,10), (10,11), (11.10), (11,11).

次に記憶装置13から前記パターン画像と前記パターン撮像画像を読み出し、続いてパターン撮像画像に対して画像上の角や交点となる特徴点の座標を抽出しておく。この特徴点となる点は前記平面領域抽出部16で求めた直線同士の交点をそのまま用いてもよい。   Next, the pattern image and the pattern captured image are read out from the storage device 13, and then the coordinates of feature points that are corners and intersections on the image are extracted from the pattern captured image. As the feature point, the intersection of the straight lines obtained by the plane area extraction unit 16 may be used as it is.

この例では、特徴点として受信した平面領域抽出部16から全平面IDと該平面IDにそれぞれ対応する平面領域内の全画像座標同様
{平面ID:画像座標}={1:(1,1),(1,2),(2,1),(2,2)…},{2:(10,10),(10,11),(11.10),(11,11)…}が選択されたものとする。
In this example, all plane IDs from the plane area extraction unit 16 received as feature points and all image coordinates in the plane areas respectively corresponding to the plane IDs {plane ID: image coordinates} = {1: (1,1) , (1,2), (2,1), (2,2) ...}, {2: (10,10), (10,11), (11.10), (11,11) ...} are selected Shall be.

次にパターン撮像画像の平面領域上での特徴点と該特徴点座標近傍の画素値を用いて照合パターンを作成し、該照合パターンを用いて前記パター
ン画像で前記特徴点に対応する対応点を決定する。平面ID1の第一の特徴点の画像座標(1,1)に対して照合パターンを作成し、該照合パターンを用いてパターン画像から対応点を決定した結果を図15に示す。
Next, a matching pattern is created using the feature points on the planar area of the pattern captured image and the pixel values in the vicinity of the feature point coordinates, and corresponding points corresponding to the feature points in the pattern image are used using the matching pattern. decide. FIG. 15 shows a result of creating a matching pattern for the image coordinates (1, 1) of the first feature point of the plane ID 1 and determining corresponding points from the pattern image using the matching pattern.

ここで、図15中の白枠の四角で示した領域が照合パターンを示し、該照合パターンの利用によりパターン画像中で特徴点に対応する対応点として(2,3)が決定された様子を示している。実際には、例えば、格子パターンの線をそれぞれ唯一の種類の破線としたり、あるいは、格子パターン中にマーカーとなるパターンを埋め込むことにより、他の特徴点と区別が付きやすいようにしておき、これを利用して対応付けを実現する。   Here, a region indicated by a white frame in FIG. 15 indicates a collation pattern, and (2, 3) is determined as a corresponding point corresponding to a feature point in the pattern image by using the collation pattern. Show. Actually, for example, each line of the grid pattern is made to be the only type of broken line, or a pattern that becomes a marker is embedded in the grid pattern so that it can be easily distinguished from other feature points. The association is realized using.

この対応点決定処理を各平面IDに属する特徴点座標のうち少なくとも4点以上に対して行なう。また、少なくとも2つ以上の平面IDに対して行なう。最後に全平面IDと該平面ID上の画像座標と該画像座標の対応座標を平面射影行列算出部18に転送して処理を終了する。この例では平面ID上での各特徴点座標と対応点が図16で示すように決定され、平面射影行列へと転送されるものとする。   This corresponding point determination process is performed on at least four or more of the feature point coordinates belonging to each plane ID. Further, it is performed for at least two plane IDs. Finally, the entire plane ID, the image coordinates on the plane ID, and the corresponding coordinates of the image coordinates are transferred to the plane projection matrix calculation unit 18 and the process is terminated. In this example, the feature point coordinates and corresponding points on the plane ID are determined as shown in FIG. 16, and transferred to the plane projection matrix.

続いて、平面射影行列算出部18が起動される。平面射影行列は起動すると、まず対応座標算出部17から全平面IDと該平面ID上の画像座標と該画像座標の対応座標を受信する。この例では{平面ID:画像座標:対応座標}={1:(1,1),(1,2),(2,1),(2,2)…:(2,3),(2,4),(3,3),(3,4)…},{2:(10,10),(10,11),(11.10),(11,11)…:(12,11),(12,12),(13,11),(13,12)…}を受信する。   Subsequently, the planar projection matrix calculation unit 18 is activated. When the plane projection matrix is activated, it first receives all plane IDs, image coordinates on the plane ID, and corresponding coordinates of the image coordinates from the corresponding coordinate calculation unit 17. In this example, {plane ID: image coordinates: corresponding coordinates} = {1: (1,1), (1,2), (2,1), (2,2) ... :( 2,3), (2 , 4), (3,3), (3,4)…}, {2: (10,10), (10,11), (11.10), (11,11)…: (12,11), (12,12), (13,11), (13,12).

続いて、受信した平面IDごとにパターン画像とパターン撮像画像の画像間での4点以上の対応点から平面射影行列Hを算出する。この例では、式(1)の関係から、平面ID1に対応する平面射影行列H1,平面ID2に対応する平面射影行列H2はそれぞれ、次式により求まる。 Subsequently, a plane projection matrix H is calculated from four or more corresponding points between the pattern image and the pattern captured image for each received plane ID. In this example, the plane projection matrix H 1 corresponding to the plane ID 1 and the plane projection matrix H 2 corresponding to the plane ID 2 are obtained from the relationship of the expression (1) by the following expressions, respectively.

最後に平面IDと該平面IDに対応する平面射影行列H1,H2をパラメータ推定部19に転送して処理を終了する。 Finally, the plane ID and the plane projection matrices H 1 and H 2 corresponding to the plane ID are transferred to the parameter estimation unit 19 and the process is terminated.

最後にパラメータ推定部19が起動される。パラメータ推定部19は起動されると、まず平面射影行列推定部18から平面IDと該平面IDに対応する平面射影行列H1,H2を受信する。 Finally, the parameter estimation unit 19 is activated. When the parameter estimation unit 19 is activated, it first receives the plane ID and the plane projection matrices H 1 and H 2 corresponding to the plane ID from the plane projection matrix estimation unit 18.

続いて受信した少なくとも2つ以上の平面射影行列から式(4)と式(3)を用いて前記投影装置11と前記撮像装置12各々の内部特性A,A’および相対位置T,姿勢Rを算出し、処理を終了する。   Subsequently, the internal characteristics A and A ′, the relative position T, and the posture R of each of the projection device 11 and the imaging device 12 are obtained from at least two or more received planar projection matrices using Equation (4) and Equation (3). Calculate and finish the process.

[第2の実施形態]
次に本発明の第2の構成の実施形態を具体的データに即して説明する。本実施形態では、第1の実施形態におけるパターン抽出時にパターン撮像手段(撮像部)14が生成する縦縞模様と横縞模様の2つの画像の投影出力結果を撮像した2枚のパターン撮像画像を使用した場合について説明する。
[Second Embodiment]
Next, an embodiment of the second configuration of the present invention will be described based on specific data. In the present embodiment, two pattern captured images obtained by capturing the projection output results of two images of a vertical stripe pattern and a horizontal stripe pattern generated by the pattern imaging means (imaging unit) 14 at the time of pattern extraction in the first embodiment are used. The case will be described.

第1の実施形態はパターン撮像手段(撮像部)14が生成する格子模様の画像の投影出力結果を撮像したパターン撮像画像を使用してパターン抽出手段(抽出部)15で2値化して抽出パターンを生成する場合について説明したが、これだと2値化の閾値によってはスクリーン自身に描画されている模様やスクリーン自体の色も抽出パターン画像に含まれる場合があり、校正結果に誤差が含まれてしまう。   In the first embodiment, an extraction pattern is binarized by a pattern extraction unit (extraction unit) 15 using a pattern captured image obtained by imaging a projection output result of a lattice pattern image generated by the pattern imaging unit (imaging unit) 14. In this case, depending on the binarization threshold, the pattern drawn on the screen itself and the color of the screen itself may be included in the extracted pattern image, and the calibration result includes an error. End up.

第2の実施形態では、パターン撮像手段14が生成する縦縞模様と横縞模様の2つの画像の投影出力結果を撮像した2枚のパターン撮像画像の差分をとり、該差分画像からパターンを抽出するものとする。こうすることによってスクリーン自身に描画されている模様やスクリーン自体の色に影響されずに抽出パターン画像の生成が可能となる。   In the second embodiment, the difference between two pattern captured images obtained by capturing the projection output results of two images of the vertical stripe pattern and the horizontal stripe pattern generated by the pattern imaging unit 14 is extracted, and the pattern is extracted from the difference image. And By doing so, an extracted pattern image can be generated without being affected by the pattern drawn on the screen itself or the color of the screen itself.

本実施形態としては、第1の実施形態のパターン撮像部14において、縦縞模様と横縞模様の2つの画像を生成して投影出力・撮像を行なうステップと、パターン抽出部15において、両画像の差分画像から抽出パターン画像を生成するステップが新たに設けられている。   In the present embodiment, the pattern imaging unit 14 of the first embodiment generates two images of a vertical stripe pattern and a horizontal stripe pattern and performs projection output and imaging, and the pattern extraction unit 15 performs a difference between both images. A step for generating an extracted pattern image from the image is newly provided.

この例のカメラ・プロジェクタ校正装置における投影装置11、撮像装置12、スクリーン20の配置は図6で示した第1の実施形態と同様である。   The arrangement of the projection device 11, the imaging device 12, and the screen 20 in the camera / projector calibration device of this example is the same as that of the first embodiment shown in FIG.

本実施形態におけるパターン撮像手段(部)14での処理について説明する。パターン撮像手段(撮像部)14は起動すると、まず所定のパターン画像を生成する。ここで所定のパターンとは例えば、1色の画素値が該画素値と異なる画素値で表現される画素上に縦にすき間をあけて組んだ縦縞模様と1色の画素値が該画素値と異なる画素値で表現される画素上に横にすき間をあけて組んだ横縞模様の2つの画像で表現されるパターンである。   Processing in the pattern imaging unit (unit) 14 in the present embodiment will be described. When the pattern imaging unit (imaging unit) 14 is activated, it first generates a predetermined pattern image. Here, the predetermined pattern is, for example, a vertical stripe pattern in which a pixel value of one color is expressed by a pixel value different from the pixel value, and a pixel value of one color is the pixel value. This is a pattern expressed by two images of a horizontal stripe pattern formed by interposing a gap horizontally on pixels expressed by different pixel values.

続いて、生成したパターン画像を投影装置11により投影出力する。続いて、撮像装置12が撮像を行ないパターン撮像画像として記憶装置13へ保存し、処理を終了する。この例ではパターン撮像画像として図17のような画像が得られる。   Subsequently, the generated pattern image is projected and output by the projection device 11. Subsequently, the imaging device 12 captures an image, saves it as a pattern captured image in the storage device 13, and ends the processing. In this example, an image as shown in FIG. 17 is obtained as a pattern captured image.

次にパターン抽出部15での処理を説明する。パターン抽出部15では、まず記憶装置13から前記パターン撮像画像を2枚読み出す。次に両画像の差分画像を生成する。この例では、図18のような差分画像が生成される。   Next, processing in the pattern extraction unit 15 will be described. First, the pattern extraction unit 15 reads two pattern captured images from the storage device 13. Next, a difference image between the two images is generated. In this example, a difference image as shown in FIG. 18 is generated.

続いて、生成した差分画像の画素値に対して二値化を行ない二値化両像を生成する。続いて、該二値化画像に対して差分処理、二値化処理によって生じた撮像画像内でパターンを構成する線分のかすれ・途切れを埋めるために膨張縮小処理を行なう。   Subsequently, binarization is performed on the pixel values of the generated difference image to generate binary images. Subsequently, expansion / reduction processing is performed on the binarized image in order to fill in the blurred / discontinuous line segments constituting the pattern in the captured image generated by the difference processing and binarization processing.

続いて、膨張縮小処理後の画像に対し細線化を行ない、抽出パターン画像として平面領域抽出部16へ転送して処理を終了する。   Subsequently, the image after the expansion / reduction process is thinned, transferred to the planar area extraction unit 16 as an extraction pattern image, and the process ends.

以下の処理は第1の実施形態と同様であるので、ここでの詳細な説明は省略する。   Since the following processing is the same as that of the first embodiment, a detailed description thereof is omitted here.

[第3の実施形態]
次に本発明の第3の構成の実施形態を具体的データに即して説明する。本実施形態では、第1の実施形態におけるパターン抽出時にパターン撮像手段(撮像部)14が生成する縦縞模様と横縞模様の2つの画像の投影出力結果を撮像した2枚と、何も投影しない投影面の状態を撮像した1枚の計3枚のパターン撮像画像を使用した場合について説明する。
[Third Embodiment]
Next, an embodiment of the third configuration of the present invention will be described based on specific data. In the present embodiment, two images obtained by imaging the projection output results of two images of a vertical stripe pattern and a horizontal stripe pattern generated by the pattern imaging means (imaging unit) 14 at the time of pattern extraction in the first embodiment, and a projection in which nothing is projected A case will be described in which a total of three pattern-captured images in which the surface state is captured are used.

第1の実施形態はパターン撮像手段(撮像部)14が生成する格子模様の画像の投影出力結果を撮像したパターン撮像画像を使用してパターン抽出手段で2値化して抽出パターンを生成する場合について説明したが、これだと2値化の閾値によってはスクリーン自身に描画されている模様やスクリーン自体の色も抽出パターン画像に含まれる場合があり、校正結果に誤差が含まれてしまう。   In the first embodiment, a pattern captured image obtained by capturing a projection output result of a lattice pattern image generated by the pattern imaging unit (imaging unit) 14 is binarized by the pattern extraction unit to generate an extraction pattern. As described above, depending on the binarization threshold, the pattern drawn on the screen itself and the color of the screen itself may be included in the extracted pattern image, and an error is included in the calibration result.

また、投影面の形状が複雑な際には、投影装置11からの光線が、所望の投影面の位置に加え、他の投影面位置まで反射する2次反射の影響により、図25上段のように撮像画像から投影パターン画像に該当する画素を抽出する時に本来の格子位置とのずれが生じることがあり、校正結果に誤差が含まれてしまう。   In addition, when the shape of the projection surface is complicated, the light beam from the projection device 11 is influenced by the secondary reflection that reflects to the position of the other projection surface in addition to the position of the desired projection surface, as shown in the upper part of FIG. When a pixel corresponding to the projection pattern image is extracted from the captured image, a deviation from the original lattice position may occur, and an error is included in the calibration result.

第3の実施形態では、パターン撮像手段(撮像部)14が生成する縦縞模様と横縞模様の2つの画像の投影出力結果を撮像した2枚のパターン撮像画像と、何も投影しない投影面の状態を撮像した1枚撮像画像の差分をそれぞれとり、該差分画像からパターンを抽出するものとする。こうすることによってスクリーン自身に描画されている模様やスクリーン自体の色に影響されずに抽出パターン画像の生成が可能となる。   In the third embodiment, two pattern captured images obtained by imaging the projection output results of two images of a vertical stripe pattern and a horizontal stripe pattern generated by the pattern imaging means (imaging unit) 14 and a state of a projection plane on which nothing is projected A difference is taken between each of the captured images obtained by picking up images and a pattern is extracted from the difference image. By doing so, an extracted pattern image can be generated without being affected by the pattern drawn on the screen itself or the color of the screen itself.

また、差分画像の2値化、膨張縮小処理、細線化をそれぞれ行なった2枚の画像の論理和をとり抽出パターン画像を生成することによって図25下段のように2次反射に影響されない抽出パターン画像の生成が可能となる。   Also, an extraction pattern that is not affected by secondary reflection as shown in the lower part of FIG. 25 by generating an extraction pattern image by taking the logical sum of the two images that have been subjected to binarization, expansion / reduction processing, and thinning of the difference image An image can be generated.

本実施形態としては、第1の実施形態のパターン撮像部において縦縞模様と横縞模様の2つの画像を生成して投影出力・撮像を行なうステップと、パターン抽出部において両画像の2値化、膨張縮小処理、細線化をそれぞれ行なった論理和画像から抽出パターン画像を生成するステップが新たに設けられている。   In this embodiment, the pattern imaging unit of the first embodiment generates two images of vertical stripes and horizontal stripes and performs projection output and imaging, and the pattern extraction unit binarizes and expands both images. A step of generating an extraction pattern image from a logical sum image that has been reduced and thinned is newly provided.

この例のカメラ・プロジェクタ校正装置における投影装置11、撮像装置12、スクリーン20の配置は、図6で示した第1の実施形態と同様である。本実施形態におけるパターン撮像手段(撮像部)14での処理について説明する。   The arrangement of the projection device 11, the imaging device 12, and the screen 20 in the camera / projector calibration device of this example is the same as that of the first embodiment shown in FIG. Processing in the pattern imaging unit (imaging unit) 14 in the present embodiment will be described.

パターン撮像手段(撮像部)14は起動すると、まず所定のパターン画像を生成する。ここで所定のパターンとは例えば、1色の画素値が該画素値と異なる画素値で表現される画素上に縦にすき間をあけて組んだ縦縞模様と1色の画素値が該画素値と異なる画素値で表現される画素上に横にすき間をあけて組んだ横縞模様の2つの画像で表現されるパターンである。   When the pattern imaging unit (imaging unit) 14 is activated, it first generates a predetermined pattern image. Here, the predetermined pattern is, for example, a vertical stripe pattern in which a pixel value of one color is expressed by a pixel value different from the pixel value, and a pixel value of one color is the pixel value. This is a pattern expressed by two images of a horizontal stripe pattern formed by interposing a gap horizontally on pixels expressed by different pixel values.

続いて、生成したパターン画像を投影装置11により投影出力する。続いて撮像装置12がパターン投影結果とパターン投影を行なわない時の投影面の状態の撮像を行ないパターン撮像画像として記憶装置13へ保存し、処理を終了する。この例ではパターン撮像画像として図17と同様の画像に加え、図19に示す画像が得られる。   Subsequently, the generated pattern image is projected and output by the projection device 11. Subsequently, the imaging device 12 captures the pattern projection result and the state of the projection surface when the pattern projection is not performed, saves it in the storage device 13 as a pattern captured image, and ends the processing. In this example, the image shown in FIG. 19 is obtained in addition to the image similar to FIG. 17 as the pattern captured image.

次にパターン抽出部15での処理を説明する。パターン抽出部15ではまず記憶装置13から前記パターン撮像画像を3枚読み出す。次に図17の両画像それぞれに対して図19の画像との差分画像を生成する。   Next, processing in the pattern extraction unit 15 will be described. First, the pattern extraction unit 15 reads three pattern captured images from the storage device 13. Next, a difference image from the image of FIG. 19 is generated for each of the images of FIG.

続いて、生成した差分画像の画素値に対して二値化を行ない二値化画像を生成する。続いて、該二値化画像に対して差分処理、二値化処理によって生じた撮像画像内でパターンを構成する線分のかすれ・途切れを埋めるために膨張縮小処理を行なう。   Subsequently, binarization is performed on the pixel values of the generated difference image to generate a binarized image. Subsequently, expansion / reduction processing is performed on the binarized image in order to fill in the blurred / discontinuous line segments constituting the pattern in the captured image generated by the difference processing and binarization processing.

続いて、膨張縮小処理後の画像に対し細線化を行なう。その後、細線化された両画像の論理和をとり、抽出パターン画像を生成する。最後に抽出パターン画像として平面領域抽出部16へ転送して処理を終了する。以下の処理は第1の実施形態と同様であるので、ここでの詳細な説明は省略する。   Subsequently, thinning is performed on the image after the expansion / reduction processing. Thereafter, the logical sum of the two thinned images is taken to generate an extracted pattern image. Finally, the extracted pattern image is transferred to the planar area extracting unit 16 and the process is terminated. Since the following processing is the same as that of the first embodiment, a detailed description thereof is omitted here.

[第4の実施形態]
次に、本発明の第4の構成の実施形態を具体的データに即して説明する。本実施形態では、第1の実施形態における対応点決定時にパターン撮像手段(撮像部)14が生成する縦縞模様と横縞模様の2つの画像を含む2進グレイコード化パターン画像の投影出力結果を撮像した複数のパターン撮像画像を使用した場合について説明する。
[Fourth Embodiment]
Next, an embodiment of the fourth configuration of the present invention will be described based on specific data. In the present embodiment, a projection output result of a binary gray coded pattern image including two images of a vertical stripe pattern and a horizontal stripe pattern generated by the pattern imaging means (imaging unit) 14 when determining corresponding points in the first embodiment is captured. A case where a plurality of pattern captured images are used will be described.

第1、第2、第3の実施形態では対応座標算出手段(算出部)17において、パターン撮像画像の画素値を用いて画像上の角や交点となる抽出した特徴点近傍の領域から生成した照合パターンを使用し、該照合パターンを用いてパターン画像上で前記特徴点に対応する対応点を決定する場合について説明したが、これだと1つの照合パターンをパターン画像上で全領域動かして対応点を探索する必要があるため処理時間がかかってしまう。   In the first, second, and third embodiments, the corresponding coordinate calculation means (calculation unit) 17 uses the pixel values of the pattern captured image to generate from the area near the extracted feature point that becomes the corner or intersection on the image. The case where a matching pattern is used and corresponding points corresponding to the feature points on the pattern image are determined using the matching pattern has been described. In this case, one matching pattern is moved over the entire area of the pattern image. Processing time is required because it is necessary to search for points.

また、対応点探索時に対応点以外の場所に照合パターンと類似のパターンが存在すると誤対応となり、その結果、校正結果に誤差が含まれてしまう。   In addition, if there is a pattern similar to the matching pattern at a place other than the corresponding point when searching for the corresponding point, an incorrect correspondence occurs, and as a result, an error is included in the calibration result.

第4の実施形態では、対応座標算出手段(算出部)17において、パターン撮像手段が生成する縦縞模様と横縞模様の2つの画像を含む2進グレイコード化パターン画像の投影出力結果を撮像した複数のパターン撮像画像から空間コーディング法により対応座標を決定する。   In the fourth embodiment, the corresponding coordinate calculation unit (calculation unit) 17 captures the projection output result of the binary gray coded pattern image including two images of the vertical stripe pattern and the horizontal stripe pattern generated by the pattern imaging unit. Corresponding coordinates are determined by the spatial coding method from the pattern captured image.

こうすることによって、計算処理量を削減可能とした投影装置11、撮像装置12の精度の良い校正が可能となる。本実施形態としては、第2、第3の実施形態のパターン撮像部14において、縦縞模様と横縞模様の2つの画像を含む2進グレイコード化パターン画像を生成して投影出力・撮像を行なうステップと、対応座標算出部17において、パターン撮像画像から空間コーディング法により対応座標を決定するステップが新たに設けられている。   By doing so, it is possible to calibrate the projection apparatus 11 and the imaging apparatus 12 that can reduce the amount of calculation processing with high accuracy. In this embodiment, the pattern imaging unit 14 of the second and third embodiments generates a binary gray coded pattern image including two images of a vertical stripe pattern and a horizontal stripe pattern, and performs projection output and imaging. In the corresponding coordinate calculation unit 17, a step of determining the corresponding coordinates from the pattern captured image by the spatial coding method is newly provided.

この例のカメラ・プロジェクタ校正装置における投影装置11、撮像装置12、スクリーン20の配置は、図7で示した第1の実施形態と同様である。   The arrangement of the projection device 11, the imaging device 12, and the screen 20 in the camera / projector calibration device of this example is the same as that of the first embodiment shown in FIG.

本実施形態におけるパターン撮像手段での処理について説明する。パターン撮像手段(撮像部)14は起動すると、まず所定のパターン画像を生成する。この例では、図20で示すような投影出力後の投影面の時系列での色変化が2進グレイコードで表現されるように画像上で2色の色が縦横に縞模様として配置された複数の2進グレイコード化パターン画像で表現されるパターンである。   Processing in the pattern imaging unit in the present embodiment will be described. When the pattern imaging unit (imaging unit) 14 is activated, it first generates a predetermined pattern image. In this example, the two colors are arranged in a striped pattern vertically and horizontally on the image so that the color change in the time series of the projection surface after the projection output as shown in FIG. 20 is expressed by the binary gray code. It is a pattern expressed by a plurality of binary gray coded pattern images.

なお、ここでは以下の説明の簡単化のため、パターン画像として2進グレイコード化パターン画像ではなく、図21のパターン画像1〜3で示す2進コードパターン画像を用いたものとする。   Here, for simplification of the following description, it is assumed that the binary code pattern images shown by the pattern images 1 to 3 in FIG. 21 are used as the pattern image instead of the binary gray coded pattern image.

続いて生成したパターン画像1〜3を投影装置11により投影出力する。続いて撮像装置12が撮像を行ないパターン撮像画像として記憶装置13へ保存し、処理を終了する。この例ではパターン撮像画像として図21のパターン撮像画像1〜3のような画像が得られたものとする。   Subsequently, the generated pattern images 1 to 3 are projected and output by the projection device 11. Subsequently, the image pickup device 12 picks up an image, saves it as a pattern picked-up image in the storage device 13, and ends the processing. In this example, it is assumed that images such as pattern captured images 1 to 3 in FIG. 21 are obtained as pattern captured images.

続いて対応座標算出部17で行なわれる処理を説明する。対応座標算出部17では、まず、平面領域抽出部16から全平面IDと該平面IDにそれぞれ対応する平面領域内の全画像座標を受信する。   Next, processing performed by the corresponding coordinate calculation unit 17 will be described. In the corresponding coordinate calculation unit 17, first, the entire plane ID and all image coordinates in the plane region respectively corresponding to the plane ID are received from the plane region extraction unit 16.

次に記憶装置13からパターン画像1〜3とパターン撮像画像1〜3を全て読み出す。続いて前記パターン撮像画像全てに対して、前記パターン画像で使用されている2色の色による二値化を行なう。   Next, the pattern images 1 to 3 and the pattern captured images 1 to 3 are all read from the storage device 13. Subsequently, binarization is performed on all of the pattern captured images using the two colors used in the pattern image.

続いて該二値化された複数の画像をパターン画像1〜3を撮像順序に並べて図21に示すようなパターン撮像画像を時系列順に並べた空間コード画像を生成し、該空間コード画像から前記パターン撮像画像の各画素におけるグレイコードを復元する。   Subsequently, the plurality of binarized images are arranged in the imaging order of pattern images 1 to 3 to generate a spatial code image in which pattern captured images as shown in FIG. 21 are arranged in time series, and the spatial code image is used to generate the spatial code image. The gray code at each pixel of the pattern captured image is restored.

縦縞横縞両方向のグレイコードが復元できると、図21最下段のようにパターン画像とパターン撮像画像が全画素で対応づけられるので,前記パターン撮像画像の平面領域上の点に対応する対応点を対応付けられた点の座標から決定する。   When the gray code in both directions of the vertical stripe and horizontal stripe can be restored, the pattern image and the pattern captured image are associated with each other as shown in the bottom of FIG. Determined from the coordinates of the attached point.

この対応点決定処理を各平面IDに対して少なくとも4点以上に対して行なう。また、少なくとも2つ以上の平面IDに対して行なう。最後に全平面IDと該平面ID上の画像座標と該画像座標の対応座標を平面射影行列算出部18に転送して処理を終了する。   This corresponding point determination process is performed on at least four points for each plane ID. Further, it is performed for at least two plane IDs. Finally, the entire plane ID, the image coordinates on the plane ID, and the corresponding coordinates of the image coordinates are transferred to the plane projection matrix calculation unit 18 and the process is terminated.

以上、本発明を実施形態に基づき具体的に説明したが、本発明は上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。   Although the present invention has been specifically described above based on the embodiments, it is needless to say that the present invention is not limited to the above-described embodiments and can be variously modified without departing from the gist thereof.

例えば、パターン画像生成部、平面領域抽出部では四角形のパターンを投影する方法について説明したが、パターン生成画像中で多角形が構成されるよう複数のパターン画像を生成し、平面領域抽出部において、該多角形を利用して平面領域を抽出しても良い。   For example, the pattern image generation unit and the planar area extraction unit have described the method of projecting a square pattern, but a plurality of pattern images are generated so that a polygon is configured in the pattern generation image, A planar area may be extracted using the polygon.

上述した、図1で示した本発明の装置はコンピュータとプログラムによっても実現でき、あるいは図2に示したフローチャートの処理ステップをコンピュータのプログラムで構成したりして、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータでその処理ステップを実行させるためのプログラムを、そのコンピュータが読み取りできる記録媒体、例えば、フレキシブルディスクや、CD,DVD,MO,ROM、メモリカード、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。   The above-described apparatus of the present invention shown in FIG. 1 can be realized by a computer and a program, or the processing steps of the flowchart shown in FIG. 2 are configured by a computer program, and the program is executed by the computer. Needless to say, the program for realizing the function by the computer or the program for executing the processing steps by the computer can be read by a recording medium such as a flexible disk, a CD, a DVD, It can be recorded on an MO, ROM, memory card, removable disk, etc. for storage or distribution.

また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。これらの記録媒体からコンピュータに前記のプログラムをインストールすることにより、あるいはネットワークからダウンロードしてコンピュータに前記のプログラムをインストールすることにより、本発明を実施することが可能となる。   It is also possible to provide the above program through a network such as the Internet or electronic mail. The present invention can be implemented by installing the program from these recording media into a computer or by downloading the program from a network and installing the program into the computer.

本発明による校正装置の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the structural example of the calibration apparatus by this invention. 本発明による校正装置における処理フローを説明するための図である。It is a figure for demonstrating the processing flow in the calibration apparatus by this invention. 本発明による校正装置における処理フローを説明するための図である。It is a figure for demonstrating the processing flow in the calibration apparatus by this invention. 本発明による校正装置における処理フローを説明するための図である。It is a figure for demonstrating the processing flow in the calibration apparatus by this invention. 本発明による校正装置における処理フローを説明するための図である。It is a figure for demonstrating the processing flow in the calibration apparatus by this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 本発明の一実施形態によるカメラ・プロジェクタ校正装置における処理を説明するための図である。It is a figure for demonstrating the process in the camera projector correction apparatus by one Embodiment of this invention. 従来技術を説明するためのブロック図である。It is a block diagram for demonstrating a prior art. 本発明の一実施形態によるカメラ・プロジェクタ校正装置で使用する平面射影行列を説明するための図である。It is a figure for demonstrating the planar projection matrix used with the camera projector correction apparatus by one Embodiment of this invention. 本発明による校正装置における対応座標抽出部処理フローを説明するための図である。It is a figure for demonstrating the corresponding coordinate extraction part process flow in the calibration apparatus by this invention. 本発明による校正装置における二次反射の影響を説明する図である。It is a figure explaining the influence of the secondary reflection in the calibration apparatus by this invention.

符号の説明Explanation of symbols

11…投影装置
12…撮像装置
13…記憶装置
14…パターン撮像部
15…パターン抽出部
16…平面領域抽出部
17…対応座標算出部
18…平面射影行列算出部
19…パラメータ推定部
DESCRIPTION OF SYMBOLS 11 ... Projection apparatus 12 ... Imaging device 13 ... Memory | storage device 14 ... Pattern imaging part 15 ... Pattern extraction part 16 ... Planar area extraction part 17 ... Corresponding coordinate calculation part 18 ... Planar projection matrix calculation part 19 ... Parameter estimation part

Claims (21)

所定のパターン画像を生成し、該パターン画像を投影像として投影装置により投影出力し、その時の投影面の状態を撮像装置によりパターン撮像画像として撮像するパターン撮像手段と、
前記パターン撮像画像から、該画像の画素値を用いて前記パターン画像に該当する画素を抽出して抽出パターン画像とするパターン抽出手段と、
前記抽出パターン画像内の抽出画素同士の幾何とパターン画像内の幾何との関係を用いて抽出パターン画像中から投影面内での平面領域を抽出する平面領域抽出手段と、
前記平面領域抽出手段で抽出された平面領域上の点とパターン画像上で対応付けられる点を少なくとも4点以上決定する処理を、抽出された全ての平面領域に亘って行なう対応座標算出手段と、
前記対応座標から平面上に存在する点同士の関係を表現する平面射影行列を平面領域毎に算出する平面射影行列算出手段と、
少なくとも2つ以上の前記平面射影行列から前記投影装置と前記撮像装置各々の内部特性および相対位置、姿勢を算出するパラメータ推定手段と、
を備えてなることを特徴とする校正装置。
Pattern imaging means for generating a predetermined pattern image, projecting and outputting the pattern image as a projection image by a projection apparatus, and imaging the state of the projection plane at that time as a pattern captured image by the imaging apparatus;
A pattern extraction unit that extracts pixels corresponding to the pattern image from the pattern captured image using pixel values of the image to form an extracted pattern image;
A plane area extracting means for extracting a plane area in the projection plane from the extracted pattern image using the relationship between the geometry of the extracted pixels in the extracted pattern image and the geometry in the pattern image;
Corresponding coordinate calculation means for performing processing for determining at least four or more points to be associated with the pattern area on the plane area extracted by the plane area extraction means over all the extracted plane areas;
A plane projection matrix calculating means for calculating, for each plane region, a plane projection matrix expressing the relationship between points existing on the plane from the corresponding coordinates;
Parameter estimation means for calculating internal characteristics and relative positions and orientations of the projection device and the imaging device from at least two or more planar projection matrices;
A calibration apparatus comprising:
前記パターン撮像手段において、
生成、投影出力する所定のパターン画像は、1色の画素値が該画素値と異なる画素値で表現される画素上に縦横にすき間をあけて組んだ格子縞模様であること、
を特徴とする請求項1記載の校正装置。
In the pattern imaging means,
The predetermined pattern image to be generated and projected and output is a checkered pattern in which a pixel value of one color is formed with a gap vertically and horizontally on a pixel represented by a pixel value different from the pixel value,
The calibration device according to claim 1.
前記パターン撮像手段において、
生成、投影出力する所定のパターン画像は、1色の画素値が該画素値と異なる画素値で表現される画素上に縦にすき間をあけて組んだ縦縞模様と1色の画素値が該画素値と異なる画素値で表現される画素上に横にすき間をあけて組んだ横縞模様の少なくとも2枚以上の画像であること、
を特徴とする請求項1記載の校正装置。
In the pattern imaging means,
A predetermined pattern image to be generated and projected is a vertical stripe pattern in which a pixel value of one color is expressed by a pixel value different from the pixel value and a pixel value of one color is formed with a vertical gap. At least two images of a horizontal stripe pattern formed with a gap horizontally on a pixel represented by a pixel value different from the value,
The calibration device according to claim 1.
前記パターン撮像手段において、
生成、投影出力する所定のパターン画像は、投影出力後の投影面の時系列での色変化が2進グレイコードで表現されるように画像上で2色の色が縦横に縞模様として配置された複数の2進グレイコード化パターン画像であること、
を特徴とする請求項1記載の校正装置。
In the pattern imaging means,
The predetermined pattern image to be generated and projected is arranged in a striped pattern in two colors vertically and horizontally so that the time-series color change of the projection plane after the projection output is expressed in binary gray code. A plurality of binary gray coded pattern images,
The calibration device according to claim 1.
前記パターン抽出手段において、
前記パターン撮像画像から、該画像の画素値に対して二値化を行ない、続いて二値化された画像に対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出して抽出パターン画像とすること、
を特徴とする請求項1及び2記載の校正装置。
In the pattern extraction means,
From the pattern captured image, the pixel values of the image are binarized, and then the binarized image has a line width without losing connectivity to each connected figure included in the image. Extracting a pixel corresponding to the pattern image by thinning to one line figure to obtain an extracted pattern image;
The calibration apparatus according to claim 1 or 2, characterized by the above.
前記パターン抽出手段において、
前記縦縞模様と前記横縞模様もしくは前記2進グレイコード化パターン画像の一対の縦横縞模様を投影出力した投影面の状態を撮像した2枚のパターン撮像画像から、
両画像の画素ごとの画素値の差の絶対値を算出して差分画像を生成し、該差分画像の画素値に対して二値化を行ない、
該二値化された画像に対して連結成分の輪郭画素を外側に1層分増やす膨張処理と連結成分の輪郭画素を取り除いて、1層分小さくする縮小処理をあらかじめ定められた回数行ない、
続いて膨張縮小処理された画像に対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出して抽出パターン画像とすること、
を特徴とする請求項1,3及び4のいずれかに記載の校正装置。
In the pattern extraction means,
From two pattern imaged images obtained by imaging the state of a projection plane obtained by projecting and outputting a pair of vertical and horizontal stripe patterns of the vertical stripe pattern and the horizontal stripe pattern or the binary gray coded pattern image,
A difference image is generated by calculating an absolute value of a pixel value difference for each pixel of both images, and binarization is performed on the pixel value of the difference image,
An expansion process for increasing the connected component outline pixel by one layer on the binarized image and a reduction process for removing the connected component outline pixel and reducing it by one layer are performed a predetermined number of times.
Subsequently, the pixels corresponding to the pattern image are thinned by thinning the line figure to one line figure without losing connectivity to each connected figure included in the image with respect to the expanded / reduced image processing. Extracting it into an extracted pattern image,
The calibration apparatus according to claim 1, wherein:
前記パターン抽出手段において、
前記縦縞模様と前記横縞模様もしくは前記2進グレイコード化パターン画像の一対の縦横縞模様を投影出力した投影面の状態を撮像した少なくとも2枚以上のパターン撮像画像から、該パターン撮像画像各々につき画素値に対して二値化を行ない、
該二値化された2枚の画像それぞれに対して連結成分の輪郭画素を外側に1層分増やす膨張処理と連結成分の輪郭画素を取り除いて、1層分小さくする縮小処理をあらかじめ定められた回数行ない、
続いて膨張縮小処理された2枚の画像それぞれに対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出し、
続いて両画像の論理和演算結果を抽出パターン画像とすること、
を特徴とする請求項1,3及び4のいずれかに記載の校正装置。
In the pattern extraction means,
From at least two pattern captured images obtained by imaging the state of the projection plane obtained by projecting and outputting a pair of vertical and horizontal striped patterns of the vertical striped pattern and the horizontal striped pattern or the binary gray coded pattern image, a pixel for each pattern captured image Binarize the value,
For each of the two binarized images, expansion processing for increasing the contour pixel of the connected component by one layer outward and reduction processing for removing the contour pixel of the connected component and reducing it by one layer are determined in advance. Several times,
Subsequently, for each of the two images subjected to the expansion / reduction processing, the pattern image is thinned by thinning the line figure to one line figure without losing connectivity to each connected figure included in the image. Extract the relevant pixels,
Subsequently, the logical sum operation result of both images is used as an extraction pattern image,
The calibration apparatus according to claim 1, wherein:
前記平面領域抽出手段において、
前記パターン抽出手段から前記抽出パターン画像を受信し、
該抽出パターン画像内に記述されている複数の直線同士の交点を全て検出し、
該抽出された全交点から各交点を頂点とする四角形に分割し、
前記四角形の各辺と前記抽出パターン画像中の直線との重複画素数があらかじめ定められた閾値を越えたら四角平面とする処理を前記分割された全四角形に亘って行ない、
隣接する四角平面を統合し該統合された平面領域の個々に各平面を同定する唯一の平面IDを付与し、
該平面IDと該平面IDに対応する平面領域内の画像座標を記憶すること、
を特徴とする請求項1から7のいずれかに記載の校正装置。
In the planar area extracting means,
Receiving the extracted pattern image from the pattern extracting means;
Detect all intersections between a plurality of straight lines described in the extracted pattern image,
Divide the extracted intersections into quadrilaterals with each intersection as a vertex,
When the number of overlapping pixels between each side of the quadrilateral and the straight line in the extracted pattern image exceeds a predetermined threshold, the process of making a rectangular plane is performed over all the divided quadrangles,
A unique plane ID that identifies adjacent planes and identifies each plane individually in the combined plane region;
Storing the plane ID and the image coordinates in the plane area corresponding to the plane ID;
The calibration apparatus according to claim 1, wherein:
前記対応座標算出手段において、
前記平面領域抽出手段で抽出された平面領域上の点から前記パターン撮像画像の画素値を用いて該画像上の角や交点となる特徴点を少なくとも4点以上抽出し、
該特徴点を含む領域の画素値を用いて照合パターンを作成し、
該照合パターンを用いて前記パターン画像上で前記特徴点に対応する対応点を決定すること、
を特徴とする請求項1から8のいずれかに記載の校正装置。
In the corresponding coordinate calculation means,
Extracting at least four or more feature points that are corners or intersections on the image using pixel values of the pattern-captured image from points on the plane region extracted by the plane region extraction means,
Create a matching pattern using the pixel values of the area including the feature points,
Determining a corresponding point corresponding to the feature point on the pattern image using the matching pattern;
The calibration apparatus according to claim 1, wherein:
前記対応座標算出手段において、
前記パターン撮像画像に対し前記2進グレイコード化パターン画像で使用されている2色の色による二値化を行ない、
該二値化された複数の画像をパターン画像投影順序に並べた空間コード画像を生成し、
該空間コード画像から前記パターン撮像画像の各画素のグレイコードを復元し、
該復元されたグレイコードと前記パターン画像で表現された2進グレイコードを用いて前記パターン撮像画像の平面領域上の点に対応する対応点を少なくとも4点以上決定すること、
を特徴とする請求項1,4,6,7及び8のいずれかに記載の校正装置。
In the corresponding coordinate calculation means,
Binarization with the two colors used in the binary gray coded pattern image is performed on the pattern captured image;
Generating a spatial code image in which the plurality of binarized images are arranged in a pattern image projection order;
Restoring the gray code of each pixel of the pattern-captured image from the spatial code image;
Determining at least four or more corresponding points corresponding to points on the planar region of the pattern image using the restored gray code and the binary gray code expressed by the pattern image;
The calibration apparatus according to claim 1, characterized in that:
所定のパターン画像を生成し、該パターン画像を投影像として投影装置により投影出力した後、その時の投影面の状態を撮像装置によりパターン撮像画像として撮像するパターン撮像過程と、
前記パターン撮像画像から、該画像の画素値を用いて前記パターン画像に該当する画素を抽出した後に、抽出パターン画像とするパターン抽出過程と、
前記抽出パターン画像内の抽出画素同士の幾何とパターン画像内の幾何との関係を用いて抽出パターン画像中から投影面内での平面領域を抽出する平面領域抽出過程と、
前記平面領域抽出手段で抽出された平面領域上の点とパターン画像上で対応付けられる点を少なくとも4点以上決定する処理した後、その処理を抽出された全ての平面領域に亘って行なう対応座標算出過程と、
前記対応座標算出過程で得られた対応座標から平面上に存在する点同士の関係を表現する平面射影行列を平面領域毎に算出する平面射影行列算出過程と、
少なくとも2つ以上の前記平面射影行列から前記投影装置と前記撮像装置各々の内部特性および相対位置、姿勢を算出するパラメータ推定過程と、
を備えてなることを特徴とする校正方法。
A pattern imaging process of generating a predetermined pattern image, projecting and outputting the pattern image as a projection image by the projection apparatus, and then imaging the state of the projection plane at that time as a pattern captured image by the imaging apparatus;
A pattern extraction process of extracting a pixel corresponding to the pattern image from the pattern captured image using a pixel value of the image and then making an extracted pattern image;
A planar area extraction process for extracting a planar area in the projection plane from the extracted pattern image using the relationship between the geometry of the extracted pixels in the extracted pattern image and the geometry in the pattern image;
Corresponding coordinates for performing processing for determining at least four points to be associated with the pattern area on the plane area extracted by the plane area extracting means, and performing the process over all the extracted plane areas Calculation process,
A plane projection matrix calculation process for calculating, for each plane area, a plane projection matrix expressing a relationship between points existing on a plane from the corresponding coordinates obtained in the corresponding coordinate calculation process;
A parameter estimation process for calculating internal characteristics and relative positions and orientations of the projection apparatus and the imaging apparatus from at least two or more planar projection matrices;
A calibration method comprising the steps of:
前記パターン撮像過程において、
生成、投影出力する所定のパターン画像は、1色の画素値が該画素値と異なる画素値で表現される画素上に縦横にすき間をあけて組んだ格子縞模様であること、
を特徴とする請求項11記載の校正方法。
In the pattern imaging process,
The predetermined pattern image to be generated and projected and output is a checkered pattern in which a pixel value of one color is formed with a gap vertically and horizontally on a pixel represented by a pixel value different from the pixel value,
The calibration method according to claim 11.
前記パターン撮像過程において、
生成、投影出力する所定のパターン画像は、1色の画素値が該画素値と異なる画素値で表現される画素上に縦にすき間をあけて組んだ縦縞模様と1色の画素値が該画素値と異なる画素値で表現される画素上に横にすき間をあけて組んだ横縞模様の少なくとも2枚以上の画像であること、
を特徴とする請求項11記載の校正方法。
In the pattern imaging process,
A predetermined pattern image to be generated and projected is a vertical stripe pattern in which a pixel value of one color is expressed by a pixel value different from the pixel value and a pixel value of one color is formed with a vertical gap. At least two images of a horizontal stripe pattern formed with a gap horizontally on a pixel represented by a pixel value different from the value,
The calibration method according to claim 11.
前記パターン撮像過程において、
生成、投影出力する所定のパターン画像は、投影出力後の投影面の時系列での色変化が2進グレイコードで表現されるように画像上で2色の色が縦横に縞模様として配置された複数の2進グレイコード化パターン画像であること、
を特徴とする請求項11記載の校正方法。
In the pattern imaging process,
The predetermined pattern image to be generated and projected is arranged in a striped pattern in two colors vertically and horizontally so that the time-series color change of the projection plane after the projection output is expressed in binary gray code. A plurality of binary gray coded pattern images,
The calibration method according to claim 11.
前記パターン抽出過程において、
前記パターン撮像画像から、該画像の画素値に対して二値化を行なった後、続いて二値化された画像に対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出して抽出パターン画像とすること、
を特徴とする請求項11及び12記載の校正方法。
In the pattern extraction process,
After binarization is performed on the pixel values of the image from the pattern-captured image, each connected figure included in the image is then lined without losing connectivity to the binarized image. Extracting a pixel corresponding to the pattern image by thinning to a line figure having a width of one to obtain an extracted pattern image;
The proofreading method according to claim 11 and 12.
前記パターン抽出過程において、
前記縦縞模様と前記横縞模様もしくは前記2進グレイコード化パターン画像の一対の縦横縞模様を投影出力した投影面の状態を撮像した2枚のパターン撮像画像から、
両画像の画素ごとの画素値の差の絶対値を算出して差分画像を生成した後に、該差分画像の画素値に対して二値化を行なった後に、
該二値化された画像に対して連結成分の輪郭画素を外側に1層分増やす膨張処理と連結成分の輪郭画素を取り除いて、1層分小さくする縮小処理をあらかじめ定められた回数行ない、
続いて膨張縮小処理された画像に対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出して抽出パターン画像とすること、
を特徴とする請求項11,13及び14のいずれかに記載の校正方法。
In the pattern extraction process,
From two pattern imaged images obtained by imaging the state of a projection plane obtained by projecting and outputting a pair of vertical and horizontal stripe patterns of the vertical stripe pattern and the horizontal stripe pattern or the binary gray coded pattern image,
After calculating the absolute value of the pixel value difference for each pixel of both images and generating a difference image, after binarizing the pixel value of the difference image,
An expansion process for increasing the connected component outline pixel by one layer on the binarized image and a reduction process for removing the connected component outline pixel and reducing it by one layer are performed a predetermined number of times.
Subsequently, the pixels corresponding to the pattern image are thinned by thinning the line figure to one line figure without losing connectivity to each connected figure included in the image with respect to the expanded / reduced image processing. Extracting it into an extracted pattern image,
The calibration method according to claim 11, characterized in that:
前記パターン抽出過程において、
前記縦縞模様と前記横縞模様もしくは前記2進グレイコード化パターン画像の一対の縦横縞模様を投影出力した投影面の状態を撮像した少なくとも2枚以上のパターン撮像画像から、該パターン撮像画像各々につき画素値に対して二値化を行なった後に、
該二値化された2枚の画像それぞれに対して連結成分の輪郭画素を外側に1層分増やす膨張処理と連結成分の輪郭画素を取り除いて、1層分小さくする縮小処理をあらかじめ定められた回数行ない、
続いて膨張縮小処理された2枚の画像それぞれに対し該画像内に含まれる各々の連結図形に連結性を失うことなく線幅が一の線図形まで細める細線化を行うことにより前記パターン画像に該当する画素を抽出した後に、
続いて両画像の論理和演算結果を抽出パターン画像とすること、
を特徴とする請求項11,13及び14のいずれかに記載の校正方法。
In the pattern extraction process,
From at least two pattern captured images obtained by imaging the state of the projection plane obtained by projecting and outputting a pair of vertical and horizontal striped patterns of the vertical striped pattern and the horizontal striped pattern or the binary gray coded pattern image, a pixel for each pattern captured image After binarizing the value,
For each of the two binarized images, expansion processing for increasing the contour pixel of the connected component by one layer outward and reduction processing for removing the contour pixel of the connected component and reducing it by one layer are determined in advance. Several times,
Subsequently, for each of the two images subjected to the expansion / reduction processing, the pattern image is thinned by thinning the line figure to one line figure without losing connectivity to each connected figure included in the image. After extracting the relevant pixels,
Subsequently, the logical sum operation result of both images is used as an extraction pattern image,
The calibration method according to claim 11, characterized in that:
前記平面領域抽出過程において、
前記パターン抽出過程から前記抽出パターン画像を受信した後に、
該抽出パターン画像内に記述されている複数の直線同士の交点を全て検出し、
該抽出された全交点から各交点を頂点とする四角形に分割した後に、
前記四角形の各辺と前記抽出パターン画像中の直線との重複画素数があらかじめ定められた閾値を越えたら四角平面とする処理を前記分割された全四角形に亘って行ない、
その後、隣接する四角平面を統合し該統合された平面領域の個々に各平面を同定する唯一の平面IDを付与してから、
該平面IDと該平面IDに対応する平面領域内の画像座標を記憶すること、
を特徴とする請求項11から17のいずれかに記載の校正方法。
In the planar region extraction process,
After receiving the extracted pattern image from the pattern extraction process,
Detect all intersections between a plurality of straight lines described in the extracted pattern image,
After dividing all the extracted intersections into rectangles with each intersection as a vertex,
When the number of overlapping pixels between each side of the quadrilateral and the straight line in the extracted pattern image exceeds a predetermined threshold, the process of making a rectangular plane is performed over all the divided quadrangles,
Then, after consolidating adjacent square planes and giving each plane of the integrated plane area a unique plane ID identifying each plane,
Storing the plane ID and the image coordinates in the plane area corresponding to the plane ID;
The calibration method according to claim 11, wherein:
前記対応座標算出過程において、
前記平面領域抽出過程で抽出された平面領域上の点から前記パターン撮像画像の画素値を用いて該画像上の角や交点となる特徴点を少なくとも4点以上抽出した後に、
該特徴点を含む領域の画素値を用いて照合パターンを作成し、
その後、該照合パターンを用いて前記パターン画像上で前記特徴点に対応する対応点を決定すること、
を特徴とする請求項11から18のいずれかに記載の校正方法。
In the corresponding coordinate calculation process,
After extracting at least four or more feature points that are corners or intersections on the image using pixel values of the pattern-captured image from points on the plane region extracted in the plane region extraction process,
Create a matching pattern using the pixel values of the area including the feature points,
Then, determining corresponding points corresponding to the feature points on the pattern image using the matching pattern;
The calibration method according to claim 11, wherein:
前記対応座標算出過程において、
前記パターン撮像画像に対し前記2進グレイコード化パターン画像で使用されている2色の色による二値化を行なった後、
該二値化された複数の画像をパターン画像投影順序に並べた空間コード画像を生成した後に、
該空間コード画像から前記パターン撮像画像の各画素のグレイコードを復元し、
該復元されたグレイコードと前記パターン画像で表現された2進グレイコードを用いて前記パターン撮像画像の平面領域上の点に対応する対応点を少なくとも4点以上決定すること、
を特徴とする請求項1,4,6,7及び8のいずれかに記載の校正方法。
In the corresponding coordinate calculation process,
After performing binarization with the two colors used in the binary gray coded pattern image on the pattern captured image,
After generating a spatial code image in which the plurality of binarized images are arranged in the pattern image projection order,
Restoring the gray code of each pixel of the pattern-captured image from the spatial code image;
Determining at least four or more corresponding points corresponding to points on the planar region of the pattern image using the restored gray code and the binary gray code expressed by the pattern image;
The calibration method according to any one of claims 1, 4, 6, 7, and 8.
請求項11から20のいずれかに記載の校正方法における過程を、コンピュータに実行させるためのプログラムとしたことを特徴とする校正プログラム。
21. A calibration program characterized in that the process in the calibration method according to claim 11 is a program for causing a computer to execute the process.
JP2004144269A 2004-05-14 2004-05-14 Calibrator, calibration method, and calibration program Pending JP2005326247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004144269A JP2005326247A (en) 2004-05-14 2004-05-14 Calibrator, calibration method, and calibration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004144269A JP2005326247A (en) 2004-05-14 2004-05-14 Calibrator, calibration method, and calibration program

Publications (1)

Publication Number Publication Date
JP2005326247A true JP2005326247A (en) 2005-11-24

Family

ID=35472718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004144269A Pending JP2005326247A (en) 2004-05-14 2004-05-14 Calibrator, calibration method, and calibration program

Country Status (1)

Country Link
JP (1) JP2005326247A (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178696A (en) * 2004-12-22 2006-07-06 Nippon Telegr & Teleph Corp <Ntt> Plane detection apparatus and method, and plane detection program
JP2007194784A (en) * 2006-01-18 2007-08-02 Seiko Epson Corp Pixel position acquisition method, image processing apparatus, program for making computer implement pixel position acquisition method, and computer-readable recording medium with the program recorded thereon
JP2008113176A (en) * 2006-10-30 2008-05-15 Hitachi Ltd Adjustment system of video display system
JP2008211355A (en) * 2007-02-23 2008-09-11 Seiko Epson Corp Projector, program, and information storage medium
JP2008211356A (en) * 2007-02-23 2008-09-11 Seiko Epson Corp Projector, program, and information storage medium
JP2008292259A (en) * 2007-05-23 2008-12-04 Mitsutoyo Corp Two-dimensional lattice calibrating device, two-dimensional lattice calibrating method, two-dimensional lattice calibrating program and recording medium
JP2010124061A (en) * 2008-11-17 2010-06-03 Nec Corp System, method and program for specifying pixel position correspondence relation
JP2010134215A (en) * 2008-12-05 2010-06-17 Seiko Epson Corp Projector, program, and information storage medium
JP2011147125A (en) * 2010-01-15 2011-07-28 Seiko Epson Corp Method of calibrating projector system, program, computer system, and projector system
JP2011170174A (en) * 2010-02-19 2011-09-01 Nippon Telegr & Teleph Corp <Ntt> Optical projection stabilizing device, optical projection stabilization method and program
CN102970504A (en) * 2011-09-01 2013-03-13 株式会社理光 Image projecting device, image processing device, image projecting method, and computer-readable recording medium
WO2014104383A1 (en) 2012-12-28 2014-07-03 Ricoh Company, Ltd. Calibration apparatus, projector and calibration method
JP2015139087A (en) * 2014-01-22 2015-07-30 株式会社リコー Projection device
JP2015173431A (en) * 2014-02-18 2015-10-01 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Projection system and semiconductor integrated circuit
JP2015173430A (en) * 2014-02-18 2015-10-01 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Projection system, semiconductor integrated circuit and image correction method
CN105637529A (en) * 2013-09-26 2016-06-01 高通股份有限公司 Image capture input and projection output
US9441958B2 (en) 2013-08-12 2016-09-13 Ricoh Company, Ltd. Device, method, and non-transitory computer-readable recording medium to calculate a parameter for calibration
US9595106B2 (en) 2014-11-19 2017-03-14 Ricoh Company, Ltd. Calibration apparatus, calibration method, and program
JP6153050B1 (en) * 2016-06-08 2017-06-28 パナソニックIpマネジメント株式会社 Projection system
KR101766603B1 (en) * 2013-08-13 2017-08-08 가부시키가이샤 리코 Image processing apparatus, image processing system, image processing method, and computer program
US9739603B2 (en) 2013-03-15 2017-08-22 Ricoh Company, Ltd. Calibration device, calibration method, and non-transitory computer-readable recording medium
WO2017212509A1 (en) * 2016-06-08 2017-12-14 パナソニックIpマネジメント株式会社 Projection system
CN110473261A (en) * 2019-08-15 2019-11-19 中国科学院光电技术研究所 A kind of light-field camera scaling method of robust
JP2020515120A (en) * 2017-03-24 2020-05-21 中▲興▼通▲訊▼股▲ふぇん▼有限公司Zte Corporation Image correction method and apparatus, storage medium, and projection apparatus
JP2020202486A (en) * 2019-06-10 2020-12-17 株式会社ライゾマティクス Projection system, projection control device, projection control program, and control method of projection system
US20220141435A1 (en) * 2020-10-30 2022-05-05 Ali Corporation Projection device and projection picture correction method thereof
JP2022131024A (en) * 2021-02-26 2022-09-07 セイコーエプソン株式会社 Display method and program

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178696A (en) * 2004-12-22 2006-07-06 Nippon Telegr & Teleph Corp <Ntt> Plane detection apparatus and method, and plane detection program
JP4534992B2 (en) * 2006-01-18 2010-09-01 セイコーエプソン株式会社 Pixel position acquisition method
JP2007194784A (en) * 2006-01-18 2007-08-02 Seiko Epson Corp Pixel position acquisition method, image processing apparatus, program for making computer implement pixel position acquisition method, and computer-readable recording medium with the program recorded thereon
JP2008113176A (en) * 2006-10-30 2008-05-15 Hitachi Ltd Adjustment system of video display system
JP2008211355A (en) * 2007-02-23 2008-09-11 Seiko Epson Corp Projector, program, and information storage medium
JP2008211356A (en) * 2007-02-23 2008-09-11 Seiko Epson Corp Projector, program, and information storage medium
JP2008292259A (en) * 2007-05-23 2008-12-04 Mitsutoyo Corp Two-dimensional lattice calibrating device, two-dimensional lattice calibrating method, two-dimensional lattice calibrating program and recording medium
JP2010124061A (en) * 2008-11-17 2010-06-03 Nec Corp System, method and program for specifying pixel position correspondence relation
JP2010134215A (en) * 2008-12-05 2010-06-17 Seiko Epson Corp Projector, program, and information storage medium
JP2011147125A (en) * 2010-01-15 2011-07-28 Seiko Epson Corp Method of calibrating projector system, program, computer system, and projector system
JP2011170174A (en) * 2010-02-19 2011-09-01 Nippon Telegr & Teleph Corp <Ntt> Optical projection stabilizing device, optical projection stabilization method and program
CN102970504A (en) * 2011-09-01 2013-03-13 株式会社理光 Image projecting device, image processing device, image projecting method, and computer-readable recording medium
US8950872B2 (en) 2011-09-01 2015-02-10 Ricoh Company, Ltd. Image projecting device, image processing device, image projecting method, and computer-readable recording medium
US9532020B2 (en) 2012-12-28 2016-12-27 Ricoh Company, Ltd. Calibration apparatus, projector and calibration method
WO2014104383A1 (en) 2012-12-28 2014-07-03 Ricoh Company, Ltd. Calibration apparatus, projector and calibration method
KR20150088858A (en) 2012-12-28 2015-08-03 가부시키가이샤 리코 Calibration apparatus, projector and calibration method
US9739603B2 (en) 2013-03-15 2017-08-22 Ricoh Company, Ltd. Calibration device, calibration method, and non-transitory computer-readable recording medium
US9441958B2 (en) 2013-08-12 2016-09-13 Ricoh Company, Ltd. Device, method, and non-transitory computer-readable recording medium to calculate a parameter for calibration
US9787960B2 (en) 2013-08-13 2017-10-10 Ricoh Company, Limited Image processing apparatus, image processing system, image processing method, and computer program
KR101766603B1 (en) * 2013-08-13 2017-08-08 가부시키가이샤 리코 Image processing apparatus, image processing system, image processing method, and computer program
JP2016540267A (en) * 2013-09-26 2016-12-22 クアルコム,インコーポレイテッド Image capture input and projection output
CN105637529A (en) * 2013-09-26 2016-06-01 高通股份有限公司 Image capture input and projection output
JP2015139087A (en) * 2014-01-22 2015-07-30 株式会社リコー Projection device
JP2015173431A (en) * 2014-02-18 2015-10-01 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Projection system and semiconductor integrated circuit
KR102196467B1 (en) * 2014-02-18 2020-12-29 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 Projection system and semiconductor integrated circuit
KR20160122048A (en) * 2014-02-18 2016-10-21 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 Projection system and semiconductor integrated circuit
JP2015173430A (en) * 2014-02-18 2015-10-01 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Projection system, semiconductor integrated circuit and image correction method
US9595106B2 (en) 2014-11-19 2017-03-14 Ricoh Company, Ltd. Calibration apparatus, calibration method, and program
US9774832B1 (en) 2016-06-08 2017-09-26 Panasonic Intellectual Property Management Co., Ltd. Projection system
US10349019B2 (en) 2016-06-08 2019-07-09 Panasonic Intellectual Property Management Co., Ltd. Projection system
JP6153050B1 (en) * 2016-06-08 2017-06-28 パナソニックIpマネジメント株式会社 Projection system
US10136112B2 (en) 2016-06-08 2018-11-20 Panasonic Intellectual Property Management Co., Ltd. Projection system
WO2017212509A1 (en) * 2016-06-08 2017-12-14 パナソニックIpマネジメント株式会社 Projection system
US10674124B2 (en) 2016-06-08 2020-06-02 Panasonic Intellectual Property Management Co., Ltd. Projection system
US9912922B2 (en) 2016-06-08 2018-03-06 Panasonic Intellectual Property Co., Ltd. Projection system
JP2020515120A (en) * 2017-03-24 2020-05-21 中▲興▼通▲訊▼股▲ふぇん▼有限公司Zte Corporation Image correction method and apparatus, storage medium, and projection apparatus
US11287646B2 (en) 2017-03-24 2022-03-29 Xi'an Zhongxing New Software Co., Ltd. Method for correcting an image, storage medium and projection device
JP7352239B2 (en) 2019-06-10 2023-09-28 株式会社アブストラクトエンジン Projection system, projection control device, projection control program, and projection system control method
JP2020202486A (en) * 2019-06-10 2020-12-17 株式会社ライゾマティクス Projection system, projection control device, projection control program, and control method of projection system
CN110473261A (en) * 2019-08-15 2019-11-19 中国科学院光电技术研究所 A kind of light-field camera scaling method of robust
CN110473261B (en) * 2019-08-15 2022-04-19 中国科学院光电技术研究所 Robust light field camera calibration method
US20220141435A1 (en) * 2020-10-30 2022-05-05 Ali Corporation Projection device and projection picture correction method thereof
US11877103B2 (en) * 2020-10-30 2024-01-16 Ali Corporation Projection device and projection picture correction method thereof
JP2022131024A (en) * 2021-02-26 2022-09-07 セイコーエプソン株式会社 Display method and program
JP7287409B2 (en) 2021-02-26 2023-06-06 セイコーエプソン株式会社 Display method and program

Similar Documents

Publication Publication Date Title
JP2005326247A (en) Calibrator, calibration method, and calibration program
US8452081B2 (en) Forming 3D models using multiple images
US8447099B2 (en) Forming 3D models using two images
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
JP6507730B2 (en) Coordinate transformation parameter determination device, coordinate transformation parameter determination method, and computer program for coordinate transformation parameter determination
KR101766603B1 (en) Image processing apparatus, image processing system, image processing method, and computer program
US11039121B2 (en) Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method
JP5961945B2 (en) Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program
JP6394005B2 (en) Projection image correction apparatus, method and program for correcting original image to be projected
KR102170182B1 (en) System for distortion correction and calibration using pattern projection, and method using the same
JP6363863B2 (en) Information processing apparatus and information processing method
KR101121034B1 (en) System and method for obtaining camera parameters from multiple images and computer program products thereof
KR101497659B1 (en) Method and apparatus for correcting depth image
JP2012088114A (en) Optical information processing device, optical information processing method, optical information processing system and optical information processing program
CN102714695A (en) Image processing device, image processing method and program
CN107808398B (en) Camera parameter calculation device, calculation method, program, and recording medium
CN107517346B (en) Photographing method and device based on structured light and mobile device
JP2009017480A (en) Camera calibration device and program thereof
JP5156601B2 (en) Shape measuring apparatus and program
CN107346040B (en) Method and device for determining grating parameters of naked eye 3D display equipment and electronic equipment
JP2013041167A (en) Image processing device, projector, projector system, image processing method, program thereof, and recording medium with the program stored therein
KR101943046B1 (en) Calibration Method of Projector-Camera using Auxiliary RGB-D camera
JP2011155412A (en) Projection system and distortion correction method in the same
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JP2002109518A (en) Three-dimensional shape restoring method and system therefor