JP5121673B2 - Image projection apparatus and image projection method - Google Patents

Image projection apparatus and image projection method Download PDF

Info

Publication number
JP5121673B2
JP5121673B2 JP2008282242A JP2008282242A JP5121673B2 JP 5121673 B2 JP5121673 B2 JP 5121673B2 JP 2008282242 A JP2008282242 A JP 2008282242A JP 2008282242 A JP2008282242 A JP 2008282242A JP 5121673 B2 JP5121673 B2 JP 5121673B2
Authority
JP
Japan
Prior art keywords
image
projection
model
shape
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008282242A
Other languages
Japanese (ja)
Other versions
JP2009135921A (en
Inventor
敏志 近藤
孝文 青木
徹 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008282242A priority Critical patent/JP5121673B2/en
Priority to US12/265,957 priority patent/US7857461B2/en
Publication of JP2009135921A publication Critical patent/JP2009135921A/en
Application granted granted Critical
Publication of JP5121673B2 publication Critical patent/JP5121673B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、投影面に画像を投影する際に、投影される画像の歪みを自動的に補正する機能を有する画像投影装置に関するものである。   The present invention relates to an image projection apparatus having a function of automatically correcting distortion of a projected image when an image is projected onto a projection surface.

近年、静止画像や動画像をスクリーン等の投影面に提示する画像投影装置(プロジェクタ)の利用が増加している。この際、投影面が非平面形状である場合や、平面形状であってもプロジェクタに対して正面を向いていないような場合には、プロジェクタに入力された原画像とは異なる形状で投影面に画像が投影されることになる。   In recent years, the use of image projection apparatuses (projectors) that present still images and moving images on a projection surface such as a screen is increasing. At this time, if the projection surface has a non-planar shape, or even if it is a planar shape and does not face the front of the projector, the projection surface has a shape different from the original image input to the projector. An image will be projected.

このように、プロジェクタから画像をそのまま投影すると投影された画像が歪んでしまう(変形してしまう)ような場合であっても、予め原画像に対して補正を施してから投影することにより、使用者からは投影された画像が原画像とほぼ同じ形状に見える方法がいくつか提案されている(例えば、特許文献1〜6参照)。   In this way, even if an image is projected as it is from a projector, the projected image may be distorted (deformed), and it can be used by projecting after correcting the original image in advance. Several methods have been proposed by those who see the projected image look almost the same as the original image (see, for example, Patent Documents 1 to 6).

特許文献1記載の方法では、プロジェクタと投影面とを設置する際に、矩形状のパターン画像を投影面に投影し、投影されたパターン画像をカメラで撮影する。そして、カメラで撮影されたパターン画像(台形に変形)の外形から投影画像の歪み量を計算し、実際に視聴する画像を投影する際には、画像を歪みなく投影できるように、計算した歪み量とは逆の歪みを画像に事前に与えてから投影する。   In the method described in Patent Document 1, when a projector and a projection surface are installed, a rectangular pattern image is projected onto the projection surface, and the projected pattern image is captured by a camera. Then, the amount of distortion of the projected image is calculated from the external shape of the pattern image (deformed into a trapezoid) photographed by the camera, and when projecting the image that is actually viewed, the calculated distortion can be projected without distortion. The image is projected after a distortion opposite to the amount is given to the image in advance.

特許文献2記載の方法では、プロジェクタと投影面とを設置する際に、点画像で構成されるテスト画像(パターン画像)を投影面に投影し、投影されたテスト画像をカメラで撮影する。そして、元のテスト画像とカメラで撮影されたテスト画像とを比較することにより、投影画像の歪み量を計算し、実際に視聴する画像を投影する際には、画像を歪みなく投影できるように、計算した歪み量とは逆の歪みを画像に事前に与えて補正してから投影する。また、特許文献2記載の方法では、テスト画像を可視光域以外の波長域で投影する方法も提案されている。   In the method described in Patent Document 2, when a projector and a projection surface are installed, a test image (pattern image) composed of point images is projected onto the projection surface, and the projected test image is photographed with a camera. Then, by comparing the original test image with the test image taken by the camera, the amount of distortion of the projected image is calculated, so that when projecting an actually viewed image, the image can be projected without distortion. Then, a distortion opposite to the calculated distortion amount is given to the image in advance and corrected before the projection. Further, in the method described in Patent Document 2, a method of projecting a test image in a wavelength region other than the visible light region has also been proposed.

特許文献3記載の方法では、プロジェクタと投影面とを設置する際に、パターン画像を投影面に投影し、投影されたパターン画像をカメラで撮影する。そして、元のパターン画像とカメラで撮影されたパターン画像とを比較することにより、投影画像の歪み量を計算し、実際に視聴する画像を投影する際には、画像を歪みなく投影できるように、計算した歪み量とは逆の歪みを画像に事前に与えて補正してから投影する。ここでのパターン画像としては、点一個のみの画像を用いる方法と、複数の点を含む画像を用いる方法とが述べられている。   In the method described in Patent Document 3, when a projector and a projection surface are installed, a pattern image is projected onto the projection surface, and the projected pattern image is captured by a camera. Then, by comparing the original pattern image with the pattern image captured by the camera, the amount of distortion of the projected image is calculated, so that when projecting an actually viewed image, the image can be projected without distortion. Then, a distortion opposite to the calculated distortion amount is given to the image in advance and corrected before the projection. As the pattern image, a method using only one point image and a method using an image including a plurality of points are described.

特許文献4記載の方法では、プロジェクタから投影面に対して投影した画像をカメラで撮影し、投影した画像の原画像から特徴点を抽出し、カメラで撮影した画像から当該特徴点に対応する対応点を抽出する。そして、当該特徴点および当該対応点と、プロジェクタおよびカメラのパラメータとを用いて当該特徴点に対応する投影面上の点の三次元座標を決定し、三次元座標を用いて投影画像に対して補正を行う。ここで、補正を行う際には、当該特徴点を頂点とする複数の三角形領域に画像平面を分割し、三角形が三次元空間上での平面であるとして頂点の三次元座標から三角形内部にある画素の三次元座標を内挿する方法が示されている。   In the method described in Patent Document 4, an image projected from a projector onto a projection plane is captured by a camera, feature points are extracted from an original image of the projected image, and correspondence corresponding to the feature points is captured from an image captured by the camera. Extract points. Then, the three-dimensional coordinates of the point on the projection plane corresponding to the feature point are determined using the feature point and the corresponding point, and the parameters of the projector and the camera, and the projected image is determined using the three-dimensional coordinate. Make corrections. Here, when performing correction, the image plane is divided into a plurality of triangular regions having the feature point as a vertex, and the triangle is inside the triangle from the three-dimensional coordinates of the vertex, assuming that the triangle is a plane in a three-dimensional space. A method for interpolating the three-dimensional coordinates of a pixel is shown.

特許文献5記載の方法では、プロジェクタが投影面の形状に伴う投影画像の歪みを補正するために予め設定されている近似式を保持している。そして、使用者が近似式の変数値を入力することにより、投影面の形状に応じた変形(歪み補正)処理を行う。ここで、近似式としては例えば、円柱状又は球状の投影面に対しては放物線式を、角を有する壁状の投影面に対して壁の角を補正する直線式を、正弦状に波打つ形状の投影面に対しては三角関数式を用いる方法が示されている。   In the method described in Patent Document 5, the projector holds an approximate expression set in advance in order to correct the distortion of the projection image caused by the shape of the projection surface. Then, when the user inputs a variable value of the approximate expression, a deformation (distortion correction) process corresponding to the shape of the projection surface is performed. Here, as an approximate expression, for example, a parabolic expression is used for a cylindrical or spherical projection surface, and a linear expression that corrects a wall angle for a wall-shaped projection surface having a corner is a sine wave shape. A method using a trigonometric function is shown for the projection plane.

特許文献6記載の方法では、プロジェクタが投影面の形状に関する近似式(関数式)を予め有している。そして、近似式の変数値(変数パラメータ)を使用者が入力することにより投影面のメッシュモデルを生成し、入力画像(平面)と投影面のメッシュモデルとの対応関係を用いて、歪み補正を行う。
特開平10−200836号公報 特開2001−83949号公報 特開2001−320652号公報 特開2004−165944号公報 特開2004−320662号公報 特開2006−94458号公報
In the method described in Patent Document 6, the projector has an approximate expression (function expression) relating to the shape of the projection surface in advance. Then, the user inputs a variable value (variable parameter) of the approximate expression to generate a mesh model of the projection plane, and distortion correction is performed using the correspondence between the input image (plane) and the mesh model of the projection plane. Do.
Japanese Patent Laid-Open No. 10-200836 JP 2001-83949 A JP 2001-320652 A JP 2004-165944 A JP 2004-320664 A JP 2006-94458 A

しかしながら上記従来の方法においては、画像投影中に、スクリーン等の投影面の形状や、投影面とプロジェクタとの位置関係が変わるような場合に、次のような課題を有している。   However, the conventional method has the following problems when the shape of the projection surface such as a screen or the positional relationship between the projection surface and the projector changes during image projection.

特許文献1記載の方法では、鑑賞したい実画像(鑑賞画像)を投影する前に、パターン画像を投影して歪み量を計算する必要がある。すなわち、鑑賞画像を投影している途中に、投影面の形状や、投影面とプロジェクタとの位置関係が変わるような場合には、鑑賞画像の投影を一度止めて再度パターン画像を投影して歪み量を計算し直す必要がある。よって、動画像を鑑賞している場合には、これは実用的ではない。   In the method described in Patent Document 1, it is necessary to calculate a distortion amount by projecting a pattern image before projecting an actual image (appreciation image) to be appreciated. In other words, if the shape of the projection surface or the positional relationship between the projection surface and the projector changes during the projection of the appreciation image, the appreciation image is temporarily stopped and the pattern image is projected again to distort the image. The amount needs to be recalculated. Therefore, this is not practical when watching a moving image.

特許文献2記載の方法でも、点画像で構成されるパターン画像を用いる場合には、特許文献1記載の方法と同様の課題がある。つまり、投影面の形状や、投影面とプロジェクタとの位置関係が変わるような場合には、鑑賞画像の投影を一度止め、再度パターン画像を投影して歪み量を計算し直す必要がある。よって、特に動画像を鑑賞している場合には、これは実用的ではない。   Even the method described in Patent Document 2 has the same problem as the method described in Patent Document 1 when a pattern image composed of point images is used. In other words, when the shape of the projection surface or the positional relationship between the projection surface and the projector changes, it is necessary to stop the projection of the viewing image, project the pattern image again, and recalculate the distortion amount. Therefore, this is not practical particularly when watching a moving image.

また、特許文献2記載の方法で、パターン画像を可視光域以外の波長域で投影する場合には、特許文献1記載の方法の課題を解決することが可能である。つまり、鑑賞画像を投影している途中に、投影面の形状や、投影面とプロジェクタとの位置関係が変わるような場合にも、画像の鑑賞を中断することなく歪み量を得ることができる。しかし、プロジェクタおよびカメラが可視光域以外の画像を扱わなければならないため、実現のためにはハードウェアに係るコストの増大を招くことになる。   Further, when the pattern image is projected in a wavelength region other than the visible light region by the method described in Patent Document 2, the problem of the method described in Patent Document 1 can be solved. That is, even when the shape of the projection surface or the positional relationship between the projection surface and the projector changes during the projection of the viewing image, the amount of distortion can be obtained without interrupting the viewing of the image. However, since the projector and the camera must handle an image outside the visible light range, an increase in hardware costs is required for the realization.

特許文献3記載の方法でも、パターン画像を用いて歪み量を計算しているため、特許文献1記載の方法と同様の課題がある。つまり、投影面の形状や、投影面とプロジェクタとの位置関係が変わるような場合には、鑑賞画像の投影を一度止めて再度パターン画像を投影して歪み量を計算し直す必要がある。よって、動画像を鑑賞している場合には、これは実用的ではない。   The method described in Patent Document 3 also has the same problem as the method described in Patent Document 1 because the distortion amount is calculated using the pattern image. That is, when the shape of the projection surface or the positional relationship between the projection surface and the projector changes, it is necessary to once stop the projection of the viewing image, project the pattern image again, and recalculate the distortion amount. Therefore, this is not practical when watching a moving image.

特許文献4記載の方法では、鑑賞画像を投影している途中に、投影面の形状や、投影面とプロジェクタとの位置関係が変わるような場合にも、画像の鑑賞を中断することなく歪み量を得ることができ、特許文献1記載の方法の課題を解決することが可能である。しかし、特徴点と特徴点との間は三次元空間上の三角形平面で近似される。このため、画像中の特徴点の数が少ない場合、投影面形状が大きな三角形平面で近似されるため、歪み補正が不充分であるという課題を有している。また、投影面形状の近似は、画像の特徴点のみで決定されるため、画像によって投影面形状の近似が大きく異なる可能性がある。よって、画像の特徴点から投影面の歪み量を計算する処理をある時間間隔(例えば数十フレーム単位、数秒単位など)で実施(更新)する場合、動画像中の画像が時間と共に大きく変わると、更新前の投影面近似形状と更新後の投影面近似形状とが大きく異なる可能性がある。そして、それにより画像の補正方法が大きく変わり、視聴者にとって違和感が生じる可能性がある。   In the method described in Patent Document 4, even when the shape of the projection plane or the positional relationship between the projection plane and the projector changes during the projection of the appreciation image, the distortion amount is not interrupted without interrupting the appreciation of the image. And the problem of the method described in Patent Document 1 can be solved. However, the feature points are approximated by a triangular plane in a three-dimensional space. For this reason, when the number of feature points in the image is small, the shape of the projection surface is approximated by a large triangular plane, which causes a problem that distortion correction is insufficient. In addition, since the approximation of the projection plane shape is determined only by the feature points of the image, the approximation of the projection plane shape may vary greatly depending on the image. Therefore, when the processing for calculating the distortion amount of the projection plane from the feature points of the image is performed (updated) at a certain time interval (for example, in units of several tens of frames, units of several seconds, etc.) There is a possibility that the projection surface approximate shape before the update and the projection surface approximate shape after the update are greatly different. As a result, the image correction method changes greatly, and the viewer may feel uncomfortable.

特許文献5記載の方法では、投影面形状を近似式で表現することが可能であるが、詳細な形状は使用者が近似式の変数値を入力することによりなされている。すなわち、鑑賞したい実画像(鑑賞画像)を投影する前に、パターン画像等を投影して使用者が目視しながら変数値を設定する必要がある。また、鑑賞画像を投影している途中に、投影面の形状や、投影面とプロジェクタとの位置関係が変わるような場合には、特許文献1記載の方法と同様に、鑑賞画像の投影を一度止めて再度パターン画像を投影して歪み量を計算し直す必要がある。よって、動画像を鑑賞している場合には、これは実用的ではない。   In the method described in Patent Document 5, the shape of the projection plane can be expressed by an approximate expression, but the detailed shape is made by the user inputting a variable value of the approximate expression. That is, before projecting a real image (appreciation image) to be appreciated, it is necessary to project a pattern image or the like and set the variable value while visually observing by the user. In the case where the shape of the projection surface or the positional relationship between the projection surface and the projector changes during the projection of the appreciation image, the appreciation image is projected once as in the method described in Patent Document 1. It is necessary to stop and project the pattern image again to recalculate the distortion amount. Therefore, this is not practical when watching a moving image.

特許文献6記載の方法では、投影面形状を近似式で表現することが可能であるが、詳細な形状は使用者が近似式の変数値を入力することによりなされている。すなわち、鑑賞したい実画像(鑑賞画像)を投影する前に、投影面形状等を測定することにより、変数値を入力する必要がある。また、鑑賞画像を投影している途中に、投影面の形状や、投影面とプロジェクタとの位置関係が変わるような場合には、特許文献1記載の方法と同様に、鑑賞画像の投影を一度止めて再度パターン画像を投影して歪み量を計算し直す必要がある。よって、動画像を鑑賞している場合には、これは実用的ではない。   In the method described in Patent Document 6, the shape of the projection plane can be expressed by an approximate expression, but the detailed shape is made by the user inputting a variable value of the approximate expression. That is, it is necessary to input a variable value by measuring the shape of the projection surface and the like before projecting a real image (appreciation image) to be appreciated. In the case where the shape of the projection surface or the positional relationship between the projection surface and the projector changes during the projection of the appreciation image, the appreciation image is projected once as in the method described in Patent Document 1. It is necessary to stop and project the pattern image again to recalculate the distortion amount. Therefore, this is not practical when watching a moving image.

本発明は上記従来の課題を解決するものであり、鑑賞画像を投影している途中に、投影面の形状や、投影面と画像投影装置との位置関係が変わったり、動画像中の画像が時間と共に大きく変わる場合であっても、画像の鑑賞を中断することなく安定して形状補正を行うことができる画像投影装置を提供することを目的とする。   The present invention solves the above-described conventional problems. During projection of an appreciation image, the shape of the projection surface, the positional relationship between the projection surface and the image projection device changes, or the image in the moving image is changed. An object of the present invention is to provide an image projection apparatus capable of performing shape correction stably without interrupting image appreciation even when it greatly changes with time.

前記従来の課題を解決するために、本発明の画像投影装置は、入力される原画像を投影面に投影する画像投影装置であって、投影対象の前記原画像又は前記原画像が補正された補正画像である投影対象画像が前記投影面に投影された画像を撮像する撮像部と、予め定められた形状のパターンを示す形状モデルを保持する形状モデル保持部と、前記投影対象画像上の点である第一特徴点と、前記撮像された画像上の点である第二特徴点との対応関係に基づいて、前記形状モデル保持部が保持する形状モデルの中から、前記投影面の形状パターンを示す形状モデルである投影面形状モデルを選択するモデル選択部と、前記撮像された画像が前記原画像に近づくように、前記投影面形状モデルの形状を前記投影面の形状に近づけるパラメータであり、かつ前記投影面と前記画像投影装置との位置関係を示すパラメータであるモデルパラメータを、最新の前記第一特徴点と前記第二特徴点との対応関係に基づいて繰り返し計算するパラメータ計算部と、前記モデルパラメータが繰り返し計算されるたびに、前記投影面形状モデルと計算された前記モデルパラメータとに基づいて、前記原画像を前記補正画像に補正する補正部と、前記原画像又は前記補正画像を前記投影対象画像として前記投影面に投影する投影部とを備える。   In order to solve the above-described conventional problems, an image projection apparatus according to the present invention is an image projection apparatus that projects an input original image onto a projection plane, and the original image or the original image to be projected is corrected. An imaging unit that captures an image in which a projection target image that is a correction image is projected on the projection plane, a shape model holding unit that holds a shape model indicating a pattern of a predetermined shape, and a point on the projection target image Based on the correspondence between the first feature point that is and the second feature point that is a point on the captured image, the shape pattern of the projection plane is selected from the shape models held by the shape model holding unit. A model selection unit that selects a projection surface shape model that is a shape model indicating the parameters, and a parameter that brings the shape of the projection surface shape model close to the shape of the projection surface so that the captured image approaches the original image And a parameter calculation unit that repeatedly calculates a model parameter, which is a parameter indicating a positional relationship between the projection plane and the image projection device, based on the latest correspondence relationship between the first feature point and the second feature point; A correction unit that corrects the original image into the corrected image based on the projection plane shape model and the calculated model parameter each time the model parameter is repeatedly calculated, and the original image or the corrected image A projection unit that projects the projection target image onto the projection plane.

これによれば、パラメータ計算部がモデルパラメータを繰り返し計算することで、鑑賞画像を投影している途中に画像の鑑賞を中断することなく、投影面形状モデルの形状が投影面の形状及び投影面と画像投影装置との位置関係に対応した形状に近づく。また、投影面形状モデルに基づいて原画像を補正して投影面に投影するので、動画像中の画像が時間と共に大きく変わる場合であっても、投影面形状の近似が大きく異なることがなく、安定して形状補正を行うことができる。したがって、投影面の形状や、投影面と画像投影装置との位置関係が変わったり、動画像中の画像が時間と共に大きく変わる場合であっても、画像の鑑賞を中断することなく安定して形状補正を行うことができる。   According to this, the parameter calculation unit repeatedly calculates the model parameters, so that the shape of the projection plane shape model can be changed to the shape of the projection plane and the projection plane without interrupting the viewing of the image while the appreciation image is being projected. And a shape corresponding to the positional relationship between the projector and the image projection apparatus. In addition, since the original image is corrected based on the projection plane shape model and projected onto the projection plane, even if the image in the moving image changes greatly with time, the approximation of the projection plane shape does not vary greatly. The shape can be corrected stably. Therefore, even when the shape of the projection surface, the positional relationship between the projection surface and the image projection device changes, or when the image in the moving image changes significantly with time, the shape can be stably displayed without interrupting image viewing. Correction can be performed.

また、好ましくは、前記パラメータ計算部は、前記投影面形状モデル及び前記モデルパラメータによって前記第二特徴点の座標が補正された座標が、前記第二特徴点に対応する前記原画像上の点の座標に近づくように、前記モデルパラメータを繰り返し計算する。   Preferably, the parameter calculation unit is configured such that coordinates obtained by correcting the coordinates of the second feature point by the projection plane shape model and the model parameter are points of the original image corresponding to the second feature point. The model parameters are repeatedly calculated so as to approach the coordinates.

これによれば、パラメータ計算部が、選択された投影面形状モデルの最適なモデルパラメータを計算することができる。   According to this, the parameter calculation unit can calculate the optimal model parameter of the selected projection plane shape model.

また、好ましくは、前記パラメータ計算部は、前記撮像された画像が前記原画像を拡大又は縮小した画像になるように、前記モデルパラメータを繰り返し計算する。   Preferably, the parameter calculation unit repeatedly calculates the model parameter so that the captured image becomes an image obtained by enlarging or reducing the original image.

これによれば、パラメータ計算部が、撮像された画像が原画像を拡大又は縮小した画像になるようにモデルパラメータを計算するので、使用者が投影面に投影された歪みの無い画像を見ることができる。   According to this, since the parameter calculation unit calculates the model parameters so that the captured image becomes an image obtained by enlarging or reducing the original image, the user views the image without distortion projected on the projection plane. Can do.

また、好ましくは、前記モデル選択部は、前記形状モデル保持部が保持する形状モデルの中から、1つの投影面形状モデルを選択し、前記パラメータ計算部は、前記投影面の形状及び前記投影面と前記画像投影装置との位置関係の変化に応じて、前記選択された1つの投影面形状モデルのモデルパラメータを繰り返し計算する。   Preferably, the model selection unit selects one projection plane shape model from among the shape models held by the shape model holding unit, and the parameter calculation unit selects the shape of the projection plane and the projection plane. The model parameter of the selected projection plane shape model is repeatedly calculated according to the change in the positional relationship between the image projection apparatus and the image projection apparatus.

これによれば、投影面の形状が大きく変化しない場合に、選択された投影面形状モデルについてのモデルパラメータを繰り返し計算することで、投影面の形状や投影面と画像投影装置との位置関係の変化に応じた最適なモデルパラメータを計算することができる。   According to this, when the shape of the projection plane does not change significantly, the model parameters for the selected projection plane shape model are repeatedly calculated, so that the shape of the projection plane and the positional relationship between the projection plane and the image projection apparatus can be determined. Optimal model parameters according to changes can be calculated.

また、好ましくは、前記パラメータ計算部は、前記形状モデル保持部が保持する形状モデルを投影面形状モデルとした場合の、形状モデルに対応するモデルパラメータを計算し、前記モデル選択部は、前記形状モデルに対応するモデルパラメータによって前記第二特徴点の座標が補正された座標と、前記第二特徴点に対応する前記原画像上の点の座標との差分が予め定められた第一閾値以下である前記第二特徴点の数が、予め定められた第二閾値を超える場合の形状モデルを前記投影面形状モデルとして選択する。   Preferably, the parameter calculation unit calculates a model parameter corresponding to a shape model when the shape model held by the shape model holding unit is a projection plane shape model, and the model selection unit The difference between the coordinate of the second feature point corrected by the model parameter corresponding to the model and the coordinate of the point on the original image corresponding to the second feature point is less than or equal to a predetermined first threshold value A shape model when the number of certain second feature points exceeds a predetermined second threshold is selected as the projection plane shape model.

これによれば、複数の形状モデルの中から、原画像上の点の座標との差分が第一閾値以下である第二特徴点の数を算出することで、投影面の形状パターンに適した投影面形状モデルを選択することができる。   According to this, it is suitable for the shape pattern of the projection plane by calculating the number of second feature points whose difference from the coordinates of the points on the original image is not more than the first threshold value from among a plurality of shape models. A projection plane shape model can be selected.

また、前記パラメータ計算部は、前記形状モデル保持部が保持する形状モデルを投影面形状モデルとした場合の、それぞれの形状モデルに対応するモデルパラメータを計算し、前記モデル選択部は、前記形状モデルに対応するモデルパラメータによって前記第二特徴点の座標が補正された座標が、前記第二特徴点に対応する前記原画像上の点の座標に最も近づく形状モデルを前記投影面形状モデルとして選択してもよい。   The parameter calculation unit calculates model parameters corresponding to each shape model when the shape model held by the shape model holding unit is a projection plane shape model, and the model selection unit A coordinate model in which the coordinates of the second feature point are corrected by the model parameter corresponding to is selected as the projection plane shape model that is closest to the coordinates of the point on the original image corresponding to the second feature point. May be.

これによれば、複数の形状モデルの中から、投影面の形状パターンに最も適した投影面形状モデルを選択することができる。   According to this, a projection surface shape model most suitable for the shape pattern of the projection surface can be selected from a plurality of shape models.

また、好ましくは、前記モデル選択部は、外部からの信号により、前記投影面形状モデルを選択する。   Preferably, the model selection unit selects the projection plane shape model based on an external signal.

これによれば、投影面の形状が予め分かっている場合などに、選択される投影面形状モデルを使用者が指定することができる。   According to this, when the shape of the projection plane is known in advance, the user can specify the projection plane shape model to be selected.

なお、本発明は、このような画像投影装置として実現することができるだけでなく、このような画像投影装置の各処理部を備え当該画像投影装置を制御する集積回路として実現したりすることができる。また、このような画像投影装置が備える特徴的な各処理部の処理をステップとする方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。   The present invention can be realized not only as such an image projection apparatus but also as an integrated circuit that includes each processing unit of such an image projection apparatus and controls the image projection apparatus. . In addition, it can be realized as a method in which the processing of each characteristic processing unit included in such an image projection apparatus is a step, or can be realized as a program for causing a computer to execute these steps. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.

以上の様に、本発明に係る画像投影装置によれば、鑑賞画像を投影している途中に、投影面の形状や、投影面とプロジェクタとの位置関係が変わったり、動画像中の画像が時間と共に大きく変わるような場合であっても、画像の鑑賞を中断することなく安定して形状補正を行うことができる。   As described above, according to the image projecting device of the present invention, the shape of the projection surface and the positional relationship between the projection surface and the projector are changed while the appreciation image is being projected. Even if it changes greatly with time, the shape correction can be performed stably without interrupting the viewing of the image.

以下、本発明の実施の形態について、図1から図13Cを用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1 to 13C.

(実施の形態1)
図1は、本発明の実施の形態1における画像投影装置の構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an image projection apparatus according to Embodiment 1 of the present invention.

画像投影装置100は、外部からの入力画像(静止画、動画)を受け、投影面120の形状に応じて入力画像を補正してから、投影面120に投影する装置である。同図に示すように、画像投影装置100は、投影部101、撮像部102、画像メモリ103、104、制御部105、画像処理部106、補正パラメータ計算部107および補正部108を備えている。   The image projection device 100 is a device that receives an input image (still image or moving image) from the outside, corrects the input image according to the shape of the projection surface 120, and then projects the image onto the projection surface 120. As shown in the figure, the image projection apparatus 100 includes a projection unit 101, an imaging unit 102, image memories 103 and 104, a control unit 105, an image processing unit 106, a correction parameter calculation unit 107, and a correction unit 108.

投影部101は、液晶透過型やマイクロミラー反射型などの投射器を有し、画像処理部106からの画像を投射することで、当該画像を投影面120に投影する。   The projection unit 101 has a projector such as a liquid crystal transmission type or a micromirror reflection type, and projects the image on the projection plane 120 by projecting the image from the image processing unit 106.

撮像部102は、投影面120に投影された画像を撮像する。具体的には、撮像部102は、MOSまたはCCD固体撮像素子を有するカメラであり、投影部101によって投影面120に投影された画像を撮像する。撮像部102の撮像領域は、画像投影装置100の通常の使用範囲内では、投影部101の投影領域を余裕を持って含むように設定されている。   The imaging unit 102 captures an image projected on the projection plane 120. Specifically, the imaging unit 102 is a camera having a MOS or CCD solid-state imaging device, and captures an image projected on the projection plane 120 by the projection unit 101. The imaging area of the imaging unit 102 is set to include the projection area of the projection unit 101 with a margin within the normal use range of the image projection apparatus 100.

画像メモリ103は、撮像部102による撮像画像を保持するためのメモリである。ここで、撮像画像とは、撮像部102によって撮像された画像である。   The image memory 103 is a memory for holding an image captured by the imaging unit 102. Here, the captured image is an image captured by the imaging unit 102.

画像メモリ104は、画像投影装置100の外部からの入力画像(原画像)、または補正部108で補正された入力画像(補正画像)を保持するためのメモリである。   The image memory 104 is a memory for holding an input image (original image) from the outside of the image projection apparatus 100 or an input image (corrected image) corrected by the correcting unit 108.

ここで、原画像とは、補正されていない画像、つまり補正部108に入力されていない画像をいう。具体的には、原画像とは、例えば、コンピュータから出力された画像、放送波を受信して得られる静止画や動画、DVDやHDDや半導体メモリ等の蓄積媒体に記録されたコンテンツを再生して得られる静止画や動画、等をいう。また、補正画像とは、画像投影装置100と投影面120との相対的位置関係および投影面120の形状に起因する画像の歪み(形状の歪み)を抑制するために補正された画像をいう。そして、投影対象の画像である原画像と補正画像とを、以下、投影対象画像という。   Here, the original image refers to an image that has not been corrected, that is, an image that has not been input to the correction unit 108. Specifically, an original image is, for example, an image output from a computer, a still image or a moving image obtained by receiving a broadcast wave, or a content recorded on a storage medium such as a DVD, HDD, or semiconductor memory. This refers to still images and moving images that can be obtained. The corrected image refers to an image corrected to suppress image distortion (shape distortion) caused by the relative positional relationship between the image projection apparatus 100 and the projection plane 120 and the shape of the projection plane 120. The original image and the corrected image, which are projection target images, are hereinafter referred to as projection target images.

補正パラメータ計算部107は、画像メモリ103と画像メモリ104とから画像を入力し、形状歪みを補正するための補正パラメータを繰り返し計算する。補正パラメータ計算部107の詳細については後述する。   The correction parameter calculation unit 107 receives images from the image memory 103 and the image memory 104, and repeatedly calculates correction parameters for correcting shape distortion. Details of the correction parameter calculation unit 107 will be described later.

補正部108は、補正パラメータが繰り返し計算されるたびに、計算された補正パラメータに基づいて、原画像を補正画像に補正する。そして、補正部108は、補正画像を画像処理部106に出力する。補正パラメータは現在投影中の画像について得られるので、得られた補正パラメータにより実際に画像が補正されるのは、1フレーム程度遅れたタイミングとなる。   The correction unit 108 corrects the original image to a corrected image based on the calculated correction parameter each time the correction parameter is repeatedly calculated. Then, the correction unit 108 outputs the corrected image to the image processing unit 106. Since the correction parameter is obtained for the currently projected image, the actual correction of the image by the obtained correction parameter is delayed by about one frame.

画像処理部106は、補正部108から入力される画像を、投影部101に適した形式に変換する処理を行い、変換された画像信号を投影部101に出力する。変換処理は、例えば、画像の解像度変換や、YUV信号−RGB信号変換などである。   The image processing unit 106 performs processing for converting the image input from the correction unit 108 into a format suitable for the projection unit 101, and outputs the converted image signal to the projection unit 101. The conversion process includes, for example, image resolution conversion, YUV signal-RGB signal conversion, and the like.

制御部105は、画像投影装置100全体の制御を行う。具体的には、制御部105は、画像メモリ103、104が補正パラメータ計算部107に画像を出力するタイミングや、補正パラメータ計算部107の処理等を制御する。   The control unit 105 controls the entire image projection apparatus 100. Specifically, the control unit 105 controls the timing at which the image memories 103 and 104 output an image to the correction parameter calculation unit 107, the processing of the correction parameter calculation unit 107, and the like.

図2A〜図2Cは、投影部101の被投影対象となる投影面120の例を示す図である。   2A to 2C are diagrams illustrating an example of the projection surface 120 that is a projection target of the projection unit 101. FIG.

図2Aは、画像投影装置100から平面である投影面120aに向かって非正面方向(斜め方向)から画像を投射する場合を示している。この場合、投影面120aの投影領域に形状歪み(台形歪み)が生じるが、この形状歪みは補正部108によって補正可能である。   FIG. 2A shows a case where an image is projected from the non-front direction (oblique direction) toward the projection surface 120a which is a plane from the image projection apparatus 100. In this case, shape distortion (trapezoidal distortion) occurs in the projection area of the projection surface 120 a, and this shape distortion can be corrected by the correction unit 108.

図2Bは、画像投影装置100から部屋のカーテンである投影面120bに向かって画像を投射する場合を示している。この場合も、投影面120bの投影領域にカーテンの形状による形状歪みが生じるが、この形状歪みも補正部108によって補正可能である。   FIG. 2B shows a case where an image is projected from the image projection apparatus 100 toward a projection surface 120b which is a curtain of a room. Also in this case, shape distortion due to the shape of the curtain occurs in the projection area of the projection surface 120b. This shape distortion can also be corrected by the correction unit 108.

図2Cは、画像投影装置100から曲面である投影面120cに向かって画像を投射する場合を示している。この場合も、投影面120cの投影領域に形状歪み(凹凸状など)が生じるが、この形状歪みも補正部108によって補正可能である。   FIG. 2C shows a case where an image is projected from the image projection apparatus 100 toward a projection surface 120c that is a curved surface. In this case as well, shape distortion (such as irregularities) occurs in the projection area of the projection surface 120 c, and this shape distortion can also be corrected by the correction unit 108.

次に、補正パラメータ計算部107の詳細について説明する。   Next, details of the correction parameter calculation unit 107 will be described.

図3は、補正パラメータ計算部107の構成を示すブロック図である。   FIG. 3 is a block diagram illustrating a configuration of the correction parameter calculation unit 107.

同図に示すように、補正パラメータ計算部107は、特徴点抽出部301、特徴点マッチング部302、形状モデル保持部303、モデルパラメータ推定部304およびパラメータ保持部305を備えている。   As shown in the figure, the correction parameter calculation unit 107 includes a feature point extraction unit 301, a feature point matching unit 302, a shape model holding unit 303, a model parameter estimation unit 304, and a parameter holding unit 305.

特徴点抽出部301には、画像メモリ103に保持された撮像画像と、画像メモリ104に保持された原画像または補正画像とが入力される。   The feature point extraction unit 301 receives the captured image held in the image memory 103 and the original image or the corrected image held in the image memory 104.

特徴点抽出部301は、画像メモリ104から入力された原画像又は補正画像と、画像メモリ103から入力された撮像画像とに対して、特徴点抽出を行う。具体的には、特徴点抽出部301は、原画像が補正画像に補正されるまでは、原画像上の点である第一特徴点と、撮像画像上の点である第二特徴点とを抽出する。また、特徴点抽出部301は、原画像が補正画像に補正された場合は、補正画像上の点である第一特徴点と、撮像画像上の点である第二特徴点とを抽出する。つまり、特徴点抽出部301は、投影対象画像上の点である第一特徴点と、撮像画像上の点である第二特徴点とを抽出する。   The feature point extraction unit 301 performs feature point extraction on the original image or the corrected image input from the image memory 104 and the captured image input from the image memory 103. Specifically, the feature point extraction unit 301 calculates a first feature point that is a point on the original image and a second feature point that is a point on the captured image until the original image is corrected to a corrected image. Extract. In addition, when the original image is corrected to a corrected image, the feature point extraction unit 301 extracts a first feature point that is a point on the corrected image and a second feature point that is a point on the captured image. That is, the feature point extraction unit 301 extracts a first feature point that is a point on the projection target image and a second feature point that is a point on the captured image.

特徴点マッチング部302は、特徴点抽出部301が抽出した第一特徴点と第二特徴点とから、画像間の特徴点マッチング(特徴点間の対応関係付け)を行う。   The feature point matching unit 302 performs feature point matching between images (corresponding relationship between feature points) from the first feature point and the second feature point extracted by the feature point extraction unit 301.

形状モデル保持部303は、予め定められた形状のパターンを示す形状モデルを保持している。つまり、形状モデル保持部303は、投影面120の形状を表現する形状モデル(近似式、関数式)を保持している。ここで保持されている形状モデルは、1つであっても複数であっても良い。   The shape model holding unit 303 holds a shape model indicating a pattern having a predetermined shape. That is, the shape model holding unit 303 holds a shape model (approximate expression, function expression) that represents the shape of the projection plane 120. The shape model held here may be one or plural.

図4は、形状モデル保持部303が保持する形状モデルの一例を示す図である。   FIG. 4 is a diagram illustrating an example of a shape model held by the shape model holding unit 303.

同図に示すように、形状モデル保持部303は、「数式」により特定される形状モデルを保持している。例えば、「モデル名称」が射影変形モデルである形状モデルは、「数式」(x’,y’)=f(x,y)によって特定される。ここで、(x,y)は第二特徴点の座標であり、(x’,y’)は形状モデルによって補正された当該第二特徴点の座標である。   As shown in the figure, the shape model holding unit 303 holds the shape model specified by the “formula”. For example, a shape model whose “model name” is a projective deformation model is specified by “formula” (x ′, y ′) = f (x, y). Here, (x, y) is the coordinates of the second feature point, and (x ′, y ′) is the coordinates of the second feature point corrected by the shape model.

また、例えば、投影面120が平面であると仮定できる場合には、射影変形モデルが用いられる。また、投影面120が円筒や球であると仮定できる場合には、円筒や球を表現する関数式で特定される円筒モデルや球モデルが用いられる。さらに、投影面120が複雑な形状である場合には、Thin Plate Spline(TPS)モデル等を用いて形状をモデル化することができる。   For example, when it can be assumed that the projection surface 120 is a plane, a projective deformation model is used. When the projection surface 120 can be assumed to be a cylinder or a sphere, a cylinder model or a sphere model specified by a functional expression expressing the cylinder or the sphere is used. Further, when the projection surface 120 has a complicated shape, the shape can be modeled using a Thin Plate Spline (TPS) model or the like.

ここで、TPSは、画像平面を薄膜と仮定し、薄膜をひずませるような変形を行う手法である。この際には、第一特徴点と第二特徴点とが一致するように薄膜が変形される。この変形は、アフィン変形と局所的な非線形の変形を組み合わせて行われる。局所的な非線形の変形においては、Radial Basis Functionの重ね合わせで、変形が行われる。   Here, TPS is a technique for assuming that the image plane is a thin film and performing a deformation that distorts the thin film. At this time, the thin film is deformed so that the first feature point and the second feature point coincide. This deformation is performed by combining affine deformation and local non-linear deformation. In the local non-linear deformation, the deformation is performed by superposing Radial Basis Function.

図3に戻り、モデルパラメータ推定部304は、モデル選択部306およびパラメータ計算部307を備えている。   Returning to FIG. 3, the model parameter estimation unit 304 includes a model selection unit 306 and a parameter calculation unit 307.

モデル選択部306は、特徴点マッチング部302における第一特徴点と第二特徴点との対応関係に基づいて、形状モデル保持部303が保持する複数の形状モデルの中から、投影面120の形状パターンを示す形状モデルである投影面形状モデルを選択する。   Based on the correspondence between the first feature point and the second feature point in the feature point matching unit 302, the model selection unit 306 selects the shape of the projection plane 120 from the plurality of shape models held by the shape model holding unit 303. A projection plane shape model which is a shape model indicating a pattern is selected.

パラメータ計算部307は、特徴点マッチング部302における第一特徴点と第二特徴点との対応関係に基づいて、撮像された画像が原画像に近づくように、モデルパラメータを繰り返し計算する。   The parameter calculation unit 307 repeatedly calculates model parameters based on the correspondence between the first feature point and the second feature point in the feature point matching unit 302 so that the captured image approaches the original image.

ここで、モデルパラメータとは、投影面形状モデルの形状を投影面120の形状に近づけるパラメータであり、かつ投影面120と画像投影装置100との位置関係を示すパラメータである。具体的には、図4に示された数式の関数fやgなどがモデルパラメータを表現するものである。また、投影面形状モデルおよびモデルパラメータを合わせて補正パラメータと呼ぶ。   Here, the model parameter is a parameter that brings the shape of the projection plane shape model close to the shape of the projection plane 120 and is a parameter that indicates the positional relationship between the projection plane 120 and the image projection apparatus 100. Specifically, the functions f and g of the mathematical formula shown in FIG. 4 express model parameters. The projection surface shape model and the model parameters are collectively referred to as a correction parameter.

パラメータ保持部305は、この補正パラメータを保持する。つまり、パラメータ保持部305は、モデル選択部306が選択した投影面形状モデル、およびパラメータ計算部307が計算したモデルパラメータを保持する。   The parameter holding unit 305 holds this correction parameter. That is, the parameter holding unit 305 holds the projection plane shape model selected by the model selection unit 306 and the model parameter calculated by the parameter calculation unit 307.

次に、画像投影装置100の動作について説明する。   Next, the operation of the image projection apparatus 100 will be described.

図5は、本発明の実施の形態1における画像投影装置100の動作の一例を示すフローチャートである。   FIG. 5 is a flowchart showing an example of the operation of the image projection apparatus 100 according to Embodiment 1 of the present invention.

まず、画像投影装置100に原画像が入力される(S102)。   First, an original image is input to the image projector 100 (S102).

図6Aは、画像投影装置100に入力される原画像の一例を示す図である。つまり、同図に示すような原画像が、画像投影装置100に入力される。   FIG. 6A is a diagram illustrating an example of an original image input to the image projection apparatus 100. That is, an original image as shown in FIG.

そして、入力された原画像は、画像メモリ104に保持される。また、補正部108は、入力された原画像を画像処理部106に出力し、画像処理部106は、入力された原画像を投影部101に適した形式に変換する処理を行う。   The input original image is held in the image memory 104. Further, the correction unit 108 outputs the input original image to the image processing unit 106, and the image processing unit 106 performs a process of converting the input original image into a format suitable for the projection unit 101.

図5に戻り、投影部101は、画像処理部106から出力された画像を投影面120に投影する(S104)。   Returning to FIG. 5, the projection unit 101 projects the image output from the image processing unit 106 onto the projection plane 120 (S <b> 104).

図6Bは、投影面120に投影される画像の一例を示す図である。つまり、投影面120が図2Aに示されたような投影面120aである場合に、同図に示すような画像が投影される。   FIG. 6B is a diagram illustrating an example of an image projected on the projection plane 120. That is, when the projection plane 120 is the projection plane 120a as shown in FIG. 2A, an image as shown in the figure is projected.

そして、図5に戻り、原画像の入力が終了するまで、以下の処理が繰り返される(S106、S118)。   Then, returning to FIG. 5, the following processing is repeated until the input of the original image is completed (S106, S118).

まず、撮像部102は、投影面120に投影された画像を撮像する(S108)。撮像された撮像画像は、画像メモリ103に保持される。なお、この撮像画像は、図6Bに示された画像である。   First, the imaging unit 102 captures an image projected on the projection plane 120 (S108). The captured image is stored in the image memory 103. This captured image is the image shown in FIG. 6B.

次に、補正パラメータ計算部107は、画像メモリ103と画像メモリ104とから画像を入力し、補正パラメータを計算する(S110)。補正パラメータ計算部107が補正パラメータを計算する処理の詳細については、後述する。   Next, the correction parameter calculation unit 107 receives images from the image memory 103 and the image memory 104 and calculates correction parameters (S110). Details of the process in which the correction parameter calculation unit 107 calculates the correction parameter will be described later.

そして、次のフレームの原画像が入力される(S112)。   Then, the original image of the next frame is input (S112).

補正部108は、補正パラメータを用いて入力された原画像を補正画像に補正する(S114)。そして、補正部108は、補正画像を画像処理部106に出力し、画像処理部106は、当該補正画像を投影部101に適した形式に変換する処理を行う。また、当該補正画像は、画像メモリ104に保持される。   The correcting unit 108 corrects the input original image using the correction parameter to a corrected image (S114). Then, the correction unit 108 outputs the corrected image to the image processing unit 106, and the image processing unit 106 performs processing for converting the corrected image into a format suitable for the projection unit 101. The corrected image is held in the image memory 104.

そして、投影部101は、画像処理部106から出力された画像を投影面120に投影する(S116)。   Then, the projection unit 101 projects the image output from the image processing unit 106 on the projection plane 120 (S116).

図7は、投影面120に投影される補正された画像の一例を示す図である。つまり、投影部101は、同図に示すような画像を投影面120に投影する。このように、一度補正パラメータが計算されると、その後、原画像が補正された補正画像が投影面120に投影される画像となる。   FIG. 7 is a diagram illustrating an example of a corrected image projected on the projection surface 120. That is, the projection unit 101 projects an image as shown in FIG. As described above, once the correction parameters are calculated, a corrected image obtained by correcting the original image is then projected onto the projection plane 120.

そして、撮像部102は、投影面120に投影された補正画像を撮像する(S118、S106、S108)。よって、補正パラメータ計算部107は、撮像画像がどのような補正を施された画像かを考慮して、補正パラメータを計算する(S110)。   Then, the imaging unit 102 captures the corrected image projected on the projection surface 120 (S118, S106, S108). Therefore, the correction parameter calculation unit 107 calculates the correction parameter in consideration of what correction is performed on the captured image (S110).

具体的には、補正パラメータ計算部107は、補正部108から入力された補正画像と撮像画像とから、補正パラメータを計算する。ここでの補正パラメータは、補正画像を基準としたパラメータである。つまり、補正パラメータ計算部107は、投影面120に投影される前の画像である補正画像と、投影面120に投影された後の画像である撮像画像とから、補正パラメータを計算する。このため、補正パラメータは、投影面120の形状及び投影面120と画像投影装置100との位置関係の特徴を表したパラメータとなる。   Specifically, the correction parameter calculation unit 107 calculates a correction parameter from the correction image and the captured image input from the correction unit 108. The correction parameter here is a parameter based on the corrected image. That is, the correction parameter calculation unit 107 calculates correction parameters from a correction image that is an image before being projected onto the projection plane 120 and a captured image that is an image after being projected onto the projection plane 120. For this reason, the correction parameter is a parameter that represents the shape of the projection plane 120 and the positional relationship between the projection plane 120 and the image projection apparatus 100.

このようにして、画像を投影する処理(S108〜S116)が繰り返され、原画像の入力が終了すれば、画像投影装置100の動作は終了する(S106、S118)。   In this way, the process of projecting the image (S108 to S116) is repeated, and when the input of the original image is completed, the operation of the image projection apparatus 100 is completed (S106, S118).

ここで、投影面形状モデルが射影変形モデルである場合を例に、画像投影装置100が行う処理の一例を具体的に説明する。   Here, an example of processing performed by the image projection apparatus 100 will be specifically described by taking as an example a case where the projection plane shape model is a projective deformation model.

図8A及び図8Bは、投影面形状モデルが射影変形モデルである場合の画像投影装置100が行う処理の一例を具体的に説明する図である。   8A and 8B are diagrams specifically illustrating an example of processing performed by the image projection apparatus 100 when the projection surface shape model is a projective deformation model.

図8Aに示すように、まず、画像投影装置100に原画像Ioが入力され(図5のS102)、投影部101は、原画像Ioを投影面120に投影する(図5のS104)。   As shown in FIG. 8A, first, the original image Io is input to the image projector 100 (S102 in FIG. 5), and the projection unit 101 projects the original image Io onto the projection plane 120 (S104 in FIG. 5).

そして、撮像部102は、投影面120に投影された原画像Ioを撮像する(図5のS108)。この際に撮像された画像を撮像画像Icとする。   Then, the imaging unit 102 captures the original image Io projected on the projection plane 120 (S108 in FIG. 5). Let the image imaged at this time be the captured image Ic.

次に、補正パラメータ計算部107は、原画像Ioと撮像画像Icとから、射影変形モデルの補正パラメータである射影変換行列H1を計算する(図5のS110)。 Next, the correction parameter calculation unit 107 calculates a projective transformation matrix H 1 that is a correction parameter of the projective deformation model from the original image Io and the captured image Ic (S110 in FIG. 5).

そして、次のフレームの原画像Ioが入力される(図5のS112)。   Then, the original image Io of the next frame is input (S112 in FIG. 5).

補正部108は、補正パラメータを用いて入力された原画像Ioを補正画像Imに補正する(図5のS114)。具体的には、補正画像Imは、Im=H1・Ioにより、計算される。 The correcting unit 108 corrects the original image Io input using the correction parameter to the corrected image Im (S114 in FIG. 5). Specifically, the corrected image Im is calculated by Im = H 1 · Io.

次に、図8Bに示すように、投影部101は、補正画像Imを投影面120に投影し(図5のS116)、撮像部102は、投影面120に投影された補正画像Imを撮像する(図5のS118、S106、S108)。この際に撮像された画像を撮像画像Icとする。   Next, as illustrated in FIG. 8B, the projection unit 101 projects the correction image Im on the projection plane 120 (S116 in FIG. 5), and the imaging unit 102 captures the correction image Im projected on the projection plane 120. (S118, S106, S108 in FIG. 5). Let the image imaged at this time be the captured image Ic.

そして、補正パラメータ計算部107は、補正画像Imと撮像画像Icとから、射影変換行列H2を計算する(図5のS110)。 Then, the correction parameter calculation unit 107 calculates a projective transformation matrix H 2 from the corrected image Im and the captured image Ic (S110 in FIG. 5).

そして、次のフレームの原画像Ioが入力される(図5のS112)。   Then, the original image Io of the next frame is input (S112 in FIG. 5).

補正部108は、補正パラメータを用いて入力された原画像Ioを補正画像Im’に補正する(図5のS114)。具体的には、補正画像Im’は、
Im’=H2・Im=H2・(H1・Io)=(H2・H1)・Io=H2’・Io
により、計算される。
The correcting unit 108 corrects the input original image Io using the correction parameter to a corrected image Im ′ (S114 in FIG. 5). Specifically, the corrected image Im ′ is
Im ′ = H 2 · Im = H 2 · (H 1 · Io) = (H 2 · H 1 ) · Io = H 2 '· Io
Is calculated by

このようにして、画像を投影する処理(図5のS108〜S116)が繰り返され、原画像の入力が終了すれば、画像投影装置100の動作は終了する(図5のS106、S118)。   In this way, the process of projecting the image (S108 to S116 in FIG. 5) is repeated, and when the input of the original image is completed, the operation of the image projection apparatus 100 is completed (S106 and S118 in FIG. 5).

次に、補正パラメータ計算部107が補正パラメータを計算する処理の詳細について説明する。   Next, details of the process in which the correction parameter calculation unit 107 calculates the correction parameter will be described.

図9は、補正パラメータ計算部107が補正パラメータを計算する処理(図5のS110)の一例を示すフローチャートである。   FIG. 9 is a flowchart illustrating an example of processing (S110 in FIG. 5) in which the correction parameter calculation unit 107 calculates correction parameters.

まず、特徴点抽出部301は、画像メモリ103に保持された撮像画像と、画像メモリ104に保持された投影対象画像とを入力する(S202)。   First, the feature point extraction unit 301 inputs the captured image held in the image memory 103 and the projection target image held in the image memory 104 (S202).

ここで、画像メモリ103から入力される撮像画像は、補正部108で補正された投影対象画像が、画像処理部106、及び投影部101を通して投影面120に投影された際に撮像部102によって撮像された画像である。すなわち、画像メモリ103、104は、投影対象画像が補正部108、画像処理部106、投影部101、撮像部102で処理される間の遅延時間を考慮して、特徴点抽出部301に画像を入力するタイミングを合わせる必要がある。   Here, the captured image input from the image memory 103 is captured by the imaging unit 102 when the projection target image corrected by the correction unit 108 is projected onto the projection plane 120 through the image processing unit 106 and the projection unit 101. It is an image that was made. That is, the image memories 103 and 104 take images into the feature point extraction unit 301 in consideration of the delay time during which the projection target image is processed by the correction unit 108, the image processing unit 106, the projection unit 101, and the imaging unit 102. It is necessary to match the input timing.

なお、特徴点を抽出する対象の撮像画像と投影対象画像とが対応していればよいので、必ずしも画像メモリ103、104は画像を出力するタイミングを合わせる必要はない。例えば、投影対象画像にピクチャ番号が割り振られており、ピクチャ番号が同じ投影対象画像と撮像画像との特徴点を抽出するようにすればよい。また、画像メモリ103、104から画像が出力されるタイミングは、制御部105によって制御されている。   Note that it is only necessary that the captured image from which the feature points are extracted correspond to the projection target image, and therefore the image memories 103 and 104 do not necessarily need to match the timing of outputting the images. For example, picture numbers are assigned to the projection target images, and feature points between the projection target image and the captured image having the same picture number may be extracted. The timing at which images are output from the image memories 103 and 104 is controlled by the control unit 105.

特徴点抽出部301では、画像メモリ103と画像メモリ104とから入力されたそれぞれの画像(投影対象画像と撮像画像)に対して、特徴点抽出を行う。   The feature point extraction unit 301 performs feature point extraction on each image (projection target image and captured image) input from the image memory 103 and the image memory 104.

つまり、特徴点抽出部301は、第一特徴点を抽出する(S204)。具体的には、特徴点抽出部301は、画像メモリ104から入力された投影対象画像上の点を第一特徴点として、抽出する。ここで、撮像部102が原画像を撮像(図5のS108)した場合は、画像メモリ104に保持されている当該原画像上の点を第一特徴点とする。また、撮像部102が補正画像を撮像(図5のS108)した場合は、画像メモリ104に保持されている当該補正画像上の点を第一特徴点とする。   That is, the feature point extraction unit 301 extracts a first feature point (S204). Specifically, the feature point extraction unit 301 extracts a point on the projection target image input from the image memory 104 as a first feature point. Here, when the imaging unit 102 captures an original image (S108 in FIG. 5), a point on the original image held in the image memory 104 is set as a first feature point. When the imaging unit 102 captures a corrected image (S108 in FIG. 5), a point on the corrected image held in the image memory 104 is set as a first feature point.

また、特徴点抽出部301は、第二特徴点を抽出する(S206)。具体的には、特徴点抽出部301は、画像メモリ103から入力された撮像画像上の点を第二特徴点として、抽出する。   Further, the feature point extraction unit 301 extracts a second feature point (S206). Specifically, the feature point extraction unit 301 extracts a point on the captured image input from the image memory 103 as a second feature point.

図10Aは、第一特徴点の一例を示す図であり、図10Bは、第二特徴点の一例を示す図である。   FIG. 10A is a diagram illustrating an example of a first feature point, and FIG. 10B is a diagram illustrating an example of a second feature point.

具体的には、図10Aは、図6Aに示された原画像上の特徴点である第一特徴点を示している。また、図10Bは、図6Bに示された撮像画像上の特徴点である第二特徴点を示している。   Specifically, FIG. 10A shows first feature points that are feature points on the original image shown in FIG. 6A. FIG. 10B shows second feature points that are feature points on the captured image shown in FIG. 6B.

ここで、画像の特徴点は、ハリスオペレータやSIFT(Scale Invariant Feature Transform)オペレータを用いて、抽出することができる。これらのオペレータは一般的に、画像中のエッジの交点等を特徴点として抽出し、その特徴点のパラメータ(位置や強度を示す値など)である特徴点パラメータを求める。これらの特徴点パラメータは、特徴点マッチング部302に対して出力される。   Here, the feature point of the image can be extracted using a Harris operator or a SIFT (Scale Invariant Feature Transform) operator. These operators generally extract intersection points of edges in an image as feature points, and obtain feature point parameters that are parameters of the feature points (such as values indicating position and intensity). These feature point parameters are output to the feature point matching unit 302.

特徴点マッチング部302は、特徴点抽出部301が抽出した第一特徴点と第二特徴点との特徴点パラメータを用いて、画像間の特徴点マッチングを行う(S208)。   The feature point matching unit 302 performs feature point matching between images using the feature point parameters of the first feature point and the second feature point extracted by the feature point extraction unit 301 (S208).

例えば、特徴点をSIFTパラメータにより抽出した場合、各特徴点における画素勾配をベクトル表現したものが特徴点パラメータとなる。第一特徴点中の各特徴点に対して、第二特徴点中の特徴点から最も類似した特徴点を抽出する。ここで特徴点が類似しているか否かは、特徴点パラメータ間の類似度により判断することができる。この処理により、第一特徴点と第二特徴点との特徴点間の対応関係を得ることができる。   For example, when feature points are extracted using SIFT parameters, a vector representation of the pixel gradient at each feature point is the feature point parameter. For each feature point in the first feature point, the most similar feature point is extracted from the feature points in the second feature point. Here, whether or not the feature points are similar can be determined by the similarity between the feature point parameters. By this process, the correspondence between the feature points of the first feature point and the second feature point can be obtained.

図11は、第一特徴点と第二特徴点との対応関係の一例を示す図である。   FIG. 11 is a diagram illustrating an example of a correspondence relationship between the first feature point and the second feature point.

同図は、図10Aに示された第一特徴点と図10Bに示された第二特徴点との対応関係を示している。なお、同図においては、すべての特徴点の対応関係を示すと図が煩雑になるため、一部の特徴点の対応関係のみを示している。この対応関係は、モデルパラメータ推定部304に対して出力される。   This figure shows the correspondence between the first feature points shown in FIG. 10A and the second feature points shown in FIG. 10B. In the figure, since the diagram becomes complicated when the correspondences of all feature points are shown, only the correspondences of some feature points are shown. This correspondence is output to the model parameter estimation unit 304.

図9に戻り、全ての形状モデルについて、以下の処理が繰り返される(S210、S216)。   Returning to FIG. 9, the following processing is repeated for all shape models (S210, S216).

まず、モデルパラメータ推定部304のモデル選択部306は、形状モデル保持部303から形状モデルを取得する(S212)。   First, the model selection unit 306 of the model parameter estimation unit 304 acquires a shape model from the shape model holding unit 303 (S212).

次に、モデルパラメータ推定部304のパラメータ計算部307は、第一特徴点と第二特徴点との特徴点間の対応関係から、形状モデルのモデルパラメータを計算する(S214)。具体的には、パラメータ計算部307は、モデル選択部306が取得した形状モデルの下で、撮像画像を変形させて入力された原画像に近づくようにモデルパラメータを計算する。つまり、パラメータ計算部307は、撮像画像が原画像を拡大又は縮小した画像になるように、モデルパラメータを繰り返し計算する。さらに具体的には、パラメータ計算部307は、第二特徴点の座標を補正し、補正された第二特徴点の座標が第二特徴点に対応する原画像上の点の座標に近づくようにモデルパラメータを計算する。   Next, the parameter calculation unit 307 of the model parameter estimation unit 304 calculates model parameters of the shape model from the correspondence between the feature points of the first feature point and the second feature point (S214). Specifically, the parameter calculation unit 307 calculates model parameters so as to approximate the input original image by deforming the captured image under the shape model acquired by the model selection unit 306. That is, the parameter calculation unit 307 repeatedly calculates model parameters so that the captured image becomes an image obtained by enlarging or reducing the original image. More specifically, the parameter calculation unit 307 corrects the coordinates of the second feature point so that the corrected coordinates of the second feature point approach the coordinates of the point on the original image corresponding to the second feature point. Calculate model parameters.

例えば、形状モデルが射影変形モデルである場合には、射影変換行列のモデルパラメータ(8つのパラメータ)を最小二乗法等により計算することができる。   For example, when the shape model is a projective deformation model, model parameters (eight parameters) of the projective transformation matrix can be calculated by the least square method or the like.

具体的には、形状モデルが射影変形モデルである場合には、図4に示された形状モデルの数式は、射影変換行列をHとして、(x’,y’,1)T=aH(x,y,1)Tで表される。ここで、aは、予め定められた定数であり、射影変換行列Hは、以下の通り8つのパラメータを有する。なお、aは、予め定められていなくともよく、例えば、投影面120の形状に応じて、計算過程において定められることにしてもよい。 Specifically, when the shape model is a projective deformation model, the shape model formula shown in FIG. 4 is expressed as (x ′, y ′, 1) T = aH (x , Y, 1) T Here, a is a predetermined constant, and the projective transformation matrix H has eight parameters as follows. Note that a may not be determined in advance, and may be determined in the calculation process according to the shape of the projection plane 120, for example.

Figure 0005121673
Figure 0005121673

この射影変換行列Hの8つのパラメータh1〜h8は、第二特徴点(x,y)から算出される(x’,y’)が、当該第二特徴点(x,y)に対応する原画像上の点の座標に近づくように、最小二乗法等により繰り返し算出される。   The eight parameters h1 to h8 of the projective transformation matrix H are calculated from the second feature point (x, y), and (x ′, y ′) is an original corresponding to the second feature point (x, y). It is repeatedly calculated by the method of least squares so as to approach the coordinates of the point on the image.

具体的には、パラメータ計算部307は、最も近似精度が高いパラメータを算出する。   Specifically, the parameter calculation unit 307 calculates a parameter with the highest approximation accuracy.

ここで近似精度を求める場合には、補正された第二特徴点の座標(x’,y’)と当該第二特徴点(x,y)に対応する原画像上の点の座標との差分を計算すればよい。また、特徴点ごとの差分ではなく、画素ごとの差分を計算してもかまわない。この差分(差分の二乗値和)が小さければ小さいほど、近似精度が高いということができる。   Here, when obtaining the approximation accuracy, the difference between the corrected coordinates (x ′, y ′) of the second feature point and the coordinates of the point on the original image corresponding to the second feature point (x, y). Should be calculated. In addition, a difference for each pixel may be calculated instead of the difference for each feature point. It can be said that the smaller this difference (the sum of squared differences) is, the higher the approximation accuracy is.

またここで、第一特徴点と第二特徴点との特徴点間の対応関係は必ずしも正しくはないので、正しくない対応関係はアウトライア(Outlier)として除去することができる。アウトライアの除去方法としては、RANSAC(RANdom SAmple Consensus)法を用いることができる。例えば、図10に示された対応関係601の対応関係は正しくないため、当該除去方法によってこの対応関係601は除去される。   Here, since the correspondence between the feature points of the first feature point and the second feature point is not necessarily correct, the incorrect correspondence relationship can be removed as an outlier. As a method for removing outliers, a RANSAC (RANdom Sample Consensus) method can be used. For example, since the correspondence relationship 601 shown in FIG. 10 is not correct, the correspondence method 601 is removed by the removal method.

そして、全ての形状モデルについて、形状モデルを取得しモデルパラメータを計算する処理(S212、S214)が終了すれば(S210、S216)、モデル選択部306は、投影面形状モデルを選択する(S218)。つまり、モデル選択部306は、第一特徴点と第二特徴点との対応関係に基づいて、形状モデル保持部303が保持する複数の形状モデルの中から、投影面形状モデルを選択する。   When the processing (S212, S214) for obtaining the shape model and calculating the model parameters for all the shape models is completed (S210, S216), the model selection unit 306 selects the projection plane shape model (S218). . That is, the model selection unit 306 selects a projection plane shape model from a plurality of shape models held by the shape model holding unit 303 based on the correspondence relationship between the first feature points and the second feature points.

具体的には、形状モデル保持部303に保持された複数の形状モデルから、適した形状モデルを自動的に選択する場合には、第一特徴点と第二特徴点との特徴点間の対応関係を用いて各形状モデルに対するモデルパラメータを計算し、最も近似精度が高い形状モデルを選択する。   Specifically, when a suitable shape model is automatically selected from a plurality of shape models held in the shape model holding unit 303, the correspondence between the feature points of the first feature point and the second feature point The model parameters for each shape model are calculated using the relationship, and the shape model with the highest approximation accuracy is selected.

ここで近似精度は、形状モデルを用いて撮像画像を変換し、原画像と変換された撮像画像との差分から計算される。この差分(差分の二乗値和)が小さければ小さいほど、近似精度が高いということができる。つまり、パラメータ計算部307が、形状モデル保持部303が保持する形状モデルを投影面形状モデルとした場合の、それぞれの形状モデルに対応するモデルパラメータを計算し、モデル選択部306は、当該形状モデルに対応するモデルパラメータによって第二特徴点の座標が補正された座標が、第二特徴点に対応する原画像上の点の座標に最も近づく形状モデルを、投影面形状モデルとして選択する。   Here, the approximate accuracy is calculated from the difference between the original image and the converted captured image by converting the captured image using the shape model. It can be said that the smaller this difference (the sum of squared differences) is, the higher the approximation accuracy is. That is, the parameter calculation unit 307 calculates model parameters corresponding to each shape model when the shape model held by the shape model holding unit 303 is a projection plane shape model, and the model selection unit 306 The shape model whose coordinates of the second feature point are corrected by the model parameter corresponding to is closest to the coordinates of the point on the original image corresponding to the second feature point is selected as the projection plane shape model.

また、形状モデルに当てはまる特徴点の対応関係の数が多ければ多いほど、近似精度が高いと判定することもできる。この際、特徴点の対応関係の数が所定の値を超えるまで、投影面形状モデルを選択する処理を繰り返してもよい。つまり、パラメータ計算部307が、形状モデル保持部303が保持する形状モデルを投影面形状モデルとした場合の、形状モデルに対応するモデルパラメータを計算し、モデル選択部306は、当該形状モデルに対応するモデルパラメータによって第二特徴点の座標が補正された座標と、第二特徴点に対応する原画像上の点の座標との差分が予め定められた第一閾値以下である第二特徴点の数が、予め定められた第二閾値を超える場合の形状モデルを、投影面形状モデルとして選択する。ここで、第一閾値及び第二閾値は、どのような数値であってもよく、使用者によって予め定められている。   It can also be determined that the greater the number of feature point correspondences applicable to the shape model, the higher the approximation accuracy. At this time, the process of selecting the projection surface shape model may be repeated until the number of feature point correspondences exceeds a predetermined value. That is, the parameter calculation unit 307 calculates model parameters corresponding to the shape model when the shape model held by the shape model holding unit 303 is the projection plane shape model, and the model selection unit 306 corresponds to the shape model. The difference between the coordinate of the second feature point corrected by the model parameter and the coordinate of the point on the original image corresponding to the second feature point is equal to or less than a predetermined first threshold value. A shape model when the number exceeds a predetermined second threshold is selected as the projection plane shape model. Here, the first threshold value and the second threshold value may be any numerical value, and are predetermined by the user.

これにより、始めに特徴点の対応関係の数が少ないことで誤って投影面形状モデルを選択していたとしても、特徴点の対応関係の数が所定の数を超えた時に最適な投影面形状モデルを選択し直すことができる。そして、その後はその投影面形状モデルの下でモデルパラメータの計算が可能となる。   As a result, even if the projection plane shape model is selected by mistake due to the small number of feature point correspondences at the beginning, the optimum projection plane shape is obtained when the number of feature point correspondences exceeds a predetermined number. You can reselect the model. Thereafter, model parameters can be calculated under the projection plane shape model.

また、形状モデル保持部303に保持されている形状モデルの中から、いずれの投影面形状モデルを選択するかは、使用者が指定することにしてもよい。つまり、この場合、モデル選択部306は、外部からの信号により、投影面形状モデルを選択する。   Also, the user may designate which projection plane shape model to select from among the shape models held in the shape model holding unit 303. That is, in this case, the model selection unit 306 selects a projection plane shape model based on an external signal.

そして、モデルパラメータ推定部304は、得られた補正パラメータである投影面形状モデルおよびモデルパラメータを、パラメータ保持部305及び補正部108に対して出力する(S220)。   Then, the model parameter estimation unit 304 outputs the obtained correction parameter, ie, the projection plane shape model and model parameters, to the parameter holding unit 305 and the correction unit 108 (S220).

このようにして、補正パラメータ計算部107が補正パラメータを計算する処理(図5のS110)が終了する。   In this way, the process (S110 in FIG. 5) in which the correction parameter calculation unit 107 calculates the correction parameter ends.

ここで、投影面形状モデルを選択し、またはモデルパラメータを計算する処理は、動画像において1フレーム毎に行われても良いし、数秒毎、数分毎等に行われても良い。   Here, the process of selecting the projection plane shape model or calculating the model parameter may be performed for each frame in the moving image, or may be performed every few seconds, every few minutes, or the like.

図12は、補正パラメータ計算部107が補正パラメータを計算する処理(図5のS110)の変形例を示すフローチャートである。本変形例では、モデル選択部306は、複数の形状モデルの中から1つの投影面形状モデルを選択し、パラメータ計算部307は、投影面120の形状及び投影面120と画像投影装置100との位置関係の変化に応じて、選択された1つの投影面形状モデルのモデルパラメータを繰り返し計算する。   FIG. 12 is a flowchart showing a modification of the process (S110 in FIG. 5) in which the correction parameter calculation unit 107 calculates the correction parameter. In this modification, the model selection unit 306 selects one projection surface shape model from among a plurality of shape models, and the parameter calculation unit 307 determines the shape of the projection surface 120 and the projection surface 120 and the image projection apparatus 100. The model parameters of one selected projection plane shape model are repeatedly calculated according to the change in the positional relationship.

図9に示されたフローチャートでは、投影面形状モデルの変更を含んでいる。すなわち、投影面120の形状が時間的に変わる場合には、モデルパラメータ推定部304は、選択する投影面形状モデルを変更する。しかし、画像投影装置100と投影面120との位置関係は時間的に変わるが、投影面120の形状は時間的にあまり変わらない場合には、モデルパラメータ推定部304は、投影面形状モデルは同じままでモデルパラメータのみを補正すればよい。   The flowchart shown in FIG. 9 includes a change of the projection plane shape model. That is, when the shape of the projection plane 120 changes with time, the model parameter estimation unit 304 changes the projection plane shape model to be selected. However, when the positional relationship between the image projection apparatus 100 and the projection plane 120 changes with time, but the shape of the projection plane 120 does not change much with time, the model parameter estimation unit 304 uses the same projection plane shape model. Only the model parameters need be corrected.

まず、前提として、モデル選択部306が、形状モデル保持部303に保持された複数の形状モデルの中から、投影面形状モデルとして1の形状モデルを選択していることとする。なお、モデル選択部306は、図9に示されたフローチャートに従って、投影面形状モデルを選択してもよいし、外部からの信号により、投影面形状モデルを選択してもよい。   First, it is assumed that the model selection unit 306 has selected one shape model as a projection plane shape model from among a plurality of shape models held in the shape model holding unit 303. Note that the model selection unit 306 may select the projection plane shape model according to the flowchart shown in FIG. 9, or may select the projection plane shape model based on an external signal.

そして、特徴点抽出部301が画像を入力し(S302)、第一特徴点と第二特徴点とを抽出する(S304、S306)。そして、特徴点マッチング部302が、第一特徴点と第二特徴点との画像間の特徴点マッチングを行う(S308)。これらの各処理(S302〜S308)は、図9で示した各処理(図9のS202〜S208)と同様であるため、詳細については説明を省略する。   Then, the feature point extraction unit 301 inputs an image (S302), and extracts the first feature point and the second feature point (S304, S306). Then, the feature point matching unit 302 performs feature point matching between images of the first feature point and the second feature point (S308). Since each of these processes (S302 to S308) is the same as each process (S202 to S208 in FIG. 9) shown in FIG. 9, a detailed description thereof will be omitted.

次に、パラメータ計算部307は、選択された投影面形状モデルのモデルパラメータを計算する(S310)。このモデルパラメータの計算は、図9で示した処理(図9のS214)と同様であるため、詳細については説明を省略する。   Next, the parameter calculation unit 307 calculates model parameters of the selected projection plane shape model (S310). Since the calculation of the model parameter is the same as the process shown in FIG. 9 (S214 in FIG. 9), the detailed description is omitted.

そして、モデルパラメータ推定部304は、パラメータ計算部307が計算したモデルパラメータを、パラメータ保持部305及び補正部108に対して出力する(S312)。   Then, the model parameter estimation unit 304 outputs the model parameter calculated by the parameter calculation unit 307 to the parameter holding unit 305 and the correction unit 108 (S312).

以上説明してきたように、本実施の形態における画像投影装置100によれば、投影対象画像と投影対象画像が投影面に投影され撮像された撮像画像との特徴点の対応関係を求め、その対応関係から投影面120の形状歪みを得る。そして、画像投影装置100は、原画像に対して形状歪みの逆補正を施して補正画像を生成し、補正画像を投影することにより、使用者から見て歪みのない画像を提供することができる。言い換えれば、再現度の高い画像投影を使用者にもたらすことができる。この際の形状歪みは、投影面形状モデルのモデルパラメータを計算することにより得る。   As described above, according to the image projecting device 100 in the present embodiment, the correspondence relationship between the feature points between the projection target image and the captured image obtained by projecting the projection target image onto the projection plane and obtaining the correspondence is obtained. The shape distortion of the projection plane 120 is obtained from the relationship. Then, the image projecting apparatus 100 can provide an image without distortion as viewed from the user by performing a reverse correction of the shape distortion on the original image to generate a corrected image and projecting the corrected image. . In other words, a highly reproducible image projection can be provided to the user. The shape distortion at this time is obtained by calculating model parameters of the projection surface shape model.

したがって、本発明の画像投影装置100を用いることにより、プロジェクタを使って画像をスクリーン等の投影面120に投影する際に、鑑賞画像の特徴点を用いて投影面120のスクリーン歪みを得る。このため、使用者が、使用に先立ってパターン画像の投影や実寸の計測等により投影面120の形状歪みを計測する必要がない。また、画像投影装置100は、鑑賞画像を投影している途中に、投影面120の形状や、投影面120とプロジェクタとの位置関係が変わるような場合であっても、画像の鑑賞を中断することなく歪み量を得て形状補正を行うことができる。また、画像投影装置100は、形状歪みを投影面形状モデルのモデルパラメータを計算することにより得ていることから、動画像中の画像が時間と共に大きく変わる場合であっても、安定して形状補正を行うことができる。   Therefore, by using the image projection apparatus 100 of the present invention, when projecting an image onto a projection surface 120 such as a screen using a projector, the screen distortion of the projection surface 120 is obtained using the feature points of the appreciation image. For this reason, it is not necessary for the user to measure the shape distortion of the projection surface 120 by projecting a pattern image or measuring the actual size prior to use. In addition, the image projection apparatus 100 interrupts image viewing even when the shape of the projection surface 120 or the positional relationship between the projection surface 120 and the projector changes during projection of the viewing image. The shape correction can be performed by obtaining the distortion amount. In addition, since the image projection apparatus 100 obtains the shape distortion by calculating the model parameters of the projection surface shape model, the shape correction can be performed stably even when the image in the moving image changes greatly with time. It can be performed.

(実施の形態2)
さらに、上記実施の形態1で示した画像投影装置100を実現するためのプログラムを、フレキシブルディスク等の記録媒体に記録するようにすることにより、実施の形態1で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。
(Embodiment 2)
Furthermore, by recording the program for realizing the image projection apparatus 100 shown in the first embodiment on a recording medium such as a flexible disk, the processing shown in the first embodiment is performed by an independent computer. It can be easily implemented in the system.

図13A〜図13Cは、本発明の実施の形態2を説明する図である。具体的には、同図は、実施の形態1の画像投影装置100を、フレキシブルディスク902等の記録媒体に記録されたプログラムを用いて、コンピュータシステムにより実施する場合の説明図である。   13A to 13C are diagrams for explaining Embodiment 2 of the present invention. Specifically, FIG. 3 is an explanatory diagram when the image projection apparatus 100 according to the first embodiment is implemented by a computer system using a program recorded on a recording medium such as a flexible disk 902.

図13Aは、記録媒体本体であるフレキシブルディスク902の物理フォーマットの例を示している。また、図13Bは、フレキシブルディスク902が内蔵されたケースFを正面からみた外観、ケースFの断面構造、及びフレキシブルディスク902を示している。   FIG. 13A shows an example of a physical format of the flexible disk 902 which is a recording medium body. Further, FIG. 13B shows an appearance of the case F in which the flexible disk 902 is incorporated as viewed from the front, a cross-sectional structure of the case F, and the flexible disk 902.

図13Aに示すように、フレキシブルディスク902の表面には、同心円状に外周から内周に向かって複数のトラックTrが形成され、各トラックは等角度で16のセクタSeに分割されている。従って、上記プログラムを格納したフレキシブルディスク902では、フレキシブルディスク902上に割り当てられた領域に、上記プログラムが記録されている。   As shown in FIG. 13A, a plurality of tracks Tr are concentrically formed on the surface of the flexible disk 902 from the outer periphery to the inner periphery, and each track is divided into 16 sectors Se at equal angles. Therefore, in the flexible disk 902 storing the program, the program is recorded in an area allocated on the flexible disk 902.

また、図13Cは、フレキシブルディスク902に上記プログラムの記録再生を行うための構成を示す。画像投影装置100を実現する上記プログラムをフレキシブルディスク902に記録する場合は、コンピュータシステム901からフレキシブルディスクドライブ903を介して、上記プログラムがフレキシブルディスク902に書き込まれる。また、フレキシブルディスク902内のプログラムにより画像投影装置100を実現し、画像投影装置100をコンピュータシステム901中に構築する場合は、フレキシブルディスクドライブ903によりプログラムをフレキシブルディスク902から読み出し、コンピュータシステム901に転送する。   FIG. 13C shows a configuration for recording and reproducing the program on the flexible disk 902. When the program for realizing the image projection apparatus 100 is recorded on the flexible disk 902, the program is written to the flexible disk 902 from the computer system 901 via the flexible disk drive 903. When the image projection apparatus 100 is realized by a program in the flexible disk 902 and the image projection apparatus 100 is constructed in the computer system 901, the program is read from the flexible disk 902 by the flexible disk drive 903 and transferred to the computer system 901. To do.

なお、上記説明では、記録媒体としてフレキシブルディスク902を用いて説明を行ったが、光ディスクを用いても同様に行うことができる。また、記録媒体はこれに限らず、ICカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。   In the above description, the flexible disk 902 is used as the recording medium, but the same can be done using an optical disk. Further, the recording medium is not limited to this, and any recording medium such as an IC card or a ROM cassette capable of recording a program can be similarly implemented.

なお、本発明はかかる上記実施の形態1又は2に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。   It should be noted that the present invention is not limited to the first or second embodiment, and various changes and modifications can be made without departing from the scope of the present invention.

例えば、図1及び図3に示されたブロック図の各機能ブロックは集積回路であるLSIとして実現されてもよい。これらは個別に1チップ化されても良いし、一部又は全てを含むように1チップ化されても良い。   For example, each functional block in the block diagrams shown in FIGS. 1 and 3 may be realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.

ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。   The name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。   Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。   Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.

本発明にかかる画像投影装置は、鑑賞画像を投影している途中に、投影面の形状や、投影面とプロジェクタとの位置関係が変わったり、動画像中の画像が時間と共に大きく変わるような場合であっても、画像の鑑賞を中断することなく安定して形状補正を行うことができるという効果を有し、画像をスクリーン等の投影面に投影する画像投影装置として有用である。   The image projection apparatus according to the present invention may be used when the shape of the projection surface, the positional relationship between the projection surface and the projector changes during the projection of the appreciation image, or the image in the moving image changes significantly with time. Even so, there is an effect that the shape correction can be performed stably without interrupting the viewing of the image, and it is useful as an image projection apparatus that projects an image onto a projection surface such as a screen.

本発明の実施の形態1における画像投影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image projector in Embodiment 1 of this invention. 投影部の被投影対象となる投影面の例を示す図である。It is a figure which shows the example of the projection surface used as the projection object of a projection part. 投影部の被投影対象となる投影面の例を示す図である。It is a figure which shows the example of the projection surface used as the projection object of a projection part. 投影部の被投影対象となる投影面の例を示す図である。It is a figure which shows the example of the projection surface used as the projection object of a projection part. 補正パラメータ計算部の構成を示すブロック図である。It is a block diagram which shows the structure of a correction parameter calculation part. 形状モデル保持部が保持する形状モデルの一例を示す図である。It is a figure which shows an example of the shape model which a shape model holding part hold | maintains. 本発明の実施の形態1における画像投影装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the image projector in Embodiment 1 of this invention. 画像投影装置に入力される原画像の一例を示す図である。It is a figure which shows an example of the original image input into an image projector. 投影面に投影される画像の一例を示す図である。It is a figure which shows an example of the image projected on a projection surface. 投影面に投影される補正された画像の一例を示す図である。It is a figure which shows an example of the corrected image projected on a projection surface. 投影面形状モデルが射影変形モデルである場合の画像投影装置が行う処理の一例を具体的に説明する図である。It is a figure which illustrates an example of the process which an image projection apparatus performs in case a projection surface shape model is a projection deformation model. 投影面形状モデルが射影変形モデルである場合の画像投影装置が行う処理の一例を具体的に説明する図である。It is a figure which illustrates an example of the process which an image projection apparatus performs in case a projection surface shape model is a projection deformation model. 補正パラメータ計算部が補正パラメータを計算する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process in which a correction parameter calculation part calculates a correction parameter. 第一特徴点の一例を示す図である。It is a figure which shows an example of a 1st feature point. 第二特徴点の一例を示す図である。It is a figure which shows an example of a 2nd feature point. 第一特徴点と第二特徴点との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of a 1st feature point and a 2nd feature point. 補正パラメータ計算部が補正パラメータを計算する処理の変形例を示すフローチャートである。It is a flowchart which shows the modification of the process in which a correction parameter calculation part calculates a correction parameter. 本発明の実施の形態2を説明する図である。It is a figure explaining Embodiment 2 of this invention. 本発明の実施の形態2を説明する図である。It is a figure explaining Embodiment 2 of this invention. 本発明の実施の形態2を説明する図である。It is a figure explaining Embodiment 2 of this invention.

符号の説明Explanation of symbols

100 画像投影装置
101 投影部
102 撮像部
103、104 画像メモリ
105 制御部
106 画像処理部
107 補正パラメータ計算部
108 補正部
120 投影面
301 特徴点抽出部
302 特徴点マッチング部
303 形状モデル保持部
304 モデルパラメータ推定部
305 パラメータ保持部
306 モデル選択部
307 パラメータ計算部
901 コンピュータシステム
902 フレキシブルディスク
903 フレキシブルディスクドライブ
DESCRIPTION OF SYMBOLS 100 Image projection apparatus 101 Projection part 102 Imaging part 103, 104 Image memory 105 Control part 106 Image processing part 107 Correction parameter calculation part 108 Correction part 120 Projection surface 301 Feature point extraction part 302 Feature point matching part 303 Shape model holding part 304 Model Parameter estimation unit 305 Parameter holding unit 306 Model selection unit 307 Parameter calculation unit 901 Computer system 902 Flexible disk 903 Flexible disk drive

Claims (11)

入力される原画像を投影面に投影する画像投影装置であって、
投影対象の前記原画像又は前記原画像が補正された補正画像である投影対象画像が前記投影面に投影された画像を撮像する撮像部と、
予め定められた形状のパターンを示す形状モデルを保持する形状モデル保持部と、
前記投影対象画像上の点である第一特徴点と、前記撮像された画像上の点である第二特徴点との対応関係に基づいて、前記形状モデル保持部が保持する形状モデルの中から、前記投影面の形状パターンを示す形状モデルである投影面形状モデルを選択するモデル選択部と、
前記撮像された画像が前記原画像に近づくように、前記投影面形状モデルの形状を前記投影面の形状に近づけるパラメータであり、かつ前記投影面と前記画像投影装置との位置関係を示すパラメータであるモデルパラメータを、最新の前記第一特徴点と前記第二特徴点との対応関係に基づいて繰り返し計算するパラメータ計算部と、
前記モデルパラメータが繰り返し計算されるたびに、前記投影面形状モデルと計算された前記モデルパラメータとに基づいて、前記原画像を前記補正画像に補正する補正部と、
前記原画像又は前記補正画像を前記投影対象画像として前記投影面に投影する投影部と
を備える画像投影装置。
An image projection apparatus for projecting an input original image onto a projection plane,
An imaging unit that captures an image obtained by projecting the projection target image, which is the original image of the projection target or a corrected image obtained by correcting the original image, onto the projection plane;
A shape model holding unit for holding a shape model indicating a pattern of a predetermined shape;
Based on the correspondence relationship between the first feature point, which is a point on the projection target image, and the second feature point, which is a point on the captured image, from among the shape models held by the shape model holding unit A model selection unit that selects a projection surface shape model that is a shape model indicating the shape pattern of the projection surface;
A parameter that brings the shape of the projection plane shape model closer to the shape of the projection plane so that the captured image approaches the original image, and a parameter that indicates the positional relationship between the projection plane and the image projection apparatus A parameter calculation unit that repeatedly calculates a certain model parameter based on the latest correspondence relationship between the first feature point and the second feature point;
A correction unit that corrects the original image into the corrected image based on the projection plane shape model and the calculated model parameter each time the model parameter is repeatedly calculated;
A projection unit that projects the original image or the corrected image onto the projection plane as the projection target image.
前記パラメータ計算部は、前記投影面形状モデル及び前記モデルパラメータによって前記第二特徴点の座標が補正された座標が、前記第二特徴点に対応する前記原画像上の点の座標に近づくように、前記モデルパラメータを繰り返し計算する
請求項1記載の画像投影装置。
The parameter calculation unit is configured such that the coordinates of the second feature point corrected by the projection plane shape model and the model parameter approach the coordinates of the point on the original image corresponding to the second feature point. The image projection apparatus according to claim 1, wherein the model parameter is repeatedly calculated.
前記パラメータ計算部は、前記撮像された画像が前記原画像を拡大又は縮小した画像になるように、前記モデルパラメータを繰り返し計算する
請求項1記載の画像投影装置。
The image projection apparatus according to claim 1, wherein the parameter calculation unit repeatedly calculates the model parameter so that the captured image becomes an image obtained by enlarging or reducing the original image.
前記モデル選択部は、前記形状モデル保持部が保持する形状モデルの中から、1つの投影面形状モデルを選択し、
前記パラメータ計算部は、前記投影面の形状及び前記投影面と前記画像投影装置との位置関係の変化に応じて、前記選択された1つの投影面形状モデルのモデルパラメータを繰り返し計算する
請求項1記載の画像投影装置。
The model selection unit selects one projection plane shape model from among the shape models held by the shape model holding unit,
The parameter calculation unit repeatedly calculates a model parameter of the selected one projection plane shape model according to a change in a shape of the projection plane and a positional relationship between the projection plane and the image projection apparatus. The image projection apparatus described.
前記パラメータ計算部は、前記形状モデル保持部が保持する形状モデルを投影面形状モデルとした場合の、形状モデルに対応するモデルパラメータを計算し、
前記モデル選択部は、前記形状モデルに対応するモデルパラメータによって前記第二特徴点の座標が補正された座標と、前記第二特徴点に対応する前記原画像上の点の座標との差分が予め定められた第一閾値以下である前記第二特徴点の数が、予め定められた第二閾値を超える場合の形状モデルを前記投影面形状モデルとして選択する
請求項1記載の画像投影装置。
The parameter calculation unit calculates a model parameter corresponding to the shape model when the shape model held by the shape model holding unit is a projection plane shape model,
The model selection unit is configured so that a difference between the coordinates of the second feature point corrected by the model parameter corresponding to the shape model and the coordinate of the point on the original image corresponding to the second feature point is determined in advance. The image projection apparatus according to claim 1, wherein a shape model when the number of the second feature points that are equal to or less than a predetermined first threshold exceeds a predetermined second threshold is selected as the projection plane shape model.
前記パラメータ計算部は、前記形状モデル保持部が保持する形状モデルを投影面形状モデルとした場合の、それぞれの形状モデルに対応するモデルパラメータを計算し、
前記モデル選択部は、前記形状モデルに対応するモデルパラメータによって前記第二特徴点の座標が補正された座標が、前記第二特徴点に対応する前記原画像上の点の座標に最も近づく形状モデルを前記投影面形状モデルとして選択する
請求項1記載の画像投影装置。
The parameter calculation unit calculates a model parameter corresponding to each shape model when the shape model held by the shape model holding unit is a projection plane shape model,
The model selection unit is a shape model in which the coordinates of the second feature point corrected by the model parameter corresponding to the shape model are closest to the coordinates of the point on the original image corresponding to the second feature point. The image projection apparatus according to claim 1, wherein the projection plane shape model is selected.
前記モデル選択部は、外部からの信号により、前記投影面形状モデルを選択する
請求項1記載の画像投影装置。
The image projection device according to claim 1, wherein the model selection unit selects the projection plane shape model based on an external signal.
前記形状モデル保持部は、射影変形モデル、円筒モデル、球モデル及びThin Plate Splineモデルのうち、少なくとも1つの形状モデルを保持する
請求項1記載の画像投影装置。
The image projection apparatus according to claim 1, wherein the shape model holding unit holds at least one shape model among a projective deformation model, a cylindrical model, a spherical model, and a Thin Plate Spline model.
入力される原画像を投影面に投影する画像投影方法であって、
投影対象の前記原画像又は前記原画像が補正された補正画像である投影対象画像が前記投影面に投影された画像を撮像する撮像ステップと、
前記投影対象画像上の点である第一特徴点と、前記撮像された画像上の点である第二特徴点との対応関係に基づいて、予め定められた形状のパターンを示す形状モデルの中から、前記投影面の形状パターンを示す形状モデルである投影面形状モデルを選択するモデル選択ステップと、
前記撮像された画像が前記原画像に近づくように、前記投影面形状モデルの形状を前記投影面の形状に近づけるパラメータであり、かつ前記投影面と前記画像投影装置との位置関係を示すパラメータであるモデルパラメータを、最新の前記第一特徴点と前記第二特徴点との対応関係に基づいて繰り返し計算するパラメータ計算ステップと、
前記モデルパラメータが繰り返し計算されるたびに、前記投影面形状モデルと計算された前記モデルパラメータとに基づいて、前記原画像を前記補正画像に補正する補正ステップと、
前記原画像又は前記補正画像を前記投影対象画像として前記投影面に投影する投影ステップと
を含む画像投影方法。
An image projection method for projecting an input original image onto a projection plane,
An imaging step of capturing an image in which the projection target image, which is the original image of the projection target or the corrected image obtained by correcting the original image, is projected on the projection plane;
Based on the correspondence between the first feature point, which is a point on the projection target image, and the second feature point, which is a point on the captured image, a shape model showing a pattern of a predetermined shape From the model selection step of selecting a projection surface shape model that is a shape model indicating the shape pattern of the projection surface,
A parameter that brings the shape of the projection plane shape model closer to the shape of the projection plane so that the captured image approaches the original image, and a parameter that indicates the positional relationship between the projection plane and the image projection apparatus A parameter calculation step of repeatedly calculating a certain model parameter based on the latest correspondence relationship between the first feature point and the second feature point;
A correction step of correcting the original image into the corrected image based on the projection plane shape model and the calculated model parameter each time the model parameter is repeatedly calculated;
A projection step of projecting the original image or the corrected image onto the projection plane as the projection target image.
入力される原画像を投影面に投影する画像投影装置を制御する集積回路であって、
投影対象の前記原画像又は前記原画像が補正された補正画像である投影対象画像が前記投影面に投影された画像を撮像する撮像部と、
予め定められた形状のパターンを示す形状モデルを保持する形状モデル保持部と、
前記投影対象画像上の点である第一特徴点と、前記撮像された画像上の点である第二特徴点との対応関係に基づいて、前記形状モデル保持部が保持する形状モデルの中から、前記投影面の形状パターンを示す形状モデルである投影面形状モデルを選択するモデル選択部と、
前記撮像された画像が前記原画像に近づくように、前記投影面形状モデルの形状を前記投影面の形状に近づけるパラメータであり、かつ前記投影面と前記画像投影装置との位置関係を示すパラメータであるモデルパラメータを、最新の前記第一特徴点と前記第二特徴点との対応関係に基づいて繰り返し計算するパラメータ計算部と、
前記モデルパラメータが繰り返し計算されるたびに、前記投影面形状モデルと計算された前記モデルパラメータとに基づいて、前記原画像を前記補正画像に補正する補正部と、
前記原画像又は前記補正画像を前記投影対象画像として前記投影面に投影する投影部と
を備える集積回路。
An integrated circuit that controls an image projection apparatus that projects an input original image onto a projection plane,
An imaging unit that captures an image obtained by projecting the projection target image, which is the original image of the projection target or a corrected image obtained by correcting the original image, onto the projection plane;
A shape model holding unit for holding a shape model indicating a pattern of a predetermined shape;
Based on the correspondence relationship between the first feature point, which is a point on the projection target image, and the second feature point, which is a point on the captured image, from among the shape models held by the shape model holding unit A model selection unit that selects a projection surface shape model that is a shape model indicating the shape pattern of the projection surface;
A parameter that brings the shape of the projection plane shape model closer to the shape of the projection plane so that the captured image approaches the original image, and a parameter that indicates the positional relationship between the projection plane and the image projection apparatus A parameter calculation unit that repeatedly calculates a certain model parameter based on the latest correspondence relationship between the first feature point and the second feature point;
A correction unit that corrects the original image into the corrected image based on the projection plane shape model and the calculated model parameter each time the model parameter is repeatedly calculated;
An integrated circuit comprising: a projection unit that projects the original image or the corrected image onto the projection plane as the projection target image.
入力される原画像を投影面に投影するためのプログラムであって、
投影対象の前記原画像又は前記原画像が補正された補正画像である投影対象画像が前記投影面に投影された画像を撮像する撮像ステップと、
前記投影対象画像上の点である第一特徴点と、前記撮像された画像上の点である第二特徴点との対応関係に基づいて、予め定められた形状のパターンを示す形状モデルの中から、前記投影面の形状パターンを示す形状モデルである投影面形状モデルを選択するモデル選択ステップと、
前記撮像された画像が前記原画像に近づくように、前記投影面形状モデルの形状を前記投影面の形状に近づけるパラメータであり、かつ前記投影面と前記画像投影装置との位置関係を示すパラメータであるモデルパラメータを、最新の前記第一特徴点と前記第二特徴点との対応関係に基づいて繰り返し計算するパラメータ計算ステップと、
前記モデルパラメータが繰り返し計算されるたびに、前記投影面形状モデルと計算された前記モデルパラメータとに基づいて、前記原画像を前記補正画像に補正する補正ステップと、
前記原画像又は前記補正画像を前記投影対象画像として前記投影面に投影する投影ステップと
をコンピュータに実行させるプログラム。
A program for projecting an input original image onto a projection surface,
An imaging step of capturing an image in which the projection target image, which is the original image of the projection target or the corrected image obtained by correcting the original image, is projected on the projection plane;
Based on the correspondence between the first feature point, which is a point on the projection target image, and the second feature point, which is a point on the captured image, a shape model showing a pattern of a predetermined shape From the model selection step of selecting a projection surface shape model that is a shape model indicating the shape pattern of the projection surface,
A parameter that brings the shape of the projection plane shape model closer to the shape of the projection plane so that the captured image approaches the original image, and a parameter that indicates the positional relationship between the projection plane and the image projection apparatus A parameter calculation step of repeatedly calculating a certain model parameter based on the latest correspondence relationship between the first feature point and the second feature point;
A correction step of correcting the original image into the corrected image based on the projection plane shape model and the calculated model parameter each time the model parameter is repeatedly calculated;
A program for causing a computer to execute a projection step of projecting the original image or the corrected image onto the projection plane as the projection target image.
JP2008282242A 2007-11-06 2008-10-31 Image projection apparatus and image projection method Active JP5121673B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008282242A JP5121673B2 (en) 2007-11-06 2008-10-31 Image projection apparatus and image projection method
US12/265,957 US7857461B2 (en) 2007-11-06 2008-11-06 Projector and projection method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007288348 2007-11-06
JP2007288348 2007-11-06
JP2008282242A JP5121673B2 (en) 2007-11-06 2008-10-31 Image projection apparatus and image projection method

Publications (2)

Publication Number Publication Date
JP2009135921A JP2009135921A (en) 2009-06-18
JP5121673B2 true JP5121673B2 (en) 2013-01-16

Family

ID=40867335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008282242A Active JP5121673B2 (en) 2007-11-06 2008-10-31 Image projection apparatus and image projection method

Country Status (1)

Country Link
JP (1) JP5121673B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9672602B2 (en) 2014-03-10 2017-06-06 Ricoh Company, Ltd. Projection image correcting apparatus, method for correcting image to be projected, and program

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011146762A (en) * 2010-01-12 2011-07-28 Nippon Hoso Kyokai <Nhk> Solid model generator
JP5113867B2 (en) * 2010-03-26 2013-01-09 本田技研工業株式会社 Vehicle periphery monitoring device
KR101172629B1 (en) * 2011-01-04 2012-08-08 포항공과대학교 산학협력단 Method of processing image and apparatus for the same
JP2013257643A (en) * 2012-06-11 2013-12-26 Ricoh Co Ltd Image processing system, and program
JP5987584B2 (en) * 2012-09-18 2016-09-07 株式会社リコー Image processing apparatus, video projection system, and program
JP6289003B2 (en) * 2013-09-26 2018-03-07 キヤノン株式会社 Information processing apparatus, control method therefor, and program
JP6318576B2 (en) * 2013-11-22 2018-05-09 株式会社リコー Image projection system, image processing apparatus, image projection method, and program
JP2015233266A (en) * 2014-05-16 2015-12-24 株式会社リコー Image processing system, information processing device, and program
JP6624799B2 (en) * 2015-03-30 2019-12-25 株式会社メガチップス Projection system, projector device, and program
WO2016158166A1 (en) * 2015-03-30 2016-10-06 株式会社メガチップス Projection system, projector device, and program
JP6624942B2 (en) * 2016-01-19 2019-12-25 株式会社メガチップス Projection system, projector device, and program
JP6996493B2 (en) 2016-03-28 2022-01-17 ソニーグループ株式会社 Image processing equipment and methods
WO2017169725A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Image processing device and method
WO2019176594A1 (en) * 2018-03-16 2019-09-19 富士フイルム株式会社 Projection control device, projection apparatus, projection control method, and projection control program
JP7163947B2 (en) * 2020-10-22 2022-11-01 セイコーエプソン株式会社 Projection area setting support method, setting support system, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3347508B2 (en) * 1995-02-24 2002-11-20 キヤノン株式会社 Captured image processing device and captured image processing method
JP3984346B2 (en) * 1997-12-26 2007-10-03 コニカミノルタホールディングス株式会社 Imaging apparatus and image composition method
JP2004165944A (en) * 2002-11-13 2004-06-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for projection information correction, program, and recording medium
JP2005252804A (en) * 2004-03-05 2005-09-15 Seiko Epson Corp Image correction method for multiprojection system
JP3992045B2 (en) * 2005-02-18 2007-10-17 松下電工株式会社 Video signal processing apparatus and method, and virtual reality generation apparatus
CN101322402B (en) * 2005-12-22 2010-09-15 松下电器产业株式会社 Image projection device, control method and semiconductor device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9672602B2 (en) 2014-03-10 2017-06-06 Ricoh Company, Ltd. Projection image correcting apparatus, method for correcting image to be projected, and program

Also Published As

Publication number Publication date
JP2009135921A (en) 2009-06-18

Similar Documents

Publication Publication Date Title
JP5121673B2 (en) Image projection apparatus and image projection method
US7857461B2 (en) Projector and projection method
US9262807B2 (en) Method and system for correcting a distorted input image
US10887519B2 (en) Method, system and apparatus for stabilising frames of a captured video sequence
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
US8803918B2 (en) Methods and apparatus for calibrating focused plenoptic camera data
JP4782899B2 (en) Parallax detection device, distance measuring device, and parallax detection method
US9781412B2 (en) Calibration methods for thick lens model
US10121262B2 (en) Method, system and apparatus for determining alignment data
JP6683307B2 (en) Optimal spherical image acquisition method using multiple cameras
EP3093822B1 (en) Displaying a target object imaged in a moving picture
JP2011049733A (en) Camera calibration device and video distortion correction device
US11115631B2 (en) Image processing apparatus, image processing method, and storage medium
US20200160560A1 (en) Method, system and apparatus for stabilising frames of a captured video sequence
KR101140953B1 (en) Method and apparatus for correcting distorted image
JP6802848B2 (en) Image processing equipment, imaging system, image processing method and image processing program
JP6980480B2 (en) Imaging device and control method
JP5955003B2 (en) Image processing apparatus, image processing method, and program
JP2004165944A (en) Method and device for projection information correction, program, and recording medium
JP2010272957A (en) Image correction apparatus and program thereof
US20220101488A1 (en) Image Processing Method and Device Therefor
Petrou et al. Super-resolution in practice: the complete pipeline from image capture to super-resolved subimage creation using a novel frame selection method
KR102076635B1 (en) Apparatus and method for generating panorama image for scattered fixed cameras
WO2023042604A1 (en) Dimension measurement device, dimension measurement method, and program
Vaughan Computational Imaging Approach to Recovery of Target Coordinates Using Orbital Sensor Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5121673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150