JP2015233266A - Image processing system, information processing device, and program - Google Patents

Image processing system, information processing device, and program Download PDF

Info

Publication number
JP2015233266A
JP2015233266A JP2014248096A JP2014248096A JP2015233266A JP 2015233266 A JP2015233266 A JP 2015233266A JP 2014248096 A JP2014248096 A JP 2014248096A JP 2014248096 A JP2014248096 A JP 2014248096A JP 2015233266 A JP2015233266 A JP 2015233266A
Authority
JP
Japan
Prior art keywords
dimensional information
image
dimensional
projection
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014248096A
Other languages
Japanese (ja)
Inventor
惟高 緒方
Koretaka Ogata
惟高 緒方
石川 雅朗
Masaaki Ishikawa
雅朗 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014248096A priority Critical patent/JP2015233266A/en
Publication of JP2015233266A publication Critical patent/JP2015233266A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system that makes it easy to provide respective projectors.SOLUTION: An image processing system 200 for reducing distortion, on a projection plane, of an image to be projected includes: three-dimensional information acquisition means 21 for acquiring three-dimensional information on projection images that are acquired from a plurality of different locations and are projected on the projection plane; three-dimensional information conversion means 22 for converting, by using coordinate conversion information created by comparing pieces of three-dimensional information on projection images imaged from the different locations in an overlapped manner, each piece of the three-dimensional information to that on a common coordinate system; shape model determination means 23 for determining a shape model of the projection plane by fitting a shape model to the three-dimensional information; coordinate conversion means 24 for converting the three-dimensional information to that in two-dimensional coordinates on a surface of the shape model; and distortion correction parameter creation means 25 for creating a distortion correction parameter by comparing the projection image in the two-dimensional coordinates with the original image projected on the projection plane.

Description

本発明は、投影される画像の投影面での歪みを低減する画像処理システムに関する。   The present invention relates to an image processing system that reduces distortion on a projection surface of a projected image.

プロジェクターが投影する画像を投影面となるスクリーンや立体物の形状に合わせて補正し、プロジェクターによる新たな視覚効果や演出を行う投影手法が知られている。このような投影手法はプロジェクションマッピングと呼ばれる場合がある。例えば、イベントやデジタルサイネージにおいてもプロジェクションマッピングの視覚効果や演出を活用することが検討されている。   A projection method is known in which an image projected by a projector is corrected according to the shape of a screen or a three-dimensional object serving as a projection surface, and a new visual effect or effect is produced by the projector. Such a projection technique is sometimes called projection mapping. For example, it is considered to use the visual effects and effects of projection mapping also in events and digital signage.

また、複数のプロジェクターで画像を投影することで1つのプロジェクターでは得られない大画面の画像を投影するマルチプロジェクションが知られている。マルチプロジェクションでは、複数のプロジェクターの投影範囲を一部重ねることで境界を目立たないようにしたり、重なりの部分が周囲と違和感なく見えるように、重畳領域の明るさの調整等が行われる。   Also, multi-projection is known in which images are projected by a plurality of projectors to project a large screen image that cannot be obtained by a single projector. In the multi-projection, the brightness of the overlapping region is adjusted so that the boundary is not conspicuous by partially overlapping the projection ranges of a plurality of projectors, or the overlapping portion can be seen with a sense of incongruity with the surroundings.

このマルチプロジェクションにおいても、曲面などの立体物に画像を投影することが行われる場合がある(例えば、特許文献1参照。)。特許文献1には、プロジェクターにより構造化パターンを表示面上に投影し、プロジェクターと固定の物理的関係にあるカメラで撮影した画像から構造化パターンの座標を決定し、投影される画像の歪みを補正する方法が開示されている。   Even in this multi-projection, an image may be projected onto a three-dimensional object such as a curved surface (see, for example, Patent Document 1). In Patent Document 1, a structured pattern is projected on a display surface by a projector, the coordinates of the structured pattern are determined from an image captured by a camera having a fixed physical relationship with the projector, and distortion of the projected image is calculated. A method of correcting is disclosed.

しかしながら、特許文献1に開示されたマルチプロジェクションでは、予め設計されたとおりにプロジェクターを配置しなければ、各プロジェクターが投影する画像にずれが生じるおそれがあるという問題がある。   However, the multi-projection disclosed in Patent Document 1 has a problem that if the projectors are not arranged as designed in advance, the images projected by the projectors may be shifted.

本発明は、上記課題に鑑み、各プロジェクターの設置が容易な画像処理システムを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an image processing system in which each projector can be easily installed.

上記課題に鑑み、本発明は、投影される画像の投影面での歪みを低減する画像処理システムであって、複数の異なる場所から取得された、前記投影面に投影された投影画像の三次元情報を取得する三次元情報取得手段と、異なる前記場所から重複して撮像される投影画像の三次元情報を比較して、三次元情報の座標の変換情報を作成する変換情報作成手段と、前記変換情報を用いて、複数の三次元情報を共通の座標系に変換する三次元情報変換手段と、共通の座標系の三次元情報に形状モデルを当てはめて、前記投影面の形状モデルを決定する形状モデル決定手段と、共通の座標系の三次元情報を前記形状モデルの表面の二次元座標に変換する座標変換手段と、前記二次元座標に変換された前記投影画像と、前記投影画像として投影された元画像とを比較して歪み補正パラメータを作成する歪み補正パラメータ作成手段と、を有することを特徴とする。   In view of the above problems, the present invention is an image processing system for reducing distortion of a projected image on a projection plane, and is obtained from a plurality of different locations, and is a three-dimensional projection image projected on the projection plane. Three-dimensional information acquisition means for acquiring information, three-dimensional information of projection images captured in duplicate from different places, conversion information generation means for generating conversion information of coordinates of three-dimensional information, and Using the conversion information, a three-dimensional information conversion means for converting a plurality of three-dimensional information into a common coordinate system, and a shape model is applied to the three-dimensional information of the common coordinate system to determine the shape model of the projection plane A shape model determining means; a coordinate converting means for converting three-dimensional information of a common coordinate system into two-dimensional coordinates on the surface of the shape model; the projection image converted to the two-dimensional coordinates; and projecting as the projection image The original Characterized by having a a distortion correction parameter generating means for generating a distortion correction parameter by comparing the image.

各プロジェクターの設置が容易な画像処理システムを提供することができる。   An image processing system in which each projector can be easily installed can be provided.

本実施形態の画像処理システムの概略を説明する図の一例である。It is an example of the figure explaining the outline of the image processing system of this embodiment. 画像処理システムの構成図の一例である。It is an example of a block diagram of an image processing system. 情報処理装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of information processing apparatus. 情報処理装置の機能ブロック図の一例である。It is an example of a functional block diagram of an information processor. 画像処理システムの全体的な動作手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the whole operation | movement procedure of an image processing system. 投影対象の投影画像をカメラが分割撮像する際の模式図の一例である。It is an example of the schematic diagram when a camera divides and images the projection image of a projection target. 三次元座標の取得を模式的に説明する図の一例である。It is an example of the figure which illustrates acquisition of a three-dimensional coordinate typically. 重複撮像領域に撮像されたカメラの対応点の画像とカメラの対応点の画像を説明する図の一例である。It is an example of the figure explaining the image of the corresponding point of the camera imaged in the overlapping imaging area, and the image of the corresponding point of the camera. 図9は、5点の対応点の回転、並進、スケール変換について説明する図の一例である。FIG. 9 is an example of a diagram illustrating rotation, translation, and scale conversion of five corresponding points. N個の位置合わせ用パターンから取得された三次元座標の位置合わせを模式的に説明する図の一例である。It is an example of a diagram for schematically explaining alignment of three-dimensional coordinates acquired from N alignment patterns. 変換情報作成部がN個の位置合わせ用パターンから取得された三次元座標により回転変換Q・並進変換T・スケール変換Sを求める手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which the conversion information preparation part calculates | requires the rotation transformation Q, the translation transformation T, and the scale transformation S by the three-dimensional coordinate acquired from the N alignment patterns. N個の投影画像から取得された歪み補正用パターンの三次元座標の位置合わせを模式的に説明する図の一例である。It is an example of the figure which illustrates typically the alignment of the three-dimensional coordinate of the distortion correction pattern acquired from N projection images. 位置合わせ部がN個の歪み補正用パターンの投影画像から取得された三次元座標の位置合わせを行う手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which the position alignment part aligns the three-dimensional coordinate acquired from the projection image of the N distortion correction patterns. 投影対象のポイントクラウドの位置合わせを模式的に説明する図の一例である。It is an example of the figure which illustrates the position alignment of the point cloud of a projection target typically. 位置合わせ部がN個のポイントクラウドの位置合わせを行う手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which an alignment part aligns N point clouds. 形状モデルの表面の二次元の投影対象表面座標系への三次元座標の変換を説明する図の一例である。It is an example of the figure explaining conversion of the three-dimensional coordinate to the two-dimensional projection object surface coordinate system of the surface of a shape model. 三次元座標の形状モデルの表面への射影を実現する2つの方法の模式図である。It is a schematic diagram of two methods which implement | achieve the projection to the surface of the shape model of a three-dimensional coordinate. 二次元画像とプロジェクター画像における対応点を説明する図の一例である。It is an example of the figure explaining the corresponding point in a two-dimensional image and a projector image. 歪み補正パラメータの算出処理を説明する図の一例である。It is an example of the figure explaining the calculation process of a distortion correction parameter. 射影変換行列Hの算出を説明するための図の一例である。It is an example of the figure for demonstrating calculation of the projective transformation matrix H. FIG. プロジェクター画像の補正について説明する図の一例である。It is an example of the figure explaining correction | amendment of a projector image. エッジブレンディングを模式的に説明する図の一例である。It is an example of the figure which illustrates edge blending typically. 円筒型の投影対象が有する表面情報の取得を模式的に示す図の一例である。It is an example of the figure which shows acquisition of the surface information which a cylindrical projection object has typically. いくつかの形状モデルの展開図の一例である。It is an example of the expanded view of several shape models.

以下、本発明を実施するための形態について図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

以下、本発明を実施するための形態について図面を参照しながら説明する。
図1は、本実施形態の画像処理システム200の概略を説明する図の一例である。まず、図1に基づき画像処理システム200の全体的な処理を説明する。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
FIG. 1 is an example of a diagram illustrating an outline of an image processing system 200 according to the present embodiment. First, the overall processing of the image processing system 200 will be described with reference to FIG.

A.本実施形態では、円筒型の外壁又は内壁を投影対象11であるとして説明する。図1では内壁に2つのプロジェクター13から歪み補正用パターン32(歪み補正用パターン画像の一例)が投影されている。プロジェクター13を区別する場合、プロジェクター1、2…m(m:自然数)と称する。いわゆる超単焦点のプロジェクター13が歪み補正用パターン32を投影する場合、投影対象11の側方(この例では下方)から映像を投影するので、長方形の歪み補正用パターン32は、円筒型の投影対象11において図示するように上方が半円形状になる。   A. In the present embodiment, a cylindrical outer wall or inner wall will be described as the projection target 11. In FIG. 1, a distortion correction pattern 32 (an example of a distortion correction pattern image) is projected from two projectors 13 on the inner wall. When the projectors 13 are distinguished, they are referred to as projectors 1, 2,... M (m: natural number). When the so-called ultra-single-focus projector 13 projects the distortion correction pattern 32, the image is projected from the side of the projection object 11 (downward in this example), so the rectangular distortion correction pattern 32 is a cylindrical projection. As shown in the drawing, the object 11 has a semicircular shape.

B.カメラ12は歪み補正用パターン32のほぼ正面から(例えば、歪み補正用パターン32の中心の法線方向から)歪み補正用パターン32を撮像する。カメラ12を区別する場合、カメラ1、2…m(m:自然数)と称する。カメラ12は、プロジェクター13に搭載されていてもよいし、1つのカメラ12を移動させて撮像してもよい。カメラ12はステレオカメラなど距離情報を取得可能なカメラである。   B. The camera 12 images the distortion correction pattern 32 from almost the front of the distortion correction pattern 32 (for example, from the normal direction of the center of the distortion correction pattern 32). When distinguishing the cameras 12, they are referred to as cameras 1, 2,... M (m: natural number). The camera 12 may be mounted on the projector 13 or may be picked up by moving one camera 12. The camera 12 is a camera that can acquire distance information, such as a stereo camera.

投影対象11は立体的であるため、カメラ12は1つの撮像場所から全体を撮像できない。このため、いくつかの撮像場所から投影対象11が撮像され、撮像により得られた複数の投影対象11の三次元座標の位置合わせが必要になる。   Since the projection target 11 is three-dimensional, the camera 12 cannot capture the entire image from one imaging location. For this reason, the projection object 11 is imaged from several imaging locations, and it is necessary to align the three-dimensional coordinates of the plurality of projection objects 11 obtained by imaging.

C.撮像時のカメラ12の位置を基準とする三次元座標を含む画像データ1と画像データ2が得られる。ここで、三次元座標は、歪み補正用パターン32の要素ごと(図では黒領域と白領域の境界など)に得られるのではなく、カメラ12の解像度に応じて得られる。例えば、640×480、1920×1080の如く画素レベルの解像度で三次元座標が得られる。このような密な三次元座標をポイントクラウド(三次元座標の集合)と呼ぶ場合がある。図1では、歪み補正用パターンからポイントクラウド33が取得されている。   C. Image data 1 and image data 2 including three-dimensional coordinates based on the position of the camera 12 at the time of imaging are obtained. Here, the three-dimensional coordinates are not obtained for each element of the distortion correction pattern 32 (in the figure, the boundary between the black region and the white region), but are obtained according to the resolution of the camera 12. For example, three-dimensional coordinates can be obtained with pixel-level resolution such as 640 × 480 and 1920 × 1080. Such dense three-dimensional coordinates may be called a point cloud (a set of three-dimensional coordinates). In FIG. 1, the point cloud 33 is acquired from the distortion correction pattern.

D.情報処理装置50は重複領域において撮像されている歪み補正用パターン32(又は位置合わせ用のパターン)を利用して、2つの三次元座標の対応点同士を位置合わせする。2つの三次元座標の対応点同士を位置合わせするために、並進変換T、回転変換Q及びスケール変換Sが算出される。並進変換T、回転変換Q及びスケール変換Sによりカメラ2で撮像された三次元座標を変換することで、カメラ2で撮像された三次元座標をカメラ1の座標系の三次元座標に変換できる。   D. The information processing apparatus 50 aligns the corresponding points of the two three-dimensional coordinates using the distortion correction pattern 32 (or the alignment pattern) imaged in the overlapping region. In order to align the corresponding points of the two three-dimensional coordinates, a translational transformation T, a rotational transformation Q, and a scale transformation S are calculated. By converting the three-dimensional coordinates imaged by the camera 2 by the translation conversion T, the rotation conversion Q, and the scale conversion S, the three-dimensional coordinates imaged by the camera 2 can be converted into the three-dimensional coordinates of the coordinate system of the camera 1.

このように本実施形態の画像処理システム200は、位置合わせの際、プロジェクター13により位置合わせ用パターン(位置合わせ用パターン画像の一例)又は歪み補正用パターンを投影することで比較的短時間にかつ高精度に位置合わせすることができる。また、三次元座標により位置合わせするので、プロジェクター13の配置を予め精度よく固定しておく必要がない。   As described above, the image processing system 200 according to the present embodiment projects the alignment pattern (an example of the alignment pattern image) or the distortion correction pattern by the projector 13 during alignment in a relatively short time. It can be aligned with high accuracy. Further, since the alignment is performed using the three-dimensional coordinates, it is not necessary to fix the projector 13 in advance with high accuracy.

E.次に、情報処理装置50は、カメラ1の座標系に変換された三次元座標を用いて、投影対象11の形状モデル(図の例では円筒形)35にフィッティングする。これにより形状モデル35のパラメータ(例えば、円筒の中心軸の直線、半径)が得られる。   E. Next, the information processing apparatus 50 fits the shape model (cylindrical in the example of the drawing) 35 of the projection target 11 using the three-dimensional coordinates converted into the coordinate system of the camera 1. Thereby, the parameters of the shape model 35 (for example, the straight line and radius of the central axis of the cylinder) are obtained.

F.情報処理装置50は、投影対象11の三次元座標から形状モデル35を推定することで、投影対象表面の座標系(二次元座標系の投影対象表面座標)で三次元座標を二次元の投影対象表面座標系に変換することができる。投影対象表面座標系への変換の際、形状モデル35の表面に三次元座標を配置(射影)する。三次元座標は本来、投影対象11の表面にあるはずなので、この処理により三次元座標に含まれる距離情報の誤差を低減することができ、投影対象11における歪みを低減できる。   F. The information processing apparatus 50 estimates the shape model 35 from the three-dimensional coordinates of the projection target 11, thereby converting the three-dimensional coordinates into the two-dimensional projection target in the coordinate system of the projection target surface (projection target surface coordinates of the two-dimensional coordinate system). It can be converted to a surface coordinate system. At the time of conversion to the projection target surface coordinate system, three-dimensional coordinates are arranged (projected) on the surface of the shape model 35. Since the three-dimensional coordinates are supposed to be on the surface of the projection target 11, the error of the distance information included in the three-dimensional coordinates can be reduced by this process, and the distortion in the projection target 11 can be reduced.

G.情報処理装置50は、歪み補正用パターン32の歪みから歪み補正パラメータを算出する。そして、投影対象11では歪みがなくなるように元の投影画像を変換する(例えば、射影変換する)。   G. The information processing apparatus 50 calculates a distortion correction parameter from the distortion of the distortion correction pattern 32. Then, the original projection image is converted so as to eliminate distortion in the projection target 11 (for example, projective conversion).

このように、本実施形態の画像処理システム200は、三次元座標を取得することを利用して、カメラ12が各場所で撮像した三次元座標を共通の座標に位置合わせできる。また、三次元座標を形状モデル35にフィッティングし、さらに形状モデル35の表面に三次元座標を配置(射影)することで、距離情報の誤差を低減することができ、投影対象11における歪みを低減できる。   As described above, the image processing system 200 of the present embodiment can align the three-dimensional coordinates captured by the camera 12 at each location with the common coordinates by using the acquisition of the three-dimensional coordinates. Further, by fitting the three-dimensional coordinates to the shape model 35 and arranging (projecting) the three-dimensional coordinates on the surface of the shape model 35, it is possible to reduce the error of distance information and reduce the distortion in the projection target 11. it can.

<システム構成>
図2は、画像処理システム200の構成図の一例を示す。画像処理システム200は、情報処理装置50に、複数のプロジェクター13(かっこ内はプロジェクターを識別する数字)が接続される構成を有している。カメラ12(かっこ内はカメラを識別する数字)は情報処理装置50に接続されていてもよいし、接続されていなくてもメモリーカードなどに画像データを記憶させ情報処理装置50が読み出せればよい。なお、接続は有線でも無線でもよい。
<System configuration>
FIG. 2 shows an example of a configuration diagram of the image processing system 200. The image processing system 200 has a configuration in which a plurality of projectors 13 (numbers identifying the projectors in parentheses) are connected to the information processing apparatus 50. The camera 12 (the number identifying the camera in parentheses) may be connected to the information processing apparatus 50, or the image data may be stored in a memory card or the like and read by the information processing apparatus 50 without being connected. . The connection may be wired or wireless.

プロジェクター13は投影対象11を囲むようにほぼ等間隔に配置されている。図では例えば6台のプロジェクター13があるものとするが、プロジェクター13は最低2つあればよい。   The projectors 13 are arranged at substantially equal intervals so as to surround the projection target 11. In the figure, for example, it is assumed that there are six projectors 13, but at least two projectors 13 are sufficient.

画像処理システム200は、複数のプロジェクター13による投影画像を組み合わせて、スクリーン(投影対象の表面)にタイリング表示による1つの大画面画像を表示するシステムである。
情報処理装置50は、画像処理システム200によるマルチプロジェクションとして投影される大画面画像の元となる画像を、プロジェクター13の数(例えば6台)に対応する部分画像に分割し、各プロジェクター13が投影すべき部分画像データを生成する。情報処理装置50は画像処理装置の一例である。
The image processing system 200 is a system that displays a single large screen image by tiling display on a screen (surface of a projection target) by combining projection images from a plurality of projectors 13.
The information processing apparatus 50 divides an image that is a source of a large screen image projected as multi-projection by the image processing system 200 into partial images corresponding to the number of projectors 13 (for example, six), and each projector 13 projects the image. Partial image data to be generated is generated. The information processing apparatus 50 is an example of an image processing apparatus.

部分画像データは隣接したプロジェクター13では端部が重複する用に生成され、また、重畳領域の明るさの調整等を行う。情報処理装置50は、生成した部分画像データを対応する位置に配置されたプロジェクター13に送信する。   The partial image data is generated so that the end portions overlap in the adjacent projector 13, and the brightness of the overlapping region is adjusted. The information processing apparatus 50 transmits the generated partial image data to the projector 13 arranged at a corresponding position.

プロジェクター1、2が情報処理装置50から入力される画像データを投影するだけで、マルチプロジェクションシステムとしてタイリングによる投影を行える。   By simply projecting image data input from the information processing apparatus 50 by the projectors 1 and 2, projection by tiling can be performed as a multi-projection system.

各プロジェクター13の配置を厳密に設定しない場合、各プロジェクター13が投影する部分画像データがずれる可能性がある。例えば、投影対象11からのプロジェクター13の距離、光軸の角度等によってずれが生じる。そこで、情報処理装置50は、各プロジェクター13に位置合わせ用のパターンを投影させ、カメラ12が撮像した画像データを用いて、投影対象11の三次元座標を位置合わせする。これにより、重畳部分のずれを抑制できる。また、座標系が共通になるので、形状モデル35へのフィッティングが容易になる。   If the arrangement of each projector 13 is not strictly set, partial image data projected by each projector 13 may be shifted. For example, the deviation occurs depending on the distance of the projector 13 from the projection target 11, the angle of the optical axis, and the like. Therefore, the information processing apparatus 50 causes each projector 13 to project an alignment pattern and aligns the three-dimensional coordinates of the projection target 11 using image data captured by the camera 12. Thereby, the shift | offset | difference of a superimposition part can be suppressed. Further, since the coordinate system is common, fitting to the shape model 35 is facilitated.

なお、情報処理装置50は、例えばPC(Personal Computer)などのコンピュータであるが、タブレット端末、スマートフォン、PDA(Personal Digital Assistant)、電子書籍端末など画像データを投影できるものであればよい。また、サーバなどネットワーク上に機能として存在していればよい。さらに、図1では別体として図示されたカメラ12が本実施形態の情報処理装置50の機能を有していてもよい。また、2つ以上の情報処理装置50が配置され、例えば歪み補正を行うものと部分画像データをプロジェクター13に送信するものとが別々に存在してもよい。   The information processing apparatus 50 is, for example, a computer such as a PC (Personal Computer), but may be any apparatus capable of projecting image data such as a tablet terminal, a smartphone, a PDA (Personal Digital Assistant), or an electronic book terminal. Moreover, what is necessary is just to exist on a network, such as a server. Furthermore, the camera 12 illustrated as a separate body in FIG. 1 may have the function of the information processing apparatus 50 of the present embodiment. Further, two or more information processing devices 50 may be arranged, and for example, a device that performs distortion correction and a device that transmits partial image data to the projector 13 may exist separately.

カメラ12についてはプロジェクター13に搭載されていてもよいが、ユーザの視点から投影画像を見た場合に正しく補正できるように、投影画像の正面に配置されていてもよい。また、カメラ12は歪み補正用パターン32又は位置合わせ用パターンの撮像の度に移動して撮像してもよい(すなわちカメラ12は1つしかなくてもよい)。本実施形態では、説明を容易にするため、カメラ12はプロジェクター13の数だけ存在するものとする。   The camera 12 may be mounted on the projector 13, but may be disposed in front of the projection image so that the correction can be performed correctly when the projection image is viewed from the user's viewpoint. Further, the camera 12 may move and image every time the distortion correction pattern 32 or the alignment pattern is imaged (that is, there may be only one camera 12). In the present embodiment, it is assumed that there are as many cameras 12 as the number of projectors 13 for ease of explanation.

また、カメラ12は投影画像の撮像により歪み補正用パターン32及び位置合わせ用パターンの画像データと共に三次元座標(このような画像データを距離画像という場合がある)を取得する。三次元座標を取得する方式としては、例えば、照射光を照射し反射光が到達するまでの時間(TOF:Time Of Fright)を測定する方式や、視差を利用するステレオカメラ方式が知られている。前者の方式のカメラ12としてKinect(登録商標)が知られている。   Further, the camera 12 acquires three-dimensional coordinates (such image data may be referred to as a distance image) together with image data of the distortion correction pattern 32 and the alignment pattern by capturing the projection image. As a method for acquiring three-dimensional coordinates, for example, a method for measuring the time (TOF: Time Of Fright) until irradiation with reflected light and the reflected light arrives, and a stereo camera method using parallax are known. . Kinect (registered trademark) is known as the camera 12 of the former method.

また、プロジェクター13はDLP(Digital Light Processing)プロジェクターや液晶プロジェクターなどがあるが、本実施形態では投影方式は限定しない。また、超短焦点のプロジェクターでなく、遠方から投影するプロジェクターを用いてもよい。   The projector 13 includes a DLP (Digital Light Processing) projector, a liquid crystal projector, and the like, but the projection method is not limited in this embodiment. Further, a projector that projects from a distance may be used instead of the ultra-short focus projector.

図3は、情報処理装置50のハードウェア構成図の一例を示す。情報処理装置50はそれぞれバスで相互に接続されているCPU101、RAM102、ROM103、記憶媒体装着部104、通信装置105、入力装置106、描画制御部107、HDD108、を有する。CPU101は、OS(Operating System)やプログラム111をHDD108から読み出して実行することで種々の機能を提供すると共に、色調変換パラメータの生成処理を行う。   FIG. 3 shows an example of a hardware configuration diagram of the information processing apparatus 50. The information processing apparatus 50 includes a CPU 101, a RAM 102, a ROM 103, a storage medium mounting unit 104, a communication device 105, an input device 106, a drawing control unit 107, and an HDD 108 that are connected to each other via a bus. The CPU 101 reads out an OS (Operating System) and a program 111 from the HDD 108 and executes them to provide various functions and generate a tone conversion parameter.

RAM102はCPU101がプログラム111を実行する際に必要なデータを一時保管する作業メモリ(主記憶メモリ)になり、ROM103はBIOS(Basic Input Output System)やOSを起動するためのプログラム、静的なデータが記憶されている。   The RAM 102 is a working memory (main storage memory) that temporarily stores data necessary when the CPU 101 executes the program 111, and the ROM 103 is a program (static input data) for starting up a BIOS (Basic Input Output System) or OS. Is remembered.

記憶媒体装着部104には記憶媒体110が着脱可能であり、記憶媒体110に記録されたデータを読み込み、HDD108に記憶させる。また、記憶媒体装着部104は、HDD108に記憶されたデータを記憶媒体110に書き込むこともできる。記憶媒体110は例えば、USDメモリ、SDカード等である。プログラム111は、記憶媒体110に記憶された状態や不図示のサーバからダウンロードすることで配布される。   A storage medium 110 is detachably attached to the storage medium mounting unit 104, and data recorded in the storage medium 110 is read and stored in the HDD 108. Further, the storage medium mounting unit 104 can also write data stored in the HDD 108 into the storage medium 110. The storage medium 110 is, for example, a USD memory or an SD card. The program 111 is distributed by being downloaded from a state stored in the storage medium 110 or a server (not shown).

入力装置106は、キーボードやマウス、トラックボールなどであり、情報処理装置50へのユーザの様々な操作指示を受け付ける。   The input device 106 is a keyboard, a mouse, a trackball, or the like, and receives various user operation instructions to the information processing device 50.

HDD108は、SSD等の不揮発メモリでもよく、OS、アプリケーションソフトウェアなどの各種のデータが記憶されている。   The HDD 108 may be a nonvolatile memory such as an SSD, and stores various data such as an OS and application software.

通信装置105は、ネットワークに接続するためのNIC(Network Interface Card)であり、例えば、イーサネット(登録商標)カードである。   The communication device 105 is a NIC (Network Interface Card) for connecting to a network, for example, an Ethernet (registered trademark) card.

描画制御部107は、CPU101がプログラム111を実行してグラフィックメモリに書き込んだ描画コマンドを解釈して、画面を生成しディスプレイ109に描画する。なお、図3ではディスプレイ109は情報処理装置50に外付けされているが、情報処理装置50がディスプレイ109を内蔵していてもよい。   The drawing control unit 107 interprets a drawing command written in the graphic memory by the CPU 101 executing the program 111, generates a screen, and draws it on the display 109. In FIG. 3, the display 109 is externally attached to the information processing apparatus 50, but the information processing apparatus 50 may incorporate the display 109.

図4は、情報処理装置50の機能ブロック図の一例を示す。情報処理装置50は、投影画像三次元位置取得部21、位置合わせ部22、モデル算出部23、座標変換部24、歪み補正パラメータ算出部25、及び、画像変形部26を有している。これらは、CPU101がプログラム111を実行して図3に示すハードウェアと協働することで実現される。   FIG. 4 shows an example of a functional block diagram of the information processing apparatus 50. The information processing apparatus 50 includes a projected image three-dimensional position acquisition unit 21, an alignment unit 22, a model calculation unit 23, a coordinate conversion unit 24, a distortion correction parameter calculation unit 25, and an image deformation unit 26. These are realized by the CPU 101 executing the program 111 and cooperating with the hardware shown in FIG.

また、情報処理装置50は投影される画像データ、歪み補正用パターン32、及び、位置合わせ用パターンを記憶する画像データ記憶部27、並びに、歪み補正パラメータを記憶する歪み補正パラメータ記憶部28を有している。これらは、情報処理装置50がアクセス可能な場所(例えば、LAN、インターネットなどのネットワーク上)にあればよい。   The information processing apparatus 50 also includes an image data storage unit 27 that stores projected image data, a distortion correction pattern 32, and an alignment pattern, and a distortion correction parameter storage unit 28 that stores distortion correction parameters. doing. These may be in a location where the information processing apparatus 50 can access (for example, on a network such as a LAN or the Internet).

投影画像三次元位置取得部21は、投影対象上の投影画像の三次元座標を取得する。具体的には、カメラ12が撮像した距離画像(輝度情報又はカラーの画素値と共に画素毎に距離情報が含まれる)をケーブルや記憶媒体を介して取得する。本実施形態では、距離情報を含む画像データを単に三次元座標と称する。   The projection image three-dimensional position acquisition unit 21 acquires the three-dimensional coordinates of the projection image on the projection target. Specifically, a distance image (including distance information for each pixel together with luminance information or color pixel values) captured by the camera 12 is acquired via a cable or a storage medium. In the present embodiment, image data including distance information is simply referred to as three-dimensional coordinates.

位置合わせ部22は変換情報作成部29を有し、変換情報作成部29は複数の位置合わせ用パターン(歪み補正用パターン33でもよい)の特徴点の三次元座標に基づき変換情報を算出する。そして位置合わせ部22は、この変換情報で、歪み補正用パターン32又はポイントクラウド33の三次元座標の位置を合わせる。具体的には、隣接したプロジェクター13が投影した、位置合わせ用パターンの三次元座標の間で、変換情報として並進変換T、回転変換Q及びスケール変換Sを求める。そして、並進変換T、回転変換Q及びスケール変換Sにより、歪み補正用パターン32が撮像されることで得られた特徴点の三次元座標又はポイントクラウド33を、カメラ1〜mに共通の座標系の三次元座標に変換する。   The alignment unit 22 includes a conversion information creation unit 29. The conversion information creation unit 29 calculates conversion information based on the three-dimensional coordinates of feature points of a plurality of alignment patterns (or distortion correction patterns 33). Then, the alignment unit 22 aligns the three-dimensional coordinate positions of the distortion correction pattern 32 or the point cloud 33 with this conversion information. Specifically, translation conversion T, rotation conversion Q, and scale conversion S are obtained as conversion information between the three-dimensional coordinates of the alignment pattern projected by the adjacent projector 13. Then, the three-dimensional coordinates or the point cloud 33 of the feature points obtained by imaging the distortion correction pattern 32 by the translational transformation T, the rotational transformation Q, and the scale transformation S are coordinate systems common to the cameras 1 to m. Convert to 3D coordinates.

モデル算出部23は、位置合わせした歪み補正用パターン32又はポイントクラウド33の三次元座標群を、投影対象11の形状モデル35にフィッティングする。これにより、形状モデル35(例えば円筒)の軸の直線の方程式と半径が得られる。   The model calculation unit 23 fits the aligned three-dimensional coordinate group of the distortion correction pattern 32 or the point cloud 33 to the shape model 35 of the projection target 11. Thereby, the linear equation and radius of the axis of the shape model 35 (for example, a cylinder) are obtained.

座標変換部24は、歪み補正用パターン32の特徴点の三次元座標又はポイントクラウド33を投影対象11の形状モデル35の座標系に変換する。この座標系は、例えば円筒型の形状モデル35の表面の座標系であるため、歪み補正用パターン32の特徴点の三次元座標又はポイントクラウド33の三次元座標は二次元の投影対象表面座標系で表現される。   The coordinate conversion unit 24 converts the three-dimensional coordinates of the feature points of the distortion correction pattern 32 or the point cloud 33 into the coordinate system of the shape model 35 of the projection target 11. Since this coordinate system is, for example, a coordinate system of the surface of the cylindrical shape model 35, the three-dimensional coordinates of the feature points of the distortion correction pattern 32 or the three-dimensional coordinates of the point cloud 33 are the two-dimensional projection target surface coordinate system. It is expressed by

歪み補正パラメータ算出部25は、プロジェクター13が投影する歪み補正用パターン32の元画像(以下、プロジェクタ画像という)と、二次元の投影対象表面座標系で表現された歪み補正用パターン32の画像(以下、二次元画像という)から例えば射影変換行列Hを算出する。この射影変換行列Hから歪み補正パラメータが求められる。   The distortion correction parameter calculation unit 25 includes an original image of the distortion correction pattern 32 projected by the projector 13 (hereinafter referred to as a projector image) and an image of the distortion correction pattern 32 expressed in a two-dimensional projection target surface coordinate system ( Hereinafter, a projective transformation matrix H is calculated from the two-dimensional image). A distortion correction parameter is obtained from the projective transformation matrix H.

画像変形部26は、歪み補正パラメータを用いてプロジェクター13が投影するプロジェクター画像を変形し補正画像を作成する。これにより、円筒型の投影対象11に歪みが少ない投影画像が投影される。   The image deformation unit 26 deforms the projector image projected by the projector 13 using the distortion correction parameter and creates a corrected image. Thereby, a projection image with little distortion is projected onto the cylindrical projection target 11.

<全体的な動作手順>
図5は、画像処理システム200の全体的な動作手順を示すフローチャート図の一例を示す。
S10:投影画像三次元位置取得部21は、変数nを初期化する(nに1を設定する)。nはプロジェクター13の数Nと比較される変数である。
S20:投影画像三次元位置取得部21は、投影画像の三次元座標を取得する。この三次元座標は、各プロジェクター13が投影した位置合わせ用パターンの特徴点、歪み補正用パターン32の特徴点、又は、ポイントクラウド33の場合がある。なお、位置合わせを歪み補正用パターン32で行う場合には、位置合わせ用パターンの三次元座標は不要になる。
S30:投影画像三次元位置取得部21は、nがNと一致したか否かを判定する。すなわち、すべてのプロジェクター13から三次元座標を取得したか否かを判定する。
S40:ステップS30の判定がNoの場合、投影画像三次元位置取得部21は変数nを1つ大きくする。
S50:ステップS30の判定がYesの場合、位置合わせ部22は各カメラ12が撮像したN個の三次元座標を、1つのカメラ座標に位置合わせする。すなわち、それぞれ撮像された複数の三次元座標を1つのカメラ座標で表す。
S60:モデル算出部23はステップS50の三次元座標を円筒型の形状モデル35にフィッティングする。
S70:座標変換部24は、ステップS50の三次元座標を円筒型の形状モデル35の表面の二次元の投影対象表面座標に変換する。
S80:歪み補正パラメータ算出部25は、プロジェクター画像と、二次元の投影対象表面座標で表現された二次元画像から例えば射影変換行列Hを算出し、射影変換行列Hから歪み補正パラメータを算出して歪み補正パラメータ記憶部28に記憶する。
S90:画像変形部26は、歪み補正パラメータを用いてプロジェクター13が投影する画像を変形する。
<Overall operation procedure>
FIG. 5 shows an example of a flowchart showing an overall operation procedure of the image processing system 200.
S10: The projection image three-dimensional position acquisition unit 21 initializes a variable n (sets n to 1). n is a variable to be compared with the number N of projectors 13.
S20: The projection image three-dimensional position acquisition unit 21 acquires the three-dimensional coordinates of the projection image. This three-dimensional coordinate may be a feature point of an alignment pattern projected by each projector 13, a feature point of a distortion correction pattern 32, or a point cloud 33. When alignment is performed using the distortion correction pattern 32, the three-dimensional coordinates of the alignment pattern are not necessary.
S30: The projected image three-dimensional position acquisition unit 21 determines whether n matches N. That is, it is determined whether or not three-dimensional coordinates have been acquired from all the projectors 13.
S40: When the determination in step S30 is No, the projected image three-dimensional position acquisition unit 21 increases the variable n by one.
S50: If the determination in step S30 is Yes, the alignment unit 22 aligns the N three-dimensional coordinates captured by each camera 12 with one camera coordinate. In other words, a plurality of three-dimensional coordinates captured respectively are represented by one camera coordinate.
S60: The model calculation unit 23 fits the three-dimensional coordinates in step S50 to the cylindrical shape model 35.
S70: The coordinate conversion unit 24 converts the three-dimensional coordinates in step S50 into the two-dimensional projection target surface coordinates on the surface of the cylindrical shape model 35.
S80: The distortion correction parameter calculation unit 25 calculates, for example, a projection transformation matrix H from the projector image and the two-dimensional image expressed by the two-dimensional projection target surface coordinates, and calculates the distortion correction parameter from the projection transformation matrix H. This is stored in the distortion correction parameter storage unit 28.
S90: The image deforming unit 26 deforms the image projected by the projector 13 using the distortion correction parameter.

以下では、ステップS20,S50〜S90についてステップごとに詳細に説明する。   Below, step S20 and S50-S90 are demonstrated in detail for every step.

<S20 投影画像の三次元座標の取得>
図6は、投影対象11の投影画像をカメラ12が分割撮像する際の模式図の一例である。図6では円筒形の投影対象11の凹面と凸面に対する投影画像をカメラ1とカメラ2が分割して撮像している。すべての投影画像が一箇所からの撮像で撮像しきれない場合、本実施形態では重複撮像領域36を設けて、異なる場所から分割して撮像する。なお、凹面と凸面では歪み方が異なるだけで歪み補正パラメータによる画像の変形までの手順は同じである。
<S20 Acquisition of 3D coordinates of projected image>
FIG. 6 is an example of a schematic diagram when the camera 12 divides and captures the projection image of the projection target 11. In FIG. 6, the camera 1 and the camera 2 divide and image the projection images on the concave and convex surfaces of the cylindrical projection object 11. In the case where all the projected images cannot be captured by imaging from one place, in the present embodiment, an overlapping imaging area 36 is provided, and the images are divided and imaged from different locations. It should be noted that the procedure up to the deformation of the image by the distortion correction parameter is the same except that the distortion is different between the concave surface and the convex surface.

図7は、三次元座標の取得を模式的に説明する図の一例である。図7(a)では、プロジェクター1が位置合わせ用パターン31を投影している。カメラ1,2はそれぞれ位置合わせ用パターンを撮像する。このように隣接したプロジェクター13のうち左側のプロジェクター13のみが位置合わせ用パターン31を投影する。カメラ1,2は画素単位で距離情報を取得可能であるが、位置合わせ用パターン31では、例えば特徴点(円)の三次元座標が取得される。   FIG. 7 is an example of a diagram schematically illustrating acquisition of three-dimensional coordinates. In FIG. 7A, the projector 1 projects the alignment pattern 31. Each of the cameras 1 and 2 images an alignment pattern. Thus, only the left projector 13 among the adjacent projectors 13 projects the alignment pattern 31. The cameras 1 and 2 can acquire distance information in units of pixels, but in the alignment pattern 31, for example, three-dimensional coordinates of feature points (circles) are acquired.

図7(b)(c)では、プロジェクター1,2がそれぞれ歪み補正用パターン32を投影している。歪み補正用パターン32として図7(b)では円パターンが、図7(c)では格子パターンが投影されている。カメラ1,2はそれぞれ歪み補正用パターン32を撮像する。カメラ1,2は画素単位で距離情報を取得可能であるが、円パターンの歪み補正用パターン32では、特徴点(例えば、円)の三次元座標が取得され、格子パターンの歪み補正用パターン32では、特徴点(例えば、黒領域の頂点)の三次元座標が取得される。   In FIGS. 7B and 7C, the projectors 1 and 2 project the distortion correction pattern 32, respectively. As the distortion correction pattern 32, a circular pattern is projected in FIG. 7B, and a lattice pattern is projected in FIG. 7C. Each of the cameras 1 and 2 images the distortion correction pattern 32. The cameras 1 and 2 can acquire distance information in units of pixels. However, in the circular pattern distortion correction pattern 32, three-dimensional coordinates of feature points (for example, circles) are acquired, and the distortion correction pattern 32 of the lattice pattern is acquired. Then, the three-dimensional coordinates of the feature point (for example, the vertex of the black region) are acquired.

投影画像三次元位置取得部21が、位置合わせ用パターン31や歪み補正用パターン32の画像から特徴点を抽出する際は、例えば以下のように処理する。円パターンの場合、例えば二値化して連続した黒画素の重心を特徴点として検出する。格子状の歪み補正用パターンの場合、例えば、ハリスの方法などのコーナー検出方法を用いて格子の頂点を特徴点として検出する。この他、エッジを検出して抽出された直線の交点などを特徴点としてもよい。   When the projected image three-dimensional position acquisition unit 21 extracts feature points from the images of the alignment pattern 31 and the distortion correction pattern 32, for example, the following processing is performed. In the case of a circular pattern, for example, the center of gravity of black pixels that are binarized and continuous is detected as a feature point. In the case of a lattice-shaped distortion correction pattern, for example, a corner detection method such as a Harris method is used to detect the vertex of the lattice as a feature point. In addition, intersections of straight lines extracted by detecting edges may be used as feature points.

また、位置合わせ用の画像としては、位置合わせ用パターン31や歪み補正用パターン32のような既知の画像の他、未知の画像を用いることもできる。未知の画像を投影して、例えばSIFT(Scale Invariant Feature Transform)特徴量を検出する。SIFT特徴量は、画像中の輝度変化の大きい特徴点と、特徴点周辺の輝度勾配及び輝度方向により算出される特徴量である。未知の画像でも同じSIFT特徴量が検出されるため、対応する特徴点が得られる。このように、次述する位置合わせ部22が、複数の場所から撮像された投影画像の特徴点同士の対応を正しく決定できれば、任意の画像を位置合わせに用いることができる。   In addition to the known images such as the alignment pattern 31 and the distortion correction pattern 32, an unknown image can be used as the alignment image. An unknown image is projected and, for example, a SIFT (Scale Invariant Feature Transform) feature quantity is detected. The SIFT feature amount is a feature amount calculated from a feature point having a large luminance change in the image, a luminance gradient around the feature point, and a luminance direction. Since the same SIFT feature value is detected even in an unknown image, a corresponding feature point is obtained. As described above, if the alignment unit 22 described below can correctly determine the correspondence between the feature points of the projected images captured from a plurality of locations, an arbitrary image can be used for alignment.

以下では、説明のため、位置合わせ用パターン31により位置合わせするものとして説明する。当然ながら、歪み補正のために歪み補正用パターン32も撮像され、その際にポイントクラウド33も得られている。   Hereinafter, for the sake of explanation, the description will be made assuming that the alignment is performed by the alignment pattern 31. Of course, the distortion correction pattern 32 is also imaged for distortion correction, and a point cloud 33 is also obtained at that time.

<S50 位置合わせ>
位置合わせ部22は、複数の場所で撮像された位置合わせ用パターンの特徴点同士を対応させ、これらの特徴点を利用してカメラ1,2の座標系を合わせる。すなわち、カメラ2が撮像した三次元座標を、カメラ1の座標系の座標に変換する。異なる場所で撮像された2つの位置合わせ用パターンの対応する特徴点を対応点という。
<S50 alignment>
The alignment unit 22 associates the feature points of the alignment pattern imaged at a plurality of locations, and aligns the coordinate systems of the cameras 1 and 2 using these feature points. That is, the three-dimensional coordinates captured by the camera 2 are converted into coordinates in the coordinate system of the camera 1. The corresponding feature points of the two alignment patterns imaged at different places are referred to as corresponding points.

位置合わせ部22は、まず、カメラ1、2の重複撮像領域36に、プロジェクター1のみに対し位置合わせ用パターン31を投影させる。視点の変化にロバストな特徴点群の三次元座標を取得することで、隣接する撮像場所で対応する対応点を安定して取得できる。   First, the alignment unit 22 projects the alignment pattern 31 only on the projector 1 onto the overlapping imaging region 36 of the cameras 1 and 2. By acquiring the three-dimensional coordinates of the feature point group that is robust to changes in the viewpoint, it is possible to stably acquire corresponding points corresponding to adjacent imaging locations.

図8(a)は重複撮像領域36に撮像されたカメラ1の対応点の画像とカメラ2の対応点の画像を説明する図の一例である。図8(a)では位置合わせ用パターンとして円パターンが撮像されている。この円パターンは、歪み補正用パターン32とは別に投影されるが、上記のように歪み補正用パターン32を位置合わせ用パターン31として用いることができる。   FIG. 8A is an example for explaining the image of the corresponding point of the camera 1 and the image of the corresponding point of the camera 2 captured in the overlapping imaging region 36. In FIG. 8A, a circular pattern is imaged as the alignment pattern. Although this circular pattern is projected separately from the distortion correction pattern 32, the distortion correction pattern 32 can be used as the alignment pattern 31 as described above.

カメラ1が撮像した重複撮像領域36には円パターン1が撮像されており、カメラ2が撮像した重複撮像領域36には円パターン2が撮像されている。円パターン1はプロジェクター1が投影したものである。図8(b)に示すように、カメラ1が撮像する画像1では右端に円パターン1が撮像され、カメラ2が撮像する画像2では左端に円パターン2が撮像される。   The circular pattern 1 is captured in the overlapping imaging area 36 captured by the camera 1, and the circular pattern 2 is captured in the overlapping imaging area 36 captured by the camera 2. A circle pattern 1 is projected by the projector 1. As shown in FIG. 8B, in the image 1 captured by the camera 1, the circular pattern 1 is captured at the right end, and in the image 2 captured by the camera 2, the circular pattern 2 is captured at the left end.

円パターン1、2は撮影場所が異なるだけで同じ場所に投影されているので、カメラ1,2が同じ位置から撮像したと仮定すると、円パターン1,2は画像内の同じ位置で撮像されなければならない。画像内の同じ位置で撮像させるためには、カメラ2をカメラ1の位置に移動させればよいがこの移動量は、画像1と画像2において円パターン1,2が撮像されている場所の違いに他ならない。よって、画像1における円パターン1と画像2における円パターン2の位置が一致するように、画像1,2を位置合わせすることで、カメラ2が取得する三次元座標をカメラ1の座標系に位置合わせすることができる。   Since the circular patterns 1 and 2 are projected at the same place with different shooting locations, assuming that the cameras 1 and 2 are taken from the same position, the circular patterns 1 and 2 must be taken at the same position in the image. I must. In order to capture images at the same position in the image, the camera 2 may be moved to the position of the camera 1, but the amount of movement is different between the locations where the circular patterns 1 and 2 are captured in the images 1 and 2. It is none other than. Therefore, the three-dimensional coordinates acquired by the camera 2 are positioned in the coordinate system of the camera 1 by aligning the images 1 and 2 so that the positions of the circular pattern 1 in the image 1 and the circular pattern 2 in the image 2 match. Can be combined.

なお、画像1,2から特徴点として検出される対応点(それぞれの円)にはインデックスが与えられる。画像1では右端から1列目の円パターンの円にA1−1〜A1−5が、2列目の円パターンの円にA2−1〜A2−5が与えられる。画像2では左端から1列目の円パターンの円にB1−1〜B1−5が、2列目の円パターンの円にB2−1〜B2−5が与えられる。位置合わせ部22はA1−1〜A1−5及びA2−1〜A2−5と、B1−1〜B1−5及びB2−1〜B2−5が対応点であるとして扱う。   In addition, an index is given to the corresponding point (each circle) detected as a feature point from the images 1 and 2. In image 1, A1-1 to A1-5 are given to the circle in the first circle pattern from the right end, and A2-1 to A2-5 are given to the circle in the second circle pattern. In image 2, B1-1 to B1-5 are given to the circle of the first circular pattern from the left end, and B2-1 to B2-5 are given to the circle of the second circular pattern. The alignment unit 22 treats A1-1 to A1-5 and A2-1 to A2-5, and B1-1 to B1-5 and B2-1 to B2-5 as corresponding points.

位置合わせのためには、対応点の三次元座標を用いる。すなわち、円パターン1の各円の三次元座標と円パターン2の各円の三次元座標を用いる。位置合わせのための変換は並進変換Tと回転変換Q、及び、スケール変換Sに分けられる。本実施形態では、Absolute Orientationという手法により並進変換T、回転変換Q及びスケール変換Sを算出する。   For alignment, the three-dimensional coordinates of corresponding points are used. That is, the three-dimensional coordinates of each circle of the circle pattern 1 and the three-dimensional coordinates of each circle of the circle pattern 2 are used. The conversion for alignment is divided into a translational transformation T, a rotational transformation Q, and a scale transformation S. In the present embodiment, the translational transformation T, the rotational transformation Q, and the scale transformation S are calculated by a method called Absolute Orientation.

図9を用いて並進変換T、回転変換Q及びスケール変換Sの算出について説明する。図9は、5点の対応点の回転、並進、スケール変換について説明する図の一例である。画像2の対応点をPl1〜Pl5であるとし、画像1の対応点をPr1〜Pr5であるとする。Pl1〜Pl5を回転することで対応点群Iが得られ、対応点群Iをスケール変換することで対応点群IIが得られ、対応点群IIを並進することで対応点群IIIが得られるものとする。したがって、対応点群IIIがPr1〜Pr5に変換される回転変換R、並進変換T及びスケール変換Sを求める。 Calculation of translational transformation T, rotational transformation Q, and scale transformation S will be described with reference to FIG. FIG. 9 is an example of a diagram illustrating rotation, translation, and scale conversion of five corresponding points. Assume that the corresponding points of the image 2 are P 11 to P 15 , and the corresponding points of the image 1 are P r1 to P r5 . The corresponding point group I is obtained by rotating P 11 to P 15 , the corresponding point group II is obtained by scaling the corresponding point group I, and the corresponding point group III is obtained by translating the corresponding point group II. Shall be obtained. Therefore, the rotation transformation R, the translation transformation T, and the scale transformation S in which the corresponding point group III is transformed into P r1 to P r5 are obtained.

まず、スケール変換Sについては、以下のようにして求められる。
1.対応点Pl1〜Pl5の重心G1、対応点Pr1〜Pr5の重心G2を求め、それぞれ重心を原点とする座標に変換する。
2.対応点Pl1〜Pl5の重心G1からの距離の2乗和S1、対応点Pr1〜Pr5の重心G2からの距離の2乗和S2、を求める。
3.2つの2乗和の比S2/S1をスケール変換Sとする。すなわち、スケール変換Sは回転変換Rとは独立に求められる。
First, the scale conversion S is obtained as follows.
1. The centroid G1 of the corresponding points P 11 to P 15 and the centroid G2 of the corresponding points P r1 to P r5 are obtained and converted to coordinates having the centroid as the origin.
2. Square sum S1 of distance from the center of gravity G1 of the corresponding point P l1 ~P l5, obtains the square sum S2, the distance from the center of gravity G2 of the corresponding point P r1 to P r5.
3. Let the ratio S2 / S1 of the two sums of squares be the scale conversion S. That is, the scale conversion S is obtained independently of the rotation conversion R.

また、回転変換Rについては、重心G1を原点とする対応点Pl1〜Pl5を、ある軸周りにある角度回転した時の、対応点Pr1〜Pr5との内積の和が最大になる回転として求められる。 As for the rotation transformation R, the sum of the inner products of the corresponding points P r1 to P r5 when the corresponding points P l1 to P 15 having the center of gravity G1 as the origin are rotated by a certain angle around a certain axis is maximized. Required as rotation.

対応点Pl1〜Pl5の重心G1からの相対座標をrli(i=1〜5)、対応点Pr1〜Pr5の重心G2からの相対座標をrri(i=1〜5)、とする。 The relative coordinates of the corresponding points P 11 to P 15 from the centroid G1 are rl i (i = 1 to 5), the relative coordinates of the corresponding points P r1 to P r5 from the centroid G2 are rr i (i = 1 to 5), And

Figure 2015233266
Mの要素から4×4対象行列Nを求める。
Figure 2015233266
A 4 × 4 target matrix N is obtained from the elements of M.

Figure 2015233266
この4×4対象行列Nの最大固有値に対応する単位固有ベクトルを求めると、最適な回転を表す単位4元数が得られる。4元数とは「a + i b + j c + k d」のように実部aと虚部b、c、dにより表される(i、j、kは虚数)。i、j、kは三次元のそれぞれの軸方向の回転を表している。
Figure 2015233266
When a unit eigenvector corresponding to the maximum eigenvalue of the 4 × 4 target matrix N is obtained, a unit quaternion representing an optimum rotation is obtained. A quaternion is represented by a real part a and imaginary parts b, c, and d, such as “a + ib + jc + kd” (i, j, k are imaginary numbers). i, j, and k represent the three-dimensional axial rotations.

単位4元数は実部と虚部の二乗和の平方根が1となる4元数である。単位4元数を、Σ=(cosθ/2; sin(θ/2)p)で表す(pは虚部の三次元ベクトル)。単位4元数により、Σ*qΣを計算すると(Σ*はΣの共役)、回転軸pを中心にベクトルqで表される点をθ回転させることができる。したがって、ベクトルqを対応点の重心G1からの座標ベクトルとすれば、対応点Pl1〜Pl5を回転させることができる。 The unit quaternion is a quaternion in which the square root of the square sum of the real part and the imaginary part is 1. The unit quaternion is represented by Σ = (cos θ / 2; sin (θ / 2) p) (p is a three-dimensional vector of an imaginary part). When Σ * qΣ is calculated by the unit quaternion (Σ * is a conjugate of Σ), the point represented by the vector q can be rotated θ around the rotation axis p. Therefore, if the vector q is a coordinate vector from the centroid G1 of the corresponding point, the corresponding points P 11 to P 15 can be rotated.

最後に、並進変換Tは、回転変換Rで対応点Pl1〜Pl5を回転させ、スケール変換Sでスケール変換したものと、対応点Pr1〜Pr5の差として求められる。 Finally, translational transform T rotates the corresponding point P l1 to P l5 in rotational transform R, to those scaled by scaling S, is determined as the difference of the corresponding point P r1 to P r5.

なお、Absolute Orientationの具体的手法についてはBerthold K. P. HornによるClosed-form solution of absolute orientation using unit quaternionsを参照されたい。   For the specific method of Absolute Orientation, refer to Closed-form solution of absolute orientation using unit quaternions by Berthold K. P. Horn.

図10は、N個の位置合わせ用パターンから取得された三次元座標の位置合わせを模式的に説明する図の一例である。図10(a)に示すように、カメラ1,2〜Nは重複撮像領域36の位置合わせ用パターン31をそれぞれ撮像する。点線の四角は撮像範囲を示している。上記のように、カメラ2が撮像した位置合わせ用パターン31と、カメラ1が撮像した位置合わせ用パターン31との対応点が求められる。そして、この対応点から、回転変換Q1・並進変換T1・スケール変換S1が求められる。   FIG. 10 is an example of a diagram for schematically explaining the alignment of three-dimensional coordinates acquired from N alignment patterns. As shown in FIG. 10A, the cameras 1 to 2 -N respectively image the alignment pattern 31 in the overlapping imaging region 36. A dotted square indicates an imaging range. As described above, corresponding points between the alignment pattern 31 captured by the camera 2 and the alignment pattern 31 captured by the camera 1 are obtained. From these corresponding points, rotation conversion Q1, translation conversion T1, and scale conversion S1 are obtained.

次に、図10(b)に示すように、カメラ2,3は重複撮像領域36の位置合わせ用パターン31をそれぞれ撮像する。カメラ3が撮像した位置合わせ用パターン31と、カメラ2が撮像した位置合わせ用パターン31との対応点が求められる。そして、この対応点から、回転変換Q2・並進変換T2・スケール変換S2が求められる。   Next, as illustrated in FIG. 10B, the cameras 2 and 3 respectively capture the alignment pattern 31 in the overlapping imaging region 36. Corresponding points between the alignment pattern 31 captured by the camera 3 and the alignment pattern 31 captured by the camera 2 are obtained. From these corresponding points, rotation conversion Q2, translation conversion T2, and scale conversion S2 are obtained.

最終的に、カメラN−1,Nが重複撮像領域36における位置合わせ用パターン31をそれぞれ撮像する。同様に、対応点から、回転変換Q(N−1)・並進変換T(N−1)・スケール変換S(N−1)が求められる。   Finally, the cameras N-1 and N respectively image the alignment pattern 31 in the overlapping imaging region 36. Similarly, rotation conversion Q (N-1), translational conversion T (N-1), and scale conversion S (N-1) are obtained from the corresponding points.

隣接した撮像場所同士で、回転変換Q・並進変換T・スケール変換Sが求められると、図10(c)に示すように、各撮像場所で撮像された任意のポイントクラウド33を、N番目の撮像場所から順番に位置合わせすることができる。   When rotation transformation Q, translation transformation T, and scale transformation S are obtained between adjacent imaging locations, as shown in FIG. 10C, an arbitrary point cloud 33 imaged at each imaging location is converted to the Nth point cloud. Positioning can be performed in order from the imaging location.

図11は、変換情報作成部29がN個の位置合わせ用パターン31から取得された三次元座標により回転変換Q・並進変換T・スケール変換Sを求める手順を示すフローチャート図の一例である。
S101:変換情報作成部29は変数nを1に初期化する。
S102:投影画像三次元位置取得部21は、カメラn、n+1が重複撮像領域36から撮像した位置合わせ用パターン31から特徴点から三次元座標を取得する。
S103:変換情報作成部29はスケール変換S(n)を求める。
S104:変換情報作成部29は回転変換R(n)を求める。
S105:変換情報作成部29は並進変換T(n)を求める。
S106:変換情報作成部29はnがN−1と一致するか否かを判定する。
S107:ステップS106の判定がNoの場合、変換情報作成部29はnを1つ大きくする。
FIG. 11 is an example of a flowchart illustrating a procedure in which the conversion information creation unit 29 obtains the rotation transformation Q, translation transformation T, and scale transformation S from the three-dimensional coordinates acquired from the N alignment patterns 31.
S101: The conversion information creation unit 29 initializes a variable n to 1.
S102: The projected image 3D position acquisition unit 21 acquires 3D coordinates from the feature points from the alignment pattern 31 captured by the cameras n and n + 1 from the overlapping imaging region 36.
S103: The conversion information creation unit 29 obtains scale conversion S (n).
S104: The conversion information creation part 29 calculates | requires rotation conversion R (n).
S105: The conversion information creation unit 29 obtains a translation conversion T (n).
S106: The conversion information creation unit 29 determines whether n matches N-1.
S107: If the determination in step S106 is No, the conversion information creation unit 29 increases n by one.

ステップS106の判定がYesの場合、全ての隣接した撮像位置における回転変換Q・並進変換T・スケール変換Sが得られる。これにより、歪み補正用パターン32を用いた歪み補正が可能になる。したがって、次に、各プロジェクター13が歪み補正用パターン32を投影し、各カメラがそれぞれ撮像する。そして、位置合わせ部22は歪み補正用パターン32の特徴点に対し位置合わせを行う。   When the determination in step S106 is Yes, rotation transformation Q, translation transformation T, and scale transformation S at all adjacent imaging positions are obtained. As a result, distortion correction using the distortion correction pattern 32 becomes possible. Therefore, next, each projector 13 projects the distortion correction pattern 32 and each camera captures an image. Then, the alignment unit 22 aligns the feature points of the distortion correction pattern 32.

図12は、N個の投影画像から取得された歪み補正用パターン32の特徴点の三次元座標の位置合わせを模式的に説明する図の一例である。図12(a)に示すように、カメラ1はプロジェクター1が投影した歪み補正用パターン32を撮像する。図12(b)に示すように、カメラ2はプロジェクター2が投影した歪み補正用パターン32を撮像する。   FIG. 12 is an example of a diagram schematically illustrating the alignment of the three-dimensional coordinates of the feature points of the distortion correction pattern 32 acquired from N projection images. As shown in FIG. 12A, the camera 1 images a distortion correction pattern 32 projected by the projector 1. As illustrated in FIG. 12B, the camera 2 captures the distortion correction pattern 32 projected by the projector 2.

最終的に、カメラNが、プロジェクターNが投影した歪み補正用パターン32を撮像すると、図12(c)に示すように、各カメラ1〜Nが撮像した歪み補正用パターン32の特徴点の三次元座標の位置合わせが行われる。   Finally, when the camera N captures the distortion correction pattern 32 projected by the projector N, as shown in FIG. 12C, the tertiary feature points of the distortion correction pattern 32 captured by the cameras 1 to N are obtained. The original coordinates are aligned.

図13は、位置合わせ部22がN個の歪み補正用パターン32の投影画像から取得された三次元座標の位置合わせを行う手順を示すフローチャート図の一例である。
S201:位置合わせ部22は変数nを1に初期化する。
S202:投影画像三次元位置取得部21はカメラnが撮像した歪み補正用パターン32から三次元座標を取得する。
S203:位置合わせ部22はn=Nとなったか否かを判定する。
S204:ステップS203の判定がNoの場合、位置合わせ部22はnを1つ大きくする。
S205:ステップS203の判定がYesの場合、位置合わせ部22はnをNに初期化する。
S206:位置合わせ部22は、歪み補正用パターン32の特徴点の三次元座標を、並進変換T(n−1)、回転変換Q(n−1)及びスケール変換S(n−1)を用いて変換する。
FIG. 13 is an example of a flowchart illustrating a procedure in which the alignment unit 22 performs alignment of the three-dimensional coordinates acquired from the projection images of the N distortion correction patterns 32.
S201: The alignment unit 22 initializes a variable n to 1.
S202: The projected image 3D position acquisition unit 21 acquires 3D coordinates from the distortion correction pattern 32 captured by the camera n.
S203: The alignment unit 22 determines whether n = N.
S204: When the determination in step S203 is No, the alignment unit 22 increases n by one.
S205: If the determination in step S203 is Yes, the alignment unit 22 initializes n to N.
S206: The alignment unit 22 uses the translation transformation T (n-1), the rotation transformation Q (n-1), and the scale transformation S (n-1) for the three-dimensional coordinates of the feature points of the distortion correction pattern 32. To convert.

これにより、カメラNが撮像した歪み補正用パターン32の特徴点の三次元座標は、カメラN−1の座標系に変換される。そして次のサイクルではカメラN−1が撮像した歪み補正用パターン32の特徴点の三次元座標は、カメラN−2の座標系に変換される。
カメラN → カメラN−1
カメラN−1 → カメラN−2
カメラN−2 → カメラN−3

カメラ2 → カメラ1
したがって、最終的に、カメラN〜カメラ2が撮像した歪み補正用パターン32の特徴点の三次元座標は、全てカメラ1の座標系に変換される。
S207:位置合わせ部22は、n=2となったか否かを判定する。すなわち、カメラ1の座標系への変換が終わったか否かが判定される。
S208:ステップS207の判定がNoの場合、位置合わせ部22はnを1つ小さくする。
Thereby, the three-dimensional coordinates of the feature points of the distortion correction pattern 32 imaged by the camera N are converted into the coordinate system of the camera N-1. In the next cycle, the three-dimensional coordinates of the feature points of the distortion correction pattern 32 imaged by the camera N-1 are converted into the coordinate system of the camera N-2.
Camera N → Camera N-1
Camera N-1 → Camera N-2
Camera N-2 → Camera N-3
:
Camera 2 → Camera 1
Therefore, finally, all the three-dimensional coordinates of the feature points of the distortion correction pattern 32 imaged by the cameras N to 2 are converted into the coordinate system of the camera 1.
S207: The alignment unit 22 determines whether n = 2. That is, it is determined whether or not the conversion of the camera 1 to the coordinate system has been completed.
S208: When the determination in step S207 is No, the alignment unit 22 decreases n by one.

ステップS207の判定がYesの場合、カメラ1の座標系にカメラ2〜Nの三次元座標が位置合わせされたことになる。   If the determination in step S207 is Yes, the three-dimensional coordinates of the cameras 2 to N are aligned with the coordinate system of the camera 1.

ところで、本実施形態では次のステップS60でモデルフィッティングを行うが、モデルフィッティングを行うには、歪み補正用パターン32の特徴点では点間隔が大きすぎ、モデルフィッティングに誤差が入るおそれがある。そこで、以下のように、歪み補正用パターン32の特徴点ではなく、ポイントクラウド33に対し位置合わせを行ってもよい。Kinect(登録商標)のようにTOF方式で距離情報を取得する場合、投影対象11をそのまま撮像することで画素毎に距離情報が得られる。また、投影対象11の表面が均一な輝度であるため、ステレオカメラでは距離情報の精度が低下する場合には、モデルフィッティングのための画像(歪み補正用パターン32よりも特徴点が密な画像)を投影してもよい。   By the way, in this embodiment, model fitting is performed in the next step S60. However, in order to perform model fitting, the point interval is too large at the feature points of the distortion correction pattern 32, and there is a possibility that an error may occur in the model fitting. Therefore, as described below, not the feature points of the distortion correction pattern 32 but the point cloud 33 may be aligned. When distance information is acquired by the TOF method like Kinect (registered trademark), distance information can be obtained for each pixel by imaging the projection object 11 as it is. In addition, since the surface of the projection object 11 has a uniform brightness, when the accuracy of the distance information is reduced in the stereo camera, an image for model fitting (an image with feature points denser than the distortion correction pattern 32). May be projected.

図14は、投影対象11のポイントクラウドの位置合わせを模式的に説明する図の一例である。なお、処理手順は図12と同様である。   FIG. 14 is an example of a diagram for schematically explaining the alignment of the point cloud of the projection target 11. The processing procedure is the same as in FIG.

図14(a)に示すように、カメラ1は投影対象11−1を撮像する。プロジェクター1は例えばコンテンツ画像を投影してもよいし、プロジェクター1は何も投影せず投影対象11の意匠などがそのまま撮像されてもよい。図14(b)に示すように、カメラ2は投影対象11−2を撮像する。   As shown in FIG. 14A, the camera 1 images the projection object 11-1. For example, the projector 1 may project a content image, or the projector 1 may project nothing but the design of the projection target 11 as it is. As shown in FIG. 14B, the camera 2 images the projection target 11-2.

最終的に、カメラNが投影対象11−Nを撮像すると、図14(c)に示すように、位置合わせ部22は各カメラ1〜Nが撮像した投影対象11のポイントクラウド33の位置合わせが行われる。   Finally, when the camera N captures the projection target 11-N, as shown in FIG. 14C, the alignment unit 22 aligns the point cloud 33 of the projection target 11 captured by the cameras 1 to N. Done.

図15は、位置合わせ部22がN個のポイントクラウド33から取得された三次元座標の位置合わせを行う手順を示すフローチャート図の一例である。なお、処理手順は図13と同様である。
S201:位置合わせ部22は変数nを1に初期化する。
S202:投影画像三次元位置取得部21はカメラnが撮像した投影対象11からポイントクラウド33を取得する。
S203:位置合わせ部22はn=Nとなったか否かを判定する。
S204:ステップS203の判定がNoの場合、位置合わせ部22はnを1つ大きくする。
S205:ステップS203の判定がYesの場合、位置合わせ部22はnをNに初期化する。
S206:位置合わせ部22は、投影対象11のポイントクラウド33を、並進変換T(n−1)、回転変換Q(n−1)及びスケール変換S(n−1)を用いて変換する。これにより、カメラNが撮像した投影対象11のポイントクラウド33はカメラN−1の座標系に変換される。そして次のサイクルではカメラN−1が撮像した投影対象11のポイントクラウド33は、カメラN−2の座標系に変換される。したがって、最終的に、カメラN〜カメラ2が撮像した投影対象11のポイントクラウド33は、全てカメラ1の座標系に変換される。
S207:位置合わせ部22は、n=2となったか否かを判定する。すなわち、カメラ1の座標系への変換が終わったか否かが判定される。
S208:ステップS207の判定がNoの場合、位置合わせ部22はnを1つ小さくする。
FIG. 15 is an example of a flowchart illustrating a procedure in which the alignment unit 22 aligns the three-dimensional coordinates acquired from the N point clouds 33. The processing procedure is the same as in FIG.
S201: The alignment unit 22 initializes a variable n to 1.
S202: The projection image three-dimensional position acquisition unit 21 acquires the point cloud 33 from the projection target 11 captured by the camera n.
S203: The alignment unit 22 determines whether n = N.
S204: When the determination in step S203 is No, the alignment unit 22 increases n by one.
S205: If the determination in step S203 is Yes, the alignment unit 22 initializes n to N.
S206: The alignment unit 22 converts the point cloud 33 of the projection target 11 using translational transformation T (n-1), rotational transformation Q (n-1), and scale transformation S (n-1). Thereby, the point cloud 33 of the projection target 11 imaged by the camera N is converted into the coordinate system of the camera N-1. In the next cycle, the point cloud 33 of the projection object 11 captured by the camera N-1 is converted into the coordinate system of the camera N-2. Therefore, finally, all the point clouds 33 of the projection object 11 captured by the cameras N to 2 are converted into the coordinate system of the camera 1.
S207: The alignment unit 22 determines whether n = 2. That is, it is determined whether or not the conversion of the camera 1 to the coordinate system has been completed.
S208: When the determination in step S207 is No, the alignment unit 22 decreases n by one.

このように密な三次元座標(ポイントクラウド33)を取得することで、モデルフィッティングの近似精度を向上させることができる。   By acquiring dense three-dimensional coordinates (point cloud 33) in this way, the approximation accuracy of model fitting can be improved.

<S60 モデル算出>
モデル算出部23は、歪み補正用パターン32の特徴点の三次元座標又はポイントクラウド33を、投影対象11の形状モデル35にフィッティングし、形状モデル35の最適なモデルパラメータを推定する。
<S60 model calculation>
The model calculation unit 23 fits the three-dimensional coordinates of the feature points of the distortion correction pattern 32 or the point cloud 33 to the shape model 35 of the projection target 11, and estimates the optimal model parameters of the shape model 35.

モデル算出部23は、モデルフィッティングの前処理として、三次元座標の除去を事前に行ってもよい。例えば、三次元座標が均一に分布していると仮定して、点同士の距離を求め、距離の平均から閾値以上離れている点をモデルフィッティングの対象から除去する。   The model calculation unit 23 may perform removal of the three-dimensional coordinates in advance as preprocessing for model fitting. For example, assuming that the three-dimensional coordinates are uniformly distributed, the distance between the points is obtained, and the points that are more than the threshold from the average distance are removed from the model fitting target.

モデル算出部23は、位置合わせされた三次元座標に対し所定の三次元の形状モデル35を当てはめて、投影対象11を表す投影体モデルを計算する。より具体的には、三次元座標の集まりとマッチする三次元の形状モデル35のモデルパラメータを算出する。ここで、本実施形態では、投影対象11の形状モデル35は円筒モデルであるので、モデルフィッティング計算では、円筒モデルの軸の直線の方程式、及び、半径のうちの少なくとも1つのパラメータを不定として、誤差が最小となる最も確からしいパラメータまたはパラメータの組み合わせが推定される。   The model calculation unit 23 applies a predetermined three-dimensional shape model 35 to the aligned three-dimensional coordinates to calculate a projection model representing the projection target 11. More specifically, the model parameter of the three-dimensional shape model 35 that matches the set of three-dimensional coordinates is calculated. Here, in this embodiment, since the shape model 35 of the projection target 11 is a cylindrical model, in the model fitting calculation, at least one parameter of the linear equation of the axis of the cylindrical model and the radius is assumed to be indefinite, The most probable parameter or combination of parameters with the smallest error is estimated.

円筒モデルのすべてのパラメータを計算により推定してもよいが、特に限定されるものではない。例えば、投影対象11の円筒の大きさ(半径)が既知である場合や、軸の方向や位置が既知とみなせる場合などは、1または複数のパラメータのユーザからの入力値や既定値を制約条件として、残りのパラメータを不定として算出することもできる。   All the parameters of the cylindrical model may be estimated by calculation, but are not particularly limited. For example, when the size (radius) of the cylinder of the projection target 11 is known or when the direction and position of the axis can be regarded as known, the input value or default value from the user of one or more parameters is a constraint condition. The remaining parameters can be calculated as indefinite.

事前に準備された形状モデル35に対しフィッティングを行うことにより、投影対象11の一部しか計測できない場合や、投影対象以外の物体が写り込んでしまった場合でも、また、三次元測定に含まれるノイズが多い場合でも、投影対象11の三次元形状を好適に推定することができる。   Even if only a part of the projection target 11 can be measured by fitting the shape model 35 prepared in advance or an object other than the projection target is reflected, it is also included in the three-dimensional measurement. Even when there is a lot of noise, the three-dimensional shape of the projection object 11 can be suitably estimated.

モデルフィッティングの手法は、特に限定されるものではない。例えば、他の三次元の形状モデル(球体、立方体、平面、楕円曲面など、なめらかな表面を有する任意の三次元モデル)を用いてもよく、また、いくつかの異なる形状モデル35を事前準備し、複数の形状モデル35のうちのもっとも確からしいモデルを決定するようにしてもよい。   The method of model fitting is not particularly limited. For example, other three-dimensional shape models (any three-dimensional model having a smooth surface such as a sphere, a cube, a plane, an elliptical curved surface, etc.) may be used, and several different shape models 35 are prepared in advance. The most probable model among the plurality of shape models 35 may be determined.

<S70 座標変換>
座標変換部24は、歪み補正用パターン32の特徴点の三次元座標を、推定したモデルパラメータを用いて形状モデル35の表面の二次元の投影対象表面座標系に変換する。投影対象表面座標系は、円筒の軸方向の高さhと、軸に垂直な基準軸を基準とする角度θで座標を表す。
<S70 coordinate transformation>
The coordinate conversion unit 24 converts the three-dimensional coordinates of the feature points of the distortion correction pattern 32 into a two-dimensional projection target surface coordinate system on the surface of the shape model 35 using the estimated model parameters. The projection target surface coordinate system represents coordinates with a height h in the axial direction of the cylinder and an angle θ with reference to a reference axis perpendicular to the axis.

歪み補正用パターン32の特徴点の三次元座標を、二次元の投影対象表面座標系に変換することで、マルチプロジェクションにおいて投影対象11の表面への歪みの少ない投影が可能になる。   By converting the three-dimensional coordinates of the feature points of the distortion correction pattern 32 to the two-dimensional projection target surface coordinate system, it is possible to perform projection with less distortion on the surface of the projection target 11 in multi-projection.

図16は、形状モデル35の表面の二次元の投影対象表面座標系への三次元座標の変換を説明する図の一例である。図示するように、円柱座標系を定義する。円筒の底面の任意の方向をx軸、x軸と直交する方向をy軸、x軸とy軸の交点に垂直な方向をz軸として、z軸方向をh、円筒表面からz軸への垂線がx軸となす角をθとする。   FIG. 16 is an example of a diagram illustrating conversion of three-dimensional coordinates into a two-dimensional projection target surface coordinate system on the surface of the shape model 35. As shown, a cylindrical coordinate system is defined. Arbitrary direction of the bottom surface of the cylinder is the x-axis, the direction perpendicular to the x-axis is the y-axis, the direction perpendicular to the intersection of the x-axis and the y-axis is the z-axis, the z-axis direction is h, Let θ be the angle between the perpendicular and the x-axis.

図16の記号の意味は以下のとおりである。
ベクトルsi:特徴点の座標ベクトル(円柱座標系の原点Oと三次元座標を結ぶベクトル。iは三次元座標の識別番号)
ベクトルzM:z軸方向の単位ベクトル
ベクトルxM:x軸方向の単位ベクトル
ベクトルyM:y軸方向の単位ベクトル
これらから、形状モデル35の表面上の三次元座標(x, y, z)は次式により円柱座標(h, θ)に変換することができる。
The meanings of the symbols in FIG. 16 are as follows.
Vector s i: coordinate vector of feature points (vector connecting the origin O of the cylindrical coordinate system and the three-dimensional coordinates; i is the identification number of the three-dimensional coordinates)
Vector z M : Unit vector vector in the z-axis direction x M : Unit vector vector in the x-axis direction y M : Unit vector in the y-axis direction From these, the three-dimensional coordinates (x, y, z) on the surface of the shape model 35 Can be converted to cylindrical coordinates (h, θ) by

Figure 2015233266
ただし、本手法は円筒形状に限定させるものではなく、角柱や角錐など対象物側面の座標が柱座標(h, θ)により一意に決定できる形状であれば適用可能である。
Figure 2015233266
However, this method is not limited to a cylindrical shape, and can be applied as long as the coordinates of the side of the object such as a prism or a pyramid can be uniquely determined by the column coordinates (h, θ).

上式(5)からhは特徴点のz座標と等しい。なお、式(6)の分母は正規化のためにz軸から特徴点までの距離でz軸と特徴点を結ぶベクトルを割っている。円柱座標(h, θ)が算出できれば、z軸から√(x+y)の距離に特徴点の三次元座標を配置できる。 From the above equation (5), h is equal to the z coordinate of the feature point. Note that the denominator of Equation (6) divides a vector connecting the z-axis and the feature point by the distance from the z-axis to the feature point for normalization. If the cylindrical coordinates (h, θ) can be calculated, the three-dimensional coordinates of the feature points can be arranged at a distance of √ (x 2 + y 2 ) from the z axis.

ところで、図16のように形状モデル35の表面の二次元の投影対象表面座標系へ三次元座標を変換した場合でも、三次元座標が形状モデル35の表面に変換されるとは限らない。これは、三次元座標に誤差があるため実際には形状モデル35の表面から、三次元座標が浮いている又は内側に存在している場合があるためである。   By the way, even when the three-dimensional coordinates are converted into the two-dimensional projection target surface coordinate system on the surface of the shape model 35 as shown in FIG. 16, the three-dimensional coordinates are not always converted to the surface of the shape model 35. This is because there is an error in the three-dimensional coordinates, so that the three-dimensional coordinates may actually float or exist inside the surface of the shape model 35.

そこで、図17に示すように、三次元座標を形状モデル35の表面に射影することが好ましい。図17は、三次元座標の形状モデル35の表面への射影を実現する2つの方法の模式図である。   Therefore, it is preferable to project the three-dimensional coordinates onto the surface of the shape model 35 as shown in FIG. FIG. 17 is a schematic diagram of two methods for realizing the projection of the three-dimensional coordinate shape model 35 onto the surface.

図17(a)は、形状モデル35の表面の最も近い点(法線方向に)三次元座標を移動することで射影している。この方法は、式(5)(6)を変更することなく使用できるため、実装が簡単であるという利点がある。これは、式(5)(6)で特徴点の柱座標(h, θ)が得られるが、θは正規化して求められているので(x、yの絶対値が含まれていない)、三次元座標を形状モデル35の表面の二次元の投影対象表面座標系へ変換する際は、半径rの位置に変換すればよいためである。   FIG. 17A is projected by moving the three-dimensional coordinates closest to the surface of the shape model 35 (in the normal direction). Since this method can be used without changing the equations (5) and (6), there is an advantage that the implementation is simple. This is because the column coordinates (h, θ) of the feature points are obtained by the equations (5) and (6), but θ is obtained by normalization (the absolute values of x and y are not included). This is because when the three-dimensional coordinates are converted into the two-dimensional projection target surface coordinate system on the surface of the shape model 35, the three-dimensional coordinates may be converted into the position of the radius r.

これに対し、図17(b)では、三次元座標の奥行き方向(距離方向)の誤差を考慮して、カメラ方向に特徴点の座標を補正することで射影する。射影のため、式(5)(6)による形状モデル35の表面の二次元の投影対象表面座標系への変換の前に、形状モデル35の表面に射影されるように三次元座標を変更しておく。   On the other hand, in FIG. 17B, projection is performed by correcting the coordinates of feature points in the camera direction in consideration of errors in the depth direction (distance direction) of the three-dimensional coordinates. For projection, the three-dimensional coordinates are changed so that the surface of the shape model 35 is projected onto the surface of the shape model 35 before the transformation of the surface of the shape model 35 to the two-dimensional projection target surface coordinate system according to the equations (5) and (6). Keep it.

この射影のために、以下の連立方程式を解く。図17(c)は連立方程式のベクトルの参考図である。   For this projection, the following simultaneous equations are solved. FIG. 17C is a reference diagram of vectors of simultaneous equations.

Figure 2015233266
式(7)(8)において記号は以下の意味である。
ベクトルsi:円筒表面に射影された特徴点の座標ベクトル(円柱座標系の原点Oと円筒表面の三次元座標を結ぶベクトル)
ベクトルsi´:特徴点の座標ベクトル(円柱座標系の原点Oと三次元座標を結ぶベクトル)
ベクトルVcam:カメラ1の座標ベクトル(円柱座標系の原点Oとカメラ1を結ぶベクトル)
ベクトルzM:z軸方向の単位ベクトル
ベクトルxM:x軸方向の単位ベクトル
ベクトルyM:y軸方向の単位ベクトル
ベクトル「si´−Vcam」:カメラ1と三次元座標を結ぶベクトル
ベクトル「si´−si」:円筒表面に射影された三次元座標と、射影前の三次元座標とを結ぶベクトル
t:ベクトル「si´−Vcam」の縮尺率(スカラー)
ここで、未知であるベクトルsi、スカラーtがあり、それ以外は既知であり、方程式が2つあるので、連立方程式を解くことができる。式(7)によりベクトルsi´がベクトルsiに変更されている。
Figure 2015233266
In the formulas (7) and (8), the symbols have the following meanings.
Vector si: coordinate vector of feature points projected onto the cylindrical surface (vector connecting the origin O of the cylindrical coordinate system and the three-dimensional coordinates of the cylindrical surface)
Vector si ': feature point coordinate vector (vector connecting the origin O of the cylindrical coordinate system and the three-dimensional coordinates)
Vector Vcam: Coordinate vector of camera 1 (vector connecting origin O of cylindrical coordinate system and camera 1)
Vector z M : Unit vector vector in the z-axis direction x M : Unit vector vector in the x-axis direction y M : Unit vector vector in the y-axis direction “si′−Vcam”: Vector vector “si” connecting the camera 1 and the three-dimensional coordinates '-Si': vector connecting the three-dimensional coordinates projected onto the cylindrical surface and the three-dimensional coordinates before the projection t: scale ratio (scalar) of the vector "si'-Vcam"
Here, there are an unknown vector s i and a scalar t, and the others are known and there are two equations, so that simultaneous equations can be solved. The vector si ′ is changed to the vector si by the equation (7).

ベクトルsi、スカラーtを求めた後は、式(5)(6)により特徴点の柱座標(h, θ)を求めることで、三次元座標の奥行き方向(距離方向)の誤差を低減できる。   After obtaining the vector s i and the scalar t, by obtaining the column coordinates (h, θ) of the feature points using the equations (5) and (6), errors in the depth direction (distance direction) of the three-dimensional coordinates can be reduced.

図示するようにスカラーtはカメラ1と特徴点の距離の縮尺率となっている。よって、カメラ1との距離方向に特徴点の座標を補正する射影を行うことができる。これにより、カメラの奥行き方向の誤差が形状モデル表面の二次元の投影対象表面座標の誤差になることを避けることができる。   As shown in the figure, the scalar t is the scale ratio of the distance between the camera 1 and the feature point. Therefore, projection for correcting the coordinates of the feature points in the distance direction from the camera 1 can be performed. Thereby, it is possible to avoid an error in the depth direction of the camera from being an error in the two-dimensional projection target surface coordinates on the shape model surface.

<S80 歪み補正パラメータの算出>
以上の処理で、歪み補正用パターン32が形状モデル35の表面の二次元の投影対象表面座標系で表された。しかし、歪み補正用パターン32は円筒の表面に近距離から投影されているので、図1に示したように歪んでいる。このため、歪み補正パラメータ算出部25は、形状モデル35の表面の二次元の投影対象表面座標系で表された歪み補正用パターン32の特徴点(二次元画像)と、プロジェクター画像とを比較して、射影変換行列Hを算出する。
<S80 Distortion Correction Parameter Calculation>
With the above processing, the distortion correction pattern 32 is represented in the two-dimensional projection target surface coordinate system on the surface of the shape model 35. However, since the distortion correction pattern 32 is projected onto the surface of the cylinder from a short distance, it is distorted as shown in FIG. For this reason, the distortion correction parameter calculation unit 25 compares the feature points (two-dimensional image) of the distortion correction pattern 32 expressed in the two-dimensional projection target surface coordinate system on the surface of the shape model 35 with the projector image. Then, the projective transformation matrix H is calculated.

図18は、二次元画像42とプロジェクター画像41における対応点を説明する図の一例である。プロジェクター画像41は投影前の画像データなので円が均一に分布しているのに対し(均一である必要はないが)、二次元画像42は投影面が円筒形状であることなどに起因して、円の位置が歪んでいる。   FIG. 18 is an example of a diagram for explaining corresponding points in the two-dimensional image 42 and the projector image 41. Since the projector image 41 is image data before projection and the circle is uniformly distributed (although it is not necessarily uniform), the two-dimensional image 42 is caused by the fact that the projection surface is cylindrical, etc. The position of the circle is distorted.

歪み補正パラメータ算出部25は、二次元画像42の範囲内の最大の矩形領域を切り出す。そして、ステップS50で三次元座標の位置合わせのために対応点を抽出した場合と同様に、特徴点を検出する。円パターンの場合、例えば連続した黒画素の重心を特徴点として検出する。   The distortion correction parameter calculation unit 25 cuts out the largest rectangular area within the range of the two-dimensional image 42. Then, the feature points are detected in the same manner as when corresponding points are extracted for the alignment of the three-dimensional coordinates in step S50. In the case of a circular pattern, for example, the center of gravity of continuous black pixels is detected as a feature point.

歪み補正パラメータ算出部25は、二次元画像42とプロジェクター画像41からそれぞれ検出された円に、例えば左上などから順にインデックスを付与する。矩形範囲内の円のうち、同じインデックスが付与された円同士が対応する対応点の組となる。なお、特徴点の対応付けは、人間が二次元画像42とプロジェクター画像41の円を1つずつ組にして対応させてもよい。   The distortion correction parameter calculation unit 25 assigns indexes to the circles detected from the two-dimensional image 42 and the projector image 41, for example, in order from the upper left. Among circles in the rectangular range, circles with the same index are a set of corresponding points corresponding to each other. Note that the feature points may be associated with each other by making a pair of circles of the two-dimensional image 42 and the projector image 41 one by one.

図19(a)は、歪み補正パラメータの算出処理を説明する図の一例である。二次元画像は図19(a)に示すように、円筒の形状モデル35に対応して歪んでいる。歪み補正パラメータ算出部25は、二次元画像42が投影時に補正後の投影画像44となるように、プロジェクター画像を補正する歪み補正のための歪み補正パラメータ(射影変換行列H)を算出する。   FIG. 19 (a) is an example of a diagram illustrating a distortion correction parameter calculation process. The two-dimensional image is distorted corresponding to the cylindrical shape model 35 as shown in FIG. The distortion correction parameter calculation unit 25 calculates a distortion correction parameter (projection transformation matrix H) for distortion correction for correcting the projector image so that the two-dimensional image 42 becomes a projection image 44 after correction at the time of projection.

図19(b)に示すように、画像変形部26は、算出した射影変換行列Hを用いて、プロジェクター画像41を補正して、補正画像43を生成する。   As illustrated in FIG. 19B, the image deformation unit 26 corrects the projector image 41 using the calculated projective transformation matrix H, and generates a corrected image 43.

図19(c)に示すように、プロジェクター13が射影変換行列Hで補正された補正画像43を投影することで、歪みの低減された補正後の投影画像44を投影できる。すなわち、プロジェクターは投影対象11の形状に対応する変形を相殺する補正画像43を投影する。   As shown in FIG. 19C, the projector 13 projects the corrected image 43 corrected with the projective transformation matrix H, so that the corrected projected image 44 with reduced distortion can be projected. That is, the projector projects the correction image 43 that cancels the deformation corresponding to the shape of the projection target 11.

<<射影変換行列Hの算出>>
図20は、射影変換行列Hの算出を説明するための図の一例である。なお、二次元画像42は円柱座標系で表されているので、プロジェクター画像41と同じxy座標系に変換しておくことで処理が容易になる。また、プロジェクター画像41の画素数が、二次元画像42の画素数と一致しない場合は、二次元画像42の画素数をプロジェクター画像41の画素数に一致させ、両者を同じサイズに整えておく。
<< Calculation of projective transformation matrix H >>
FIG. 20 is an example of a diagram for explaining the calculation of the projective transformation matrix H. Since the two-dimensional image 42 is expressed in a cylindrical coordinate system, the processing is facilitated by converting it to the same xy coordinate system as the projector image 41. When the number of pixels of the projector image 41 does not match the number of pixels of the two-dimensional image 42, the number of pixels of the two-dimensional image 42 is matched with the number of pixels of the projector image 41, and both are adjusted to the same size.

歪み補正パラメータ算出部25は、図18で取得した特徴点の対応に基づき、領域毎に対応付けを行う。この領域45は、4つの円で囲まれる四角形とする。プロジェクター画像41の1領域と二次元画像42の1領域の対応関係は、射影変換で記述される。プロジェクター画像41の点をm=(xp,yp)、二次元画像の点をm(xc,yc)とすると射影変換により点mはmを用いて以下のように表すことができる。 The distortion correction parameter calculation unit 25 performs association for each region based on the correspondence of the feature points acquired in FIG. This region 45 is a quadrangle surrounded by four circles. The correspondence between one area of the projector image 41 and one area of the two-dimensional image 42 is described by projective transformation. Assuming that the point of the projector image 41 is m p = (x p , y p ) and the point of the two-dimensional image is m c (x c , y c ), the point m p uses m c by projective transformation as follows: Can be represented.

Figure 2015233266
h1〜h8は未知の射影変換パラメータである。また、mとmは同次座標を用いて次のように表現できる。
Figure 2015233266
h1 to h8 are unknown projective transformation parameters. Also, m p and m c can be expressed as follows by using the homogeneous coordinates.

Figure 2015233266
Hが射影変換行列である。
Figure 2015233266
H is a projective transformation matrix.

また、プロジェクター画像の4つの円と二次元画像の4つの円同士の対応から以下の拘束が得られる。   Further, the following constraint is obtained from the correspondence between the four circles of the projector image and the four circles of the two-dimensional image.

Figure 2015233266
この式により、8つの未知パラメータに対して2つの拘束が得られる。したがって、1つの領域45の頂点である4つの円の座標から射影変換行列Hの全ての要素を決定できる。 <S90 画像補正>
画像変形部26は、歪み補正パラメータを用いて二次元画像を変形する。
図21は、プロジェクター画像41の補正について説明する図の一例である。プロジェクター画像41の補正は、プロジェクター13が投影するプロジェクター画像を予め、歪みとは逆方向に変形させることで行う。
Figure 2015233266
This equation gives two constraints on the eight unknown parameters. Therefore, all elements of the projective transformation matrix H can be determined from the coordinates of the four circles that are the vertices of one region 45. <S90 Image Correction>
The image deforming unit 26 deforms the two-dimensional image using the distortion correction parameter.
FIG. 21 is an example of a diagram for explaining the correction of the projector image 41. The projector image 41 is corrected by previously deforming the projector image projected by the projector 13 in the direction opposite to the distortion.

まず、画像変形部26は、二次元画像内で長方形の投影領域を決める。投影領域は、二次元画像の最大内接長方形とする。ただし、プロジェクター13のアスペクト比と同じとすることが好ましいので、実際には最大内接長方形よりも小さくなる。したがって、補正画像が投影された投影画像は、補正前の投影画像よりも小さくなる。   First, the image transformation unit 26 determines a rectangular projection area in the two-dimensional image. The projection area is the maximum inscribed rectangle of the two-dimensional image. However, since the aspect ratio of the projector 13 is preferably the same, it is actually smaller than the maximum inscribed rectangle. Therefore, the projected image on which the corrected image is projected is smaller than the projected image before correction.

この投影領域にはプロジェクター画像を縮小したものが表示される。したがって、投影領域の点Acはプロジェクター画像の点Apの画素を参照する。以下では、投影領域の点Acを補正画像の点Aに対応づける手順を説明する。
(1)まず、投影領域の任意の点Acを取り出す。射影変換により点Acの座標(xc、yc)をプロジェクター画像の点Apに変換することができたので、射影変換とは逆の変換で、点Acを補正画像43の点Aに対応づけることができる。つまり、点Acは点Apの画素値を参照して、補正画像43の点Aに対応づけられる。なお、点Acの座標(xc、yc)は、投影領域ではなくプロジェクター13の投影範囲の左上を原点(0,0)とした座標系の座標である。
(2)次に、点Acが、投影領域内ではどの位置に相当するかを算出する。投影領域の左上を原点(x0,y0)とする。この原点に対する点Acの座標を(xc1,yc1)とする。点Acに対応する元の画像(プロジェクター画像)の点Apの座標を(xp、yp)とする。投影領域はプロジェクター画像41とアスペクト比が一致し、大きさだけが異なる。よって、プロジェクター画像41の横方向の長さWpと投影された補正画像43の投影領域の横方向の長さWcから、点Apの座標は以下のように表すことができる。
(xp、yp)=(Wp/Wc)×(xc1,yc1) …(a)
(3)投影された補正画像における投影領域の原点は(x0,y0)なので、点Acの座標値は以下のように表すことができる。
(xc、yc)=(x0,y0)+(xc1,yc1) …(b)
(4) 点Acの座標(xc、yc)は求められているので、式(b)により(xc1,yc1)が求められ、式(a)により点Apの座標(xp、yp)を求めることができる。
(5)この座標Ap(xp、yp)の画素値を、補正画像の点A(xp´、yp´)の画素値とする。なお、点Aに対応する点Apの座標は整数とは限らないので、その場合は点Apの周囲の画素の画素値から補間して求める。
In this projection area, a reduced version of the projector image is displayed. Therefore, the point Ac of the projection area refers to the pixel of the point Ap of the projector image. Hereinafter, a procedure for associating the point Ac of the projection area with the point A of the corrected image will be described.
(1) First, an arbitrary point Ac in the projection area is taken out. Since the coordinates (xc, yc) of the point Ac can be converted to the point Ap of the projector image by the projective transformation, the point Ac can be associated with the point A of the corrected image 43 by a conversion opposite to the projective transformation. it can. That is, the point Ac is associated with the point A of the corrected image 43 with reference to the pixel value of the point Ap. Note that the coordinates (xc, yc) of the point Ac are coordinates in the coordinate system with the origin (0, 0) as the upper left of the projection range of the projector 13, not the projection area.
(2) Next, the position corresponding to the point Ac in the projection area is calculated. The upper left of the projection area is the origin (x0, y0). The coordinates of the point Ac with respect to this origin are (xc1, yc1). Let the coordinates of the point Ap of the original image (projector image) corresponding to the point Ac be (xp, yp). The projection area has the same aspect ratio as the projector image 41, and is different only in size. Therefore, from the horizontal length Wp of the projector image 41 and the horizontal length Wc of the projection area of the projected correction image 43, the coordinates of the point Ap can be expressed as follows.
(Xp, yp) = (Wp / Wc) × (xc1, yc1) (a)
(3) Since the origin of the projection area in the projected corrected image is (x0, y0), the coordinate value of the point Ac can be expressed as follows.
(Xc, yc) = (x0, y0) + (xc1, yc1) (b)
(4) Since the coordinates (xc, yc) of the point Ac are obtained, (xc1, yc1) is obtained from the equation (b), and the coordinates (xp, yp) of the point Ap are obtained from the equation (a). Can do.
(5) The pixel value of the coordinates Ap (xp, yp) is set as the pixel value of the point A (xp ′, yp ′) of the corrected image. Note that the coordinates of the point Ap corresponding to the point A are not necessarily integers. In this case, the coordinates are obtained by interpolation from the pixel values of the pixels around the point Ap.

以上の処理を投影領域の全ての点について行い対応関係をテーブルなどにまとめておく。これが歪み補正パラメータとなる。画像変形部26は、補正画像43の各画素の画素値をテーブル(歪み補正パラメータ)の対応関係に従って、プロジェクター画像41の対応する画素から取得し補正画像43を作成する。   The above processing is performed for all the points in the projection area, and the correspondence is summarized in a table or the like. This is a distortion correction parameter. The image deformation unit 26 acquires the pixel value of each pixel of the corrected image 43 from the corresponding pixel of the projector image 41 according to the correspondence relationship of the table (distortion correction parameter), and creates the corrected image 43.

なお、補正情報の算出については、「投影画像の幾何補正に関する実験的検討」、計測自動制御学会東北支部第235回研究集会(2007.5.18)に記載がある。   The calculation of correction information is described in “Experimental study on geometric correction of projected image”, Society of Instrument and Control Engineers Tohoku Branch 235th Research Meeting (2007.5.18).

<<エッジブレンディング>>
また、歪み補正パラメータ算出部25は、プロジェクター画像41に対しエッジブレンディングを行う。エッジブレンディングとは、映像信号にデジタル的にグラディエーションをかけ、相互に重なるオーバーラップ領域を均一の輝度する技術である。
<< Edge Blending >>
Further, the distortion correction parameter calculation unit 25 performs edge blending on the projector image 41. Edge blending is a technology that applies a gradient to a video signal digitally, and uniformly overlaps overlapping areas.

図22はエッジブレンディングを模式的に説明する図の一例である。プロジェクター画像41の重複領域37は予め定められている。歪み補正パラメータ算出部25は、二次元画像から重複領域37の輝度を算出する。重複領域37が他の領域よりも輝度が高い場合、プロジェクター画像41の重複領域37の画素値を、他の領域の画素値と均一の輝度になるように補正する。   FIG. 22 is an example of a diagram for schematically explaining edge blending. The overlapping area 37 of the projector image 41 is determined in advance. The distortion correction parameter calculation unit 25 calculates the luminance of the overlapping region 37 from the two-dimensional image. When the overlapping region 37 has a higher luminance than the other regions, the pixel value of the overlapping region 37 of the projector image 41 is corrected so as to have a uniform luminance with the pixel value of the other region.

<適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Application example>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

<<円筒形状物の表面情報の取得>>
本実施形態のステップS70では歪み補正用パターン32の特徴点の三次元座標を円筒型の表面の二次元の投影対象表面座標に変換した。また、位置合わせで説明したように本実施形態では特徴点だけでなく、ポイントクラウド33を位置合わせすることができる。したがって、円筒型の投影対象11の十分に密な画像データを取得して位置合わせすることができる。
<< Acquisition of surface information of cylindrical object >>
In step S70 of the present embodiment, the three-dimensional coordinates of the feature points of the distortion correction pattern 32 are converted into the two-dimensional projection target surface coordinates of the cylindrical surface. Further, as described in the alignment, in the present embodiment, not only the feature points but also the point cloud 33 can be aligned. Therefore, sufficiently dense image data of the cylindrical projection target 11 can be acquired and aligned.

図23は、円筒型の投影対象11が有する表面情報の取得を模式的に示す図の一例である。例えば缶のラベルの意匠の全体を撮像したい場合があるが、缶は円筒形であるため、全体の意匠を撮像するためには何回かに分けて撮像する必要がある。従来は、複数の画像を手作業で位置合わせして缶の全体の意匠を取得するなど作業が容易でなかった。   FIG. 23 is an example of a diagram schematically illustrating acquisition of surface information included in the cylindrical projection target 11. For example, there is a case where it is desired to take an image of the entire design of the can label. However, since the can has a cylindrical shape, it is necessary to shoot several times in order to image the entire design. Conventionally, it has been difficult to perform operations such as manually aligning a plurality of images to obtain the overall design of the can.

これに対し、本実施形態では、缶を多方向から撮像することで表面の意匠だけでなく、三次元座標が得られ、画像データの各画素を二次元の投影対象表面座標に変換できる。円筒表面の二次元画像はxy平面に展開できる。したがって、缶などの表面を展開した状態の画像データ(展開図)を、撮像場所を変えて撮像するだけで生成することができる。   On the other hand, in this embodiment, not only the surface design but also three-dimensional coordinates can be obtained by imaging the can from multiple directions, and each pixel of the image data can be converted into two-dimensional projection target surface coordinates. A two-dimensional image of the cylindrical surface can be developed in the xy plane. Therefore, image data (development drawing) in a state where the surface of a can or the like is developed can be generated simply by imaging at a different imaging location.

また、缶のラベルに限られず、円筒状などの立体物をカメラの場所を変えて撮像した場合、展開した状態の画像データを容易に得られるので、構造物の表面の分析などに利用することができる。   In addition, not only for can labels, but when a three-dimensional object such as a cylinder is imaged by changing the location of the camera, the image data in the expanded state can be easily obtained, so it can be used for analysis of the surface of the structure. Can do.

<<円筒以外の形状モデルについて>>
本実施形態では、円筒の形状モデル35を例にして説明したが、円筒以外の角柱、角錐、円錐など展開が可能な形状モデル35に近似可能な投影対象11に対して広く適用可能である。また、フィテッィングのためにはモデルで定義できる(数式で定義できる)形状であることが好ましい。
<< About shape models other than cylinders >>
In the present embodiment, the cylindrical shape model 35 has been described as an example. However, the present invention can be widely applied to the projection target 11 that can be approximated to the shape model 35 that can be expanded such as a prism, a pyramid, or a cone other than the cylinder. Moreover, it is preferable that it is a shape which can be defined with a model (it can be defined with numerical formula) for fitting.

図24(a)は三角柱と展開図の一例を示す。角柱の場合、投影面は平坦になるので、平面にフィッティングすればよい。また、フィッティングにより二次元の投影対象表面座標系に変換されれば、図示するように展開することができる。   FIG. 24A shows an example of a triangular prism and a development view. In the case of a prism, the projection surface is flat, and it is only necessary to fit a flat surface. Moreover, if it is converted into a two-dimensional projection target surface coordinate system by fitting, it can be developed as shown.

図24(b)は円錐と展開図の一例を示す。円錐の場合、円錐の軸方向の高さに応じて半径rが決まる。この高さと半径の関係を予め与えるなどして円錐の形状モデル35にフィッティングすることで、投影画像の三次元座標を二次元の投影対象表面座標系に変換できる。したがって、図示するように展開できる。   FIG. 24B shows an example of a cone and a development view. In the case of a cone, the radius r is determined according to the axial height of the cone. By fitting the cone shape model 35 by giving the relationship between the height and the radius in advance, the three-dimensional coordinates of the projection image can be converted into a two-dimensional projection target surface coordinate system. Therefore, it can be developed as shown.

図24(c)は球と展開図の一例を示す。球の場合、円筒と同様に三次元の形状モデル35へのフィティングが可能である。球の展開方法は、図示するように上部と下部が徐々に細くなる複数の短冊状に展開する方法が知られている。また、球を歪みなく二次元に展開することは困難なので、球の赤道付近だけを展開してもよいし、画像が投影されている範囲だけを展開してもよい。   FIG. 24C shows an example of a sphere and a development view. In the case of a sphere, fitting to a three-dimensional shape model 35 is possible as in the case of a cylinder. As a method for expanding the sphere, a method is known in which the upper and lower portions are gradually narrowed as shown in the drawing. In addition, since it is difficult to expand the sphere in two dimensions without distortion, only the vicinity of the equator of the sphere may be expanded, or only the range where the image is projected may be expanded.

<<透明な円筒・透明な物体モデルについて>>
本実施形態では、投影対象11が照射光を反射できることを前提として説明しているが、投影対象11がアクリル板など透明な物体で形成されている場合がある。この場合、カメラ12が三次元情報を取得しようとしても、照射光の大半が投影対象11の表面を透過してしまい、三次元形状を正しく計測することが困難となる。例えば、TOF方式のカメラ12(例えばKinect)では、赤外線の多くが円筒型の投影対象11を通過してしまう。
<< About Transparent Cylinder / Transparent Object Model >>
In the present embodiment, the description has been made on the assumption that the projection target 11 can reflect the irradiation light. However, the projection target 11 may be formed of a transparent object such as an acrylic plate. In this case, even if the camera 12 tries to acquire the three-dimensional information, most of the irradiation light is transmitted through the surface of the projection target 11 and it is difficult to correctly measure the three-dimensional shape. For example, in the TOF camera 12 (for example, Kinect), most of infrared rays pass through the cylindrical projection target 11.

そのような場合には、測定者が円筒外周や内周に沿って隙間なく布や紙を貼り付け、投影対象11が透明でない状態を作る。これにより、本実施形態で説明した円筒等の形状モデルの計測を行う場合と同様に、カメラ12(Kinectなど赤外線の反射を利用して三次元形状を取得する)が投影対象11からの反射光を撮像可能になり、三次元形状の測定が可能となる。   In such a case, the measurer attaches cloth or paper without any gap along the outer periphery or inner periphery of the cylinder, and the projection target 11 is not transparent. As a result, similarly to the case of measuring a shape model such as a cylinder described in the present embodiment, the camera 12 (acquires a three-dimensional shape using infrared reflection such as Kinect) is reflected light from the projection target 11. Can be measured, and a three-dimensional shape can be measured.

なお、円筒内周に布や紙が貼り付けられた場合、布や紙に赤外線やプロジェクター13から投影した照射光が反射される。この場合、布や紙の厚みが無視できるほど薄ければ、布や紙の三次元形状は円筒の内壁とほぼ一致するため、観賞用の画像が投影された時に布や紙が取り除かれても、透明な投影対象(円筒)11に歪みがほぼ除去された画像を投影可能となる。   When cloth or paper is attached to the inner periphery of the cylinder, infrared light or irradiation light projected from the projector 13 is reflected on the cloth or paper. In this case, if the thickness of the cloth or paper is negligibly thin, the three-dimensional shape of the cloth or paper almost coincides with the inner wall of the cylinder, so even if the ornamental image is projected, the cloth or paper is removed. Thus, it is possible to project an image from which distortion is substantially removed onto a transparent projection target (cylinder) 11.

また、円筒外周に布や紙が貼り付けられた場合、布や紙に赤外線やプロジェクター13から投影した照射光が反射される。円筒との間に隙間がなければ、布や紙の三次元形状は円筒の外壁と一致するし、円筒そのものが薄ければその三次元形状は内壁にもほぼ一致するため、観賞用の画像が投影された時に布や紙が取り除かれても、透明な投影対象(円筒)11に歪みがほぼ除去された画像を投影可能となる。   In addition, when cloth or paper is attached to the outer periphery of the cylinder, infrared light or irradiation light projected from the projector 13 is reflected on the cloth or paper. If there is no gap between the cylinder and the three-dimensional shape of the cloth or paper, the outer wall of the cylinder will match.If the cylinder itself is thin, the three-dimensional shape will also match the inner wall. Even if the cloth or paper is removed at the time of projection, it is possible to project an image from which distortion is substantially removed onto the transparent projection target (cylinder) 11.

このように、投影対象11が透明な材料で形成されている場合でも、本実施形態の手法を適用することが可能である。   Thus, even when the projection target 11 is formed of a transparent material, the method of the present embodiment can be applied.

11 投影対象
12 カメラ
13 プロジェクター
21 投影画像三次元情報取得部
22 位置合わせ部
23 モデル算出部
24 座標変換部
25 歪み補正パラメータ算出部
26 画像変形部
27 画像データ記憶部
28 歪み補正パラメータ記憶部
29 変換情報作成部
50 情報処理装置
200 画像処理システム
DESCRIPTION OF SYMBOLS 11 Projection object 12 Camera 13 Projector 21 Projection image three-dimensional information acquisition part 22 Positioning part 23 Model calculation part 24 Coordinate conversion part 25 Distortion correction parameter calculation part 26 Image deformation part 27 Image data storage part 28 Distortion correction parameter storage part 29 Conversion Information creation unit 50 Information processing device 200 Image processing system

特開2004‐287433号公報JP 2004-287433 A

Claims (10)

投影される画像の投影面での歪みを低減する画像処理システムであって、
複数の異なる場所から取得された、前記投影面に投影された投影画像の三次元情報を取得する三次元情報取得手段と、
異なる前記場所から重複して撮像される投影画像の三次元情報を比較して、三次元情報の座標の変換情報を作成する変換情報作成手段と、
前記変換情報を用いて、複数の三次元情報を共通の座標系に変換する三次元情報変換手段と、
共通の座標系の三次元情報に形状モデルを当てはめて、前記投影面の形状モデルを決定する形状モデル決定手段と、
共通の座標系の三次元情報を前記形状モデルの表面の二次元座標に変換する座標変換手段と、
前記二次元座標に変換された前記投影画像と、前記投影画像として投影された元画像とを比較して歪み補正パラメータを作成する歪み補正パラメータ作成手段と、
を有することを特徴とする画像処理システム。
An image processing system for reducing distortion on a projection surface of a projected image,
Three-dimensional information acquisition means for acquiring three-dimensional information of a projection image obtained from a plurality of different locations and projected on the projection plane;
Compared with the three-dimensional information of the projected image captured redundantly from different locations, conversion information creation means for creating conversion information of the coordinates of the three-dimensional information,
Three-dimensional information conversion means for converting a plurality of three-dimensional information into a common coordinate system using the conversion information;
Applying a shape model to the three-dimensional information of a common coordinate system to determine a shape model of the projection plane;
Coordinate conversion means for converting three-dimensional information of a common coordinate system into two-dimensional coordinates of the surface of the shape model;
A distortion correction parameter creating means for creating a distortion correction parameter by comparing the projection image converted into the two-dimensional coordinates and the original image projected as the projection image;
An image processing system comprising:
前記三次元情報取得手段は、前記投影面に投影された投影画像として位置合わせ用パターン画像の三次元情報を取得し、
前記変換情報作成手段は、異なる前記場所から重複して撮像された前記位置合わせ用パターン画像の三次元情報を比較して、複数の前記場所の三次元情報を共通の座標系で表す前記変換情報を決定し、
前記三次元情報変換手段は、複数の前記場所で取得された、前記投影面に投影された任意の投影画像の三次元情報を、前記変換情報を用いて共通の座標系に変換する、
ことを特徴とする請求項1記載の画像処理システム。
The three-dimensional information acquisition means acquires three-dimensional information of a pattern image for alignment as a projection image projected on the projection plane,
The conversion information creating unit compares the three-dimensional information of the alignment pattern images that have been picked up from different locations, and represents the conversion information representing the three-dimensional information of the plurality of locations in a common coordinate system. Decide
The three-dimensional information conversion means converts the three-dimensional information of an arbitrary projection image projected on the projection plane acquired at a plurality of the locations into a common coordinate system using the conversion information.
The image processing system according to claim 1.
前記変換情報作成手段は、第nの場所から撮像された前記投影画像の三次元情報と、前記第nの場所と隣接した第n+1の場所から重複して撮像された前記投影画像の三次元情報を比較して、前記第n+1の場所の前記投影画像の三次元情報を前記第nの場所の前記投影画像の三次元情報と共通の座標系に変換する前記第n+1の場所の変換情報を決定し、
前記第n+1の前記場所が前記場所の数Nと一致するまで、前記変換情報を決定することを繰り返し、
前記三次元情報変換手段は、前記第n+1の場所の変換情報を用いて、Nと等しい前記第n+1番目の前記場所の三次元情報を第n番目の前記場所の三次元情報の座標系に変換する処理を、2番目の前記場所の三次元情報を1番目の前記場所の三次元情報の座標系に変換するまで繰り返す、ことを特徴とする請求項1又は2記載の画像処理システム。
The conversion information creating means includes the three-dimensional information of the projection image captured from the nth location and the three-dimensional information of the projection image captured redundantly from the (n + 1) th location adjacent to the nth location. To determine the conversion information of the (n + 1) th place for converting the three-dimensional information of the projection image at the (n + 1) th place into a common coordinate system with the three-dimensional information of the projection image at the (n) th place. And
Repetitively determining the conversion information until the n + 1th location matches the number N of locations,
The three-dimensional information conversion means converts the three-dimensional information of the (n + 1) th place equal to N into the coordinate system of the three-dimensional information of the nth place using the conversion information of the (n + 1) th place. The image processing system according to claim 1, wherein the processing is repeated until the second three-dimensional information of the place is converted into a coordinate system of the first three-dimensional information of the place.
前記三次元情報取得手段は、N個の前記場所から、前記投影面に投影された前記投影画像として歪み補正用パターン画像の三次元情報を取得し、
前記三次元情報変換手段は、第n+1の場所の変換情報を用いて、n+1番目の前記場所の前記歪み補正用パターンの三次元情報をn番目の前記場所の三次元情報の座標系に変換する処理を、2番目の前記場所の三次元情報を1番目の前記場所の三次元情報の座標系に変換するまで繰り返す、ことを特徴とする請求項3記載の画像処理システム。
The three-dimensional information acquisition means acquires three-dimensional information of a distortion correction pattern image as the projection image projected on the projection plane from the N locations.
The three-dimensional information conversion means converts the three-dimensional information of the distortion correction pattern at the (n + 1) th place into the coordinate system of the three-dimensional information at the nth place using the conversion information of the (n + 1) th place. 4. The image processing system according to claim 3, wherein the processing is repeated until the three-dimensional information of the second place is converted into a coordinate system of the first three-dimensional information of the place.
前記座標変換手段は、共通の前記座標系で表されたN個の歪み補正用パターン画像の三次元情報を前記二次元座標に変換し、
前記歪み補正パラメータ作成手段は、前記二次元座標に変換されたN個の歪み補正用パターン画像と、前記投影画像として投影されたN個分の元の歪み補正用パターン画像とを比較して歪み補正パラメータを作成する、
ことを特徴とする請求項4記載の画像処理システム。
The coordinate conversion means converts the three-dimensional information of the N distortion correction pattern images represented in the common coordinate system into the two-dimensional coordinates,
The distortion correction parameter creating means compares the N distortion correction pattern images converted into the two-dimensional coordinates with the N original distortion correction pattern images projected as the projection image to generate distortion. Create correction parameters,
The image processing system according to claim 4.
前記座標変換手段は、三次元情報を前記形状モデルの表面の二次元座標に変換する際、三次元情報を前記形状モデルの面の最も近い位置に射影する、
ことを特徴とする請求項1〜5いずれか1項記載の画像処理システム。
The coordinate conversion means projects the three-dimensional information to the closest position on the surface of the shape model when converting the three-dimensional information into the two-dimensional coordinates of the surface of the shape model.
The image processing system according to claim 1, wherein:
前記座標変換手段は、三次元情報を前記形状モデルの表面の二次元座標に変換する際、三次元情報を前記三次元情報取得手段との距離方向に移動して射影する、
ことを特徴とする請求項1〜5いずれか1項記載の画像処理システム。
When the coordinate conversion means converts the three-dimensional information into the two-dimensional coordinates of the surface of the shape model, the three-dimensional information is moved and projected in the distance direction from the three-dimensional information acquisition means,
The image processing system according to claim 1, wherein:
前記形状モデルは少なくとも三次元情報が取得される範囲で平面への展開が可能である、ことを特徴とする請求項1〜7いずれか1項記載の画像処理システム。   The image processing system according to claim 1, wherein the shape model can be expanded on a plane within a range in which at least three-dimensional information is acquired. 投影される画像の投影面での歪みを低減する画像処理装置であって、
複数の異なる場所から取得された、前記投影面に投影された投影画像の三次元情報を取得する三次元情報取得手段と、
異なる前記場所から重複して撮像される投影画像の三次元情報を比較して、三次元情報の座標の変換情報を作成する変換情報作成手段と、
前記変換情報を用いて、複数の三次元情報を共通の座標系に変換する三次元情報変換手段と、
共通の座標系の三次元情報に形状モデルを当てはめて、前記投影面の形状モデルを決定する形状モデル決定手段と、
共通の座標系の三次元情報を前記形状モデルの表面の二次元座標に変換する座標変換手段と、
前記二次元座標の前記投影画像と、前記投影面に投影された元画像とを比較して歪み補正パラメータを作成する歪み補正パラメータ作成手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that reduces distortion on a projection surface of an image to be projected,
Three-dimensional information acquisition means for acquiring three-dimensional information of a projection image obtained from a plurality of different locations and projected on the projection plane;
Compared with the three-dimensional information of the projected image captured redundantly from different locations, conversion information creation means for creating conversion information of the coordinates of the three-dimensional information,
Three-dimensional information conversion means for converting a plurality of three-dimensional information into a common coordinate system using the conversion information;
Applying a shape model to the three-dimensional information of a common coordinate system to determine a shape model of the projection plane;
Coordinate conversion means for converting three-dimensional information of a common coordinate system into two-dimensional coordinates of the surface of the shape model;
A distortion correction parameter creating means for creating a distortion correction parameter by comparing the projected image of the two-dimensional coordinates and the original image projected on the projection plane;
An image processing apparatus comprising:
コンピュータに、
複数の異なる場所から取得された、画像の投影面に投影された投影画像の三次元情報を取得する三次元情報取得ステップと、
異なる前記場所から重複して撮像される投影画像の三次元情報を比較して、三次元情報の座標の変換情報を作成する変換情報作成ステップと、
前記変換情報を用いて、複数の三次元情報を共通の座標系に変換する三次元情報変換ステップと、
共通の座標系の三次元情報に形状モデルを当てはめて、前記投影面の形状モデルを決定する形状モデル決定ステップと、
共通の座標系の三次元情報を前記形状モデルの表面の二次元座標に変換する座標変換ステップと、
前記二次元座標の前記投影画像と、前記投影面に投影された元画像とを比較して歪み補正パラメータを作成する歪み補正パラメータ作成ステップと、
を実行させるプログラム。
On the computer,
A three-dimensional information acquisition step for acquiring three-dimensional information of a projection image obtained from a plurality of different locations and projected on a projection plane of the image;
A conversion information creation step of creating three-dimensional information coordinate conversion information by comparing the three-dimensional information of projection images captured from different locations.
A three-dimensional information conversion step for converting a plurality of three-dimensional information into a common coordinate system using the conversion information;
Applying a shape model to the three-dimensional information of the common coordinate system, and determining a shape model of the projection plane; and
A coordinate conversion step for converting three-dimensional information of a common coordinate system into two-dimensional coordinates of the surface of the shape model;
A distortion correction parameter creating step of creating a distortion correction parameter by comparing the projected image of the two-dimensional coordinates with the original image projected on the projection plane;
A program that executes
JP2014248096A 2014-05-16 2014-12-08 Image processing system, information processing device, and program Pending JP2015233266A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014248096A JP2015233266A (en) 2014-05-16 2014-12-08 Image processing system, information processing device, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014102095 2014-05-16
JP2014102095 2014-05-16
JP2014248096A JP2015233266A (en) 2014-05-16 2014-12-08 Image processing system, information processing device, and program

Publications (1)

Publication Number Publication Date
JP2015233266A true JP2015233266A (en) 2015-12-24

Family

ID=54934481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014248096A Pending JP2015233266A (en) 2014-05-16 2014-12-08 Image processing system, information processing device, and program

Country Status (1)

Country Link
JP (1) JP2015233266A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077196A (en) * 2016-11-11 2018-05-17 スタンレー電気株式会社 Monitoring system
JP2019219929A (en) * 2018-06-20 2019-12-26 株式会社フォーディーアイズ Constant calibration system and method thereof
CN111488683A (en) * 2020-04-09 2020-08-04 西安工业大学 Fragment flying parameter determination method based on image processing technology
CN112261396A (en) * 2020-10-26 2021-01-22 成都极米科技股份有限公司 Projection method, projection device, projection equipment and computer readable storage medium
KR102245223B1 (en) * 2020-12-14 2021-04-27 주식회사 글림시스템즈 Image processing system for displaying multi-layered beam projection contents on irregular projection surface and method thereof
CN114697623A (en) * 2020-12-29 2022-07-01 成都极米科技股份有限公司 Projection surface selection and projection image correction method and device, projector and medium
US11676241B2 (en) 2020-01-31 2023-06-13 Seiko Epson Corporation Control method for image projection system, and image projection system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002062842A (en) * 2000-08-11 2002-02-28 Nec Corp Projection video correction system and its method
JP2003194530A (en) * 2001-12-28 2003-07-09 Mitsubishi Heavy Ind Ltd Method and apparatus for measuring already existing pipeline
JP2008085748A (en) * 2006-09-28 2008-04-10 Victor Co Of Japan Ltd Image projection and display apparatus
JP2009135921A (en) * 2007-11-06 2009-06-18 Panasonic Corp Image projection apparatus, and image projection method
JP2014060611A (en) * 2012-09-18 2014-04-03 Ricoh Co Ltd Image processing apparatus, image projection system, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002062842A (en) * 2000-08-11 2002-02-28 Nec Corp Projection video correction system and its method
JP2003194530A (en) * 2001-12-28 2003-07-09 Mitsubishi Heavy Ind Ltd Method and apparatus for measuring already existing pipeline
JP2008085748A (en) * 2006-09-28 2008-04-10 Victor Co Of Japan Ltd Image projection and display apparatus
JP2009135921A (en) * 2007-11-06 2009-06-18 Panasonic Corp Image projection apparatus, and image projection method
JP2014060611A (en) * 2012-09-18 2014-04-03 Ricoh Co Ltd Image processing apparatus, image projection system, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077196A (en) * 2016-11-11 2018-05-17 スタンレー電気株式会社 Monitoring system
JP2019219929A (en) * 2018-06-20 2019-12-26 株式会社フォーディーアイズ Constant calibration system and method thereof
US11676241B2 (en) 2020-01-31 2023-06-13 Seiko Epson Corporation Control method for image projection system, and image projection system
CN111488683A (en) * 2020-04-09 2020-08-04 西安工业大学 Fragment flying parameter determination method based on image processing technology
CN112261396A (en) * 2020-10-26 2021-01-22 成都极米科技股份有限公司 Projection method, projection device, projection equipment and computer readable storage medium
KR102245223B1 (en) * 2020-12-14 2021-04-27 주식회사 글림시스템즈 Image processing system for displaying multi-layered beam projection contents on irregular projection surface and method thereof
CN114697623A (en) * 2020-12-29 2022-07-01 成都极米科技股份有限公司 Projection surface selection and projection image correction method and device, projector and medium
CN114697623B (en) * 2020-12-29 2023-08-15 极米科技股份有限公司 Projection plane selection and projection image correction method, device, projector and medium

Similar Documents

Publication Publication Date Title
JP6344050B2 (en) Image processing system, image processing apparatus, and program
JP2015233266A (en) Image processing system, information processing device, and program
CN106228507B (en) A kind of depth image processing method based on light field
JP7294396B2 (en) Image processing device, image processing method, and program
CN105026997B (en) Optical projection system, semiconductor integrated circuit and image correcting method
AU2011312140B2 (en) Rapid 3D modeling
TWI486551B (en) Method and system for three-dimensional data acquisition
CN109801374B (en) Method, medium, and system for reconstructing three-dimensional model through multi-angle image set
US11290704B2 (en) Three dimensional scanning system and framework
CN110191326B (en) Projection system resolution expansion method and device and projection system
US20130259403A1 (en) Flexible easy-to-use system and method of automatically inserting a photorealistic view of a two or three dimensional object into an image using a cd,dvd or blu-ray disc
JP2010062790A (en) Image conversion apparatus
JP2013539147A5 (en)
US10169891B2 (en) Producing three-dimensional representation based on images of a person
Carfagni et al. Fast and low cost acquisition and reconstruction system for human hand-wrist-arm anatomy
US10839481B1 (en) Automatic marker-less alignment of digital 3D face and jaw models
JP2016100698A (en) Calibration device, calibration method, and program
JPWO2015132981A1 (en) Position measuring apparatus and position measuring method
CN110784691A (en) Projection device, projection system and image correction method
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
JP2011155412A (en) Projection system and distortion correction method in the same
WO2010013289A1 (en) Camera calibration image creation apparatus and camera calibration image creation program
JP2013231607A (en) Calibration tool display device, calibration tool display method, calibration device, calibration method, calibration system and program
JP6099281B2 (en) Book reading system and book reading method
JP4548228B2 (en) Image data creation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190409