JP2010283674A - Projection system and projection method - Google Patents

Projection system and projection method Download PDF

Info

Publication number
JP2010283674A
JP2010283674A JP2009136418A JP2009136418A JP2010283674A JP 2010283674 A JP2010283674 A JP 2010283674A JP 2009136418 A JP2009136418 A JP 2009136418A JP 2009136418 A JP2009136418 A JP 2009136418A JP 2010283674 A JP2010283674 A JP 2010283674A
Authority
JP
Japan
Prior art keywords
image
projection
area
content
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009136418A
Other languages
Japanese (ja)
Inventor
Tomoharu Nakahara
智治 中原
Kazuma Haraguchi
一馬 原口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2009136418A priority Critical patent/JP2010283674A/en
Publication of JP2010283674A publication Critical patent/JP2010283674A/en
Pending legal-status Critical Current

Links

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily and accurately correct image distortion even if a projection plane has recesses and protrusions, or a projection apparatus and the projection plane do not face each other. <P>SOLUTION: A projection control device 3 creates first conversion information by associating an image captured by a camera 2 with a projection image of a projector 1 using a phase shift method, sets an image projection region on the image captured by the camera 2 provided at a predetermined viewpoint position, and converts the image projection region on the captured image into an image projection region on the projection image using the first conversion information. A content image region indicating the shape of a content image is set to create second conversion information based on a relationship between the image projection region on the converted projection image and the content image region. In content image projection, the content image data are converted using the second conversion information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、光を投影する投影システム及び投影方法に関する。   The present invention relates to a projection system and a projection method for projecting light.

従来より、映像投影装置としてプロジェクタを使って、パソコン画面を投影してプレゼンテーションを行う機会が増えてきている。   2. Description of the Related Art Conventionally, there have been increasing opportunities to perform presentations by projecting a personal computer screen using a projector as a video projection device.

また、プロジェクタやパソコンが広く普及してきたため、専用のスクリーンを投影面として投影する以外に、会議室の壁を投影面として利用する使い方も増えてきている。このように専用のスクリーン以外に画像を投影する場合には、投影面に凹凸がある場合もある。投影面に凹凸があると、投影像が歪むために画像が見にくくなる場合も生じてしまう。また、狭い部屋でプロジェクタから画像を投影させる場合には、プロジェクタを投影面に対して直交(正対)して設置することが難しい。この場合には、一般的に、投影画像に台形補正等を施すことが必要となる。   In addition to the widespread use of projectors and personal computers, in addition to projecting a dedicated screen as a projection surface, there is an increasing use of using a conference room wall as a projection surface. Thus, when projecting an image on a screen other than a dedicated screen, the projection surface may be uneven. If the projection surface is uneven, the projected image may be distorted and the image may be difficult to see. Further, when projecting an image from a projector in a small room, it is difficult to install the projector so as to be orthogonal (facing) to the projection plane. In this case, it is generally necessary to perform trapezoidal correction or the like on the projected image.

更に、投影面を見る人の正面に設定できず、投影像を見る人は投影面に対して斜めから見なければならないような場合も発生している。また、複数の人が同じ投影面を見る場合には、見る人により画像歪みが著しくなる可能性がある。   Furthermore, there are cases where the projection plane cannot be set in front of the person who sees the projection surface and the person who sees the projection image must see the projection plane from an oblique direction. In addition, when a plurality of people view the same projection plane, there is a possibility that image distortion may be significant depending on the viewer.

このような状況でも、見る人に対して適切な投影像を提供するために、投影面の3次元形状を計測し、当該計測した投影面形状に基づいて画像の補正をして、画像歪みのない投影することが行われている。   Even in such a situation, in order to provide an appropriate projection image to the viewer, the three-dimensional shape of the projection plane is measured, the image is corrected based on the measured projection plane shape, and the image distortion is reduced. There has been no projection.

例えば特許文献1には、光投影法を用いて三角測量法の原理により投影面の3次元形状を求め、逆投影シミュレーションにより補正画像を求めることが記載されている。   For example, Patent Document 1 describes that a three-dimensional shape of a projection surface is obtained by the principle of triangulation using the light projection method, and a corrected image is obtained by back projection simulation.

また、特許文献2には、テスト画像を投影面に投影して撮像し、当該撮像した撮像画像と投影画像とのずれに基づいて、歪み量を求めて画像の補正を行っている。特許文献2に記載された技術では、テスト画像の格子点が存在する部分では良好な補正量を求めることができる。   In Patent Document 2, a test image is projected and imaged on a projection surface, and the image is corrected by obtaining a distortion amount based on a deviation between the captured image and the projected image. With the technique described in Patent Document 2, a good correction amount can be obtained in a portion where a lattice point of a test image exists.

特開2004−140845号公報JP 2004-140845 A 特開2001−83949号公報JP 2001-83949 A

しかしながら、特許文献1に記載された技術では、画像を補正するために多くの計算量が必要となっている。また、特許文献1に記載された技術では、正確に3次元形状を計測するためにはカメラやプロジェクタの内部パラメータや外部パラメータを求めるためのキャリブレーション処理が別途必要となり、簡単に投影したい領域を設定することが困難である。   However, the technique described in Patent Document 1 requires a large amount of calculation in order to correct an image. In addition, in the technique described in Patent Document 1, in order to accurately measure a three-dimensional shape, a calibration process for obtaining internal parameters and external parameters of a camera or a projector is separately required. It is difficult to set.

また、特許文献2に記載された技術では、テスト画像の格子点を投影できない部分では正確な補正量を求めることができないという問題点がある。また、画像が投影される全ての点に格子点を設定しようとすると、多数回に亘りテスト画像の投影、撮像及び補正量の算出を繰り返す必要があり、長い作業時間を要するという問題がある。   In addition, the technique described in Patent Document 2 has a problem in that an accurate correction amount cannot be obtained in a portion where a grid point of a test image cannot be projected. In addition, when trying to set lattice points at all points on which an image is projected, it is necessary to repeat the projection of the test image, imaging, and calculation of the correction amount many times, which requires a long work time.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、投影面に凹凸がある場合や投影装置と投影面とが正対していない場合であっても、画像の歪み補正を簡単且つ精度良く行うことができる投影システム及び投影方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and it is easy to correct image distortion even when the projection surface is uneven or the projection device and the projection surface are not facing each other. It is another object of the present invention to provide a projection system and a projection method that can be performed with high accuracy.

本発明に係る投影システムは、コンテンツ画像データを用いて投影画像を投影する投影装置と、前記投影装置により投影されている投影画像を撮像して撮像画像を取得する撮像装置とを備える。この投影システムは、上述の課題を解決するために、前記投影装置の投光方向に直交する第1方向に周期的に明度が変化する縞パターンを投影及び撮像させて当該第1方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行い、前記第1方向に直交する第2方向に周期的に明度が変化する縞パターンを投影及び撮像させて第2方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行うことにより、前記撮像画像と前記投影画像との画素間の対応関係を定めた第1変換情報を作成する第1変換情報作成手段と、所定の視点位置に設けた前記撮像装置により撮像された撮像画像上で画像投影領域を設定する投影領域設定手段と、前記投影領域設定手段により設定された撮像画像上の画像投影領域を、前記第1変換情報を用いて、投影画像上の画像投影領域に変換する領域変換手段と、コンテンツ画像の形状を示すコンテンツ画像領域を設定するコンテンツ画像領域設定手段と、前記投影領域設定手段により撮像画像上に設定された画像投影領域と、前記コンテンツ画像領域設定手段により設定されたコンテンツ画像領域との関係に基づいて、当該コンテンツ画像領域を撮像画像上の画像投影領域に投影するようにコンテンツ画像データを変換する第2変換情報を作成する第2変換情報作成手段と、前記第2変換情報を用いてコンテンツ画像データを変換して、前記投影装置から投影画像を投影させる画像変換手段とを備える。   A projection system according to the present invention includes a projection device that projects a projection image using content image data, and an imaging device that captures a projection image projected by the projection device and acquires a captured image. In order to solve the above-described problem, the projection system projects and images a fringe pattern whose brightness periodically changes in a first direction orthogonal to the light projecting direction of the projection device, and phase shifts in the first direction. The captured image and the projected image are associated with each other using a method, and a fringe pattern whose brightness changes periodically in a second direction orthogonal to the first direction is projected and imaged to perform a phase shift method in the second direction. A first conversion information creating means for creating first conversion information defining a correspondence relationship between pixels of the captured image and the projected image by using the captured image and the projected image in association with each other; A projection area setting unit that sets an image projection area on a captured image captured by the imaging apparatus provided at a viewpoint position, and an image projection area on the captured image that is set by the projection area setting unit are converted into the first change. Using the information, an area conversion means for converting to an image projection area on the projection image, a content image area setting means for setting a content image area indicating the shape of the content image, and setting on the captured image by the projection area setting means Based on the relationship between the image projection area thus set and the content image area set by the content image area setting means, the content image data is converted so as to project the content image area onto the image projection area on the captured image. Second conversion information creating means for creating second conversion information, and image conversion means for converting content image data using the second conversion information and projecting a projection image from the projection device.

本発明に係る投影システムにおいて、前記撮像装置は、前記投影画像を見る観察者の視点位置又は投影装置周辺の任意の位置に設けられることを特徴とする。   In the projection system according to the present invention, the imaging device is provided at a viewpoint position of an observer who views the projection image or an arbitrary position around the projection device.

本発明に係る投影システムにおいて、投影領域設定手段は、撮像画像から画像投影領域を所定の画像処理により検出することを特徴とする。   In the projection system according to the present invention, the projection area setting means detects the image projection area from the captured image by predetermined image processing.

本発明に係る投影システムにおいて、前記投影領域設定手段は、前記投影装置の画像投影領域に付されたマークの位置を検出して、前記画像投影領域の頂点を求めることを特徴とする。   In the projection system according to the present invention, the projection area setting means detects the position of a mark attached to the image projection area of the projection device and obtains the vertex of the image projection area.

本発明に係る投影システムにおいて、前記第1変換情報作成手段は、前記位相シフト法を用いて行われた撮像画像と投影画像との対応付けを、空間コード化法を用いて修正して、前記第1変換情報を作成することを特徴とする。   In the projection system according to the present invention, the first conversion information creating unit corrects the association between the captured image and the projection image performed using the phase shift method using a spatial encoding method, and First conversion information is created.

本発明に係る投影方法は、上述の課題を解決するために、投影装置の投光方向に直交する第1方向に周期的に明度が変化する縞パターンを投影及び撮像して当該第1方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行い、前記第1方向に直交する第2方向に周期的に明度が変化する縞パターンを投影及び撮像して第2方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行うことにより、前記撮像画像と前記投影画像との画素間の対応関係を定めた第1変換情報を予め作成し、所定の視点位置に設けた撮像装置により撮像された撮像画像上で画像投影領域を設定し、前記設定された撮像画像上の画像投影領域を、前記第1変換情報を用いて、投影画像上の画像投影領域に変換し、コンテンツ画像の形状を示すコンテンツ画像領域を設定し、前記変換された撮像画像上の画像投影領域と、前記設定されたコンテンツ画像領域との関係に基づいて、当該コンテンツ画像領域を撮像画像上の画像投影領域に投影するようにコンテンツ画像データを変換する第2変換情報を作成しておく。そして、この投影方法は、実際にコンテンツ画像を投影する際に、前記第2変換情報を用いて前記コンテンツ画像データを変換して、前記投影装置から投影画像を投影させる。   In order to solve the above-described problem, the projection method according to the present invention projects and captures a fringe pattern whose brightness changes periodically in a first direction orthogonal to the light projecting direction of the projection apparatus, and performs the imaging in the first direction. A phase shift method is used to associate a captured image with a projected image, and a fringe pattern whose brightness changes periodically in a second direction orthogonal to the first direction is projected and imaged to shift the phase in the second direction. The first conversion information defining the correspondence between the captured image and the projected image is created in advance by associating the captured image with the projected image using a method, and is provided at a predetermined viewpoint position An image projection area is set on the captured image captured by the imaging device, and the image projection area on the set captured image is converted into an image projection area on the projection image using the first conversion information. , Content image shape The content image area to be shown is set, and the content image area is projected onto the image projection area on the captured image based on the relationship between the image projection area on the converted captured image and the set content image area Thus, the second conversion information for converting the content image data is created. In this projection method, when the content image is actually projected, the content image data is converted using the second conversion information, and the projection image is projected from the projection device.

本発明に係る投影システム及び投影方法によれば、位相シフト法を用いて撮像画像と投影画像との画素間の対応関係を定めた第1変換情報と、撮像画像とコンテンツ画像との関係に基づいて第2変換情報とを作成しておき、コンテンツ画像データを第2変換情報により変換して、投影装置からコンテンツ画像を投影面に対して投影することができるので、投影面に凹凸がある場合や投影装置と投影面とが正対していない場合であっても、画像の歪み補正を簡単且つ精度良く行うことができる。   According to the projection system and the projection method of the present invention, based on the first conversion information that defines the correspondence between the captured image and the projected image using the phase shift method, and the relationship between the captured image and the content image. The second conversion information is created, the content image data is converted by the second conversion information, and the content image can be projected from the projection device onto the projection plane. Even when the projection apparatus and the projection plane are not directly facing each other, it is possible to easily and accurately correct image distortion.

また、本発明に係る投影システムによれば、投影画像を見る観察者の視点位置が投影面に正対しているかどうかに拘わらず、第1変換情報及び第2変換情報を用いてコンテンツ画像データを変換して、観察者の位置から見て歪みのないコンテンツ画像を投影できる。   Further, according to the projection system of the present invention, the content image data is obtained using the first conversion information and the second conversion information regardless of whether or not the viewpoint position of the observer who views the projection image faces the projection plane. By converting, it is possible to project a content image without distortion when viewed from the observer's position.

更に、本発明に係る投影システムによれば、撮像画像から画像投影領域を所定の画像処理により検出し、当該検出した画像投影領域から、当該画像投影領域の頂点を求めるので、自動的に画像投影領域を設定できる。   Furthermore, according to the projection system of the present invention, the image projection area is detected from the captured image by predetermined image processing, and the vertex of the image projection area is obtained from the detected image projection area. You can set the area.

また、本発明に係る投影システムにおいて、投影装置の画像投影領域に付されたマークの位置を検出して、画像投影領域の頂点を求めるので、自動的に所望の画像投影領域を設定できる。   Further, in the projection system according to the present invention, the position of the mark attached to the image projection area of the projection device is detected and the vertex of the image projection area is obtained, so that a desired image projection area can be automatically set.

また、本発明に係る投影システムにおいて、位相シフト法を用いて行われた撮像画像と投影画像との対応付けを、空間コード化法を用いて修正して第1変換情報を作成するので、投影面の凹凸度合いが大きい場合でも、歪みのないコンテンツ画像を投影できる。   Further, in the projection system according to the present invention, the first conversion information is generated by correcting the association between the captured image and the projection image performed using the phase shift method using the spatial coding method. Even when the unevenness of the surface is large, a content image without distortion can be projected.

本発明の第1実施形態として示す投影システムの構成を示すブロック図である。It is a block diagram which shows the structure of the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおける投影制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the projection control apparatus in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、視点位置、プロジェクタ、カメラ、投影面の位置関係を示す図である。In the projection system shown as 1st Embodiment of this invention, it is a figure which shows the positional relationship of a viewpoint position, a projector, a camera, and a projection surface. 本発明の第1実施形態として示す投影システムにおいて、撮像画像、投影画像、コンテンツ画像の関係を示す図である。It is a figure which shows the relationship between a captured image, a projection image, and a content image in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、撮像画像と投影画像との関係を示す図である。It is a figure which shows the relationship between a captured image and a projection image in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおける変換テーブルTcbを示す図である。It is a figure which shows the conversion table Tcb in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、撮像画像とコンテンツ画像との対応関係を示す図である。It is a figure which shows the correspondence of a captured image and a content image in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおける投影動作を示すフローチャートである。It is a flowchart which shows the projection operation | movement in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、変換テーブルTcbを作成する動作を示すフローチャートである。It is a flowchart which shows the operation | movement which produces the conversion table Tcb in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、第1方向において撮像画像と投影画像との対応をとる動作を示すフローチャートである。5 is a flowchart showing an operation of taking a correspondence between a captured image and a projected image in a first direction in the projection system shown as the first embodiment of the present invention. 本発明の第1実施形態として示す投影システムにおいて、第2方向において撮像画像と投影画像との対応をとる動作を示すフローチャートである。5 is a flowchart showing an operation of taking a correspondence between a captured image and a projected image in a second direction in the projection system shown as the first embodiment of the present invention. 本発明の第1実施形態として示す投影システムにおいて、変換テーブルTcbを作成する詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement which produces the conversion table Tcb in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、歪み変換行列の作成動作を示すフローチャートである。5 is a flowchart showing a distortion transformation matrix creation operation in the projection system shown as the first embodiment of the present invention. 本発明の第1実施形態として示す投影システムにおいて、第1方向において撮像画像と投影画像との対応をとる構成を示すブロック図である。In the projection system shown as 1st Embodiment of this invention, it is a block diagram which shows the structure which takes a response | compatibility with a captured image and a projection image in a 1st direction. 本発明の第1実施形態として示す投影システムにおいて、第2方向において撮像画像と投影画像との対応をとる構成を示すブロック図である。It is a block diagram which shows the structure which takes a response | compatibility with a captured image and a projection image in a 2nd direction in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、位相シフト法の原理を説明するブロック図である。It is a block diagram explaining the principle of a phase shift method in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、位相シフト法により投影する縞パターンを示す図である。It is a figure which shows the fringe pattern projected by the phase shift method in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、空間コード化法により投影する投影画像を示す図である。It is a figure which shows the projection image projected by the spatial coding method in the projection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す投影システムにおいて、位相をアンラッピングして絶対位相を求める処理を説明する図である。It is a figure explaining the process which calculates | requires an absolute phase by unwrapping a phase in the projection system shown as 1st Embodiment of this invention. 本発明の第2実施形態として示す投影システムにおいて、視点位置、プロジェクタ、カメラ、投影面の位置関係を示す図である。It is a figure which shows the positional relationship of a viewpoint position, a projector, a camera, and a projection surface in the projection system shown as 2nd Embodiment of this invention. 本発明の第2実施形態として示す投影システムにおいて、撮像画像、投影画像、コンテンツ画像の関係を示す図である。It is a figure which shows the relationship between a captured image, a projection image, and a content image in the projection system shown as 2nd Embodiment of this invention. 本発明の第2実施形態として示す投影システムにおける投影動作を示すフローチャートである。It is a flowchart which shows the projection operation | movement in the projection system shown as 2nd Embodiment of this invention. 本発明の第2実施形態として示す投影システムにおいて、歪み変換行列の作成動作を示すフローチャートである。It is a flowchart which shows the production | generation operation | movement of a distortion transformation matrix in the projection system shown as 2nd Embodiment of this invention. 本発明の第3実施形態として示す投影システムにおいて、視点位置、プロジェクタ、カメラ、投影面の位置関係を示す図である。It is a figure which shows the positional relationship of a viewpoint position, a projector, a camera, and a projection surface in the projection system shown as 3rd Embodiment of this invention. 本発明の第3実施形態として示す投影システムにおいて、歪み変換行列の作成動作を示すフローチャートである。It is a flowchart which shows the production | generation operation | movement of a distortion transformation matrix in the projection system shown as 3rd Embodiment of this invention. 本発明の第4実施形態として示す投影システムにおいて、視点位置、プロジェクタ、カメラ、投影面の位置関係を示す図である。In the projection system shown as 4th Embodiment of this invention, it is a figure which shows the positional relationship of a viewpoint position, a projector, a camera, and a projection surface. 本発明の第4実施形態として示す投影システムにおいて、歪み変換行列の作成動作を示すフローチャートである。It is a flowchart which shows the production | generation operation | movement of a distortion transformation matrix in the projection system shown as 4th Embodiment of this invention.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
[照明システムの概略構成]
本発明の第1実施形態として示す投影システムは、図1に示すように、投影装置としてのプロジェクタ1,撮像装置としてのカメラ2,及び投影制御装置3を含む。この投影システムは、プロジェクタ1の投影画像の投影エリア及びカメラ2の撮像エリアとが重複しており、当該重複したエリアに、被照射対象としての投影面10が含まれている。
[First Embodiment]
[Schematic configuration of lighting system]
The projection system shown as the first embodiment of the present invention includes a projector 1 as a projection device 1, a camera 2 as an imaging device, and a projection control device 3, as shown in FIG. In this projection system, the projection area of the projection image of the projector 1 and the imaging area of the camera 2 overlap, and the projection plane 10 as an irradiation target is included in the overlapped area.

投影面10としては、あらゆる形状のものであっても良い。投影システムは、投影面10に凹凸がある場合であっても、当該凹凸を含む投影面10に対して歪みの無い画像を投影可能とするものである。また、投影面10としては、平面に近い部屋の壁面や、投影面を凹型にしたものであても良い。   The projection surface 10 may have any shape. Even when the projection surface 10 has irregularities, the projection system can project an image without distortion onto the projection surface 10 including the irregularities. The projection surface 10 may be a wall surface of a room close to a plane or a projection surface that is concave.

この投影システムにおける投影制御装置3は、例えば図2に示すように構成される。   The projection control device 3 in this projection system is configured as shown in FIG. 2, for example.

投影制御装置3は、画像入力部21、入力画像メモリ22、演算部23、メモリ24、記憶装置25、I/O制御部26、出力画像メモリ27、画像出力部28を有する。また、投影制御装置3には、投影画像を作成するユーザの操作インターフェースとしての表示装置4、キーボード5、マウス6が接続されている。   The projection control device 3 includes an image input unit 21, an input image memory 22, a calculation unit 23, a memory 24, a storage device 25, an I / O control unit 26, an output image memory 27, and an image output unit 28. The projection control device 3 is connected to a display device 4, a keyboard 5, and a mouse 6 as user operation interfaces for creating a projection image.

この投影制御装置3は、画像入力部21により、カメラ2により撮像された撮像画像を入力してディジタル化して入力画像メモリ22に格納する。ここで、投影制御装置3は、図示しない信号線を介してカメラ2にコマンドを供給して、カメラ2の撮像動作を制御して、撮像画像を取得できる。   In the projection control device 3, the captured image captured by the camera 2 is input by the image input unit 21, digitized, and stored in the input image memory 22. Here, the projection control device 3 can acquire a captured image by supplying a command to the camera 2 via a signal line (not shown) and controlling the imaging operation of the camera 2.

また、投影制御装置3は、演算部23により作成した投影画像を出力画像メモリ27に保存し、画像出力部28からプロジェクタ1に出力させる。これにより、投影制御装置3は、プロジェクタ1から投影エリアに投影画像を投影する。   Further, the projection control device 3 stores the projection image created by the calculation unit 23 in the output image memory 27 and causes the projector 1 to output it from the image output unit 28. Thereby, the projection control apparatus 3 projects a projection image from the projector 1 onto the projection area.

更に、演算部23は、投影画像を作成するための作業領域としてのメモリ24を用いて、投影画像を作成する。このとき、演算部23は、記憶装置25に記憶された投影パターン、投影シーケンス、コンテンツ画像データ、変換テーブルTcb、歪み変換行列Hを用いて、投影画像を作成する。投影パターンは、投影面10に対して投影される計測のための縞パターン画像のことである。コンテンツ画像データは、投影面10に投影される各種の画像データや映像データである。例えば、コンテンツ画像データとしては、プレゼンテーション用の画像データ等が挙げられる。また、投影シーケンスは、投影パターン、コンテンツ画像データの投影順序を示すデータのことである。投影パターン、コンテンツ画像データ、投影シーケンスの選択は、キーボード5及びマウス6が操作されたことに応じたI/O制御部26から操作入力信号により、演算部23が設定可能である。   Further, the calculation unit 23 creates a projection image using the memory 24 as a work area for creating a projection image. At this time, the calculation unit 23 creates a projection image using the projection pattern, projection sequence, content image data, conversion table Tcb, and distortion conversion matrix H stored in the storage device 25. The projection pattern is a fringe pattern image for measurement projected onto the projection plane 10. The content image data is various image data and video data projected on the projection plane 10. For example, the content image data includes presentation image data. The projection sequence is data indicating the projection pattern and the projection order of the content image data. The selection of the projection pattern, content image data, and projection sequence can be set by the calculation unit 23 by an operation input signal from the I / O control unit 26 in response to the operation of the keyboard 5 and the mouse 6.

更にまた、演算部23は、投影面10に歪みのないコンテンツ画像データを投影させるために、撮像画像を投影画像に変換する変換テーブルTcb(第1変換情報)、コンテンツ画像データを撮像画像に変換する歪み変換行列H(第2変換情報)を算出する。そして、演算部23は、変換テーブルTcb、歪み変換行列Hを記憶装置25に記憶させる。   Furthermore, in order to project content image data without distortion on the projection plane 10, the calculation unit 23 converts a captured image into a projected image, a conversion table Tcb (first conversion information), and converts the content image data into a captured image. A distortion transformation matrix H (second transformation information) to be calculated is calculated. Then, the calculation unit 23 stores the conversion table Tcb and the distortion conversion matrix H in the storage device 25.

第1実施形態として示す投影システムは、図3に示すように、観察者の視点位置と同じ位置を、カメラ2の撮像位置とする。そして、投影システムは、カメラ2の撮像位置から投影面10に投影されたコンテンツ画像を見たときに、歪み無くコンテンツ画像を見ることができるようにする。   The projection system shown as 1st Embodiment makes the same position as an observer's viewpoint position the imaging position of the camera 2, as shown in FIG. Then, the projection system makes it possible to view the content image without distortion when viewing the content image projected onto the projection plane 10 from the imaging position of the camera 2.

このカメラ2の撮像位置から見て歪みの無い投影像とは、図4(a)に示す撮像画像101中の長方形領域である画像投影領域111の頂点C1、C2、C3、C4に、図4(c)のコンテンツ画像103中のコンテンツ画像領域113の頂点I1、I2、I3、I4が一致して投影されることである。ここで、コンテンツ画像領域113は、コンテンツ画像103中の形状を示しているが、コンテンツ画像103の全体領域と等しいものであっても良い。一方、観察者の視点位置とプロジェクタ1の設置位置とは、必然的に異なるものとなる。このため、図4(b)の投影画像102上の投影面10と、撮像画像101上の投影面10とは形状が異なる。最初に撮像画像101から投影画像102への変換情報(変換テーブルTcb)を求める。次に、コンテンツ画像103上でのコンテンツ画像領域113を設定する(コンテンツ画像領域設定手段)。次に、コンテンツ画像103から撮像画像101への変換情報(歪み変換行列H)を求める。したがって、コンテンツ画像領域113が歪み変換行列Hにより撮像画像領域111に変換され、この変換された撮像画像領域111が変換テーブルTcbを用いて、投影画像領域112に変換される。このようにして作成された投影画像を投影することにより、結果として、カメラ2の撮像位置、すなわち、観察者の視点位置から歪み無く投影面10上に投影されたコンテンツ画像を見ることができる。   The projected image having no distortion when viewed from the image pickup position of the camera 2 is shown in FIG. 4 at the vertices C1, C2, C3, and C4 of the image projection area 111 that is a rectangular area in the picked-up image 101 shown in FIG. In (c), the vertices I1, I2, I3, and I4 of the content image region 113 in the content image 103 are projected in a consistent manner. Here, the content image area 113 shows the shape in the content image 103, but it may be the same as the entire area of the content image 103. On the other hand, the viewpoint position of the observer and the installation position of the projector 1 are inevitably different. For this reason, the shape of the projection surface 10 on the projection image 102 in FIG. 4B and the projection surface 10 on the captured image 101 are different. First, conversion information (conversion table Tcb) from the captured image 101 to the projected image 102 is obtained. Next, the content image area 113 on the content image 103 is set (content image area setting means). Next, conversion information (distortion conversion matrix H) from the content image 103 to the captured image 101 is obtained. Therefore, the content image area 113 is converted into the captured image area 111 by the distortion conversion matrix H, and the converted captured image area 111 is converted into the projected image area 112 using the conversion table Tcb. By projecting the projection image thus created, as a result, it is possible to see the content image projected on the projection plane 10 without distortion from the imaging position of the camera 2, that is, the viewpoint position of the observer.

投影システムは、撮像画像101中の画像投影領域111の頂点C1、C2、C3、C3と、投影画像102中の画像投影領域112の頂点P1、P2、P3、P4との関係を求めるために、3次元形状計測において時間縞パターン投影位相シフト法として知られている方法を使用する。撮像画像101と投影画像102との対応関係を求める処理とは、カメラ2の撮像素子上の位置と、プロジェクタ1の投影素子上の位置を対応付けることである。   The projection system calculates the relationship between the vertices C1, C2, C3, and C3 of the image projection area 111 in the captured image 101 and the vertices P1, P2, P3, and P4 of the image projection area 112 in the projection image 102. In the three-dimensional shape measurement, a method known as a time stripe pattern projection phase shift method is used. The process for obtaining the correspondence between the captured image 101 and the projected image 102 is to associate the position on the imaging element of the camera 2 with the position on the projection element of the projector 1.

この時間縞パターン投影位相シフト法は、輝度値が正弦波状に変化する縞パターンの位相をずらしながら複数枚に亘り投影及び撮像を行う。次に、この時間縞パターン投影位相シフト法は、撮像された複数の撮像画像から、撮像素子の各画素において輝度値の初期位相を推定する。この初期位相は、投影素子上に設定したものであるため、撮像素子の各画素において求められた初期位相の推定値が、直接的に投影素子上の位置を表すものとなり、撮像画像と投影画像との対応付けができる。   In this time fringe pattern projection phase shift method, projection and imaging are performed over a plurality of sheets while shifting the phase of the fringe pattern whose luminance value changes in a sine wave shape. Next, in the time-striped pattern projection phase shift method, the initial phase of the luminance value is estimated in each pixel of the image sensor from a plurality of captured images. Since this initial phase is set on the projection element, the estimated value of the initial phase obtained for each pixel of the image sensor directly represents the position on the projection element. Can be associated.

撮像画像と投影画像との対応付けする位置の精度を高くするため、投影素子上に複数の位相を割り付けると、推定時に位相のつなぎ目において位相接続が必要となる。この位相接続の方式には多くのものが知られているが、本実施形態の投影システムは、処理が簡単で信頼性が高い空間コード化法を使用する。   In order to increase the accuracy of the position where the captured image and the projected image are associated with each other, if a plurality of phases are allocated on the projection element, phase connection is required at the joint of the phases at the time of estimation. There are many known phase connection methods, but the projection system of this embodiment uses a spatial encoding method that is simple in processing and highly reliable.

また、演算部23は、撮像画像中の矩形領域の頂点C1、C2、C3、C4と、コンテンツ画像の領域I1、I2、I3、I4との関係を求めるためには、射影変換を使用する。   In addition, the calculation unit 23 uses projective transformation to obtain the relationship between the vertices C1, C2, C3, and C4 of the rectangular area in the captured image and the areas I1, I2, I3, and I4 of the content image.

具体的には、投影制御装置3は、プロジェクタ1の投光方向に直交する第1方向に周期的に明度が変化する縞パターンを投影して第1方向について位相シフト法を用いた対応付を行う。また、投影制御装置3は、投光方向に直交する面内で第1方向に直交する第2方向に周期的に明度が変化する縞パターンを投影して第2方向について位相シフト法を用いた対応付を行う。これにより、投影制御装置3は、撮像画像と投影画像との画素間の対応関係を定める変換テーブルTcb(変換情報)を求める。この変換テーブルTcbは、記憶装置25に記憶される(第1変換情報作成手段)。   Specifically, the projection control device 3 projects a fringe pattern whose brightness periodically changes in a first direction orthogonal to the light projecting direction of the projector 1 and performs correspondence using the phase shift method in the first direction. Do. In addition, the projection control device 3 projects a fringe pattern whose brightness periodically changes in a second direction orthogonal to the first direction within a plane orthogonal to the light projecting direction, and uses the phase shift method in the second direction. Perform correspondence. Thereby, the projection control apparatus 3 calculates | requires the conversion table Tcb (conversion information) which defines the correspondence between the pixels of a captured image and a projection image. This conversion table Tcb is stored in the storage device 25 (first conversion information creating means).

投影制御装置3は、変換テーブルTcbを用いることにより、図5(a)の撮像画像101に対して座標変換をして、図5(b)のような投影画像102に変換することができる。ここで、投影制御装置3により取得された撮像画像101の各画素は、投影画像102に含まれる画素のサンプリングの格子点からずれた位置に変換される。このために、投影画像102の各画素における輝度値を得るためには、投影画像102の各画素のサンプリング点周辺に変換された撮像画像101の輝度値を補間して求めることが必要となる。   By using the conversion table Tcb, the projection control device 3 can perform coordinate conversion on the captured image 101 in FIG. 5A and convert it into a projection image 102 as shown in FIG. Here, each pixel of the captured image 101 acquired by the projection control device 3 is converted to a position shifted from the sampling grid point of the pixel included in the projection image 102. For this reason, in order to obtain a luminance value at each pixel of the projection image 102, it is necessary to interpolate and obtain the luminance value of the captured image 101 converted around the sampling point of each pixel of the projection image 102.

投影画像102を撮像画像101の画素で補間する方法としては、投影制御装置3は、記憶装置25に記憶しておいた変換テーブルTcbを用いる。この変換テーブルTcbは、図6に示すように、投影画像102の各画素周辺に変換された撮像画像101の画素座標を登録して構成される。具体的には、撮像画像の座標(1,1)は投影画像の座標(1,1)と(1,2)に対応している。   As a method of interpolating the projection image 102 with the pixels of the captured image 101, the projection control device 3 uses a conversion table Tcb stored in the storage device 25. As shown in FIG. 6, the conversion table Tcb is configured by registering the pixel coordinates of the captured image 101 converted around each pixel of the projection image 102. Specifically, the coordinates (1, 1) of the captured image correspond to the coordinates (1, 1) and (1, 2) of the projection image.

演算部23は、投影画像102を作成する時には、投影画像102の各画素を作成するために用いられる撮像画像101の画素の輝度値を平均して、当該投影画像102を構成する画素の輝度値として求める。なお、撮像画像101がカラー画像の場合には、RGBの各要素について平均値を求めて、投影画像102を作成する処理を行う。   When creating the projection image 102, the arithmetic unit 23 averages the luminance values of the pixels of the captured image 101 used to create each pixel of the projection image 102, and the luminance values of the pixels constituting the projection image 102 are calculated. Asking. When the captured image 101 is a color image, an average value is obtained for each element of RGB, and a process for creating the projection image 102 is performed.

また、演算部23は、所定の視点位置に設けたカメラ2により撮像された撮像画像101上で画像投影領域111を設定する(投影領域設定手段)。次に、コンテンツ画像103上でのコンテンツ画像領域113を設定する(コンテンツ画像領域設定手段)。次に演算部23は、設定されたコンテンツ画像領域113と撮像画像101上の画像投影領域111との関係に基づいて、当該画像投影領域に画像を投影するようにコンテンツ画像データを変換する歪み変換行列Hを作成する。実際の投影時には、コンテンツ画像領域113が歪み変換行列Hにより撮像画像上の画像投影領域111に変換され(画像変換手段)、次に、この変換された撮像画像上の画像投影領域111が変換テーブルTcbを用いて、投影画像上の画像投影領域112に変換され(領域変換手段)、プロジェクタ1から投影画像を投影させる。   Further, the calculation unit 23 sets an image projection area 111 on the captured image 101 captured by the camera 2 provided at a predetermined viewpoint position (projection area setting means). Next, the content image area 113 on the content image 103 is set (content image area setting means). Next, based on the relationship between the set content image area 113 and the image projection area 111 on the captured image 101, the calculation unit 23 performs distortion conversion that converts the content image data so as to project an image onto the image projection area. A matrix H is created. At the time of actual projection, the content image area 113 is converted into the image projection area 111 on the captured image by the distortion conversion matrix H (image conversion means), and then the image projection area 111 on the converted captured image is converted into the conversion table. Using Tcb, the image is converted into an image projection area 112 on the projection image (area conversion means), and the projection image is projected from the projector 1.

この演算部23により作成された歪み変換行列Hを用いてコンテンツ画像領域113のデータを、撮像画像101上の画像投影領域111内のデータに変換する処理は、図7に示すように、撮像画像の各画素に対して歪み変換行列Hによる演算を行ってコンテンツ画像上へ変換する。この歪み変換行列Hによる変換時は、撮像画像101をコンテンツ画像103の画素のサンプリング格子点に対してずれた位置に変換してしまう。このため、撮像画像上の画像投影領域111の各画素の輝度値を得るために、演算部23は、撮像画像が変換された座標周辺のコンテンツ画像103の輝度値を使って補間して求める。輝度値の補間方法としては、バイリニア法、バイキュービック法、また、テーブルを作成して補間する方法のどの方法を使っても良い。   As shown in FIG. 7, the process of converting the data in the content image area 113 into the data in the image projection area 111 on the captured image 101 using the distortion transformation matrix H created by the calculation unit 23 is performed as shown in FIG. For each of the pixels, an arithmetic operation using a distortion transformation matrix H is performed to convert it onto a content image. At the time of conversion using the distortion conversion matrix H, the captured image 101 is converted to a position shifted from the sampling grid point of the pixel of the content image 103. For this reason, in order to obtain the luminance value of each pixel of the image projection area 111 on the captured image, the calculation unit 23 interpolates using the luminance value of the content image 103 around the coordinates obtained by converting the captured image. As a luminance value interpolation method, any of a bilinear method, a bicubic method, and a method of interpolating by creating a table may be used.

以上のように、投影システムは、歪み変換行列Hを用いてコンテンツ画像データを撮像画像データに変換し、次に、撮像画像データを変換テーブルTcbを用いて投影画像データに変換することにより、投影面10に歪みのない画像を投影できる。   As described above, the projection system converts the content image data into the captured image data using the distortion conversion matrix H, and then converts the captured image data into the projected image data using the conversion table Tcb. An image without distortion can be projected on the surface 10.

[投影システムの動作]
つぎに、上述したように構成された投影システムによる各種の動作について、図8乃至図13のフローチャート等を参照して説明する。
[Projection system operation]
Next, various operations performed by the projection system configured as described above will be described with reference to the flowcharts of FIGS.

「投影パターンの投影動作」
まず、投影システムによる投影パターンの投影動作について、図8を参照して説明する。
"Projection of projection pattern"
First, the projection operation of the projection pattern by the projection system will be described with reference to FIG.

投影システムは、コンテンツ画像を投影する前処理として、上述したように、変換テーブルTcbおよび歪み変換行列Hを作成して記憶装置25に記憶しておく。   As described above, the projection system creates the conversion table Tcb and the distortion conversion matrix H and stores them in the storage device 25 as preprocessing for projecting the content image.

そして、ユーザによる操作などによって、コンテンツ画像を投影するタイミングとなると、ステップS1以降の処理を開始する。先ず、投影制御装置3は、記憶装置25に記憶された変換テーブルTcb、歪み変換行列Hをメモリ24に読み込む。   Then, when the timing for projecting the content image comes due to the user's operation or the like, the processing after step S1 is started. First, the projection control device 3 reads the conversion table Tcb and the distortion conversion matrix H stored in the storage device 25 into the memory 24.

次のステップS2において、投影制御装置3は、ユーザが投影されることを希望するコンテンツ画像データを記憶装置25からメモリ24に読み込む。   In the next step S <b> 2, the projection control device 3 reads content image data that the user desires to be projected from the storage device 25 into the memory 24.

次のステップS3において、投影制御装置3は、ステップS2で読み込んだコンテンツ画像データを、ステップS1にて読み込んだ変換テーブルTcb、歪み変換行列Hを用いて投影画像に変換する。   In the next step S3, the projection control device 3 converts the content image data read in step S2 into a projected image using the conversion table Tcb and distortion conversion matrix H read in step S1.

次のステップS4において、投影制御装置3は、ステップS3にて変換されたコンテンツ画像である投影画像を、プロジェクタ1に出力して、プロジェクタ1から投影画像を投影させる。これにより、投影システムは、変換テーブルTcb、歪み変換行列Hの作成時に設置したカメラ2の撮像位置から投影面10に投影された画像を見れば歪みの無い画像を投影することができる。   In the next step S4, the projection control device 3 outputs the projection image, which is the content image converted in step S3, to the projector 1, and causes the projector 1 to project the projection image. Thereby, the projection system can project an image without distortion by looking at the image projected on the projection plane 10 from the imaging position of the camera 2 installed when the conversion table Tcb and the distortion conversion matrix H are created.

「変換テーブルTcbの作成動作」
次に、変換テーブルTcbの作成動作について説明する。
"Conversion table Tcb creation operation"
Next, the creation operation of the conversion table Tcb will be described.

変換テーブルTcbは、撮像画像の画素と投影画像の画素を対応付けたテーブルデータ、すなわち、撮像素子上の位置データと、投影素子上の位置データとの対応関係を示す。このように撮像画像と投影画像との対応付けるために、本実施形態における投影システムは、一般的に3次元形状の計測において用いられる時間縞パターン投影位相シフト法と称される手法を応用する。   The conversion table Tcb indicates the correspondence between the table data in which the pixels of the captured image and the pixels of the projection image are associated, that is, the position data on the image sensor and the position data on the projection element. As described above, in order to associate the captured image with the projected image, the projection system according to the present embodiment applies a method called a time-striped pattern projection phase shift method that is generally used in measurement of a three-dimensional shape.

図14に示すように、カメラ座標系202は、水平方向をx軸、垂直方向をy軸とし、撮像画像のサイズはx方向にm画素、y方向にn画素とする。また、プロジェクタ座標系201は、水平方向をu軸、垂直方向をv軸とし、投影画像のサイズはu方向にk画素、v方向にl画素とする。   As shown in FIG. 14, the camera coordinate system 202 has a horizontal direction as an x-axis and a vertical direction as a y-axis, and the size of a captured image is m pixels in the x direction and n pixels in the y direction. In the projector coordinate system 201, the horizontal direction is the u axis, the vertical direction is the v axis, and the size of the projected image is k pixels in the u direction and l pixels in the v direction.

投影システムは、図9に示すステップS11において、図14のような第1方向の縞パターン(第1方向の投影像301)をプロジェクタ1から投影し、カメラ2により投影エリアを撮像する。上述したように、カメラ2は、図3に示したように、投影面10に対するユーザの視点位置が撮像位置となるように設置されている。そして、演算部23は、撮像画像の各画素の輝度値を用いて、第1方向に沿うカメラ座標とプロジェクタ座標の対応付けを求める。ここで、第1方向に沿う座標とは、図14に示したようにカメラ座標系202におけるx軸、プロジェクタ座標系201におけるu軸となる。   In step S 11 shown in FIG. 9, the projection system projects a stripe pattern in the first direction (projected image 301 in the first direction) as shown in FIG. 14 from the projector 1, and images the projection area with the camera 2. As described above, the camera 2 is installed such that the viewpoint position of the user with respect to the projection plane 10 is the imaging position, as shown in FIG. And the calculating part 23 calculates | requires matching of the camera coordinate and projector coordinate along a 1st direction using the luminance value of each pixel of a captured image. Here, the coordinates along the first direction are the x axis in the camera coordinate system 202 and the u axis in the projector coordinate system 201 as shown in FIG.

次のステップS12において、プロジェクタ1は、図15のような第1方向と直交する第2方向の縞パターン(第2方向の投影像302)を投影し、カメラ2により投影エリアを撮像する。そして、演算部23は、撮像画像の各画素の輝度値を用いて、第2方向に沿うカメラ座標とプロジェクタ座標の対応付けを求める。ここで、第2方向に沿う座標とは、図14に示したように、カメラ座標系202におけるy軸、プロジェクタ座標系201におけるv軸となる。   In the next step S12, the projector 1 projects a fringe pattern in the second direction (projected image 302 in the second direction) orthogonal to the first direction as shown in FIG. And the calculating part 23 calculates | requires matching with the camera coordinate and projector coordinate along a 2nd direction using the luminance value of each pixel of a captured image. Here, the coordinates along the second direction are the y axis in the camera coordinate system 202 and the v axis in the projector coordinate system 201, as shown in FIG.

このようなステップS11及びステップS12により、カメラ座標における撮像画像の各画素に対するプロジェクタ座標における対応画素が求まる。   By such step S11 and step S12, the corresponding pixel in the projector coordinates for each pixel of the captured image in the camera coordinates is obtained.

次のステップS13において、ステップS11及びステップS12にて求めた撮像画像と投影画像との対応関係を用いて、プロジェクタ座標に対する、投影画像の各画素の輝度値を計算するときに必要となる撮像画像の画素を対応付ける変換テーブルTcbを作成する。これにより、図6に示したような変換テーブルTcbを作成できる。   In the next step S13, the captured image necessary for calculating the luminance value of each pixel of the projection image with respect to the projector coordinates using the correspondence relationship between the captured image obtained in step S11 and step S12 and the projection image. A conversion table Tcb that associates the pixels is created. Thereby, the conversion table Tcb as shown in FIG. 6 can be created.

上述したように、撮像画像と投影画像との対応付けには、時間縞パターン投影位相シフト法の原理を利用する。以下、時間縞パターン投影位相シフト法の原理を説明する。   As described above, the principle of the time fringe pattern projection phase shift method is used for associating the captured image with the projected image. Hereinafter, the principle of the time stripe pattern projection phase shift method will be described.

図16に、投影システムにおけるプロジェクタ1の投影素子1a、カメラ2の撮像素子2a、投影面10の投影面ABの配置を示す。図16は、プロジェクタ1の主点、カメラ2の主点と、投影素子1a上の点Pの投影面上の像である点Rとで構成される平面で切り取った断面での模式図である。この断面は、投影面10の投影面では直線ABとなる。投影素子1a上の点Pから出射された投影光は、投影面10上の投影面上の点Rで像を作る。この投影面上の点Rから反射された投影光は、撮像素子2a上で点Qに結像する。   FIG. 16 shows the arrangement of the projection element 1 a of the projector 1, the imaging element 2 a of the camera 2, and the projection plane AB of the projection plane 10 in the projection system. FIG. 16 is a schematic diagram of a cross-section taken along a plane formed by the principal point of the projector 1, the principal point of the camera 2, and the point R that is an image on the projection surface of the point P on the projection element 1a. . This cross section is a straight line AB on the projection plane of the projection plane 10. Projection light emitted from a point P on the projection element 1 a forms an image at a point R on the projection plane on the projection plane 10. The projection light reflected from the point R on the projection surface forms an image at the point Q on the image sensor 2a.

時間縞パターン投影位相シフト法は、プロジェクタ1の投影素子1a上の位置Pと、正弦波状の縞パターンの初期位相とを関係付けて、図17のように位相を0〜3π/2までπ/2ずつずらしながら順次縞パターンを投影する。時間縞パターン投影位相シフト法は、任意形状の投影面10の投影面ABに投影され、投影面ABの3次元形状により変形させられた投影像を撮像して得られる撮像画像の各画素における輝度値を検出して、縞パターンの正弦波の初期位相値を画素ごとに推定する。次に、時間縞パターン投影位相シフト法は、撮像素子2a上の画素(位置Q)ごとに推定された初期位相値と、投影素子1a上における位置Pの縞パターンの初期位相とから、同じ初期位相の投影素子1a上の位置P、撮像素子2a上の位置Qを求める。これにより、時間縞パターン投影位相シフト法は、撮像素子2aのある画素Qで受光した光が、投影素子1a上のどの画素Pから出た光であるかを特定する。   In the time fringe pattern projection phase shift method, the position P on the projection element 1a of the projector 1 is related to the initial phase of the sinusoidal fringe pattern, and the phase is changed from 0 to 3π / 2 as shown in FIG. The stripe pattern is projected sequentially while shifting by two. In the time-striped pattern projection phase shift method, the luminance at each pixel of a captured image obtained by capturing a projection image projected onto the projection surface AB of the projection surface 10 having an arbitrary shape and deformed by the three-dimensional shape of the projection surface AB. The value is detected, and the initial phase value of the sine wave of the fringe pattern is estimated for each pixel. Next, the time fringe pattern projection phase shift method uses the same initial value from the initial phase value estimated for each pixel (position Q) on the image sensor 2a and the initial phase of the fringe pattern at the position P on the projection element 1a. A position P on the phase projection element 1a and a position Q on the imaging element 2a are obtained. Thereby, the time-striped pattern projection phase shift method specifies from which pixel P on the projection element 1a the light received by a certain pixel Q of the imaging element 2a is light.

初期位相は、投影面10の投影面の3次元形状に応じて変形させられる。このため、初期位相値は、投影面の3次元形状を表す値となる。初期位相値を計算するときに、位相をずらしながら順次に縞パターン投影するために、「時間」という形容詞を付して、時間縞パターン投影位相シフト法と称される。本実施形態では、当該時間縞パターン投影位相シフト法のうち、撮像画像と投影画像との対応付けを行う手法を利用する。   The initial phase is deformed according to the three-dimensional shape of the projection surface of the projection surface 10. For this reason, the initial phase value is a value representing the three-dimensional shape of the projection surface. When calculating the initial phase value, in order to sequentially project the fringe pattern while shifting the phase, the adjective “time” is attached, and this is called a time fringe pattern projection phase shift method. In the present embodiment, a method of associating a captured image with a projected image is used in the time-striped pattern projection phase shift method.

以上のように、投影システムにおいては、撮像素子2a上の位置Qにおける縞パターンの初期位相が推定できると、当該推定した初期位相を投影した投影素子1a上の位置Pがわかる。時間縞パターン位相シフト法では、最低でも3つの位相をずらした縞パターンを投影することで、位相を推定できることが知られている。本実施形態では、図17に示したように0から位相をπ/2づつずらす縞パターンを4つ使う場合を例にして説明している。しかし、3つの縞パターンを用いて、撮像素子2a上における各位置の初期位相を推定して、投影素子1a上の位置Pに対応する撮像素子2a上の位置Qを求めても良い。   As described above, in the projection system, when the initial phase of the fringe pattern at the position Q on the image sensor 2a can be estimated, the position P on the projection element 1a on which the estimated initial phase is projected is known. In the time fringe pattern phase shift method, it is known that the phase can be estimated by projecting a fringe pattern in which at least three phases are shifted. In the present embodiment, as shown in FIG. 17, a case where four stripe patterns whose phases are shifted from 0 by π / 2 is used is described as an example. However, the position Q on the image sensor 2a corresponding to the position P on the projection element 1a may be obtained by estimating the initial phase of each position on the image sensor 2a using three stripe patterns.

このような時間縞パターン投影位相シフト法を用いて、上述の図9におけるステップS11の第1方向(X方向)における撮像画像と投影画像との対応付を行う処理を、図10を参照して説明する。   A process for associating the captured image with the projected image in the first direction (X direction) in step S11 in FIG. 9 described above with reference to FIG. explain.

先ずステップS21において、投影制御装置3は、図18に示したバイナリパターン1、バイナリパターン2、バイナリパターン3、バイナリパターン4の縞パターンを用いて、空間コード化法で大局位相を算出する。この大局位相は、画面全体の位相を粗く表すものである。   First, in step S21, the projection control device 3 calculates a global phase by a spatial coding method using the stripe patterns of the binary pattern 1, the binary pattern 2, the binary pattern 3, and the binary pattern 4 shown in FIG. This global phase roughly represents the phase of the entire screen.

次のステップS22において、投影制御装置3は、時間縞パターン投影位相シフト法を用いて、第1方向における縞パターンを順次に投影及び撮像させ、撮像画像上における画素(局所)ごとに位相Φ(x)を求める。 In the next step S22, the projection control device 3 sequentially projects and images the fringe pattern in the first direction using the time fringe pattern projection phase shift method, and the phase Φ 1 for each pixel (local) on the captured image. (X) is obtained.

このとき、図17に示したように、シフトなし、π/2シフト、πシフト、3π/2シフトの縞パターンを撮像した撮像画像上における輝度値I(x)、I(x)、I(x)、I(x)は、下記の式1乃至式4のように表される。
At this time, as shown in FIG. 17, luminance values I 0 (x), I 1 (x) on the picked-up image obtained by picking up stripe patterns of no shift, π / 2 shift, π shift, and 3π / 2 shift, I 2 (x) and I 3 (x) are represented by the following formulas 1 to 4.

この式1乃至式4におけるB(x)はバイアス成分、A(x)は振幅成分、Φ(x)は初期位相を表す。これら4つの輝度値I(x)、I(x)、I(x)、I(x)から、初期位相Φ(x)は、下記の式5により求めることができる。
In Equations 1 to 4, B (x) represents a bias component, A (x) represents an amplitude component, and Φ 1 (x) represents an initial phase. From these four luminance values I 0 (x), I 1 (x), I 2 (x), and I 3 (x), the initial phase Φ 1 (x) can be obtained by the following Equation 5.

次のステップS23において、投影制御装置3は、ステップS21にて求めた大局位相を参照して、ステップS22にて求めた局所位相の位相を接続するアンラッピング処理を行い、絶対位相Φ(x)を算出する。 In the next step S23, the projection control apparatus 3 refers to the global phase obtained in step S21, performs unwrapping processing for connecting the phases of the local phases obtained in step S22, and obtains the absolute phase Φ 1 (x ) Is calculated.

時間縞パターン投影位相シフト法において、縞パターンが複数あると、撮像画像において推定された位相は、2πごとの繰り返しで位相飛びがある、いわゆるラッピングされたものとなる。このため、ラッピングされた位相を繋ぐアンラッピング処理が必要となる。このアンラッピング処理は、図19(a)に示す第1方向における局所位相Φ(x)と、図19(b)に示す第1方向における大局位相とを合成して、図19(c)に示すような第1方向における絶対位相Φ(x)を求める処理である。これにより、投影制御装置3は、撮像画像全体にわたる粗い位相である大局位相を求め、次に、当該大局位相と、ラッピングされている局所位相とを比較して位相を繋ぎ、絶対位相を求めることができる。なお、空間コード化法による大局位相の算出方法は、「井口征士、佐藤宏介、三次元画像計測、昭晃堂、pp. 80-119」に示されている。 In the time fringe pattern projection phase shift method, when there are a plurality of fringe patterns, the phase estimated in the captured image is a so-called wrapping in which there is a phase jump every 2π. For this reason, an unwrapping process for connecting the wrapped phases is required. In this unwrapping process, the local phase Φ 1 (x) in the first direction shown in FIG. 19A and the global phase in the first direction shown in FIG. The absolute phase Φ 1 (x) in the first direction as shown in FIG. Thereby, the projection control apparatus 3 obtains a global phase that is a rough phase over the entire captured image, and then compares the global phase with the wrapped local phase to obtain the absolute phase. Can do. The method of calculating the global phase by the spatial coding method is shown in “Seiji Iguchi, Kosuke Sato, 3D image measurement, Shogodo, pp. 80-119”.

次のステップS24において、投影制御装置3は、投影画像におけるu軸成分の位置を求める。ここで、図14に示したように、投影画像のu軸成分は、撮像画像の第1方向(x方向)に対応する。順次に投影及び撮像される縞パターンの縞の数をMとすると、投影画像のu軸方向の画素数はk画素であることより、撮像画像上のxの位置に対応する投影画像上のuの位置は、下記の式6のように演算できる。
In the next step S24, the projection control device 3 obtains the position of the u-axis component in the projection image. Here, as illustrated in FIG. 14, the u-axis component of the projection image corresponds to the first direction (x direction) of the captured image. If the number of fringes of the fringe pattern projected and imaged sequentially is M, the number of pixels in the u-axis direction of the projected image is k pixels, and therefore u on the projected image corresponding to the position of x on the captured image. Can be calculated as shown in Equation 6 below.

このように、投影制御装置3は、空間コード化法及び時間縞パターン投影位相シフト法の双方を用いて、第1方向における撮像画像の座標と投影画像の座標との対応付けを行うことができる。   As described above, the projection control device 3 can associate the coordinates of the captured image with the coordinates of the projection image in the first direction by using both the spatial coding method and the time-striped pattern projection phase shift method. .

また、ステップS12における第2方向におけるカメラ座標とプロジェクタ座標の対応関係を求める処理も、上述した第1方向と同様である。ステップS12の処理は、図11に示すようになる。先ずステップS31において、投影制御装置3は、図15に示すように、第1方向とは直交する方向の縞パターンを用いて、空間コード化法で大局位相を算出する。   Further, the processing for obtaining the correspondence between the camera coordinates and the projector coordinates in the second direction in step S12 is the same as that in the first direction described above. The process of step S12 is as shown in FIG. First, in step S31, as shown in FIG. 15, the projection control apparatus 3 calculates a global phase by a spatial coding method using a fringe pattern in a direction orthogonal to the first direction.

次のステップS32において、投影制御装置3は、時間縞パターン投影位相シフト法を用いて、第2方向における縞パターンを順次に投影及び撮像させ、撮像画像上における画素(局所)ごとに位相Φ(y)を求める。 In the next step S32, the projection control device 3 sequentially projects and images the fringe pattern in the second direction using the time fringe pattern projection phase shift method, and the phase Φ 2 for each pixel (local) on the captured image. (Y) is obtained.

このとき、図17に示したように、シフトなし、π/2シフト、πシフト、3π/2シフトの縞パターンを撮像した撮像画像上における輝度値I(y)、I(y)、I(y)、I(y)は、下記の式7乃至式10のように表される。
At this time, as shown in FIG. 17, luminance values I 0 (y), I 1 (y) on a captured image obtained by capturing a stripe pattern of no shift, π / 2 shift, π shift, and 3π / 2 shift, I 2 (y) and I 3 (y) are represented by the following formulas 7 to 10.

これら4つの輝度値I(y)、I(y)、I(y)、I(y)から、初期位相Φ(x)は、下記の式11により求めることができる。
From these four luminance values I 0 (y), I 1 (y), I 2 (y), and I 3 (y), the initial phase Φ 2 (x) can be obtained by the following Expression 11.

次のステップS33において、投影制御装置3は、ステップS31にて求めた大局位相を参照して、ステップS32にて求めた局所位相の位相を接続するアンラッピング処理を行い、第2方向における絶対位相Φ(x)を算出する。 In the next step S33, the projection control device 3 refers to the global phase obtained in step S31, performs unwrapping processing for connecting the phases of the local phases obtained in step S32, and performs absolute phase in the second direction. Φ 2 (x) is calculated.

次のステップS34において、投影制御装置3は、投影画像におけるv軸成分の位置を求める。ここで、図14に示したように、投影画像のv軸成分は、撮像画像の第2方向(y方向)に対応する。順次に投影及び撮像される縞パターンの縞の数をMとすると、投影画像のv軸方向の画素数はl画素であることより、撮像画像上のyの位置に対応する投影画像上のvの位置は、下記の式13のように演算できる。
In the next step S34, the projection control device 3 obtains the position of the v-axis component in the projection image. Here, as illustrated in FIG. 14, the v-axis component of the projection image corresponds to the second direction (y direction) of the captured image. Assuming that the number of fringes of the fringe pattern to be projected and imaged sequentially is M, the number of pixels in the v-axis direction of the projected image is 1 pixel, and v on the projected image corresponding to the position of y on the captured image. Can be calculated as shown in Equation 13 below.

このように、投影制御装置3は、空間コード化法及び時間縞パターン投影位相シフト法の双方を用いて、第2方向における撮像画像の座標と投影画像の座標との対応付けを行うことができる。   As described above, the projection control device 3 can associate the coordinates of the captured image with the coordinates of the projection image in the second direction by using both the spatial coding method and the time-striped pattern projection phase shift method. .

上述した図10のステップS21〜ステップS24からなる図9のステップS11と、上述した図11のステップS31〜ステップS34からなる図9のステップS12の後に、投影制御装置3は、図12の処理を行うことにより、ステップS13にて変換テーブルTcbの作成を行う。   After step S11 in FIG. 9 including step S21 to step S24 in FIG. 10 and step S12 in FIG. 9 including step S31 to step S34 in FIG. 11 described above, the projection control device 3 performs the process in FIG. By doing so, the conversion table Tcb is created in step S13.

投影制御装置3は、図12に示すステップS41において、ステップS11中のステップS24及びステップS12中のステップS34により算出された投影画像上の座標(u,v)を読み込む。この投影画像上の座標(u,v)は、下記の式13のように、
In step S41 shown in FIG. 12, the projection control device 3 reads the coordinates (u, v) on the projection image calculated in step S24 in step S11 and step S34 in step S12. The coordinates (u, v) on this projected image are as shown in the following equation (13):

のように表現される。 It is expressed as

次のステップS42において、投影制御装置3は、投影画像上の座標(u,v)の小数点以下を四捨五入し、対応する整数部を持つ変換テーブルTcbの座標(u,v)の欄に、対応する撮像画像上の座標(x,y)を格納する。ここで、式13に示した撮像画像上の座標(x,y)から変換した投影画像上の座標(u,v)は、図4に示したような離散的なサンプリング格子点である投影画像上の座標からはずれた位置となる。このために、投影制御装置3は、投影画像の各画素のサンプリング点周辺に変換された撮像画像の輝度値を補間して、投影画像の各画素における輝度値を求める必要がある。   In the next step S42, the projection control device 3 rounds off the decimal point of the coordinates (u, v) on the projection image and corresponds to the coordinates (u, v) column of the conversion table Tcb having the corresponding integer part. The coordinates (x, y) on the captured image to be stored are stored. Here, the coordinates (u, v) on the projection image converted from the coordinates (x, y) on the captured image shown in Expression 13 are the projection images that are discrete sampling lattice points as shown in FIG. The position deviates from the upper coordinates. For this reason, the projection control apparatus 3 needs to interpolate the luminance value of the captured image converted around the sampling point of each pixel of the projection image to obtain the luminance value at each pixel of the projection image.

したがって、図6に示す変換テーブルTcbのうち、投影画像上の座標(u,v)に対応した撮像画像上の座標(x,y)の欄には、複数の撮像画像上の座標を格納する。そして、実際に、撮像画像上の座標を投影画像上の座標に変換する場合には、一又は複数の撮像画像上の画素を平均して、投影画像上の輝度値を求めることができる。   Therefore, in the conversion table Tcb shown in FIG. 6, the coordinates on the plurality of captured images are stored in the column of the coordinates (x, y) on the captured image corresponding to the coordinates (u, v) on the projection image. . When actually converting the coordinates on the captured image to the coordinates on the projected image, the pixels on the one or more captured images can be averaged to obtain the luminance value on the projected image.

次のステップS43において、投影制御装置3は、撮像画像の全面に亘りステップS41及びステップS42の処理を行ったか否かを判定する。撮像画像の全面に亘りステップS41及びステップS42の処理を行った場合には処理を終了し、そうでない場合にはステップS41及びステップS42の処理を行う。   In the next step S43, the projection control device 3 determines whether or not the processing of step S41 and step S42 has been performed over the entire surface of the captured image. If the processes of step S41 and step S42 are performed over the entire surface of the captured image, the process ends. If not, the processes of step S41 and step S42 are performed.

これにより、投影制御装置3は、変換テーブルTcbを作成して、記憶装置25に記憶させることができる。   Thereby, the projection control apparatus 3 can create the conversion table Tcb and store it in the storage device 25.

「歪み変換行列Hの作成動作」
つぎに、コンテンツ画像を投影画像に変換するための歪み変換行列Hの作成動作について、図13を参照して説明する。
"Creation operation of distortion transformation matrix H"
Next, an operation of creating a distortion transformation matrix H for converting a content image into a projection image will be described with reference to FIG.

投影システムは、先ずステップS51において、投影制御装置3の制御に従って、カメラ2により投影面10の投影領域を撮像し、撮像画像を取得する。上述したように、カメラ2は、図3に示したように、投影面10に対するユーザの視点位置が撮像位置となるように設置されている。   First, in step S51, the projection system images the projection area of the projection plane 10 with the camera 2 according to the control of the projection control device 3, and acquires the captured image. As described above, the camera 2 is installed such that the viewpoint position of the user with respect to the projection plane 10 is the imaging position, as shown in FIG.

次のステップS52において、投影制御装置3は、ステップS51にて取得した撮像画像中の投影面の画像上に、コンテンツ画像を投影したい領域を設定する。このコンテンツ画像を投影したい領域は、図4における画像投影領域111である。このとき、投影制御装置3は、撮像画像上における画像投影領域111を特定する頂点位置を設定する。このとき、投影制御装置3は、カメラ2により撮像した撮像画像を表示装置4に表示させ、キーボード5及びマウス6の操作によって撮像画像上に指定された4個の頂点C1、C2、C3、C4を認識する。例えば、撮像画像上に長方形を上書きするようにキーボード5及びマウス6を操作させ、当該長方形の頂点を認識しても良く、マウス6により画像投影領域の4個の頂点のみを選択させても良い。   In the next step S52, the projection control device 3 sets an area on which the content image is to be projected on the image of the projection plane in the captured image acquired in step S51. The area where the content image is to be projected is an image projection area 111 in FIG. At this time, the projection control device 3 sets a vertex position that identifies the image projection area 111 on the captured image. At this time, the projection control device 3 displays the captured image captured by the camera 2 on the display device 4, and the four vertices C1, C2, C3, and C4 designated on the captured image by operating the keyboard 5 and the mouse 6 are displayed. Recognize For example, the keyboard 5 and the mouse 6 may be operated so as to overwrite the rectangle on the captured image, and the vertices of the rectangle may be recognized, or only the four vertices of the image projection area may be selected by the mouse 6. .

なお、撮像画像に設定した矩形の画像投影領域111の頂点をC1(x,y),C2(x,y),C3(x,y),C4(x,y)と表し、投影画像上の画像投影領域112の頂点(図4でいう画像投影領域112)をP1(u,v),P2(u,v),P3(u,v),P4(u,v)と表し、コンテンツ画像領域113の頂点をI1(s,t),I2(s,t),I3(s,t),I4(s,t)と表す。 Note that the vertices of the rectangular image projection area 111 set in the captured image are represented by C1 (x 1 , y 1 ), C2 (x 2 , y 2 ), C3 (x 3 , y 3 ), C4 (x 4 , y 4). ), And apexes of the image projection area 112 on the projection image (the image projection area 112 in FIG. 4) are P1 (u 1 , v 1 ), P2 (u 2 , v 2 ), P3 (u 3 , v 3). ), P4 (u 4 , v 4 ), and the vertices of the content image area 113 are I1 (s 1 , t 1 ), I2 (s 2 , t 2 ), I3 (s 3 , t 3 ), I4 (s 4 , t 4 ).

次のステップS53において、投影制御装置3は、撮像画像上の画像投影領域111の頂点C1、C2、C3、C4と、コンテンツ画像領域113の頂点I1、I2、I3、I4との関係から、変換情報(歪み変換行列H)を求める。この歪み変換行列Hは、いわゆる射影変換行列となっている。このため、歪み変換行列Hは次のように求められる。この歪み変換行列Hが用いられるのは、コンテンツ画像データを撮像画像に変換する処理である。しかし、歪み変換行列Hの使用時の処理を簡便にするために、以下では、撮像画像からコンテンツ画像への変換として歪み変換行列Hを求めることについて説明する。   In the next step S53, the projection control device 3 converts from the relationship between the vertices C1, C2, C3, and C4 of the image projection area 111 on the captured image and the vertices I1, I2, I3, and I4 of the content image area 113. Information (distortion transformation matrix H) is obtained. This distortion transformation matrix H is a so-called projective transformation matrix. Therefore, the distortion transformation matrix H is obtained as follows. This distortion transformation matrix H is used for converting content image data into a captured image. However, in order to simplify the processing at the time of using the distortion transformation matrix H, in the following, obtaining the distortion transformation matrix H as a transformation from a captured image to a content image will be described.

射影変換行列は、同値関係で表され定数倍の違いは意味を持たないため、下記の式14のように表すことができる。なお、式14中の“〜”が同値関係を表し、定数倍の違いを許して等しいことを意味する。
Since the projective transformation matrix is expressed by an equivalence relation and the difference of constant multiples has no meaning, it can be expressed as the following Expression 14. It should be noted that “˜” in the expression 14 represents an equivalence relation, which means that they are equal by allowing a constant multiple difference.

式14において、s,tはコンテンツ画像103の座標を示し、x,yは撮像画像101の座標を示す。式14のh11〜h32からなる歪み変換行列Hによって、撮像画像上の画像投影領域111をコンテンツ画像領域113に変換できることを示している。すなわち上記式14の射影変換行列が歪み変換行列Hとなり、歪み変換行列Hは下記の式15のように定義される。
In Expression 14, s and t indicate the coordinates of the content image 103, and x and y indicate the coordinates of the captured image 101. This shows that the image projection area 111 on the captured image can be converted into the content image area 113 by the distortion conversion matrix H composed of h 11 to h 32 in Expression 14. That is, the projective transformation matrix of the above equation 14 becomes the distortion transformation matrix H, and the distortion transformation matrix H is defined as the following equation 15.

上記式15の歪み変換行列H及び撮像画像上の画像投影領域111の座標(x, y)を用いて、コンテンツ画像領域113の座標(s,t)を表現すると、s,tは、非同次表現に直され、それぞれ下記の式16,式17のように表現される。
If the coordinates (s, t) of the content image area 113 are expressed using the distortion transformation matrix H of the above equation 15 and the coordinates (x, y) of the image projection area 111 on the captured image, s and t are not the same. The following expressions are corrected and expressed as Expressions 16 and 17 below.

上記式16,式17をそれぞれ展開すると、sについては式18の演算式が得られ、tについては式19の演算式が得られる。
When the above Expression 16 and Expression 17 are expanded, the operation expression of Expression 18 is obtained for s, and the operation expression of Expression 19 is obtained for t.

上記式18,式19の演算式を整理すると、sは下記式20のようになり、tは下記式21のようになる。
If the arithmetic expressions of the above expressions 18 and 19 are rearranged, s is expressed by the following expression 20 and t is expressed by the following expression 21.

上記式20,式21を行列式で表すと、下記式22のようになる。
When the above formulas 20 and 21 are represented by determinants, the following formula 22 is obtained.

撮像画像上の画像投影領域111の頂点C1(x,y)、C2(x,y)、C3(x,y)、C4(x,y)と、コンテンツ画像領域113の頂点I1(s,t),I2(s,t),I3(s,t),I4(s,t)の対応する4個の頂点の座標を上記式22に適用すると、
Vertex C1 (x 1 , y 1 ), C2 (x 2 , y 2 ), C3 (x 3 , y 3 ), C4 (x 4 , y 4 ) of the image projection area 111 on the captured image, and the content image area 113 vertices of I1 (s 1, t 1) , I2 (s 2, t 2), I3 (s 3, t 3), I4 (s 4, t 4) corresponding four coordinates the expression of the vertices of 22

式23となる。したがって、歪み変換行列Hを定義する変換行列は式24のように求まる。
Equation 23 is obtained. Therefore, a transformation matrix that defines the distortion transformation matrix H is obtained as shown in Equation 24.

上記の式14を用いて、撮像画像からコンテンツ画像への対応関係が決定されると、上述の図7に示したように、撮像画像101とコンテンツ画像103との対応関係を定義できる。このように、歪み変換行列Hを算出すると、投影制御装置3は、記憶装置25に歪み変換行列Hを記憶させておく。そして、投影システムは、実際に投影面10にコンテンツ画像を投影させる場合には、式14の歪み変換行列Hを用いてコンテンツ画像データを撮像画像データに変換し、次に、撮像画像データを変換テーブルTcbを用いて投影画像データに変換して投影画像を作成し、プロジェクタ1に供給する。   When the correspondence relationship between the captured image and the content image is determined using the above equation 14, the correspondence relationship between the captured image 101 and the content image 103 can be defined as shown in FIG. When the distortion transformation matrix H is calculated in this way, the projection control device 3 stores the distortion transformation matrix H in the storage device 25. When the projection system actually projects the content image on the projection plane 10, the projection system converts the content image data into captured image data using the distortion transformation matrix H of Expression 14, and then converts the captured image data. The projection image data is converted into projection image data using the table Tcb, and is supplied to the projector 1.

以上詳細に説明したように、本発明を適用した投影システムによれば、プロジェクタ1の投光方向に直交する第1方向に周期的に明度が変化する縞パターンを投影及び撮像させて当該第1方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行い、第1方向に直交する第2方向に周期的に明度が変化する縞パターンを投影及び撮像させて第2方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行う。これにより、撮像画像と投影画像との画素間の対応関係を定めた変換テーブルTcb(第1変換情報)を作成する。次に、投影システムは、図3に示したように所定の視点位置に設けたカメラ2により撮像された撮像画像101上で投影領域である画像投影領域111を設定する(S51,S52)。次に、コンテンツ画像103上でのコンテンツ画像領域113を設定する。次に、設定されたコンテンツ画像領域113と撮像画像101上の画像投影領域111との関係に基づいて、当該画像投影領域に画像を投影するようにコンテンツ画像データを変換する歪み変換行列H(第2変換情報)を作成する。実際の投影時には、コンテンツ画像領域113が歪み変換行列Hにより撮像画像上の画像投影領域111に変換され、次に、この変換された撮像画像上の画像投影領域111が変換テーブルTcbを用いて、投影画像上の画像投影領域112に変換され、最終的にプロジェクタ1からコンテンツ画像が投影面10に対して投影される。   As described in detail above, according to the projection system to which the present invention is applied, the first stripe pattern whose brightness changes periodically in the first direction orthogonal to the light projecting direction of the projector 1 is projected and imaged. The captured image and the projected image are associated with each other using the phase shift method for the direction, and the fringe pattern whose brightness changes periodically in the second direction orthogonal to the first direction is projected and imaged, and the phase in the second direction The captured image and the projection image are associated with each other using the shift method. Thereby, the conversion table Tcb (first conversion information) that defines the correspondence between the captured image and the projected image is created. Next, the projection system sets an image projection area 111 as a projection area on the captured image 101 captured by the camera 2 provided at a predetermined viewpoint position as shown in FIG. 3 (S51, S52). Next, a content image area 113 on the content image 103 is set. Next, based on the relationship between the set content image region 113 and the image projection region 111 on the captured image 101, a distortion transformation matrix H (first step) for converting the content image data so as to project an image onto the image projection region. 2 conversion information). At the time of actual projection, the content image area 113 is converted into the image projection area 111 on the captured image by the distortion transformation matrix H, and then the image projection area 111 on the converted captured image is converted using the conversion table Tcb. The image is converted into the image projection area 112 on the projection image, and the content image is finally projected from the projector 1 onto the projection plane 10.

従来の投影システムでは、投影面10に凹凸がある場合には、観察者からコンテンツ画像は歪んで見えてしまうが、この投影システムを使うと、位相シフト法を用いて、投影面の凹凸形状に対応した変換テーブルTcbを作成して、コンテンツ画像を歪み変換行列Hを用いて変換された撮像画像上の画像投影領域111を変換するため、観察者から見て、投影面10に対して歪みのないコンテンツ画像を投影することができる。したがって、この投影システムによれば、投影面10に凹凸がある場合やプロジェクタ1と投影面10とが正対していない場合であっても、画像の歪み補正を簡単且つ精度良く行うことができる
また、この第1実施形態として示す投影システムによれば、位相シフト法を用いて行われた撮像画像と投影画像との対応付けを、空間コード化法を用いて修正して、変換テーブルTcbを作成するので、位相とびのない位相画像を作成でき、撮像画像と投影画像との対応付を高精度なものとすることができる。したがって、投影システムによれば、投影面10の凹凸度合いが大きい場合でも、歪みのないコンテンツ画像を投影できる。
In the conventional projection system, if the projection surface 10 has irregularities, the content image will appear distorted by the observer. However, if this projection system is used, the projection surface will have an irregular shape using the phase shift method. A corresponding conversion table Tcb is created, and the image projection region 111 on the captured image obtained by converting the content image using the distortion conversion matrix H is converted. No content image can be projected. Therefore, according to this projection system, even when the projection surface 10 is uneven or when the projector 1 and the projection surface 10 do not face each other, distortion correction of the image can be performed easily and accurately. According to the projection system shown as the first embodiment, the correspondence between the captured image and the projection image performed using the phase shift method is corrected using the spatial coding method, and the conversion table Tcb is created. Therefore, a phase image without phase jump can be created, and the correspondence between the captured image and the projected image can be made highly accurate. Therefore, according to the projection system, it is possible to project a content image without distortion even when the unevenness degree of the projection surface 10 is large.

[第2実施形態]
つぎに、第2実施形態として示す投影システムについて説明する。なお、上述の第1実施形態と同様の部分については同一符号を付することによりその詳細な説明を省略する。
[Second Embodiment]
Next, a projection system shown as the second embodiment will be described. In addition, about the part similar to the above-mentioned 1st Embodiment, the detailed description is abbreviate | omitted by attaching | subjecting the same code | symbol.

第2実施形態として示す投影システムは、図20に示すように、投影画像を見る観察者が投影面10に正対しており、投影面10に正対した位置から投影面10に投影したコンテンツ画像を見た場合に歪みの無い投影像を提供するものである。この投影面10に正対した位置から見て歪みの無い投影像とは、投影面10中の画像を投影したい長方形の頂点S1、S2、S3、S4に対して、コンテンツ画像の頂点I1、I2、I3、I4が一致して投影されることである。なお、以下の説明では、例えば壁のような面においてユーザが任意に選択できる4点を投影面10の頂点S1,S2,S3,S4を設定した場合について説明する。   In the projection system shown as the second embodiment, as shown in FIG. 20, an observer who sees a projection image faces the projection plane 10, and a content image projected onto the projection plane 10 from a position facing the projection plane 10. When the image is viewed, a projection image without distortion is provided. The projected image without distortion when viewed from the position facing the projection plane 10 is the vertices S1, S2, S3, and S4 of the rectangular image on which the image on the projection plane 10 is to be projected, and the vertices I1 and I2 of the content image , I3, and I4 are projected in coincidence. In the following description, for example, a case where the vertices S1, S2, S3, and S4 of the projection plane 10 are set as four points that can be arbitrarily selected by a user on a surface such as a wall will be described.

そのためには、図21に示すように、投影面10中の頂点S1、S2、S3、S4に対応する撮像画像101中の矩形領域の頂点C1、C2、C3、C4に、コンテンツ画像領域113の頂点I1、I2、I3、I4を一致させて投影する必要がある。   For this purpose, as shown in FIG. 21, the content image area 113 is placed on the vertices C1, C2, C3, and C4 of the rectangular area in the captured image 101 corresponding to the vertices S1, S2, S3, and S4 in the projection plane 10. It is necessary to project the vertices I1, I2, I3, and I4 in agreement.

一方、投影システムにおいては、カメラ2の撮像位置とプロジェクタ1の投影位置が異なる。このため、投影画像102上の投影面10と、撮像画像101上の投影面10とは、その形状が異なる。観察者が投影面10に正対した位置から歪みの無いコンテンツ画像を見るためには、投影領域S1、S2、S3、S4に、コンテンツ画像領域113が一致して投影されればよい。このように投影するためには、投影面上の投影領域の頂点S1、S2、S3、S4と撮像画像上の画像投影領域の頂点C1、C2、C3、C4との関係、撮像画像上の画像投影領域の頂点C1、C2、C3、C4とコンテンツ画像領域113の頂点I1、I2、I3、I4との関係が分かり、撮像画像上の画像投影領域111の各画素を投影画像上の画像投影領域112の各画素に対応付けることができれば、投影システムは投影面10に正対した位置から見て歪みの無いコンテンツ画像を投影することができる。   On the other hand, in the projection system, the imaging position of the camera 2 and the projection position of the projector 1 are different. For this reason, the projection plane 10 on the projection image 102 and the projection plane 10 on the captured image 101 have different shapes. In order for an observer to view a content image without distortion from a position directly facing the projection plane 10, the content image region 113 may be projected in alignment with the projection regions S1, S2, S3, and S4. In order to project in this way, the relationship between the vertices S1, S2, S3, S4 of the projection area on the projection plane and the vertices C1, C2, C3, C4 of the image projection area on the captured image, the image on the captured image The relationship between the vertices C1, C2, C3, and C4 of the projection area and the vertices I1, I2, I3, and I4 of the content image area 113 is known, and each pixel of the image projection area 111 on the captured image is converted into an image projection area on the projection image. If it can be associated with each pixel 112, the projection system can project a content image without distortion when viewed from the position facing the projection plane 10.

投影面10の頂点S1、S2、S3、S4と、当該頂点S1、S2、S3、S4に対応する撮像画像101における画像投影領域111の頂点C1、C2、C3、C4との関係は、先ず撮像画像101における画像投影領域111の頂点C1、C2、C3、C4の座標を読み取ることにより求める。次に、撮像画像101における画像投影領域111と、投影画像102における画像投影領域112との関係は、第1実施形態において説明した時間縞パターン投影位相シフト法を用いて求められ、変換テーブルTcbにより定義される。次に、コンテンツ画像103におけるコンテンツ画像領域113の頂点I1、I2、I3、I4と、撮像画像上の画像投影領域111の頂点C1、C2、C3、C4との関係は、第1実施形態において説明した射影変換の考え方を用いて求められ、求められる変換行列は歪み変換行列Qとして定義される。   The relationship between the vertices S1, S2, S3, and S4 of the projection plane 10 and the vertices C1, C2, C3, and C4 of the image projection area 111 in the captured image 101 corresponding to the vertices S1, S2, S3, and S4 is first imaged. It is obtained by reading the coordinates of the vertices C1, C2, C3, C4 of the image projection area 111 in the image 101. Next, the relationship between the image projection area 111 in the captured image 101 and the image projection area 112 in the projection image 102 is obtained by using the time-striped pattern projection phase shift method described in the first embodiment, and is obtained from the conversion table Tcb. Defined. Next, the relationship between the vertices I1, I2, I3, and I4 of the content image area 113 in the content image 103 and the vertices C1, C2, C3, and C4 of the image projection area 111 on the captured image will be described in the first embodiment. The transformation matrix obtained and calculated using the concept of the projective transformation is defined as a distortion transformation matrix Q.

[投影システムの動作]
つぎに、上述したように構成された投影システムによる各種の動作について説明する。
[Projection system operation]
Next, various operations performed by the projection system configured as described above will be described.

「投影パターンの投影動作」
投影システムは、実際に観察者が正対した状態でコンテンツ画像を投影させる場合に、図22に示すような動作を行う。
"Projection of projection pattern"
The projection system performs an operation as shown in FIG. 22 when projecting a content image in a state where the observer is actually facing.

先ずステップS61において、投影制御装置3は、記憶装置25に記憶しておいた変換テーブルTcbと歪み変換行列Qをメモリ24に読み込む。この歪み変換行列Qは、上述した第1実施形態における歪み変換行列Hと同様に、コンテンツ画像データを変換するものである。この歪み変換行列Qは、投影面10に正対した観察者から当該投影面10に投影されたコンテンツ画像を見たときに、歪み無くコンテンツ画像を観察することができるようにコンテンツ画像を歪ませる。   First, in step S <b> 61, the projection control device 3 reads the conversion table Tcb and distortion conversion matrix Q stored in the storage device 25 into the memory 24. This distortion transformation matrix Q is for converting the content image data in the same manner as the distortion transformation matrix H in the first embodiment described above. This distortion transformation matrix Q distorts the content image so that the content image can be observed without distortion when the content image projected onto the projection surface 10 is viewed from an observer facing the projection surface 10. .

次のステップS62において、投影制御装置3は、記憶装置25からメモリ24にコンテンツ画像を読み込む。   In the next step S <b> 62, the projection control device 3 reads the content image from the storage device 25 into the memory 24.

次のステップS63において、投影制御装置3は、ステップS62にて読み込んだコンテンツ画像を、ステップS61にて読み込んだ変換テーブルTcb、歪み変換行列Qを用いて投影画像に変換する。これにより、投影制御装置3は、プロジェクタ1から投影する投影画像を作成する。   In the next step S63, the projection control device 3 converts the content image read in step S62 into a projection image using the conversion table Tcb and the distortion conversion matrix Q read in step S61. Thereby, the projection control device 3 creates a projection image to be projected from the projector 1.

次のステップS64において、投影制御装置3は、ステップS63にて変換したコンテンツ画像である投影画像を、プロジェクタ1に出力する。これにより、プロジェクタ1から投影面10に対して投影画像を投影する。   In the next step S64, the projection control device 3 outputs the projection image, which is the content image converted in step S63, to the projector 1. As a result, the projection image is projected from the projector 1 onto the projection plane 10.

「歪み変換行列Qの作成動作」
つぎに、投影システムによる歪み変換行列Qの作成動作について、図23を参照して説明する。
"Distortion transformation matrix Q creation operation"
Next, the operation of creating the distortion transformation matrix Q by the projection system will be described with reference to FIG.

先ず投影システムは、ステップS71において、カメラ2により、投影面10の投影領域を含む領域を撮像して、撮像画像を取得する。ここで、カメラ2による撮像領域と、部屋の壁などのコンテンツ画像を投影したい投影領域とは一致している必要はない。   First, in step S71, the projection system images an area including the projection area of the projection plane 10 with the camera 2, and acquires a captured image. Here, the imaging area by the camera 2 and the projection area where a content image such as a wall of a room is desired to be projected do not have to coincide.

次のステップS72において、図21(a)のように、投影制御装置3は、ステップS71にて取得した撮像画像101上で、コンテンツ画像を投影したい画像投影領域111を設定する。このとき、投影制御装置3は、表示装置4に撮像画像101を表示した状態で、画像投影領域111を指定するキーボード5及びマウス6の操作を検出する。これにより、投影制御装置3は、投影面10の頂点S1,S2,S3,S4に対応する画像投影領域111の頂点C1,C2,C3,C4を検出する。ここで、第2実施形態においては、観察者の視点位置と投影面10とを正対させ、カメラ2と投影面10とを正対させていないので、撮像画像101に現れる画像投影領域111は、歪んだ形状となる。   In the next step S72, as shown in FIG. 21A, the projection control device 3 sets an image projection area 111 on which the content image is to be projected on the captured image 101 acquired in step S71. At this time, the projection control device 3 detects an operation of the keyboard 5 and the mouse 6 that designates the image projection region 111 while the captured image 101 is displayed on the display device 4. Thereby, the projection control device 3 detects the vertices C1, C2, C3, and C4 of the image projection area 111 corresponding to the vertices S1, S2, S3, and S4 of the projection plane 10. Here, in the second embodiment, since the observer's viewpoint position and the projection plane 10 are opposed to each other and the camera 2 and the projection plane 10 are not opposed, the image projection area 111 appearing in the captured image 101 is It becomes a distorted shape.

このとき、投影制御装置3は、第1実施形態と同様に、変換テーブルTcbによる変換を行うことにより、撮像画像101中の画像投影領域111の画像データを、投影画像102中の画像投影領域112の画像データに変換する。   At this time, similarly to the first embodiment, the projection control device 3 performs conversion using the conversion table Tcb, thereby converting the image data of the image projection area 111 in the captured image 101 into the image projection area 112 in the projection image 102. Convert to image data.

次のステップS73において、投影制御装置3は、ステップS72にて求めた撮像画像101上の画像投影領域111の頂点C1、C2、C3、C4と、コンテンツ画像103におけるコンテンツ画像領域113の頂点I1、I2、I3、I4との関係を表す歪み変換行列Qを算出する。この歪み変換行列Qの算出処理は、下記のようになる。   In the next step S73, the projection control device 3 determines the vertexes C1, C2, C3, and C4 of the image projection area 111 on the captured image 101 obtained in step S72 and the vertex I1 of the content image area 113 in the content image 103, A distortion transformation matrix Q representing the relationship with I2, I3, and I4 is calculated. The processing for calculating the distortion transformation matrix Q is as follows.

ここで、射影変換行列は、同値関係で表され定数倍の違いは意味を持たないため、下記の式25のように表すことができる。なお、式25中の“〜”が同値関係を表し、定数倍の違いを許して等しいことを意味する。
Here, the projective transformation matrix is expressed by an equivalence relation, and the difference of constant multiples has no meaning, and therefore can be expressed as the following Expression 25. It should be noted that “˜” in the expression 25 represents an equivalence relationship, which means that they are equal by allowing a constant multiple difference.

式25において、s,tはコンテンツ画像領域113の座標を示し、x,yは撮像画像上の画像投影領域111の座標を示す。式25のq11〜q32からなる歪み変換行列Qによって、画像投影領域111をコンテンツ画像領域113へ変換できることを示している。すなわち上記式14の射影変換行列が歪み変換行列Qとなり、歪み変換行列Qは下記の式26のように定義される。
In Expression 25, s and t indicate the coordinates of the content image area 113, and x and y indicate the coordinates of the image projection area 111 on the captured image. This shows that the image projection area 111 can be converted into the content image area 113 by the distortion transformation matrix Q composed of q11 to q32 in Expression 25. That is, the projective transformation matrix of the above equation 14 becomes the distortion transformation matrix Q, and the distortion transformation matrix Q is defined as the following equation 26.

上記式26の歪み変換行列Q及び画像投影領域111の座標(x,y)を用いて、コンテンツ画像領域113の座標(s,t)を表現すると、s,tは、非同次表現に直され、それぞれ下記の式27,式28のように表現される。
When the coordinates (s, t) of the content image area 113 are expressed using the distortion transformation matrix Q of the above equation 26 and the coordinates (x, y) of the image projection area 111, s and t are expressed in a non-homogeneous expression. Are expressed as the following Expression 27 and Expression 28, respectively.

上記式27,式28をそれぞれ展開すると、sについては式29の演算式が得られ、tについては式30の演算式が得られる。
When each of Expression 27 and Expression 28 is expanded, the operation expression of Expression 29 is obtained for s, and the operation expression of Expression 30 is obtained for t.

上記式29,式30の演算式を整理すると、sは下記式31のようになり、tは下記式32のようになる。
If the arithmetic expressions of the above formulas 29 and 30 are arranged, s is represented by the following formula 31 and t is represented by the following formula 32.

上記式31,式32を行列式で表すと、下記式33のようになる。
When Expression 31 and Expression 32 are expressed as a determinant, the following Expression 33 is obtained.

画像投影領域111の頂点C1(x,y)、C2(x,y)、C3(x,y)、C4(x,y)と、コンテンツ画像領域113の頂点I1(s,t),I2(s,t),I3(s,t),I4(s,t)の対応する4個の頂点の座標を上記式33に適用すると、
Vertex C1 (x 1 , y 1 ), C2 (x 2 , y 2 ), C3 (x 3 , y 3 ), C4 (x 4 , y 4 ) of image projection area 111 and vertex I1 of content image area 113 When the coordinates of the four corresponding vertices of (s 1 , t 1 ), I 2 (s 2 , t 2 ), I 3 (s 3 , t 3 ), and I 4 (s 4 , t 4 ) are applied to the above equation 33, ,

となる。したがって、歪み変換行列Qを定義する変換行列は式35のように求まる。
It becomes. Therefore, a transformation matrix that defines the distortion transformation matrix Q is obtained as shown in Equation 35.

上記の式35を用いて、撮像画像からコンテンツ画像への対応関係が決定されると、上述の図7に示したように、撮像画像101とコンテンツ画像103との対応関係を定義できる。このように、歪み変換行列Qを算出すると、投影制御装置3は、記憶装置25に歪み変換行列Qを記憶させておく。そして、投影システムは、実際に投影面10にコンテンツ画像を投影させる場合には、コンテンツ画像データを歪み変換行列Qを用いて撮像画像データに変換し、次に、撮像画像データを変換テーブルTcbを用いて投影画像データに変換して投影画像を作成し、プロジェクタ1に供給する。   When the correspondence relationship between the captured image and the content image is determined using the above Expression 35, the correspondence relationship between the captured image 101 and the content image 103 can be defined as shown in FIG. Thus, when the distortion transformation matrix Q is calculated, the projection control device 3 stores the distortion transformation matrix Q in the storage device 25. When the projection system actually projects the content image on the projection plane 10, the projection system converts the content image data into captured image data using the distortion conversion matrix Q, and then converts the captured image data into the conversion table Tcb. The projection image data is converted into projection image data, and a projection image is created and supplied to the projector 1.

また、歪み変換行列Qは、コンテンツ画像103の画素のサンプリング格子点に対して、変換画素がずれた位置に変換される。このため、撮像画像101の各画素の輝度値を得るために、投影制御装置3は、変換された座標周辺のコンテンツ画像103の輝度値を使って補間する。輝度値の補間方法としては、バイリニア法、バイキュービック法、また、テーブルを作成して補間する方法のどの方法を使っても良い。   Further, the distortion transformation matrix Q is transformed to a position where the transformed pixel is shifted with respect to the sampling grid point of the pixel of the content image 103. For this reason, in order to obtain the luminance value of each pixel of the captured image 101, the projection control device 3 interpolates using the luminance value of the content image 103 around the converted coordinates. As a luminance value interpolation method, any of a bilinear method, a bicubic method, and a method of interpolating by creating a table may be used.

以上のように、投影システムは、変換テーブルTcbと歪み変換行列Qを用いてコンテンツ画像データを変換することにより、投影面10に正対している観察者から見て歪みのない投影画像を投影できる。   As described above, the projection system can project the projection image having no distortion as viewed from the viewer facing the projection plane 10 by converting the content image data using the conversion table Tcb and the distortion conversion matrix Q. .

以上詳細に説明したように、本発明を適用した第2実施形態として示した投影システムによれば、投影面10に正対した視点位置であっても、第1実施形態と同様に、コンテンツ画像データを歪み変換行列Qにより変換して、投影面10に対して歪みのないコンテンツ画像を投影できる。   As described above in detail, according to the projection system shown as the second embodiment to which the present invention is applied, the content image is the same as in the first embodiment even at the viewpoint position directly facing the projection plane 10. Data can be transformed by the distortion transformation matrix Q to project a content image without distortion on the projection plane 10.

[第3実施形態]
つぎに、第3実施形態として示す投影システムについて説明する。なお、上述の実施形態と同様の部分については同一符号を付することによりその詳細な説明を省略する。
[Third Embodiment]
Next, a projection system shown as the third embodiment will be described. Note that parts similar to those in the above-described embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

第3実施形態として示す投影システムは、歪み変換行列Qを算出する処理において、撮像画像101に対して所定の画像処理を行うことによって、投影面10の頂点S1,S2,S3,S4に対応した画像投影領域111の頂点C1,C2,C3,C4を検出する。   The projection system shown as the third embodiment corresponds to the vertices S1, S2, S3, and S4 of the projection plane 10 by performing predetermined image processing on the captured image 101 in the process of calculating the distortion transformation matrix Q. The vertexes C1, C2, C3, and C4 of the image projection area 111 are detected.

この投影システムにおいて、図24に示すように、投影面10の縁部には、投影枠10aが設けられている。この投影枠10aは、投影面10の領域を表す役割を持ち、投影面10の色とは異なる色となっている。投影枠10aは、通常においてプロジェクタ1を使用する場合に使われる、内側の投影面10が白色であり縁部が黒色で縁取りをされたスクリーンが挙げられる。   In this projection system, as shown in FIG. 24, a projection frame 10 a is provided at the edge of the projection surface 10. The projection frame 10 a has a role representing the area of the projection plane 10 and has a color different from the color of the projection plane 10. Examples of the projection frame 10a include a screen that is used when the projector 1 is normally used and has an inner projection surface 10 that is white and has a black edge.

このような投影面10及び投影枠10aをカメラ2により撮像すると、撮像画像101には、投影面10と投影枠10aとで大きなコントラストが現れる。このため、投影制御装置3は、画像処理により投影面10の画像投影領域111の頂点C1、C2、C3、C4を検出できる。この画像処理としては、例えば、撮像画像101を微分してエッジを抽出し、抽出されたエッジから直線を検出し、直線の交点として画像投影領域111の頂点C1、C2、C3、C4を求める方法が挙げられる。画像処理の他の例としては、頂点検出オペレータを使って、画像投影領域111の頂点C1、C2、C3、C4を直接検出する方法が挙げられる。   When such a projection plane 10 and projection frame 10a are captured by the camera 2, a large contrast appears in the captured image 101 between the projection plane 10 and the projection frame 10a. Therefore, the projection control device 3 can detect the vertices C1, C2, C3, and C4 of the image projection area 111 of the projection surface 10 by image processing. As this image processing, for example, the captured image 101 is differentiated to extract an edge, a straight line is detected from the extracted edge, and the vertices C1, C2, C3, and C4 of the image projection region 111 are obtained as intersections of the straight lines. Is mentioned. As another example of the image processing, there is a method of directly detecting the vertices C1, C2, C3, and C4 of the image projection area 111 using a vertex detection operator.

このような投影システムは、図25に示すように、ステップS81において、カメラ2により、投影面10の投影領域を撮像して、撮像画像101を取得する。   In such a projection system, as shown in FIG. 25, in step S81, the projection area of the projection plane 10 is imaged by the camera 2 and a captured image 101 is acquired.

次のステップS82において、投影制御装置3は、ステップS81にて取得した撮像画像101上で、コンテンツ画像を投影したい画像投影領域111を設定する。このとき、投影制御装置3は、撮像画像101に対して画像処理を行うことにより撮像画像101中の画像投影領域111の頂点C1,C2,C3,C4を自動的に検出する。「自動的に」とは、「手動によることなく」という意味である。   In the next step S82, the projection control device 3 sets an image projection area 111 on which the content image is to be projected on the captured image 101 acquired in step S81. At this time, the projection control apparatus 3 automatically detects the vertices C1, C2, C3, and C4 of the image projection area 111 in the captured image 101 by performing image processing on the captured image 101. “Automatically” means “without manual operation”.

次のステップS83において、投影制御装置3は、投影画像101上の画像投影領域111の頂点C1、C2、C3、C4と、コンテンツ画像103におけるコンテンツ画像領域113の頂点I1、I2、I3、I4との関係を表す歪み変換行列Qを算出する。   In the next step S83, the projection control device 3 determines the vertices C1, C2, C3, C4 of the image projection area 111 on the projection image 101 and the vertices I1, I2, I3, I4 of the content image area 113 in the content image 103. A distortion transformation matrix Q representing the relationship is calculated.

以上のように、第3実施形態として示す投影システムによれば、所定の画像処理によって撮像画像101から頂点S1,S2,S3,S4を自動的に検出できるので、撮像画像101内で画像投影領域111を設定する作業を、手作業で行うよりも効率的、短時間に行うことができる。   As described above, according to the projection system shown as the third embodiment, the vertices S1, S2, S3, and S4 can be automatically detected from the captured image 101 by predetermined image processing. The operation of setting 111 can be performed more efficiently and in a shorter time than the manual operation.

[第4実施形態]
つぎに、第4実施形態として示す投影システムについて説明する。なお、上述の実施形態と同様の部分については同一符号を付することによりその詳細な説明を省略する。
[Fourth Embodiment]
Next, a projection system shown as the fourth embodiment will be described. Note that parts similar to those in the above-described embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

第4実施形態として示す投影システムは、プロジェクタ1の画像投影領域に付されたマークの位置を検出して、撮像画像101内の画像投影領域111の頂点を求めるものである。   The projection system shown as the fourth embodiment detects the position of a mark attached to the image projection area of the projector 1 and obtains the vertex of the image projection area 111 in the captured image 101.

第4実施形態として示す投影システムは、投影面10を特定する頂点S1,S2,S3,S4の目安となるものが無い環境で、投影画像を投影する場面を想定している。例えば、投影面10としては、部屋の壁などが挙げられる。そして、投影面10の頂点S1,S2,S3,S4を認識して歪み変換行列Qを作成する場合に、図26に示すように、ユーザが投影面10の頂点S1,S2,S3,S4としたい位置にマーク106を貼付する。このマーク106は、取り外しが可能なシールのようなものである。このマーク106としては、投影面10の色に対して高いコントラストを持つ色のものであれば良い。また、マーク106の形状は、画像処理による検出精度の高い円や四角形が望まれるが、これに限定しなくても良い。   The projection system shown as the fourth embodiment assumes a scene in which a projection image is projected in an environment where there is no indication of the vertices S1, S2, S3, and S4 that specify the projection plane 10. For example, the projection surface 10 may be a wall of a room. Then, when recognizing the vertices S1, S2, S3, and S4 of the projection plane 10 and creating the distortion transformation matrix Q, the user can obtain the vertices S1, S2, S3, and S4 of the projection plane 10 as shown in FIG. A mark 106 is pasted at a desired position. This mark 106 is like a removable seal. The mark 106 may be a color having a high contrast with the color of the projection surface 10. Further, the shape of the mark 106 is preferably a circle or a rectangle with high detection accuracy by image processing, but is not limited thereto.

マーク106を貼付した状態で、投影システムは、カメラ2により貼付した全てのマーク106を含む撮像範囲で撮像を行って、撮像画像101を取得する。そして、投影システムは、撮像画像101に含まれているマーク106の画像内位置を、画像投影領域111の頂点C1,C2,C3,C4として自動的に検出する。このマーク106の検出方法としては、第3実施形態と同様に所定の画像処理である。また、撮像画像101内のマーク106の座標は、マーク106が円の場合には、撮像画像101中でマーク106の重心を求めることにより容易に検出することができる。   In a state where the mark 106 is pasted, the projection system captures an image within the imaging range including all the marks 106 pasted by the camera 2 and acquires the captured image 101. Then, the projection system automatically detects the position in the image of the mark 106 included in the captured image 101 as the vertices C1, C2, C3, and C4 of the image projection area 111. The detection method of the mark 106 is predetermined image processing as in the third embodiment. Also, the coordinates of the mark 106 in the captured image 101 can be easily detected by obtaining the center of gravity of the mark 106 in the captured image 101 when the mark 106 is a circle.

そして、投影システムは、撮像画像101を用いて歪み変換行列Qを算出した後、投影面10に貼られたマーク106を取り除く。これにより、ユーザが投影したい領域に、投影面10に正対した視点位置から歪みの無いコンテンツ画像を投影することができる。   Then, the projection system calculates the distortion transformation matrix Q using the captured image 101 and then removes the mark 106 attached to the projection surface 10. As a result, it is possible to project a content image without distortion from the viewpoint position directly facing the projection plane 10 onto an area that the user wants to project.

このような投影システムは、図27に示すように、先ずステップS91にてユーザにより投影面10の頂点S1,S2,S3,S4としたい位置にマーク106が貼付されると、ステップS92にて、カメラ2により当該マーク106を含む領域を撮像する。   In such a projection system, as shown in FIG. 27, when a mark 106 is first pasted at a position to be set as the vertices S1, S2, S3, S4 of the projection surface 10 by the user in step S91, in step S92, An area including the mark 106 is imaged by the camera 2.

次のステップS93において、投影制御装置3は、ステップS92にて取得した撮像画像101上で、コンテンツ画像を投影したい画像投影領域111を設定する。このとき、投影制御装置3は、撮像画像101に対して画像処理を行うことにより撮像画像101中のマーク106を自動的に検出して、画像投影領域111の頂点C1,C2,C3,C4を自動的に検出する。   In the next step S93, the projection control device 3 sets an image projection area 111 on which the content image is to be projected on the captured image 101 acquired in step S92. At this time, the projection control device 3 automatically detects the mark 106 in the captured image 101 by performing image processing on the captured image 101, and detects the vertices C1, C2, C3, and C4 of the image projection region 111. Detect automatically.

次のステップS94において、投影制御装置3は、ステップ93にて求めた撮像画像101上の画像投影領域111の頂点C1、C2、C3、C4と、コンテンツ画像103におけるコンテンツ画像領域113の頂点I1、I2、I3、I4との関係を表す歪み変換行列Qを算出する。   In the next step S94, the projection control apparatus 3 determines the vertexes C1, C2, C3, and C4 of the image projection area 111 on the captured image 101 obtained in step 93 and the vertex I1 of the content image area 113 in the content image 103, A distortion transformation matrix Q representing the relationship with I2, I3, and I4 is calculated.

その後のステップS95において、ユーザにより投影面10に貼付したマーク106を取り外す。   In subsequent step S95, the mark 106 attached to the projection surface 10 is removed by the user.

以上のように、第3実施形態として示す投影システムによれば、撮像画像101内で画像投影領域111を設定する作業を、手作業で行うよりも効率的、短時間に行うことができる。特に、投影面10を特定する頂点S1,S2,S3,S4を示すものがない場合であっても、ユーザによりマーク106を貼るだけで、壁などの面に対して所望の位置及び広さでコンテンツ画像を投影することができる。   As described above, according to the projection system shown as the third embodiment, the operation of setting the image projection area 111 in the captured image 101 can be performed more efficiently and in a shorter time than that performed manually. In particular, even when there is no vertex indicating the projection surface 10, the user can put the mark 106 at a desired position and width with respect to a surface such as a wall. A content image can be projected.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

1 プロジェクタ
2 カメラ
3 投影制御装置
4 表示装置
5 キーボード
6 マウス
10 投影面
21 画像入力部
22 入力画像メモリ
23 演算部
24 メモリ
25 記憶装置
26 制御部
27 出力画像メモリ
28 画像出力部
101 撮像画像
102 投影画像
103 コンテンツ画像
111,112 画像投影領域
113 コンテンツ画像領域
DESCRIPTION OF SYMBOLS 1 Projector 2 Camera 3 Projection control apparatus 4 Display apparatus 5 Keyboard 6 Mouse 10 Projection surface 21 Image input part 22 Input image memory 23 Calculation part 24 Memory 25 Storage device 26 Control part 27 Output image memory 28 Image output part 101 Captured image 102 Projection Image 103 Content image 111, 112 Image projection area 113 Content image area

Claims (6)

コンテンツ画像データを用いて投影画像を投影する投影装置と、前記投影装置により投影されている投影画像を撮像して撮像画像を取得する撮像装置とを備え、
前記投影装置の投光方向に直交する第1方向に周期的に明度が変化する縞パターンを投影及び撮像させて当該第1方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行い、前記第1方向に直交する第2方向に周期的に明度が変化する縞パターンを投影及び撮像させて第2方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行うことにより、前記撮像画像と前記投影画像との画素間の対応関係を定めた第1変換情報を作成する第1変換情報作成手段と、
所定の視点位置に設けた前記撮像装置により撮像された撮像画像上で画像投影領域を設定する投影領域設定手段と、
前記投影領域設定手段により設定された撮像画像上の画像投影領域を、前記第1変換情報を用いて、投影画像上の画像投影領域に変換する領域変換手段と、
コンテンツ画像の形状を示すコンテンツ画像領域を設定するコンテンツ画像領域設定手段と、
前記投影領域設定手段により撮像画像上に設定された画像投影領域と、前記コンテンツ画像領域設定手段により設定されたコンテンツ画像領域との関係に基づいて、当該コンテンツ画像領域を撮像画像上の画像投影領域に投影するようにコンテンツ画像データを変換する第2変換情報を作成する第2変換情報作成手段と、
前記第2変換情報を用いてコンテンツ画像データを変換して、前記投影装置から投影画像を投影させる画像変換手段と
を備えることを特徴とする投影システム。
A projection device that projects a projection image using content image data; and an imaging device that captures a projection image projected by the projection device and obtains a captured image.
A fringe pattern whose brightness changes periodically in a first direction orthogonal to the light projecting direction of the projection device is projected and imaged, and the captured image and the projected image are associated with each other using the phase shift method in the first direction. And projecting and capturing a fringe pattern whose brightness changes periodically in a second direction orthogonal to the first direction, and associating the captured image with the projected image using the phase shift method in the second direction First conversion information creating means for creating first conversion information that defines correspondence between pixels of the captured image and the projected image,
A projection area setting means for setting an image projection area on a captured image captured by the imaging device provided at a predetermined viewpoint position;
Area conversion means for converting an image projection area on the captured image set by the projection area setting means into an image projection area on the projection image using the first conversion information;
Content image area setting means for setting a content image area indicating the shape of the content image;
Based on the relationship between the image projection area set on the captured image by the projection area setting means and the content image area set by the content image area setting means, the content image area is an image projection area on the captured image. Second conversion information creating means for creating second conversion information for converting the content image data to be projected onto
A projection system comprising: image conversion means for converting content image data using the second conversion information and projecting a projection image from the projection device.
前記撮像装置は、前記投影画像を見る観察者の視点位置又は投影装置周辺の任意の位置に設けられることを特徴とする請求項1に記載の投影システム。   The projection system according to claim 1, wherein the imaging device is provided at a viewpoint position of an observer who views the projection image or an arbitrary position around the projection device. 前記投影領域設定手段は、前記撮像画像から画像投影領域を所定の画像処理により検出することを特徴とする請求項1又は請求項2に記載の投影システム。   The projection system according to claim 1, wherein the projection area setting unit detects an image projection area from the captured image by predetermined image processing. 前記投影領域設定手段は、前記投影装置の画像投影領域に付されたマークの位置を検出して、前記画像投影領域の頂点を求めることを特徴とする請求項3に記載の投影システム。   The projection system according to claim 3, wherein the projection area setting unit detects a position of a mark attached to an image projection area of the projection device and obtains a vertex of the image projection area. 前記第1変換情報作成手段は、前記位相シフト法を用いて行われた撮像画像と投影画像との対応付けを、空間コード化法を用いて修正して、前記第1変換情報を作成することを特徴とする請求項1乃至請求項4の何れか一項に記載の投影システム。   The first conversion information creation means creates the first conversion information by correcting the association between the captured image and the projection image performed using the phase shift method using a spatial coding method. The projection system according to any one of claims 1 to 4, wherein the projection system is characterized in that: 投影装置の投光方向に直交する第1方向に周期的に明度が変化する縞パターンを投影及び撮像して当該第1方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行い、前記第1方向に直交する第2方向に周期的に明度が変化する縞パターンを投影及び撮像して第2方向について位相シフト法を用いて撮像画像と投影画像との対応付けを行うことにより、前記撮像画像と前記投影画像との画素間の対応関係を定めた第1変換情報を予め作成し、
所定の視点位置に設けた撮像装置により撮像された撮像画像上で画像投影領域を設定し、
前記設定された撮像画像上の画像投影領域を、前記第1変換情報を用いて、投影画像上の画像投影領域に変換し、
コンテンツ画像の形状を示すコンテンツ画像領域を設定し、
前記変換された撮像画像上の画像投影領域と、前記設定されたコンテンツ画像領域との関係に基づいて、当該コンテンツ画像領域を撮像画像上の画像投影領域に投影するようにコンテンツ画像データを変換する第2変換情報を作成しておき、
実際にコンテンツ画像を投影する際に、前記第2変換情報を用いて前記コンテンツ画像データを変換して、前記投影装置から投影画像を投影させること
を特徴とする投影方法。
A fringe pattern whose brightness changes periodically in a first direction orthogonal to the light projecting direction of the projection device is projected and imaged, and the captured image and the projected image are associated with each other using the phase shift method in the first direction. By projecting and capturing a fringe pattern whose brightness changes periodically in a second direction orthogonal to the first direction and associating the captured image with the projected image using the phase shift method in the second direction , Preliminarily creating first conversion information that defines the correspondence between the captured image and the projected image,
An image projection area is set on a captured image captured by an imaging device provided at a predetermined viewpoint position,
Converting the image projection area on the set captured image into an image projection area on the projection image using the first conversion information;
Set the content image area that indicates the shape of the content image,
Based on the relationship between the image projection area on the converted captured image and the set content image area, the content image data is converted to project the content image area onto the image projection area on the captured image. Create the second conversion information,
When actually projecting a content image, the content image data is converted using the second conversion information, and a projection image is projected from the projection device.
JP2009136418A 2009-06-05 2009-06-05 Projection system and projection method Pending JP2010283674A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009136418A JP2010283674A (en) 2009-06-05 2009-06-05 Projection system and projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009136418A JP2010283674A (en) 2009-06-05 2009-06-05 Projection system and projection method

Publications (1)

Publication Number Publication Date
JP2010283674A true JP2010283674A (en) 2010-12-16

Family

ID=43540015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009136418A Pending JP2010283674A (en) 2009-06-05 2009-06-05 Projection system and projection method

Country Status (1)

Country Link
JP (1) JP2010283674A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014176074A (en) * 2013-03-13 2014-09-22 Nippon Telegr & Teleph Corp <Ntt> Space projection device, space projection method and space projection program
DE102013009803A1 (en) * 2013-06-12 2014-12-18 Heiko Cornelius Method for automatic image correction of a projector
JP2015052874A (en) * 2013-09-06 2015-03-19 セイコーエプソン株式会社 Display device, and control method of the same
JP2015172712A (en) * 2014-03-12 2015-10-01 日本電信電話株式会社 Space projection device and space projection program
WO2016147731A1 (en) * 2015-03-19 2016-09-22 株式会社メガチップス Projection system, projector device, image capturing device, and program
JP2016197171A (en) * 2015-04-03 2016-11-24 日本電信電話株式会社 Image projection device, method, and program
WO2018235128A1 (en) * 2017-06-19 2018-12-27 三菱電機株式会社 Display editing apparatus, display editing method, and display editing program
JP2019139030A (en) * 2018-02-08 2019-08-22 国立大学法人福井大学 Method and device for projecting information related to measurement result on surface of three-dimensional measurement target object
JP2019531558A (en) * 2016-06-23 2019-10-31 アウターネッツ、インコーポレイテッド Interactive content management
JP2022045483A (en) * 2020-09-09 2022-03-22 セイコーエプソン株式会社 Information generation method, information generation system, and program
CN114630160A (en) * 2020-12-10 2022-06-14 精工爱普生株式会社 Display method, detection device, and recording medium
US11538134B2 (en) 2020-09-10 2022-12-27 Seiko Epson Corporation Information generation method, information generation system, and non-transitory computer-readable storage medium storing program
US11698575B2 (en) 2020-11-02 2023-07-11 Seiko Epson Corporation Projective transformation matrix determination method, projector, and determination system
WO2024034437A1 (en) * 2022-08-08 2024-02-15 パナソニックIpマネジメント株式会社 Simulation device, simulation method, and computer program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014176074A (en) * 2013-03-13 2014-09-22 Nippon Telegr & Teleph Corp <Ntt> Space projection device, space projection method and space projection program
DE102013009803A1 (en) * 2013-06-12 2014-12-18 Heiko Cornelius Method for automatic image correction of a projector
JP2015052874A (en) * 2013-09-06 2015-03-19 セイコーエプソン株式会社 Display device, and control method of the same
JP2015172712A (en) * 2014-03-12 2015-10-01 日本電信電話株式会社 Space projection device and space projection program
WO2016147731A1 (en) * 2015-03-19 2016-09-22 株式会社メガチップス Projection system, projector device, image capturing device, and program
JP2016178448A (en) * 2015-03-19 2016-10-06 株式会社メガチップス Projection system, projector device, imaging device, and program
US10284831B2 (en) 2015-03-19 2019-05-07 Megachips Corporation Projection system, projector apparatus, image capturing apparatus, and projection method
JP2016197171A (en) * 2015-04-03 2016-11-24 日本電信電話株式会社 Image projection device, method, and program
JP2019531558A (en) * 2016-06-23 2019-10-31 アウターネッツ、インコーポレイテッド Interactive content management
DE112017007535B4 (en) 2017-06-19 2021-07-15 Mitsubishi Electric Corporation DISPLAY PROCESSING DEVICE, PORTABLE DEVICE, DISPLAY PROCESSING METHODS, AND RECORDING MEDIUM
JPWO2018235128A1 (en) * 2017-06-19 2019-11-14 三菱電機株式会社 Display editing apparatus, portable device, display editing method, and display editing program
WO2018235128A1 (en) * 2017-06-19 2018-12-27 三菱電機株式会社 Display editing apparatus, display editing method, and display editing program
JP7088530B2 (en) 2018-02-08 2022-06-21 元治 藤垣 3D method and device for projecting measurement result-related information on the surface of an object to be measured
JP2019139030A (en) * 2018-02-08 2019-08-22 国立大学法人福井大学 Method and device for projecting information related to measurement result on surface of three-dimensional measurement target object
JP7272336B2 (en) 2020-09-09 2023-05-12 セイコーエプソン株式会社 INFORMATION GENERATION METHOD, INFORMATION GENERATION SYSTEM AND PROGRAM
US11616935B2 (en) 2020-09-09 2023-03-28 Seiko Epson Corporation Information generation method, information generation system, and non-transitory computer-readable storage medium storing program
JP2022045483A (en) * 2020-09-09 2022-03-22 セイコーエプソン株式会社 Information generation method, information generation system, and program
US11538134B2 (en) 2020-09-10 2022-12-27 Seiko Epson Corporation Information generation method, information generation system, and non-transitory computer-readable storage medium storing program
US11698575B2 (en) 2020-11-02 2023-07-11 Seiko Epson Corporation Projective transformation matrix determination method, projector, and determination system
CN114630160A (en) * 2020-12-10 2022-06-14 精工爱普生株式会社 Display method, detection device, and recording medium
JP2022092132A (en) * 2020-12-10 2022-06-22 セイコーエプソン株式会社 Display method, detector, and program
JP7287379B2 (en) 2020-12-10 2023-06-06 セイコーエプソン株式会社 DISPLAY METHOD, DETECTION DEVICE, AND PROGRAM
CN114630160B (en) * 2020-12-10 2023-12-19 精工爱普生株式会社 Display method, detection device, and recording medium
WO2024034437A1 (en) * 2022-08-08 2024-02-15 パナソニックIpマネジメント株式会社 Simulation device, simulation method, and computer program

Similar Documents

Publication Publication Date Title
JP2010283674A (en) Projection system and projection method
JP5257616B2 (en) Projector, program, information storage medium, and trapezoidal distortion correction method
JP5604909B2 (en) Correction information calculation apparatus, image processing apparatus, image display system, and image correction method
JP5910157B2 (en) Image projection device
JP6176114B2 (en) Projected image automatic correction system, projected image automatic correction method and program
JP4537557B2 (en) Information presentation system
JP6418449B2 (en) Image processing apparatus, image processing method, and program
JP5123522B2 (en) 3D measurement method and 3D shape measurement apparatus using the same
JP2011253376A (en) Image processing device, image processing method and program
JP2011147125A (en) Method of calibrating projector system, program, computer system, and projector system
JP2017106959A (en) Projection device, projection method, and computer program for projection
KR102093622B1 (en) Method and apparatus for real-time correction of projector image using depth camera
JP2003269928A (en) Method and instrument for measuring three-dimensional shape, and program
JPWO2010055625A1 (en) Pixel position correspondence specifying system, pixel position correspondence specifying method, and pixel position correspondence specifying program
JP2011211276A (en) Image processing apparatus, image display system, and image processing method
JP4516949B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2019215811A (en) Projection system, image processing apparatus, and projection method
JP2011155412A (en) Projection system and distortion correction method in the same
KR100248374B1 (en) Error correction method of tracking error caused by a camera and a tracker`s misalignment in augmented reality system
JP5261287B2 (en) Illumination system, space production system, and projection image generation method
JP4797109B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2013192240A (en) Projector, program, information storage medium, and trapezoidal distortion correction method
JP5151922B2 (en) Pixel position correspondence specifying system, pixel position correspondence specifying method, and pixel position correspondence specifying program
JP6713622B2 (en) 3D measuring device, 3D measuring system, 3D measuring method and program
JP6634842B2 (en) Information processing apparatus, information processing method and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120116