JP6624942B2 - Projection system, projector device, and program - Google Patents

Projection system, projector device, and program Download PDF

Info

Publication number
JP6624942B2
JP6624942B2 JP2016007581A JP2016007581A JP6624942B2 JP 6624942 B2 JP6624942 B2 JP 6624942B2 JP 2016007581 A JP2016007581 A JP 2016007581A JP 2016007581 A JP2016007581 A JP 2016007581A JP 6624942 B2 JP6624942 B2 JP 6624942B2
Authority
JP
Japan
Prior art keywords
image
projection
point
viewpoint
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016007581A
Other languages
Japanese (ja)
Other versions
JP2017130732A5 (en
JP2017130732A (en
Inventor
基康 田中
基康 田中
雄基 原口
雄基 原口
史也 新宮
史也 新宮
川井 英次
英次 川井
一弘 細井
一弘 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
MegaChips Corp
Original Assignee
Nintendo Co Ltd
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd, MegaChips Corp filed Critical Nintendo Co Ltd
Priority to JP2016007581A priority Critical patent/JP6624942B2/en
Priority to EP16772050.7A priority patent/EP3280136B1/en
Priority to PCT/JP2016/056253 priority patent/WO2016158166A1/en
Publication of JP2017130732A publication Critical patent/JP2017130732A/en
Priority to US15/719,329 priority patent/US9928580B2/en
Publication of JP2017130732A5 publication Critical patent/JP2017130732A5/ja
Application granted granted Critical
Publication of JP6624942B2 publication Critical patent/JP6624942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、投影型プロジェクター装置で投影される画像(映像)を適切に表示するための技術に関する。   The present invention relates to a technique for appropriately displaying an image (video) projected by a projection type projector device.

投影型プロジェクター装置で投影される画像(映像)を、ユーザー視点から見たときに生ずる幾何学的な歪みを補正する多様な技術が開発されている。   Various techniques have been developed for correcting geometric distortion that occurs when an image (video) projected by a projection-type projector device is viewed from a user's viewpoint.

例えば、特許文献1には、スクリーン自体の歪みによる映像の歪みを補正することが可能な映像投影装置の開示がある。この映像投影装置では、プロジェクターからスクリーンにテスト画像を投影し、投影されたテスト画像をカメラ付き携帯電話によって撮像し、カメラ付き携帯電話によって撮像された画像に基づいて、幾何補正を実行する。これにより、この映像投影装置では、スクリーン自体の歪みによる映像の歪み(幾何学的な歪み)を補正することができる。   For example, Patent Literature 1 discloses an image projection device capable of correcting image distortion caused by distortion of a screen itself. In this video projection apparatus, a test image is projected from a projector onto a screen, the projected test image is captured by a camera-equipped mobile phone, and geometric correction is performed based on the image captured by the camera-equipped mobile phone. Thus, in the image projection device, image distortion (geometric distortion) due to distortion of the screen itself can be corrected.

特開2006−33357号公報JP 2006-33357 A

しかしながら、上記の従来技術では、カメラ付き携帯電話によって撮像された画像に基づいて、幾何補正を実行するため、カメラ付き携帯電話のような撮影機能を有する機器が別途必要になる。このような撮影機能を有する機器を用いずに、投影型プロジェクター装置によりスクリーンに投影された画像の幾何補正を行う場合、例えば、ユーザーに、スクリーンに投影した長方形のパターンの4つの頂点を移動させ、幾何的な歪みのない長方形のパターンが投影されるように、投影型プロジェクター装置の投影状態を調整させることが考えられる。すなわち、ユーザーに4点幾何補正を実行させることが考えられる。このような4点幾何補正は、一般ユーザーには、操作が難しく、完全に幾何的な歪みのない状態の投影が実現されるように、投影型プロジェクター装置を調整することは困難である。   However, in the above-described related art, since a geometric correction is performed based on an image captured by a camera-equipped mobile phone, a device having a shooting function such as a camera-equipped mobile phone is separately required. When geometric correction of an image projected on a screen by a projection type projector device is performed without using a device having such a photographing function, for example, the user is required to move four vertices of a rectangular pattern projected on the screen. It is conceivable to adjust the projection state of the projection type projector device so that a rectangular pattern without geometric distortion is projected. That is, it is conceivable that the user performs four-point geometric correction. Such a four-point geometric correction is difficult for a general user to operate, and it is difficult to adjust the projection-type projector apparatus so that projection in a state without completely geometric distortion is realized.

一般に、投影型プロジェクター装置が投影対象とするのは、垂直に設置された平面スクリーンであることが多い。このため、完全に幾何的な歪みのない状態の投影が実現されなくても、ユーザーにとって、投影された画像の幾何的な歪みが気にならない程度の投影状態に、投影型プロジェクター装置を調整することは十分可能である。これは、ユーザーが、垂直に設置されている平面スクリーンに投影されていることを正しく認識でき、上下方向を正しく認識することが容易であるため、垂直面である平面スクリーンに投影されている画像に、多少の幾何的な歪みが存在していても違和感を抱かないためである。   In general, the projection target of the projection type projector apparatus is often a flat screen that is installed vertically. For this reason, even if projection in a state without completely geometric distortion is not realized, the user adjusts the projection-type projector apparatus to a projection state in which the user does not mind the geometric distortion of the projected image. It is possible enough. This is because the user can correctly recognize that the image is projected on the flat screen that is installed vertically, and it is easy to correctly recognize the vertical direction. In addition, even if there is some geometric distortion, the user does not feel uncomfortable.

ところが、投影対象(投影面)を、例えば、ユーザーの上方に設置された所定の角度に傾斜した傾斜平面(例えば、傾斜天井)として、当該傾斜平面に投影型プロジェクター装置から画像を投影した場合、投影面を垂直平面としたときには許容されるレベルの幾何的な歪みをさらに低減させる必要がある。これは、投影面を傾斜平面(例えば、傾斜天井)とする場合、ユーザーが、投影される画像の上下方向を感覚的に認識することが容易ではないため、垂直平面に投影された画像において違和感を発生させなかったレベルの幾何的な歪みが、傾斜平面(例えば、傾斜天井)に投影された画像においては、ユーザーに違和感を抱かせるためである。   However, when the projection target (projection surface) is, for example, an inclined plane (for example, an inclined ceiling) inclined at a predetermined angle installed above the user, and an image is projected from the projection-type projector device onto the inclined plane, When the projection plane is a vertical plane, it is necessary to further reduce the allowable level of geometric distortion. This is because, when the projection plane is an inclined plane (for example, an inclined ceiling), it is not easy for the user to intuitively recognize the vertical direction of the projected image, and therefore, a sense of discomfort is felt in the image projected on the vertical plane. This is because, in the image projected on the inclined plane (for example, the inclined ceiling), the level of the geometric distortion at which the image is not generated makes the user feel uncomfortable.

そこで、本発明は、撮影機能を有する機器を用いることなく、傾斜平面(例えば、傾斜天井)に投影された画像の幾何的な歪みを、容易かつ適切に、低減させる投影システム、プロジェクター装置、および、プログラムを実現することを目的とする。   Therefore, the present invention provides a projection system, a projector device, and a camera that easily and appropriately reduce geometric distortion of an image projected on an inclined plane (for example, an inclined ceiling) without using a device having a photographing function. , To realize the program.

上記課題を解決するために、第1の発明は、左眼視点と右眼視点とを含む平面に平行な平面であって、右眼角膜および左眼角膜の共通の接平面である当該平面に対して、傾斜した平面を投影面とし、ユーザーの視点から見たときに幾何学的な画像歪みが低減された状態となるように画像を投影する投影システムであって、投影部と、3次元形状測定部と、コントローラと、投影画像調整部と、を備える。
投影部は、投影面に画像を投影する投影部であって、画像の垂直方向を規定する縦基準線を有する第1テスト画像を投影するとともに、画像の水平方向を規定する横基準線を有する第2テスト画像を投影する。
In order to solve the above problem, a first invention is directed to a plane parallel to a plane including a left eye viewpoint and a right eye viewpoint, and a common tangent plane of the right eye cornea and the left eye cornea. On the other hand, a projection system that projects an image such that an inclined plane is used as a projection surface and geometric image distortion is reduced when viewed from a user's viewpoint, comprising: a projection unit; A shape measuring unit, a controller, and a projected image adjusting unit are provided.
The projection unit is a projection unit that projects an image on a projection surface, and projects a first test image having a vertical reference line that defines a vertical direction of the image, and has a horizontal reference line that defines a horizontal direction of the image. Project a second test image.

3次元形状測定部は、投影面の3次元形状を測定する。   The three-dimensional shape measuring unit measures a three-dimensional shape of the projection plane.

コントローラは、ユーザーの操作に基づく制御信号を生成する。   The controller generates a control signal based on a user operation.

投影画像調整部は、以下の処理を実行する。
(1A)投影画像調整部は、3次元形状測定部により計測された3次元形状データに基づいて、投影部の投影軸と投影面との交点である投影中心点を通り、投影面の法線上の点である第1点から見たときに、幾何学的な画像歪みが低減された状態とするように、第1テスト画像に対して画像変換処理である補正処理を実行する。
(2A)投影画像調整部は、制御信号に従い第1回転角度を決定し、第1点から投影面を見たときに、補正処理後の第1テスト画像の投影部による投影面への投影画像が投影中心点を中心として、第1回転角度だけ回転した画像となるように、補正処理後の第1テスト画像に対して画像変換処理である第1回転処理を実行する。
(1B)投影画像調整部は、3次元形状測定部により計測された3次元形状データに基づいて、投影部の投影軸と投影面との交点である投影中心点を通り、投影面の法線上の点である第1点から見たときに、幾何学的な画像歪みが低減された状態とするように、第2テスト画像に対して画像変換処理である補正処理を実行する。
(2B)投影画像調整部は、制御信号に従い第2回転角度を決定し、第1点から投影面を見たときに、補正処理後の第2テスト画像の投影部による投影面への投影画像が投影中心点を中心として、第2回転角度だけ回転した画像となるように、補正処理後の第2テスト画像に対して画像変換処理である第2回転処理を実行する。
(3)投影画像調整部は、第1回転処理後の第1テスト画像の投影面上の縦基準線を含む直線である第1直線と、第2回転処理後の第2テスト画像の投影面上の縦基準線を含む直線である第2直線とに基づいて、第1直線と第2直線とが直交して見える視点候補点を決定し、決定した視点候補点から見たときに幾何学的な画像歪みが低減された状態とするように、投影面に投影される画像を変換する視点特定処理を実行する。
The projection image adjustment unit performs the following processing.
(1A) Based on the three-dimensional shape data measured by the three-dimensional shape measurement unit, the projection image adjustment unit passes through the projection center point, which is the intersection of the projection axis of the projection unit and the projection surface, and is on the normal to the projection surface. When the first test image is viewed from the first point, a correction process, which is an image conversion process, is performed on the first test image so that the geometric image distortion is reduced.
(2A) The projection image adjustment unit determines the first rotation angle according to the control signal, and, when viewing the projection plane from the first point, projects the corrected first test image onto the projection plane by the projection unit. Performs a first rotation process, which is an image conversion process, on the first test image after the correction process so that the image is rotated by the first rotation angle around the projection center point.
(1B) Based on the three-dimensional shape data measured by the three-dimensional shape measurement unit, the projection image adjustment unit passes through the projection center point, which is the intersection of the projection axis of the projection unit and the projection surface, and is on the normal to the projection surface. When viewed from the first point, which is the point (1), a correction process, which is an image conversion process, is performed on the second test image so that the geometric image distortion is reduced.
(2B) The projection image adjustment unit determines the second rotation angle according to the control signal, and when the projection surface is viewed from the first point, the projection image of the second test image after the correction processing is projected onto the projection surface by the projection unit. Performs a second rotation process, which is an image conversion process, on the second test image after the correction process so that the image is rotated by the second rotation angle about the projection center point.
(3) The projection image adjustment unit includes a first straight line including a vertical reference line on the projection plane of the first test image after the first rotation processing, and a projection plane of the second test image after the second rotation processing. Based on a second straight line including the upper vertical reference line, a viewpoint candidate point where the first straight line and the second straight line appear orthogonal to each other is determined, and when viewed from the determined viewpoint candidate point, a geometrical point is determined. A viewpoint specifying process for converting an image projected on the projection plane is performed so that a typical image distortion is reduced.

この投影システムでは、上記のようにして視点特定処理が実行され、ユーザーの視点から見たときに幾何的な歪みのない画像(幾何的な歪みの低減された画像)を、例えば、傾斜天井平面に投影することができる。   In this projection system, the viewpoint specifying process is performed as described above, and an image without geometric distortion (an image with reduced geometric distortion) when viewed from the user's viewpoint is converted into, for example, an inclined ceiling plane. Can be projected.

したがって、この投影システムでは、撮影機能を有する機器を用いることなく、傾斜投影面(例えば、傾斜天井)に投影された画像の幾何的な歪みを、容易かつ適切に、なくす(低減させる)ことができる。   Therefore, in this projection system, it is possible to easily and appropriately eliminate (reduce) geometric distortion of an image projected on an inclined projection surface (for example, an inclined ceiling) without using an apparatus having a photographing function. it can.

第2の発明は、第1の発明であって、投影画像調整部は、以下の処理を実行する。   A second invention is the first invention, wherein the projection image adjustment unit performs the following processing.

投影画像調整部は、投影部の光軸をz軸とし、投影部の光軸を法線とする平面をxy平面とするようにx軸およびy軸を設定したxyz座標空間において、
第1回転処理後の第1テスト画像の投影面上の縦基準線を含む直線である第1直線上の点を点Paとし、点Paの座標を(ax,ay,az)とし、
第2回転処理後の第2テスト画像の投影面上の横基準線を含む直線である第2直線上の点を点Pbとし、点Pbの座標を(bx,by,bz)とし、
第1直線と第2直線との交点を点Pcとして算出し、算出した点Pcの座標を(cx,cy,cz)としたとき、
A=−ax×by+ay×bx
B=−ax×bz+az×bx
C=−az×by+ay×bz
に相当する処理を実行し、係数A、B、Cを取得する。
In the xyz coordinate space in which the x-axis and the y-axis are set such that the optical axis of the projection unit is the z-axis, and the plane having the optical axis of the projection unit as the normal is the xy plane,
A point on the first straight line which is a straight line including the vertical reference line on the projection plane of the first test image after the first rotation processing is defined as a point Pa, and coordinates of the point Pa are defined as (ax, ay, az).
A point on the second straight line that is a straight line including the horizontal reference line on the projection plane of the second test image after the second rotation processing is a point Pb, and coordinates of the point Pb are (bx, by, bz);
When the intersection of the first straight line and the second straight line is calculated as a point Pc, and the coordinates of the calculated point Pc are (cx, cy, cz),
A = −ax × by + ay × bx
B = −ax × bz + az × bx
C = -az × by + ay × bz
Is performed, and coefficients A, B, and C are obtained.

投影画像調整部は、

Figure 0006624942
Figure 0006624942
Figure 0006624942
により、回転行列Rx,Ry、Rzを取得する。 The projection image adjustment unit
Figure 0006624942
Figure 0006624942
Figure 0006624942
To obtain rotation matrices Rx, Ry, and Rz.

投影画像調整部は、回転行列Rx,Ry、Rzの合成行列をR
R=Rz・Ry・Rx
に相当する処理を実行することで取得し、上記回転行列の逆行列をR−1として取得する。
The projection image adjustment unit calculates a composite matrix of the rotation matrices Rx, Ry, and Rz as R
R = Rz ・ Ry ・ Rx
And the inverse matrix of the rotation matrix is obtained as R −1 .

投影画像調整部は、点Pbの座標(bx,by,bz)に対して、合成行列により変換した点を点Pb’として取得し、点Pb’の座標を(bx’,by’,bz’)として取得し、
コントローラからの制御信号に基づいて、角度θを決定する。
The projection image adjustment unit obtains, as the point Pb ′, a point converted by the synthesis matrix with respect to the coordinates (bx, by, bz) of the point Pb, and sets the coordinates of the point Pb ′ to (bx ′, by ′, bz ′). ) And get
The angle θ is determined based on a control signal from the controller.

投影画像調整部は、係数A’を

Figure 0006624942

により取得し、
視点候補点の座標(x,y,z)を、
Figure 0006624942

Figure 0006624942

V’=(0,0,1)
により算出する。 The projection image adjustment unit calculates the coefficient A ′
Figure 0006624942

Acquired by
The coordinates (x, y, z) of the viewpoint candidate point are
Figure 0006624942

Figure 0006624942

V '= (0,0,1)
It is calculated by:

この投影システムでは、上記のようにして視点特定処理が実行され、ユーザーの視点から見たときに幾何的な歪みのない画像(幾何的な歪みの低減された画像)を、例えば、傾斜天井平面に投影することができる。   In this projection system, the viewpoint specifying process is performed as described above, and an image without geometric distortion (an image with reduced geometric distortion) when viewed from the user's viewpoint is converted into, for example, an inclined ceiling plane. Can be projected.

したがって、この投影システムでは、撮影機能を有する機器を用いることなく、傾斜投影面(例えば、傾斜天井)に投影された画像の幾何的な歪みを、容易かつ適切に、なくす(低減させる)ことができる。   Therefore, in this projection system, it is possible to easily and appropriately eliminate (reduce) geometric distortion of an image projected on an inclined projection surface (for example, an inclined ceiling) without using an apparatus having a photographing function. it can.

第3の発明は、第1または第2の発明であって、第1テスト画像は、表示画面に表示されている状態において、第1テスト画像の中心点を通る縦基準線を含む。   A third invention is the first or second invention, wherein the first test image includes a vertical reference line passing through a center point of the first test image while being displayed on the display screen.

これにより、この投影システムでは、投影面上の第1テスト画像の縦基準線を含む第1直線を特定することが容易になる。   This makes it easy for the projection system to specify the first straight line including the vertical reference line of the first test image on the projection plane.

第4の発明は、第1または第2の発明であって、第2テスト画像は、表示画面に表示されている状態において、第2テスト画像の中心点を通る横基準線を含む。   A fourth invention is the first or the second invention, wherein the second test image includes a horizontal reference line passing through a center point of the second test image when displayed on the display screen.

これにより、この投影システムでは、投影面上の第2テスト画像の横基準線を含む第1直線を特定することが容易になる。   This makes it easy for the projection system to specify the first straight line including the horizontal reference line of the second test image on the projection plane.

第5の発明は、第1から第4のいずれかの発明であって、第1テスト画像は、表示画面に表示されている状態において、画像上の上部を判別することができるパターンを含む画像である。   A fifth invention is the invention according to any one of the first to fourth inventions, wherein the first test image is an image including a pattern capable of discriminating an upper part of the image while being displayed on the display screen. It is.

これにより、この投影システムでは、投影面上の投影画像の上下を容易に特定することができる。   Thereby, in this projection system, the upper and lower sides of the projection image on the projection plane can be easily specified.

第6の発明は、第1から第5のいずれかの発明であって、投影部は、視点特定処理が実行される場合、複数の正方形の格子パターンからなる格子状パターンを含む第3テスト画像を投影する。   A sixth invention is the invention according to any one of the first to fifth inventions, wherein the projection unit, when the viewpoint specifying process is performed, includes a third test image including a grid-like pattern including a plurality of square grid patterns. Is projected.

これにより、この投影システムでは、格子状パターンの歪度合いを容易に把握し、投影されている画像の歪度合いを容易に認識することができる。   Thus, in this projection system, the degree of distortion of the lattice pattern can be easily grasped, and the degree of distortion of the projected image can be easily recognized.

第7の発明は、第6の発明であって、第3テスト画像は、第1の模様を有する第1格子パターンと、第2の模様を有する第2格子パターンとが、幾何学的な歪みがない状態において、テスト画像上の第1方向、および、テスト画像上において第1方向と直交する第2方向において、交互に配置されることで形成される格子状パターンを含む画像である。   In a seventh aspect based on the sixth aspect, the third test image is configured such that the first lattice pattern having the first pattern and the second lattice pattern having the second pattern have a geometric distortion. In the state where there is no image, the image includes a grid pattern formed by being alternately arranged in the first direction on the test image and in the second direction orthogonal to the first direction on the test image.

これにより、この投影システムでは、格子状パターンの歪度合いを容易に把握し、投影されている画像の歪度合いを容易に認識することができる。   Thus, in this projection system, the degree of distortion of the lattice pattern can be easily grasped, and the degree of distortion of the projected image can be easily recognized.

第8の発明は、第1から第7のいずれかの発明である投影システムに用いられるプロジェクター装置であって、投影部と、投影画像調整部とを備える。   An eighth invention is a projector device used in the projection system according to any one of the first to seventh inventions, and includes a projection unit and a projection image adjustment unit.

これにより、第1から第7のいずれかの発明である投影システムに用いられるプロジェクター装置を実現することができる。   Thereby, a projector device used in the projection system according to any one of the first to seventh inventions can be realized.

第9の発明は、ユーザーの操作に基づく制御信号を生成するコントローラを用いて実行される投影方法であって、左眼視点と右眼視点とを含む平面に平行な平面であって、右眼角膜および左眼角膜の共通の接平面である当該平面に対して、傾斜した平面を投影面とし、ユーザーの視点から見たときに幾何学的な画像歪みが低減された状態となるように画像を投影する投影方法をコンピュータで実行するためのプログラムである。   A ninth invention is a projection method executed by using a controller that generates a control signal based on a user operation, and is a plane parallel to a plane including a left-eye viewpoint and a right-eye viewpoint, and With respect to the plane which is a common tangent plane of the cornea and the left eye cornea, an image is formed such that an inclined plane is a projection plane and a geometric image distortion is reduced when viewed from a user's viewpoint. Is a program for causing a computer to execute a projection method for projecting the image.

投影方法は、投影ステップと、3次元形状測定ステップと、コントローラと、投影画像調整ステップと、を備える。   The projection method includes a projection step, a three-dimensional shape measurement step, a controller, and a projection image adjustment step.

投影ステップは、投影面に画像を投影する投影ステップであって、画像の垂直方向を規定する縦基準線を有する第1テスト画像を投影するとともに、画像の水平方向を規定する横基準線を有する第2テスト画像を投影する。   The projecting step is a projecting step of projecting an image on a projection surface, and projects a first test image having a vertical reference line defining a vertical direction of the image, and has a horizontal reference line defining a horizontal direction of the image. Project a second test image.

3次元形状測定ステップは、投影面の3次元形状を測定する。   The three-dimensional shape measuring step measures a three-dimensional shape of the projection plane.

投影画像調整ステップは、以下の処理を実行する。
(1A)投影画像調整ステップは、3次元形状測定ステップにより計測された3次元形状データに基づいて、投影ステップで画像を投影するための投影軸と投影面との交点である投影中心点を通り、投影面の法線上の点である第1点から見たときに、幾何学的な画像歪みが低減された状態とするように、第1テスト画像に対して画像変換処理である補正処理を実行する。
(2A)投影画像調整ステップは、制御信号に従い第1回転角度を決定し、第1点から投影面を見たときに、補正処理後の第1テスト画像の投影ステップによる投影面への投影画像が投影中心点を中心として、第1回転角度だけ回転した画像となるように、補正処理後の第1テスト画像に対して画像変換処理である第1回転処理を実行する。
(1B)投影画像調整ステップは、3次元形状測定ステップにより計測された3次元形状データに基づいて、投影ステップで画像を投影するための投影軸と投影面との交点である投影中心点を通り、投影面の法線上の点である第1点から見たときに、幾何学的な画像歪みが低減された状態とするように、第2テスト画像に対して画像変換処理である補正処理を実行する。
(2B)投影画像調整ステップは、制御信号に従い第2回転角度を決定し、第1点から投影面を見たときに、補正処理後の第2テスト画像の投影ステップによる投影面への投影画像が投影中心点を中心として、第2回転角度だけ回転した画像となるように、補正処理後の第2テスト画像に対して画像変換処理である第2回転処理を実行する。
(3)投影画像調整ステップは、第1回転処理後の第1テスト画像の投影面上の縦基準線を含む直線である第1直線と、第2回転処理後の第2テスト画像の投影面上の縦基準線を含む直線である第2直線とに基づいて、第1直線と第2直線とが直交して見える視点候補点を決定し、決定した視点候補点から見たときに幾何学的な画像歪みが低減された状態とするように、投影面に投影される画像を変換する視点特定処理を実行する。
The projection image adjustment step executes the following processing.
(1A) The projection image adjustment step passes a projection center point, which is an intersection of a projection axis for projecting an image in the projection step and a projection plane, based on the three-dimensional shape data measured in the three-dimensional shape measurement step. When viewed from the first point which is a point on the normal to the projection plane, a correction process, which is an image conversion process, is performed on the first test image so that the geometric image distortion is reduced. Execute.
(2A) The projection image adjusting step determines the first rotation angle according to the control signal, and, when the projection surface is viewed from the first point, the projection image on the projection surface in the projection step of the first test image after the correction processing. Performs a first rotation process, which is an image conversion process, on the first test image after the correction process so that the image is rotated by the first rotation angle around the projection center point.
(1B) The projection image adjustment step passes a projection center point, which is an intersection of a projection axis for projecting an image in the projection step and a projection plane, based on the three-dimensional shape data measured in the three-dimensional shape measurement step. In addition, when viewed from a first point which is a point on the normal to the projection plane, a correction process, which is an image conversion process, is performed on the second test image so that the geometric image distortion is reduced. Execute.
(2B) The projection image adjustment step determines the second rotation angle according to the control signal, and, when the projection plane is viewed from the first point, the projection image on the projection plane in the projection step of the second test image after the correction processing. Performs a second rotation process, which is an image conversion process, on the second test image after the correction process so that the image is rotated by the second rotation angle about the projection center point.
(3) The projection image adjustment step includes: a first straight line including a vertical reference line on the projection plane of the first test image after the first rotation processing; and a projection plane of the second test image after the second rotation processing. Based on a second straight line including the upper vertical reference line, a viewpoint candidate point where the first straight line and the second straight line appear orthogonal to each other is determined, and when viewed from the determined viewpoint candidate point, a geometrical point is determined. A viewpoint specifying process for converting an image projected on the projection plane is performed so that a typical image distortion is reduced.

これにより、第1の発明と同様の効果を奏する投影方法をコンピュータに実行させるためのプログラムを実現することができる。   Thus, it is possible to realize a program for causing a computer to execute a projection method having the same effect as the first invention.

本発明によれば、撮影機能を有する機器を用いることなく、傾斜平面(例えば、傾斜天井)に投影された画像の幾何的な歪みを、容易かつ適切に、低減させる投影システム、プロジェクター装置、および、プログラムを実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, the projection system which reduces easily and appropriately the geometric distortion of the image projected on the inclined plane (for example, inclined ceiling), without using the apparatus which has a photography function, a projector apparatus, and , The program can be realized.

第1実施形態に係る投影システム1000の概略構成図。FIG. 1 is a schematic configuration diagram of a projection system 1000 according to a first embodiment. 第1実施形態に係る投影システム1000のプロジェクター装置100の投影画像調整部1の概略構成図。FIG. 2 is a schematic configuration diagram of a projection image adjustment unit 1 of the projector device 100 of the projection system 1000 according to the first embodiment. 第1実施形態に係る投影システム1000の視点特定処理部15の概略構成図。FIG. 2 is a schematic configuration diagram of a viewpoint specification processing unit 15 of the projection system 1000 according to the first embodiment. 第1実施形態に係る投影システム1000の視点候補取得部151の概略構成図。FIG. 2 is a schematic configuration diagram of a viewpoint candidate acquisition unit 151 of the projection system 1000 according to the first embodiment. 3次元空間を模式的に示した図。The figure which showed typically the three-dimensional space. 第1テスト画像Img1_T1を示す図。The figure which shows the 1st test image Img1_T1. 状態1における3次元空間を模式的に示した図。The figure which showed typically the three-dimensional space in the state 1. 状態2における3次元空間を模式的に示した図。The figure which showed typically the three-dimensional space in the state 2. 第2テスト画像Img1_T2を示す図。The figure which shows the 2nd test image Img1_T2. 第2回転処理を説明するための図。The figure for demonstrating a 2nd rotation process. 状態4における3次元空間を模式的に示した図。The figure which showed typically the three-dimensional space in the state 4. 視点特定処理を説明するための図。The figure for demonstrating a viewpoint identification process. 第3テスト画像Img1_T3を示す図。The figure which shows the 3rd test image Img1_T3. 投影システム1000により、N+1回目の視点特定処理が実行され、視点候補点がVp_cand(N+1)に特定された場合において、第3テスト画像Img1_T3が傾斜天井CLに投影されているときの状態を示す図。The figure showing the state when the third test image Img1_T3 is projected onto the inclined ceiling CL when the projection system 1000 executes the (N + 1) th viewpoint specification processing and specifies the viewpoint candidate point as Vp_cand (N + 1). . 投影システム1000で実行される投影方法のフローチャートを示す図。FIG. 4 is a diagram showing a flowchart of a projection method executed by the projection system 1000. 投影システム1000で実行される投影方法の視点特定処理のフローチャートを示す図。FIG. 6 is a view showing a flowchart of viewpoint identification processing of a projection method executed by the projection system 1000. 視点特定処理の原理を説明するための図。The figure for demonstrating the principle of a viewpoint specific process. 3次元座標空間の点A0’、点B0’、点C0’を示す図。The figure which shows the point A0 ', the point B0', and the point C0 'of a three-dimensional coordinate space. 3次元座標空間の点A0’’、点B0’’、点C0’’を示す図。The figure which shows the point A0 '', the point B0 '', and the point C0 '' of a three-dimensional coordinate space. CPUバス構成を示す図。FIG. 2 is a diagram showing a CPU bus configuration.

[第1実施形態]
第1実施形態について、図面を参照しながら、以下、説明する。
[First Embodiment]
The first embodiment will be described below with reference to the drawings.

<1.1:投影システムの構成>
図1は、第1実施形態に係る投影システム1000の概略構成図である。
<1.1: Configuration of projection system>
FIG. 1 is a schematic configuration diagram of a projection system 1000 according to the first embodiment.

図2は、第1実施形態に係る投影システム1000のプロジェクター装置100の投影画像調整部1の概略構成図である。   FIG. 2 is a schematic configuration diagram of the projection image adjustment unit 1 of the projector device 100 of the projection system 1000 according to the first embodiment.

図3は、第1実施形態に係る投影システム1000の視点特定処理部15の概略構成図である。   FIG. 3 is a schematic configuration diagram of the viewpoint specification processing unit 15 of the projection system 1000 according to the first embodiment.

図4は、第1実施形態に係る投影システム1000の視点候補取得部151の概略構成図である。   FIG. 4 is a schematic configuration diagram of the viewpoint candidate acquisition unit 151 of the projection system 1000 according to the first embodiment.

投影システム1000は、図1に示すように、プロジェクター装置100と、コントローラ200とを備える。   The projection system 1000 includes a projector device 100 and a controller 200, as shown in FIG.

プロジェクター装置100は、図1に示すように、投影画像調整部1と、テスト画像記憶部2と、投影部3と、3次元形状測定部4と、3次元形状データ記憶部5と、第1インターフェース6とを備える。   As shown in FIG. 1, the projector device 100 includes a projection image adjustment unit 1, a test image storage unit 2, a projection unit 3, a three-dimensional shape measurement unit 4, a three-dimensional shape data storage unit 5, a first An interface 6 is provided.

投影画像調整部1は、図2に示すように、第1セレクタSEL1と、第1切替器SW1と、補正部11と、第2切替器12と、第1回転処理部13と、第2セレクタSEL2と、第2回転処理部14と、第3セレクタSEL3と、視点特定処理部15と、第4セレクタSEL4と、第5セレクタSEL5と、を備える。   As shown in FIG. 2, the projection image adjustment unit 1 includes a first selector SEL1, a first switch SW1, a correction unit 11, a second switch 12, a first rotation processing unit 13, and a second selector SEL2, a second rotation processing unit 14, a third selector SEL3, a viewpoint specification processing unit 15, a fourth selector SEL4, and a fifth selector SEL5.

第1セレクタSEL1は、プロジェクター装置100に入力される画像Din(画像信号Din)と、テスト画像記憶部2から出力されるテスト画像Img1と、選択信号sel1と、を入力する。第1セレクタSEL1は、選択信号sel1に従い、画像Dinおよびテスト画像Img1のいずれか一方を選択し、選択した画像(画像信号)を画像D1(画像信号D1)として第1切替器SW1に出力する。なお、選択信号sel1は、プロジェクター装置100の各機能部を制御する制御部(不図示)により生成される制御信号である。   The first selector SEL1 receives an image Din (image signal Din) input to the projector device 100, a test image Img1 output from the test image storage unit 2, and a selection signal sel1. The first selector SEL1 selects one of the image Din and the test image Img1 according to the selection signal sel1, and outputs the selected image (image signal) to the first switch SW1 as the image D1 (image signal D1). Note that the selection signal sel1 is a control signal generated by a control unit (not shown) that controls each functional unit of the projector device 100.

第1切替器SW1は、第1セレクタSEL1から出力される画像D1と、切替信号sw1とを入力する。第1切替器SW1は、切替信号sw1に従い、画像D1(画像信号D1)を、補正部11、および、視点特定処理部15のいずれか1つに出力する。なお、切替信号sw1は、プロジェクター装置100の各機能部を制御する制御部により生成される制御信号である。   The first switch SW1 receives an image D1 output from the first selector SEL1 and a switching signal sw1. The first switch SW1 outputs the image D1 (image signal D1) to one of the correction unit 11 and the viewpoint identification processing unit 15 according to the switching signal sw1. Note that the switching signal sw1 is a control signal generated by a control unit that controls each functional unit of the projector device 100.

補正部11は、第1切替器SW1から出力される画像D1と、3次元形状データ記憶部5から出力される3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjと、を入力する。補正部11は、3次元形状データ3D_dataと、投影点についての情報P_prjとに基づいて、画像D1に対して補正処理を実行する。そして、補正部11は、補正処理後の画像を画像D2(画像信号D2)として、第2セレクタSEL2と、第1回転処理部13とに出力する。   The correction unit 11 receives the image D1 output from the first switch SW1, the three-dimensional shape data 3D_data output from the three-dimensional shape data storage unit 5, and information P_prj about the projection point of the projection unit 3. I do. The correction unit 11 performs a correction process on the image D1 based on the three-dimensional shape data 3D_data and the information P_prj on the projection point. Then, the correction unit 11 outputs the image after the correction processing to the second selector SEL2 and the first rotation processing unit 13 as an image D2 (image signal D2).

第2切替器12は、第1インターフェース6から出力される信号Sig1と、切替信号sw2とを入力する。第2切替器12は、切替信号sw2に従い、信号Sig1を、第1回転処理部13、第2回転処理部14、および、視点特定処理部15のいずれか1つに出力する。なお、切替信号sw2は、プロジェクター装置100の各機能部を制御する制御部により生成される制御信号である。   The second switch 12 receives the signal Sig1 output from the first interface 6 and the switching signal sw2. The second switch 12 outputs the signal Sig1 to any one of the first rotation processing unit 13, the second rotation processing unit 14, and the viewpoint identification processing unit 15 according to the switching signal sw2. Note that the switching signal sw2 is a control signal generated by a control unit that controls each functional unit of the projector device 100.

第1回転処理部13は、補正部11から出力される画像D2と、3次元形状データ記憶部5から出力される3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjと、第2切替器12から出力される信号Sig1とを入力する。第1回転処理部13は、信号Sig1が入力されている場合、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとに基づいて、画像D2に対して第1回転処理を実行する(詳細については、後述)。そして、第1回転処理部13は、処理後の画像を、画像D21(画像信号D21)として、第2セレクタSEL2に出力する。また、第1回転処理部13は、第1回転処理が完了したときの情報(検出情報)を含む検出信号をDet1として、視点特定処理部15に出力する(詳細については、後述)。検出信号Det1は、第1の直線のデータ(第1直線データ)を含む(詳細については、後述)。   The first rotation processing unit 13 includes an image D2 output from the correction unit 11, three-dimensional shape data 3D_data output from the three-dimensional shape data storage unit 5, information P_prj about a projection point of the projection unit 3, The signal Sig1 output from the second switch 12 is input. When the signal Sig1 is input, the first rotation processing unit 13 executes the first rotation processing on the image D2 based on the three-dimensional shape data 3D_data and the information P_prj on the projection point of the projection unit 3. (Details will be described later). Then, the first rotation processing unit 13 outputs the processed image to the second selector SEL2 as an image D21 (image signal D21). Further, the first rotation processing unit 13 outputs a detection signal including information (detection information) when the first rotation processing is completed to the viewpoint specifying processing unit 15 as Det1 (details will be described later). The detection signal Det1 includes data of a first straight line (first straight line data) (details will be described later).

第2セレクタSEL2は、補正部11から出力される画像D2と、第1回転処理部13から出力される画像D21と、選択信号sel2とを入力する。第2セレクタSEL2は、選択信号sel2に従い、画像D2および画像D21のいずれか一方を選択し、選択した画像を、画像D3(画像信号D3)として、第2回転処理部14と、第3セレクタSEL3とに出力する。なお、選択信号sel2は、プロジェクター装置100の各機能部を制御する制御部により生成される制御信号である。   The second selector SEL2 receives an image D2 output from the correction unit 11, an image D21 output from the first rotation processing unit 13, and a selection signal sel2. The second selector SEL2 selects one of the image D2 and the image D21 according to the selection signal sel2, and uses the selected image as an image D3 (image signal D3), the second rotation processing unit 14, and the third selector SEL3. And output to Note that the selection signal sel2 is a control signal generated by a control unit that controls each functional unit of the projector device 100.

第2回転処理部14は、第2セレクタSEL2から出力される画像D3と、3次元形状データ記憶部5から出力される3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjと、第2切替器12から出力される信号Sig1とを入力する。第2回転処理部14は、信号Sig1が入力されている場合、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとに基づいて、画像D3に対して第2回転処理を実行する(詳細については、後述)。そして、第2回転処理部14は、処理後の画像を、画像D31(画像信号D31)として、第3セレクタSEL3に出力する。また、第2回転処理部14は、第1回転処理が完了したときの情報(検出情報)を含む検出信号をDet2として、視点特定処理部15に出力する(詳細については、後述)。検出信号Det2は、第2の直線のデータ(第2直線データ)を含む(詳細については、後述)。   The second rotation processing unit 14 includes an image D3 output from the second selector SEL2, three-dimensional shape data 3D_data output from the three-dimensional shape data storage unit 5, information P_prj on a projection point of the projection unit 3, The signal Sig1 output from the second switch 12 is input. When the signal Sig1 is input, the second rotation processing unit 14 performs the second rotation processing on the image D3 based on the three-dimensional shape data 3D_data and the information P_prj on the projection point of the projection unit 3. (Details will be described later). Then, the second rotation processing unit 14 outputs the processed image to the third selector SEL3 as an image D31 (image signal D31). Further, the second rotation processing unit 14 outputs a detection signal including information (detection information) when the first rotation processing is completed to the viewpoint specifying processing unit 15 as Det2 (details will be described later). The detection signal Det2 includes data of a second straight line (second straight line data) (details will be described later).

第3セレクタSEL3は、第2セレクタSEL2から出力される画像D3と、第2回転処理部14から出力される画像D31と、選択信号sel3とを入力する。第3セレクタSEL3は、選択信号sel3に従い、画像D3および画像D31のいずれか一方を選択し、選択した画像を、画像D4(画像信号D4)として、第4セレクタSEL4に出力する。なお、選択信号sel3は、プロジェクター装置100の各機能部を制御する制御部により生成される制御信号である。   The third selector SEL3 receives an image D3 output from the second selector SEL2, an image D31 output from the second rotation processing unit 14, and a selection signal sel3. The third selector SEL3 selects one of the image D3 and the image D31 according to the selection signal sel3, and outputs the selected image to the fourth selector SEL4 as an image D4 (image signal D4). Note that the selection signal sel3 is a control signal generated by a control unit that controls each functional unit of the projector device 100.

視点特定処理部15は、第1切替器SW1から出力される画像D1と、3次元形状データ記憶部5から出力される3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjと、を入力する。また、視点特定処理部15は、第1回転処理部13から出力される検出信号Det1と、第2回転処理部14から出力される検出信号Det2と、を入力する。   The viewpoint specification processing unit 15 includes an image D1 output from the first switch SW1, three-dimensional shape data 3D_data output from the three-dimensional shape data storage unit 5, information P_prj on a projection point of the projection unit 3, Enter Further, the viewpoint specification processing unit 15 receives the detection signal Det1 output from the first rotation processing unit 13 and the detection signal Det2 output from the second rotation processing unit 14.

視点特定処理部15は、図3に示すように、視点候補取得部151と、投影画像取得部152とを備える。   The viewpoint specification processing unit 15 includes a viewpoint candidate acquisition unit 151 and a projection image acquisition unit 152, as shown in FIG.

視点候補取得部151は、図4に示すように、交点算出部1511と、係数算出部1512と、変換行列取得部1513と、変換行列合成部1514と、逆変換行列取得部1515と、変換部1516と、係数取得部1517と、角度取得部1518と、視点候補点算出部1519と、を備える。   As shown in FIG. 4, the viewpoint candidate acquisition unit 151 includes an intersection calculation unit 1511, a coefficient calculation unit 1512, a transformation matrix acquisition unit 1513, a transformation matrix synthesis unit 1514, an inverse transformation matrix acquisition unit 1515, and a transformation unit. 1515, a coefficient acquisition unit 1517, an angle acquisition unit 1518, and a viewpoint candidate point calculation unit 1519.

交点算出部1511は、第1回転処理部13から出力される検出信号Det1と、第2回転処理部14から出力される検出信号Det2と、を入力する。交点算出部1511は、検出信号Det1に含まれる第1直線データと、検出信号Det2に含まれる第2直線データと、に基づいて、第1直線と第2直線の交点Pcの座標と、第1直線上の点であって、交点Pc以外の点Paの座標と、第2直線上の点であって、交点Pc以外の点Pbの座標とを算出し、算出した交点Pcの座標の情報を含む信号(データ)をData(Pc)として、視点候補点算出部1519に出力する。   The intersection calculation unit 1511 receives the detection signal Det1 output from the first rotation processing unit 13 and the detection signal Det2 output from the second rotation processing unit 14. Based on the first straight line data included in the detection signal Det1 and the second straight line data included in the detection signal Det2, the intersection calculation unit 1511 calculates the coordinates of the intersection Pc between the first straight line and the second straight line, The coordinates of a point Pa on a straight line other than the intersection Pc and the coordinates of a point Pb on the second straight line other than the intersection Pc are calculated, and information on the calculated coordinates of the intersection Pc is calculated. The included signal (data) is output to the viewpoint candidate point calculation unit 1519 as Data (Pc).

また、交点算出部1511は、点Paの座標の情報を含む信号(データ)をData(Pa)として、係数算出部1512と変換行列取得部1513とに出力する。   Further, the intersection calculation unit 1511 outputs a signal (data) including information on the coordinates of the point Pa to the coefficient calculation unit 1512 and the transformation matrix acquisition unit 1513 as Data (Pa).

また、交点算出部1511は、点Pbの座標の情報を含む信号(データ)をData(Pb)として、係数算出部1512と変換部1516とに出力する。   Further, the intersection calculation unit 1511 outputs a signal (data) including information on the coordinates of the point Pb to the coefficient calculation unit 1512 and the conversion unit 1516 as Data (Pb).

係数算出部1512は、交点算出部1511から出力される、点PaのデータData(Pa)および点PbのデータData(Pb)を入力する。係数算出部1512は、点PaのデータData(Pa)と、点PbのデータData(Pb)と、に基づいて、係数A、B、Cについての情報を取得する(詳細については、後述)。そして、係数算出部1512は、取得した係数A、B、Cについての情報(データ)を、変換行列取得部1513に出力する。   The coefficient calculation unit 1512 receives the data Data (Pa) of the point Pa and the data Data (Pb) of the point Pb output from the intersection calculation unit 1511. The coefficient calculation unit 1512 acquires information on the coefficients A, B, and C based on the data Data (Pa) of the point Pa and the data Data (Pb) of the point Pb (details will be described later). Then, the coefficient calculation unit 1512 outputs information (data) on the obtained coefficients A, B, and C to the transformation matrix acquisition unit 1513.

変換行列取得部1513は、係数算出部1512から出力される係数A、B、Cについての情報(データ)と、交点算出部1511から出力される点PaのデータData(Pa)と、を入力する。変換行列取得部1513は、係数A、B、Cと、点PaのデータData(Pa)と、に基づいて、変換行列Rx、Ry、Rzを取得する。そして、変換行列取得部1513は、取得した変換行列Rx、Ry、Rzについてのデータを、変換行列合成部1514に出力する。   The transformation matrix acquisition unit 1513 receives information (data) on the coefficients A, B, and C output from the coefficient calculation unit 1512 and data Data (Pa) of the point Pa output from the intersection calculation unit 1511. . The transformation matrix acquisition unit 1513 acquires the transformation matrices Rx, Ry, and Rz based on the coefficients A, B, and C and the data Data (Pa) of the point Pa. Then, the transformation matrix acquisition unit 1513 outputs the data on the acquired transformation matrices Rx, Ry, and Rz to the transformation matrix synthesis unit 1514.

変換行列合成部1514は、変換行列取得部1513から出力される変換行列Rx、Ry、Rzについてのデータを入力とし、変換行列Rx、Ry、Rzから、合成行列Rを取得する。そして、変換行列合成部1514は、取得した合成行列Rについてのデータを、逆変換行列取得部1515と、変換部1516とに、出力する。   The transformation matrix combining unit 1514 receives data on the transformation matrices Rx, Ry, and Rz output from the transformation matrix acquiring unit 1513, and acquires a combination matrix R from the transformation matrices Rx, Ry, and Rz. Then, transformation matrix combination section 1514 outputs the acquired data on combination matrix R to inverse transformation matrix acquisition section 1515 and conversion section 1516.

逆変換行列取得部1515は、変換行列合成部1514から出力される合成行列Rについてのデータを入力する。逆変換行列取得部1515は、合成行列Rから、逆変換行列R−1を取得し、取得した逆変換行列R−1についてのデータを視点候補点算出部1519に出力する。 The inverse transformation matrix acquisition unit 1515 inputs data on the synthesis matrix R output from the conversion matrix synthesis unit 1514. The inverse transformation matrix acquisition unit 1515 acquires the inverse transformation matrix R- 1 from the synthesis matrix R, and outputs data on the acquired inverse transformation matrix R- 1 to the viewpoint candidate point calculation unit 1519.

変換部1516は、変換行列合成部1514から出力される合成行列Rについてのデータと、交点算出部1511から出力される点PbのデータData(Pb)と、を入力する。変換部1516は、合成行列Rと、点PbのデータData(Pb)と、から、点Pb’についてのデータ(座標データ)を、Data(Pb’)として取得する。そして、変換部1516は、取得したデータData(Pb’)を、係数取得部1517と、視点候補点算出部1519とに出力する。   The conversion unit 1516 inputs data on the synthesis matrix R output from the conversion matrix synthesis unit 1514 and data Data (Pb) of the point Pb output from the intersection calculation unit 1511. The conversion unit 1516 acquires data (coordinate data) for the point Pb 'as Data (Pb') from the combined matrix R and the data Data (Pb) of the point Pb. Then, conversion section 1516 outputs the obtained data Data (Pb ′) to coefficient acquisition section 1517 and viewpoint candidate point calculation section 1519.

係数取得部1517は、変換部1516から出力されるデータData(Pb’)と、角度取得部1518から出力される角度θについてのデータとを入力する。係数取得部1517は、データData(Pb’)と、角度θと、に基づいて、係数A’を取得する。そして、係数取得部1517は、取得した係数A’についてのデータを、視点候補点算出部1519に出力する。   The coefficient acquisition unit 1517 inputs data Data (Pb ′) output from the conversion unit 1516 and data on the angle θ output from the angle acquisition unit 1518. The coefficient acquisition unit 1517 acquires the coefficient A ′ based on the data Data (Pb ′) and the angle θ. Then, the coefficient acquiring unit 1517 outputs data on the acquired coefficient A ′ to the viewpoint candidate point calculating unit 1519.

角度取得部1518は、第1インターフェース6から出力される信号Sig1を入力し、信号Sig1に基づいて、角度θを取得する。そして、角度取得部1518は、取得した角度θについてのデータを、係数取得部1517と、視点候補点算出部1519とに出力する。   The angle acquisition unit 1518 receives the signal Sig1 output from the first interface 6, and acquires the angle θ based on the signal Sig1. Then, the angle acquisition unit 1518 outputs the data on the acquired angle θ to the coefficient acquisition unit 1517 and the viewpoint candidate point calculation unit 1519.

視点候補点算出部1519は、交点算出部1511から出力されるデータData(Pc)と、角度取得部1518から出力される角度θについてのデータと、を入力する。また、視点候補点算出部1519は、係数取得部1517から出力される係数A’についてのデータと、変換部1516から出力されるデータData(Pb’)と、逆変換行列取得部1515から出力される逆変換行列R−1についてのデータとを入力する。 The viewpoint candidate point calculation unit 1519 inputs data Data (Pc) output from the intersection calculation unit 1511 and data on the angle θ output from the angle acquisition unit 1518. In addition, viewpoint candidate point calculation section 1519 outputs data on coefficient A ′ output from coefficient acquisition section 1517, data Data (Pb ′) output from conversion section 1516, and output data from inverse transformation matrix acquisition section 1515. And data on the inverse transformation matrix R -1 .

視点候補点算出部1519は、データData(Pc)と、角度θと、係数A’と、データData(Pb’)と、逆変換行列R−1とに基づいて、視点候補点の座標データVp_candを取得する。そして、視点候補点算出部1519は、取得した視点候補点の座標データVp_candを投影画像取得部152に出力する。 The viewpoint candidate point calculation unit 1519 calculates the coordinate data Vp_cand of the viewpoint candidate point based on the data Data (Pc), the angle θ, the coefficient A ′, the data Data (Pb ′), and the inverse transformation matrix R− 1. To get. Then, the viewpoint candidate point calculation unit 1519 outputs the acquired coordinate data Vp_cand of the viewpoint candidate point to the projection image acquisition unit 152.

投影画像取得部152は、第1切替器SW1から出力される画像D1(テスト画像Img1(Img1_T3))と、視点候補取得部151の視点候補点算出部1519から出力される視点候補点の座標データVp_candとを入力する。また、投影画像取得部152は、3次元形状データ記憶部5から出力される3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjと、を入力する。投影画像取得部152は、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとに基づいて、画像D1(テスト画像Img1(Img1_T3))を、座標データVp_candにより特定される視点候補点から見たときに、幾何的な歪みが発生しない画像に変換し、変換した画像を画像D41(画像信号D41)として、第4セレクタSEL4に出力する。   The projection image acquisition unit 152 includes an image D1 (test image Img1 (Img1_T3)) output from the first switch SW1 and coordinate data of a viewpoint candidate point output from the viewpoint candidate point calculation unit 1519 of the viewpoint candidate acquisition unit 151. Vp_cand is input. Further, the projection image acquisition unit 152 inputs the three-dimensional shape data 3D_data output from the three-dimensional shape data storage unit 5 and information P_prj on the projection point of the projection unit 3. The projection image acquisition unit 152 converts the image D1 (test image Img1 (Img1_T3)) into a viewpoint candidate specified by the coordinate data Vp_cand based on the three-dimensional shape data 3D_data and the information P_prj about the projection points of the projection unit 3. The image is converted into an image in which no geometric distortion occurs when viewed from a point, and the converted image is output to the fourth selector SEL4 as an image D41 (image signal D41).

第4セレクタSEL4は、第3セレクタSEL3から出力される画像D4と、視点特定処理部15から出力される画像D41と、選択信号sel4とを入力する。第4セレクタSEL4は、選択信号sel4に従い、画像D4および画像D41のいずれか一方を選択し、選択した画像を、画像D5(画像信号D5)として、第5セレクタSEL5に出力する。なお、選択信号sel4は、プロジェクター装置100の各機能部を制御する制御部により生成される制御信号である。   The fourth selector SEL4 inputs the image D4 output from the third selector SEL3, the image D41 output from the viewpoint specification processing unit 15, and the selection signal sel4. The fourth selector SEL4 selects one of the image D4 and the image D41 according to the selection signal sel4, and outputs the selected image to the fifth selector SEL5 as an image D5 (image signal D5). The selection signal sel4 is a control signal generated by a control unit that controls each functional unit of the projector device 100.

第5セレクタSEL5は、第4セレクタSEL4から出力される画像D5と、テスト画像記憶部2から出力される3次元形状測定用のテスト画像Img0と、選択信号sel5とを入力する。第5セレクタSEL5は、選択信号sel5に従い、画像D5およびテスト画像Img0のいずれか一方を選択し、選択した画像を、画像Dout(画像信号Dout)として、投影部3に出力する。なお、選択信号sel5は、プロジェクター装置100の各機能部を制御する制御部により生成される制御信号である。   The fifth selector SEL5 receives the image D5 output from the fourth selector SEL4, the test image Img0 for three-dimensional shape measurement output from the test image storage unit 2, and the selection signal sel5. The fifth selector SEL5 selects one of the image D5 and the test image Img0 according to the selection signal sel5, and outputs the selected image to the projection unit 3 as an image Dout (image signal Dout). The selection signal sel5 is a control signal generated by a control unit that controls each functional unit of the projector device 100.

テスト画像記憶部2は、テスト画像を記憶しており、投影画像調整部1から要求に従い、所定のタイミングで、テスト画像を、投影画像調整部1に出力する。   The test image storage unit 2 stores a test image, and outputs a test image to the projection image adjustment unit 1 at a predetermined timing according to a request from the projection image adjustment unit 1.

投影部3は、画像を投影するための光学系を有している。投影部3は、投影画像調整部1の第5セレクタSEL5から出力される画像Dout(画像信号Dout)を入力し、入力した画像Dout(画像信号Dout)を、3次元空間の投影対象に投影する。   The projection unit 3 has an optical system for projecting an image. The projection unit 3 receives an image Dout (image signal Dout) output from the fifth selector SEL5 of the projection image adjustment unit 1, and projects the input image Dout (image signal Dout) on a projection target in a three-dimensional space. .

3次元形状測定部4は、3次元空間の投影対象の3次元計測データを取得し、取得した投影対象の3次元計測データを3次元形状データ記憶部5に出力する。3次元形状測定部4は、例えば、カメラを有しており、投影部3から投影される3次元形状測定用のテスト画像を撮像し、3次元形状測定用のテスト画像の撮像画像に基づいて、投影対象の3次元計測データを取得する。   The three-dimensional shape measurement unit 4 acquires three-dimensional measurement data of the projection target in the three-dimensional space, and outputs the acquired three-dimensional measurement data of the projection target to the three-dimensional shape data storage unit 5. The three-dimensional shape measurement unit 4 has, for example, a camera, captures a test image for three-dimensional shape measurement projected from the projection unit 3, and based on the captured image of the three-dimensional shape measurement test image. , To acquire three-dimensional measurement data of the projection target.

3次元形状測定部4は、例えば、(1)投影面の法線を求め、投影部3と投影面との位置関係を明確にする、あるいは、(2)投影部3の投影軸(投影部3の光学系の光軸)と投影面との角度を求め、投影部3と投影面との位置関係を明確にすることで、投影対象(投影面)の3次元計測データを取得する。   The three-dimensional shape measurement unit 4 may, for example, (1) obtain a normal line of the projection plane and clarify the positional relationship between the projection unit 3 and the projection plane, or (2) project a projection axis (projection unit The angle between the optical axis of the optical system 3 and the projection plane is obtained, and the positional relationship between the projection unit 3 and the projection plane is clarified to acquire three-dimensional measurement data of the projection target (projection plane).

また、3次元形状測定部4は、TOF(Time Of Flight)方式(例えば、TOF方式の位相差法)により距離画像を取得することで、投影対象の3次元計測データを取得するものであってもよい。この場合、3次元形状測定部4は、例えば、赤外線を照射する光源と、赤外線用のイメージセンサーとを有しており、光源から照射した赤外線の反射光を、イメージセンサーで受光し、照射した赤外線が投影対象から反射されて戻ってくるまでの時間を測定することで、距離画像を取得する。そして、3次元形状測定部4は、取得した距離画像により、投影対象の3次元計測データを取得する。   The three-dimensional shape measuring unit 4 acquires three-dimensional measurement data of a projection target by acquiring a distance image by a TOF (Time Of Flight) method (for example, a phase difference method of the TOF method). Is also good. In this case, the three-dimensional shape measuring unit 4 has, for example, a light source for irradiating infrared rays and an image sensor for infrared rays. The reflected light of the infrared rays radiated from the light source is received by the image sensor and irradiated. The distance image is obtained by measuring the time until the infrared light is reflected from the projection target and returns. Then, the three-dimensional shape measuring unit 4 acquires three-dimensional measurement data of the projection target from the acquired distance image.

また、3次元形状測定部4は、レーザー光源とレーザー用のセンサーを有し、レーザー光の飛行時間から、投影対象の距離を測定することで、投影対象の3次元計測データを取得するものであってもよい。この場合、3次元形状測定部4は、レーザー光を投影対象に照射方向を順次変更しながら(投影対象をレーザー光でスキャンしながら)照射し、レーザー光が投影対象に反射し、戻ってくるまでの時間を測定することで、投影対象の距離を測定し、投影対象の3次元計測データを取得する。   The three-dimensional shape measuring unit 4 has a laser light source and a laser sensor, and obtains three-dimensional measurement data of the projection target by measuring the distance of the projection target from the flight time of the laser light. There may be. In this case, the three-dimensional shape measuring unit 4 irradiates the projection target with the laser light while sequentially changing the irradiation direction (while scanning the projection target with the laser light), and the laser light is reflected on the projection target and returns. By measuring the time until, the distance of the projection target is measured, and three-dimensional measurement data of the projection target is obtained.

3次元形状データ記憶部5は、3次元形状測定部4により取得された投影対象の3次元計測データを入力とし、入力された投影対象の3次元計測データを記憶する。3次元形状データ記憶部5は、補正部11、第1回転処理部13、視点特定処理部15からの要求に従い、3次元計測データを、補正部11、第1回転処理部13、視点特定処理部15に出力する。   The three-dimensional shape data storage unit 5 receives the three-dimensional measurement data of the projection target acquired by the three-dimensional shape measurement unit 4 and stores the input three-dimensional measurement data of the projection target. The three-dimensional shape data storage unit 5 stores the three-dimensional measurement data in accordance with a request from the correction unit 11, the first rotation processing unit 13, and the viewpoint specification processing unit 15, by using the correction unit 11, the first rotation processing unit 13, and the viewpoint specification processing. Output to the unit 15.

第1インターフェース6は、プロジェクター装置100と、コントローラ200とのインターフェースである。第1インターフェース6を介して、例えば、コントローラ200から出力される信号を、プロジェクター装置100に入力することができる。   The first interface 6 is an interface between the projector device 100 and the controller 200. For example, a signal output from the controller 200 can be input to the projector device 100 via the first interface 6.

コントローラ200は、図1に示すように、第2インターフェース21と、制御部22と、ユーザーインターフェース23とを備える。   The controller 200 includes a second interface 21, a control unit 22, and a user interface 23, as shown in FIG.

第2インターフェース21は、コントローラ200と、プロジェクター装置100とのインターフェースである。   The second interface 21 is an interface between the controller 200 and the projector device 100.

制御部22は、コントローラ200の各機能部を制御する制御部である。   The control unit 22 is a control unit that controls each functional unit of the controller 200.

ユーザーインターフェース23は、ユーザーの操作に応じた信号を発生させる。ユーザーインターフェース23は、例えば、コントローラに設けられた所定のボタンを、ユーザーが押下した場合、当該ボタンが押下されたことを示す信号を発生させる。   The user interface 23 generates a signal according to a user operation. For example, when the user presses a predetermined button provided on the controller, the user interface 23 generates a signal indicating that the button has been pressed.

<1.2:投影システムの動作>
以上のように構成された投影システム1000の動作について、以下、説明する。
<1.2: Operation of projection system>
The operation of the projection system 1000 configured as described above will be described below.

以下では、投影システム1000で実行される処理として、(1)3次元形状測定処理、(2)補正処理、(3)第1回転処理、(4)第2回転処理、および、(5)視点特定処理に分けて説明する。   In the following, processing performed by the projection system 1000 includes (1) three-dimensional shape measurement processing, (2) correction processing, (3) first rotation processing, (4) second rotation processing, and (5) viewpoint. The description will be given separately for the specific processing.

なお、説明便宜のため、投影対象を図5に示す3次元空間として、投影システム1000の動作について説明する。   For convenience of explanation, the operation of the projection system 1000 will be described with the projection target being the three-dimensional space shown in FIG.

図5は、3次元空間を模式的に示した図であり、投影対象である天井CL(傾斜天井CL)と、プロジェクター装置100と、床FL上のユーザーUsrとを示している。また、図5において、図5に示すように、a軸、b軸、c軸を設定する。   FIG. 5 is a diagram schematically showing a three-dimensional space, and shows a ceiling CL (inclined ceiling CL) to be projected, the projector device 100, and a user Usr on the floor FL. In FIG. 5, a-axis, b-axis, and c-axis are set as shown in FIG.

図5に示す3次元空間において、傾斜天井CLは、平面であり、平面である床FL(床平面FL)と図5に示す角度αだけ傾斜している。また、図5において、プロジェクター装置100の投影部3の投影点を点P_prjとして示しており、プロジェクター装置100の3次元形状測定部4の測定点を点P_msrとして示している。また、図5において、投影部3の光学系の光軸(投影軸)Ax1と、傾斜天井CLとの交点を点Pcとし、ユーザーの視点位置(ユーザーの両眼の中心点)を点Vpとして示している。
なお、傾斜天井CLは、上記のように、床FLと平行な平面(ab平面)に対して、回転軸をb軸として回転させた平面となる場合のみに限定されることはない。例えば、傾斜天井CLは、床FLと平行な平面(ab平面)に対して、回転軸をb軸として角度αだけ回転させ、さらに、回転軸をa軸として角度βだけ回転させた平面と一致する平面であってもよい。
In the three-dimensional space shown in FIG. 5, the inclined ceiling CL is a plane, and is inclined with respect to the floor FL (floor plane FL), which is a plane, by an angle α shown in FIG. In FIG. 5, the projection point of the projection unit 3 of the projector device 100 is shown as a point P_prj, and the measurement point of the three-dimensional shape measurement unit 4 of the projector device 100 is shown as a point P_msr. In FIG. 5, the intersection of the optical axis (projection axis) Ax1 of the optical system of the projection unit 3 and the inclined ceiling CL is set as a point Pc, and the viewpoint position of the user (the center point of both eyes of the user) is set as a point Vp. Is shown.
Note that, as described above, the inclined ceiling CL is not limited to the case where the inclined ceiling CL is a plane that is rotated about the rotation axis as the b-axis with respect to the plane (ab plane) parallel to the floor FL. For example, the sloping ceiling CL rotates with respect to a plane (ab plane) parallel to the floor FL by rotating the rotation axis by the angle α using the rotation axis as the b axis, and furthermore, coincides with the plane rotated by the angle β using the rotation axis as the a axis. It may be a flat surface.

なお、説明便宜のために、ユーザーの左眼の中心点(左眼視点)と右眼の中心点(右眼視点)とは、a軸と平行な直線上に存在するものとする。そして、ユーザーの左眼の中心点(左眼視点)から点Pcまでの距離dLと、ユーザーの右眼の中心点(右眼視点)から点Pcまでの距離dR(=dL)とは、等しいものとする。   For convenience of description, it is assumed that the center point of the user's left eye (left-eye viewpoint) and the center point of the right eye (right-eye viewpoint) are on a straight line parallel to the a-axis. The distance dL from the center point of the user's left eye (left-eye viewpoint) to the point Pc is equal to the distance dR (= dL) from the center point of the user's right eye (right-eye viewpoint) to the point Pc. Shall be.

また、図5に示すように、x軸、y軸、z軸を設定するものとする。つまり、投影部3の光学系の光軸Ax1とz軸とが一致し、かつ、xy平面の法線がz軸と平行となるように、x軸、y軸が設定されるものとする。そして、図5に示すように、xyz座標の原点Orgは、光軸Ax1上に存在するものとする。   As shown in FIG. 5, an x-axis, a y-axis, and a z-axis are set. That is, the x-axis and the y-axis are set so that the optical axis Ax1 of the optical system of the projection unit 3 and the z-axis coincide with each other, and the normal of the xy plane is parallel to the z-axis. Then, as shown in FIG. 5, it is assumed that the origin Org of the xyz coordinates exists on the optical axis Ax1.

また、図5において、点Pcを通る傾斜天井平面CLの法線Nm1と、法線Nm1上の点P1とを示している。   In FIG. 5, a normal line Nm1 of the inclined ceiling plane CL passing through the point Pc and a point P1 on the normal line Nm1 are shown.

(1.2.1:3次元形状測定処理)
まず、3次元形状測定処理について、説明する。
(1.2.1: Three-dimensional shape measurement processing)
First, the three-dimensional shape measurement processing will be described.

以下では、投影システム1000において、3次元形状測定部4は、カメラを有しており、投影部3から投影される3次元形状測定用のテスト画像を撮像し、3次元形状測定用のテスト画像の撮像画像に基づいて、投影対象の3次元計測データを取得する場合について、説明する。   In the following, in the projection system 1000, the three-dimensional shape measurement unit 4 has a camera, captures a three-dimensional shape measurement test image projected from the projection unit 3, and outputs the three-dimensional shape measurement test image. A case in which three-dimensional measurement data of a projection target is acquired based on the captured image described above will be described.

テスト画像記憶部2から、3次元形状測定用のテスト画像Img0が、投影画像調整部1の第5セレクタSEL5に出力される。制御部は、第5セレクタSEL5の、図2に示す端子0を選択する選択信号sel5を生成し、第5セレクタSEL5に出力する。これにより、第5セレクタSEL5から、3次元形状測定用のテスト画像Img0が、画像信号Doutとして、投影部3に出力される。   The test image Img0 for three-dimensional shape measurement is output from the test image storage unit 2 to the fifth selector SEL5 of the projection image adjustment unit 1. The control unit generates a selection signal sel5 for selecting the terminal 0 shown in FIG. 2 of the fifth selector SEL5, and outputs it to the fifth selector SEL5. As a result, the test image Img0 for measuring the three-dimensional shape is output from the fifth selector SEL5 to the projection unit 3 as the image signal Dout.

投影部3は、3次元形状測定用のテスト画像Img0を、(A)投影軸(投影部3の光学系の光軸)を、図5に示す軸Ax1とし、(B)画角を図5に示す角度βとし、(C)投影点を、図5に示す点P_prjとして、投影対象である傾斜天井平面CLに対して、投影する。   The projection unit 3 sets the test image Img0 for three-dimensional shape measurement to (A) the projection axis (the optical axis of the optical system of the projection unit 3) as the axis Ax1 shown in FIG. 5, and (B) sets the angle of view to FIG. And the projection point is projected onto the inclined ceiling plane CL to be projected as the point P_prj shown in FIG.

3次元形状測定部4は、撮像点が点P_msrである、3次元形状測定用のカメラにより、投影部3により投影されている3次元形状測定用のテスト画像Img0を撮像する。そして、3次元形状測定部4は、撮像した画像を、3次元形状測定用のテスト画像Img0と比較することで、投影対象の3次元計測データを取得する。   The three-dimensional shape measurement unit 4 captures the three-dimensional shape measurement test image Img0 projected by the projection unit 3 using the three-dimensional shape measurement camera whose imaging point is the point P_msr. Then, the three-dimensional shape measurement unit 4 acquires the three-dimensional measurement data of the projection target by comparing the captured image with the test image Img0 for three-dimensional shape measurement.

投影システム1000において、投影点P_prjの3次元空間の座標が既知であり、3次元形状測定部4の撮像点P_msrの3次元空間の座標が既知であり、投影する3次元形状測定用のテスト画像Img0が既知であるので、撮像点P_msrで撮像した画像から、投影対象の3次元空間の座標を算出することができる。つまり、3次元形状測定用のテスト画像Img0の各画素が、撮像点P_msrで撮像した画像のどの画素に対応するか調べることで、各画素に相当する3次元空間位置(各画素に相当する光が反射した3次元空間位置)を特定することができる。したがって、各画素に対応する3次元空間位置を特定することで、投影対象の3次元空間の座標を算出することができる。   In the projection system 1000, the coordinates of the projection point P_prj in the three-dimensional space are known, the coordinates of the imaging point P_msr of the three-dimensional shape measurement unit 4 in the three-dimensional space are known, and the test image to be projected for the three-dimensional shape measurement Since Img0 is known, the coordinates of the projection target in the three-dimensional space can be calculated from the image captured at the imaging point P_msr. That is, by examining which pixel of the image captured at the imaging point P_msr corresponds to each pixel of the test image Img0 for three-dimensional shape measurement, the three-dimensional spatial position (light corresponding to each pixel) corresponding to each pixel is determined. (A three-dimensional space position where the light is reflected) can be specified. Therefore, by specifying the three-dimensional space position corresponding to each pixel, the coordinates of the three-dimensional space to be projected can be calculated.

なお、3次元形状測定用のテスト画像Img0を、例えば、所定の周期の正弦波信号により形成される画像としてもよい。この場合、例えば、複数回にわたり、周期や位相を所定量だけずらした正弦波信号により形成される複数の画像を、投影部3から投影対象に投影し、投影された複数の画像により、3次元形状測定部4が、投影対象の3次元形状データを取得するようにしてもよい。   Note that the test image Img0 for measuring the three-dimensional shape may be, for example, an image formed by a sine wave signal having a predetermined cycle. In this case, for example, a plurality of images formed by a sine wave signal whose cycle and phase are shifted by a predetermined amount over a plurality of times are projected from the projection unit 3 onto a projection target, and a plurality of projected images are used to perform three-dimensional The shape measuring unit 4 may acquire the three-dimensional shape data of the projection target.

上記処理により、3次元形状測定部4が取得した投影対象の3次元形状データは、3次元形状測定部4から、3次元形状データ記憶部5に出力され、3次元形状データ記憶部5に記憶される。   The three-dimensional shape data of the projection target acquired by the three-dimensional shape measurement unit 4 by the above processing is output from the three-dimensional shape measurement unit 4 to the three-dimensional shape data storage unit 5 and stored in the three-dimensional shape data storage unit 5 Is done.

(1.2.2:補正処理)
次に、補正処理について、説明する。
(1.2.2: Correction processing)
Next, the correction processing will be described.

テスト画像記憶部2から、テスト画像Img1が、第1セレクタSEL1に出力される。そして、制御部は、第1セレクタSEL1の、図2に示す端子0を選択する選択信号sel1を生成し、第1セレクタSEL1に出力する。これにより、第1セレクタSEL1から、テスト画像Img1が、画像信号D1として、第1切替器SW1に出力される。   The test image Img1 is output from the test image storage unit 2 to the first selector SEL1. Then, the control unit generates a selection signal sel1 for selecting the terminal 0 shown in FIG. 2 of the first selector SEL1, and outputs the selection signal sel1 to the first selector SEL1. As a result, the test image Img1 is output from the first selector SEL1 to the first switch SW1 as the image signal D1.

図6に、テスト画像Img1の一例である第1テスト画像Img1_T1を示す。図6に示すように、第1テスト画像Img1_T1は、長方形の画像である。そして、第1テスト画像Img1_T1は、図6に示すように、画像の横方向(水平方向)の中央において縦方向(垂直方向)に延びる縦中心線L1vを有し、画像の上部に水平方向(横方向)に引かれた線L2hを有するパターンの画像である。   FIG. 6 shows a first test image Img1_T1, which is an example of the test image Img1. As shown in FIG. 6, the first test image Img1_T1 is a rectangular image. The first test image Img1_T1 has a vertical center line L1v extending in the vertical direction (vertical direction) at the center in the horizontal direction (horizontal direction) of the image, as shown in FIG. It is an image of a pattern having a line L2h drawn in the (lateral direction).

図6に示す第1テスト画像Img1_T1は、線L1vと線L2hとの交点が存在する部分が画像の上部である。投影システム1000では、第1テスト画像Img1_T1の画像の上側をユーザーに認識させる必要があるため、投影システム1000に用いるテスト画像は、図6に示す第1テスト画像Img1_T1のように、画像の上部を認識しやすい画像とすることが好ましい。なお、図6に示す第1テスト画像Img1_T1は、一例であり、画像の上部を認識できる画像であれば、他の画像であってもよい。   In the first test image Img1_T1 illustrated in FIG. 6, the portion where the intersection of the line L1v and the line L2h exists is the upper part of the image. In the projection system 1000, since it is necessary for the user to recognize the upper side of the image of the first test image Img1_T1, the test image used in the projection system 1000 has the upper part of the image like the first test image Img1_T1 shown in FIG. It is preferable to make the image easy to recognize. Note that the first test image Img1_T1 illustrated in FIG. 6 is an example, and any other image may be used as long as the image can recognize the upper part of the image.

説明便宜のため、以下では、テスト画像として、図6に示す第1テスト画像Img1_T1を用いる場合について説明する。   For convenience of explanation, a case will be described below where the first test image Img1_T1 shown in FIG. 6 is used as the test image.

補正部11は、3次元形状データ記憶部5から3次元形状データ3D_dataを読み出し、投影対象である傾斜天井平面CLの3次元座標データを取得する。そして、補正部11は、点P1、すなわち、投影軸Ax1と天井平面CLとの交点Pcの法線上の点P1から見た場合に、幾何的な歪みのない状態の画像となるように、取得した傾斜天井平面CLの3次元座標データを用いて、画像D1に対して補正処理を行う。そして、補正部11は、補正処理後の画像を画像D2として第2セレクタSEL2に出力する。   The correction unit 11 reads out the three-dimensional shape data 3D_data from the three-dimensional shape data storage unit 5 and acquires three-dimensional coordinate data of the inclined ceiling plane CL to be projected. Then, the correction unit 11 acquires the image so as to be an image without geometric distortion when viewed from the point P1, that is, the point P1 on the normal to the intersection Pc between the projection axis Ax1 and the ceiling plane CL. A correction process is performed on the image D1 using the three-dimensional coordinate data of the inclined ceiling plane CL thus obtained. Then, the correction unit 11 outputs the image after the correction processing to the second selector SEL2 as the image D2.

制御部は、第2セレクタSEL2の、図2に示す端子0を選択する選択信号sel2を生成し、第2セレクタSEL2に出力する。これにより、第2セレクタSEL2から、画像D2が、画像D3として、第3セレクタSEL3に出力される。   The control unit generates a selection signal sel2 for selecting the terminal 0 shown in FIG. 2 of the second selector SEL2, and outputs the signal to the second selector SEL2. Accordingly, the image D2 is output from the second selector SEL2 to the third selector SEL3 as the image D3.

制御部は、第3セレクタSEL3の、図2に示す端子0を選択する選択信号sel3を生成し、第3セレクタSEL3に出力する。これにより、第3セレクタSEL3から、画像D3が、画像D4として、第4セレクタSEL4に出力される。   The control unit generates a selection signal sel3 for selecting the terminal 0 shown in FIG. 2 of the third selector SEL3, and outputs the signal to the third selector SEL3. Thus, the image D3 is output from the third selector SEL3 to the fourth selector SEL4 as the image D4.

制御部は、第4セレクタSEL4の、図2に示す端子1を選択する選択信号sel4を生成し、第4セレクタSEL4に出力する。これにより、第4セレクタSEL4から、画像D4が、画像D5として、第5セレクタSEL5に出力される。   The control unit generates a selection signal sel4 for selecting the terminal 1 shown in FIG. 2 of the fourth selector SEL4, and outputs the signal to the fourth selector SEL4. Accordingly, the image D4 is output from the fourth selector SEL4 to the fifth selector SEL5 as the image D5.

制御部は、第5セレクタSEL5の、図2に示す端子1を選択する選択信号sel5を生成し、第5セレクタSEL5に出力する。これにより、第5セレクタSEL5から、画像D5が、画像Doutとして、投影部3に出力される。   The control unit generates a selection signal sel5 for selecting the terminal 1 shown in FIG. 2 of the fifth selector SEL5, and outputs the signal to the fifth selector SEL5. As a result, the image D5 is output from the fifth selector SEL5 to the projection unit 3 as the image Dout.

投影部3は、第5セレクタSEL5からの画像Doutを、図5に示す投影軸Ax1により、傾斜天井平面CLに投影する。なお、この状態を「状態1」とする。   The projection unit 3 projects the image Dout from the fifth selector SEL5 onto the inclined ceiling plane CL using the projection axis Ax1 shown in FIG. This state is referred to as “state 1”.

図7は、状態1における3次元空間を模式的に示した図である。具体的には、図7は、図6に示す第1テスト画像Img1_T1が傾斜天井平面CLに投影されている状態を模式的に示した図である。図7では、状態1において、ユーザーの視点Vpから見た第1テスト画像Img1_T1を画像Img1_T1(Vp)として示している。また、図7では、状態1において、点P1から見た第1テスト画像Img1_T1を画像Img1_T1(P1)として示している。   FIG. 7 is a diagram schematically illustrating the three-dimensional space in the state 1. Specifically, FIG. 7 is a diagram schematically illustrating a state where the first test image Img1_T1 illustrated in FIG. 6 is projected on the inclined ceiling plane CL. In FIG. 7, in state 1, the first test image Img1_T1 viewed from the user's viewpoint Vp is shown as an image Img1_T1 (Vp). In FIG. 7, in state 1, the first test image Img1_T1 viewed from the point P1 is shown as an image Img1_T1 (P1).

図7から、状態1において、ユーザーの視点Vpから見た第1テスト画像Img1_T1(Vp)には、幾何的な歪みが発生しているが、点P1から見た第1テスト画像Img1_T1(P1)には、幾何的な歪みが発生していない(幾何的な歪みがほぼ発生していない)ことが分かる。   From FIG. 7, in state 1, the first test image Img1_T1 (Vp) viewed from the user's viewpoint Vp has a geometric distortion, but the first test image Img1_T1 (P1) viewed from the point P1. Shows that no geometric distortion has occurred (geometric distortion has hardly occurred).

投影システム1000において、上記のようにして補正処理が実行された後、第1回転処理が実行される。   In the projection system 1000, after the correction processing is performed as described above, the first rotation processing is performed.

(1.2.3:第1回転処理)
次に、第1回転処理について、説明する。
(1.2.3: First rotation process)
Next, the first rotation processing will be described.

図7に示した状態1において、ユーザーは、コントローラ200を操作することで、傾斜天井平面CLに投影されている画像Img1_T1を、傾斜天井平面CL内において、点Pcを中心として、図7に矢印Dir1で示す方向に回転させ、画像Img1_T1の縦中心線L1vが、ユーザーの視点Vpから見て垂直な直線に見えるようにする。つまり、画像Img1_T1の縦中心線L1vと、点Pcと、視点Vpとを含む平面と、ユーザーの両眼を結ぶ直線とが直交するように、ユーザーは、コントローラ200を操作し、傾斜天井平面CLに投影されている画像Img1_T1を、傾斜天井平面CL内において、点Pcを中心として、図7に矢印Dir1で示す方向に回転させる。なお、ユーザーは、画像Img1_T1の画像の上部(画像Img1_T1の線L1vと線L2hとが交差している部分)が、ユーザーから見たときに上部となるように、画像Img1_T1を回転させる。   In the state 1 illustrated in FIG. 7, the user operates the controller 200 to display the image Img1_T1 projected on the inclined ceiling plane CL in the inclined ceiling plane CL around the point Pc in FIG. The image Img1_T1 is rotated in the direction indicated by Dir1 so that the vertical center line L1v of the image Img1_T1 looks like a vertical straight line when viewed from the viewpoint Vp of the user. That is, the user operates the controller 200 so that the plane including the vertical center line L1v of the image Img1_T1, the point Pc, and the viewpoint Vp is orthogonal to the straight line connecting both eyes of the user, and the inclined ceiling plane CL Is rotated about the point Pc in the inclined ceiling plane CL in the direction indicated by the arrow Dir1 in FIG. Note that the user rotates the image Img1_T1 such that the upper part of the image Img1_T1 (the part where the line L1v and the line L2h of the image Img1_T1 intersect) is the upper part when viewed from the user.

この第1回転処理について、具体的に説明する。   This first rotation processing will be specifically described.

状態1と同様に、テスト画像記憶部2から、テスト画像Img1_T1が、第1セレクタSEL1に出力される。そして、制御部は、第1セレクタSEL1の、図2に示す端子0を選択する選択信号sel1を生成し、第1セレクタSEL1に出力する。これにより、第1セレクタSEL1から、テスト画像Img1_T1が、画像信号D1として、第1切替器SW1に出力される。   As in the state 1, the test image Img1_T1 is output from the test image storage unit 2 to the first selector SEL1. Then, the control unit generates a selection signal sel1 for selecting the terminal 0 shown in FIG. 2 of the first selector SEL1, and outputs the selection signal sel1 to the first selector SEL1. As a result, the test image Img1_T1 is output from the first selector SEL1 to the first switch SW1 as the image signal D1.

制御部は、第1切替器SW1の、図2に示す端子1を選択する切替信号sw1を生成し、第1切替器SW1に出力する。これにより、第1切替器SW1から、テスト画像Img1_T1が、画像信号D1として、補正部11に出力される。   The control unit generates a switching signal sw1 for selecting the terminal 1 shown in FIG. 2 of the first switch SW1, and outputs the signal to the first switch SW1. Accordingly, the test image Img1_T1 is output from the first switch SW1 to the correction unit 11 as the image signal D1.

補正部11は、画像D1に対して、状態1で実行した処理と同じ補正処理を実行する。そして、補正部11は、補正処理後の画像を画像D2として第1回転処理部13に出力する。   The correction unit 11 performs the same correction processing as that performed in the state 1 on the image D1. Then, the correction unit 11 outputs the image after the correction processing to the first rotation processing unit 13 as an image D2.

ユーザーは、コントローラ200を操作し、プロジェクター装置100に第1回転処理を実行させる。例えば、コントローラ200は、第1回転処理を行うためのボタンを2つ有しており、第1ボタン(一方のボタン)を1回押下することで、テスト画像Img1_T1を、傾斜天井平面CL内において、図7の方向Dir1の左方向に所定の角度だけ回転させる処理を実行し、第2ボタン(他方のボタン)を1回押下することで、テスト画像Img1_T1が、傾斜天井平面CL内において、図7の方向Dir1の右方向に所定の角度だけ回転させる処理を実行することができる。   The user operates the controller 200 to cause the projector device 100 to execute the first rotation process. For example, the controller 200 has two buttons for performing the first rotation process, and pressing the first button (one button) once causes the test image Img1_T1 to be displayed in the inclined ceiling plane CL. By executing a process of rotating the direction Dir1 to the left by a predetermined angle in FIG. 7 and pressing the second button (the other button) once, the test image Img1_T1 is displayed in the inclined ceiling plane CL. A process of rotating by a predetermined angle to the right in the direction Dir1 of No. 7 can be executed.

ここでは、第1ボタンが押下された場合について説明する。   Here, a case where the first button is pressed will be described.

コントローラ200の第1ボタンが1回押下されると、ユーザーインターフェース23は、第1ボタンが1回押下されたこと示す信号を発生させる。コントローラ200の制御部22は、ユーザーインターフェース23が発生させた信号に基づいて、第1ボタンが1回押下されたこと示す信号を、第2インターフェース21を介して、プロジェクター装置100の第1インターフェースに送信する。   When the first button of the controller 200 is pressed once, the user interface 23 generates a signal indicating that the first button is pressed once. The control unit 22 of the controller 200 transmits a signal indicating that the first button has been pressed once to the first interface of the projector device 100 via the second interface 21 based on the signal generated by the user interface 23. Send.

なお、コントローラ200は、ユーザーが手に持って操作できるものであり、コントローラ200とプロジェクター装置100とは、例えば、無線通信により、信号の送受信を行う。   Note that the controller 200 can be held and operated by a user, and the controller 200 and the projector device 100 transmit and receive signals by wireless communication, for example.

例えば、ユーザーは、図7に示す状態において、コントローラ200を手に持って、傾斜天井平面CLに投影されている画像Img1_T1を見ながら、コントローラ200を操作し、傾斜天井平面CLに投影されている画像Img1_T1を回転させる。   For example, in the state shown in FIG. 7, the user operates the controller 200 while holding the controller 200 in his hand and viewing the image Img1_T1 projected on the inclined ceiling plane CL, and the user is projected on the inclined ceiling plane CL. The image Img1_T1 is rotated.

プロジェクター装置100の第1インターフェースは、コントローラ200の第2インターフェースから送信された信号を受信し、受信した信号を信号Sig1として第2切替器12に出力する。   The first interface of the projector device 100 receives a signal transmitted from the second interface of the controller 200 and outputs the received signal to the second switch 12 as a signal Sig1.

第2切替器12は、制御部により生成された切替信号sw2に基づいて、図2に示す端子Aを選択し、信号Sig1を第1回転処理部13に出力する。   The second switch 12 selects the terminal A shown in FIG. 2 based on the switching signal sw2 generated by the control unit, and outputs the signal Sig1 to the first rotation processing unit 13.

第1回転処理部13は、信号Sig1と、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとに基づいて、補正部11から出力される画像D2に対して第1回転処理を実行する。
なお、第1回転処理部13は、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとを用いずに、信号Sig1に基づいて、、補正部11から出力される画像D2に対して第1回転処理を実行するようにしてもよい。この場合、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとは、第1回転処理部13に入力されなくてもよい。
The first rotation processing unit 13 performs a first rotation processing on the image D2 output from the correction unit 11 based on the signal Sig1, the three-dimensional shape data 3D_data, and information P_prj on the projection point of the projection unit 3. Execute
Note that the first rotation processing unit 13 uses the three-dimensional shape data 3D_data and the information P_prj on the projection point of the projection unit 3 without using the image D2 output from the correction unit 11 based on the signal Sig1. On the other hand, the first rotation process may be executed. In this case, the three-dimensional shape data 3D_data and the information P_prj on the projection point of the projection unit 3 need not be input to the first rotation processing unit 13.

具体的には、第1回転処理部13は、点P1から傾斜天井平面CLを見たときに、傾斜天井平面CL内において、点Pcを中心として、画像Img1_T1が、図7に示す矢印Dir1の左方向に、信号Sig1により決定される所定の角度だけ回転した画像となるように、画像D2に対して変換処理(第1回転処理)を行う。そして、第1回転処理部13は、処理後の画像を、画像D21(画像信号D21)として、第2セレクタSEL2に出力する。   Specifically, when viewing the inclined ceiling plane CL from the point P1, the first rotation processing unit 13 displays the image Img1_T1 around the point Pc in the inclined ceiling plane CL as indicated by an arrow Dir1 shown in FIG. A conversion process (first rotation process) is performed on the image D2 so that the image is rotated leftward by a predetermined angle determined by the signal Sig1. Then, the first rotation processing unit 13 outputs the processed image to the second selector SEL2 as an image D21 (image signal D21).

第2セレクタSEL2は、制御部により生成された選択信号sel2に基づいて、図2に示す端子1を選択し、画像D21を画像D3として、第3セレクタSEL3に出力する。   The second selector SEL2 selects the terminal 1 shown in FIG. 2 based on the selection signal sel2 generated by the control unit, and outputs the image D21 as the image D3 to the third selector SEL3.

第3セレクタSEL3は、制御部により生成された選択信号sel3に基づいて、図2に示す端子0を選択し、画像D3(=画像D21)を、画像D4として、第4セレクタSEL4に出力する。   The third selector SEL3 selects the terminal 0 shown in FIG. 2 based on the selection signal sel3 generated by the control unit, and outputs the image D3 (= image D21) to the fourth selector SEL4 as the image D4.

第4セレクタSEL4は、制御部により生成された選択信号sel4に基づいて、図2に示す端子1を選択し、画像D4(=画像D21)を、画像D5として、第5セレクタSEL5に出力する。   The fourth selector SEL4 selects the terminal 1 shown in FIG. 2 based on the selection signal sel4 generated by the control unit, and outputs the image D4 (= image D21) to the fifth selector SEL5 as the image D5.

第5セレクタSEL5は、制御部により生成された選択信号sel5に基づいて、図2に示す端子1を選択し、画像D5(=画像D21)を、画像Doutとして、投影部3に出力する。   The fifth selector SEL5 selects the terminal 1 shown in FIG. 2 based on the selection signal sel5 generated by the control unit, and outputs the image D5 (= image D21) to the projection unit 3 as an image Dout.

投影部3は、第5セレクタSEL5からの画像Dout(=画像D21)を、図7に示す投影軸Ax1により、傾斜天井平面CLに投影する。これにより、点P1から傾斜天井平面CLを見たときに、画像Img1_T1は、点Pcを中心として、所定の角度だけ方向Dir1に回転した画像となる。   The projection unit 3 projects the image Dout (= image D21) from the fifth selector SEL5 onto the inclined ceiling plane CL with the projection axis Ax1 shown in FIG. Thus, when the inclined ceiling plane CL is viewed from the point P1, the image Img1_T1 is an image rotated about the point Pc by a predetermined angle in the direction Dir1.

上記操作を繰り返すことで、画像Img1_T1の縦中心線L1vが、ユーザーの視点Vpから見て垂直な直線に見えるようにする。この状態、つまり、画像Img1_T1の縦中心線L1vと、点Pcと、視点Vpとを含む平面が、ユーザーの両眼を結ぶ直線と直交している状態を「状態2」とする。   By repeating the above operation, the vertical center line L1v of the image Img1_T1 is made to appear as a vertical straight line when viewed from the user's viewpoint Vp. This state, that is, a state in which a plane including the vertical center line L1v of the image Img1_T1, the point Pc, and the viewpoint Vp is orthogonal to a straight line connecting both eyes of the user is referred to as “state 2”.

図8は、状態2における3次元空間を模式的に示した図である。図8では、状態2において、ユーザーの視点Vpから見たテスト画像Img1_T1を画像Img1_T1(Vp)として示している。   FIG. 8 is a diagram schematically illustrating the three-dimensional space in the state 2. In FIG. 8, in state 2, the test image Img1_T1 viewed from the user's viewpoint Vp is shown as an image Img1_T1 (Vp).

図8から、状態2において、テスト画像Img1_T1(Vp)の縦中心線L1vが、ユーザーの視点Vpから見て垂直な直線に見えることが分かる。   From FIG. 8, it can be seen that in state 2, the vertical center line L1v of the test image Img1_T1 (Vp) looks like a vertical straight line from the viewpoint Vp of the user.

そして、第1回転処理部13は、状態2において、縦中心線L1vを含む直線を特定するためのデータを取得し、保持する。縦中心線L1vを含む直線を特定するためのデータとしては、例えば、(1)当該直線を規定する方程式(直線方程式)のデータや(2)当該直線に含まれる異なる2点の座標を特定するためのデータ等がある。   Then, in state 2, the first rotation processing unit 13 acquires and holds data for specifying a straight line including the vertical center line L1v. As data for specifying a straight line including the vertical center line L1v, for example, (1) data of an equation (linear equation) defining the straight line or (2) coordinates of two different points included in the straight line are specified. There is data etc. for

そして、第1回転処理部13は、縦中心線L1vを含む直線を特定するためのデータを含む検出信号をDet1として、視点特定処理部15に出力する。   Then, the first rotation processing unit 13 outputs a detection signal including data for specifying a straight line including the vertical center line L1v to the viewpoint specifying processing unit 15 as Det1.

投影システム1000において、上記のようにして第1回転処理が実行された後、第2回転処理が実行される。   In the projection system 1000, after the first rotation processing is executed as described above, the second rotation processing is executed.

(1.2.4:補正処理(第2テスト画像用))
図9は、第2回転処理に用いるテスト画像Img1の一例である第2テスト画像Img1_T2を示す図である。
(1.2.4: Correction processing (for second test image))
FIG. 9 is a diagram illustrating a second test image Img1_T2, which is an example of the test image Img1 used for the second rotation processing.

図10は、第2回転処理を説明するための図であり、b軸正方向から負方向に向かって、傾斜天井平面CLを含む3次元空間を見た図(正面図)である。   FIG. 10 is a diagram for explaining the second rotation process, and is a diagram (front view) of a three-dimensional space including the inclined ceiling plane CL viewed from the positive direction of the b-axis toward the negative direction.

補正部11では、入力画像を、第2テスト画像Img1_T2として、上記で説明したのと同様に、補正処理が実行される。つまり、以下の処理が実行される。   The correction unit 11 performs a correction process in the same manner as described above, using the input image as the second test image Img1_T2. That is, the following processing is executed.

テスト画像記憶部2から、第2テスト画像Img1_T2が、第1セレクタSEL1に出力される。そして、制御部は、第1セレクタSEL1の、図2に示す端子0を選択する選択信号sel1を生成し、第1セレクタSEL1に出力する。これにより、第1セレクタSEL1から、テスト画像Img1_T2が、画像信号D1として、第1切替器SW1に出力される。   From the test image storage unit 2, the second test image Img1_T2 is output to the first selector SEL1. Then, the control unit generates a selection signal sel1 for selecting the terminal 0 shown in FIG. 2 of the first selector SEL1, and outputs the selection signal sel1 to the first selector SEL1. As a result, the test image Img1_T2 is output from the first selector SEL1 to the first switch SW1 as the image signal D1.

図9に示すように、第2テスト画像Img1_T2は、長方形の画像である。そして、第2テスト画像Img1_T2は、図9に示すように、画像の縦方向(垂直方向)の中央において横方向(水平方向)に延びる横中心線L1hを有するパターンの画像である。   As shown in FIG. 9, the second test image Img1_T2 is a rectangular image. The second test image Img1_T2 is a pattern image having a horizontal center line L1h extending in the horizontal direction (horizontal direction) at the center in the vertical direction (vertical direction) of the image, as shown in FIG.

なお、図9に示す第2テスト画像Img1_T2は、一例であり、図9に示した画像に限定されることはなく、画像の水平方向の歪を認識することができる他の画像であってもよい。   Note that the second test image Img1_T2 illustrated in FIG. 9 is an example, and is not limited to the image illustrated in FIG. 9. The second test image Img1_T2 may be another image that can recognize horizontal distortion of the image. Good.

説明便宜のため、以下では、テスト画像として、図9に示す第2テスト画像Img1_T2を用いる場合について説明する。   For convenience of explanation, a case where the second test image Img1_T2 shown in FIG. 9 is used as a test image will be described below.

補正部11は、3次元形状データ記憶部5から3次元形状データ3D_dataを読み出し、投影対象である傾斜天井平面CLの3次元座標データを取得する。そして、補正部11は、点P1、すなわち、投影軸Ax1と天井平面CLとの交点Pcの法線上の点P1から見た場合に、幾何的な歪みのない状態の画像となるように、取得した傾斜天井平面CLの3次元座標データを用いて、画像D1に対して補正処理を行う。そして、補正部11は、補正処理後の画像を画像D2として第2セレクタSEL2に出力する。   The correction unit 11 reads out the three-dimensional shape data 3D_data from the three-dimensional shape data storage unit 5 and acquires three-dimensional coordinate data of the inclined ceiling plane CL to be projected. Then, the correction unit 11 acquires the image so as to be an image without geometric distortion when viewed from the point P1, that is, the point P1 on the normal to the intersection Pc between the projection axis Ax1 and the ceiling plane CL. A correction process is performed on the image D1 using the three-dimensional coordinate data of the inclined ceiling plane CL thus obtained. Then, the correction unit 11 outputs the image after the correction processing to the second selector SEL2 as the image D2.

制御部は、第2セレクタSEL2の、図2に示す端子0を選択する選択信号sel2を生成し、第2セレクタSEL2に出力する。これにより、第2セレクタSEL2から、画像D2が、画像D3として、第3セレクタSEL3に出力される。   The control unit generates a selection signal sel2 for selecting the terminal 0 shown in FIG. 2 of the second selector SEL2, and outputs the signal to the second selector SEL2. Accordingly, the image D2 is output from the second selector SEL2 to the third selector SEL3 as the image D3.

制御部は、第3セレクタSEL3の、図2に示す端子0を選択する選択信号sel3を生成し、第3セレクタSEL3に出力する。これにより、第3セレクタSEL3から、画像D3が、画像D4として、第4セレクタSEL4に出力される。   The control unit generates a selection signal sel3 for selecting the terminal 0 shown in FIG. 2 of the third selector SEL3, and outputs the signal to the third selector SEL3. Thus, the image D3 is output from the third selector SEL3 to the fourth selector SEL4 as the image D4.

制御部は、第4セレクタSEL4の、図2に示す端子1を選択する選択信号sel4を生成し、第4セレクタSEL4に出力する。これにより、第4セレクタSEL4から、画像D4が、画像D5として、第5セレクタSEL5に出力される。   The control unit generates a selection signal sel4 for selecting the terminal 1 shown in FIG. 2 of the fourth selector SEL4, and outputs the signal to the fourth selector SEL4. Accordingly, the image D4 is output from the fourth selector SEL4 to the fifth selector SEL5 as the image D5.

制御部は、第5セレクタSEL5の、図2に示す端子1を選択する選択信号sel5を生成し、第5セレクタSEL5に出力する。これにより、第5セレクタSEL5から、画像D5が、画像Doutとして、投影部3に出力される。   The control unit generates a selection signal sel5 for selecting the terminal 1 shown in FIG. 2 of the fifth selector SEL5, and outputs the signal to the fifth selector SEL5. As a result, the image D5 is output from the fifth selector SEL5 to the projection unit 3 as the image Dout.

投影部3は、第5セレクタSEL5からの画像Doutを、図5に示す投影軸Ax1により、傾斜天井平面CLに投影する。なお、この状態を「状態3」とする。   The projection unit 3 projects the image Dout from the fifth selector SEL5 onto the inclined ceiling plane CL using the projection axis Ax1 shown in FIG. This state is referred to as “state 3”.

図10は、状態3における3次元空間を模式的に示した図である。具体的には、図10は、図9に示す第2テスト画像Img1_T2が傾斜天井平面CLに投影されている状態を模式的に示した図である。図10では、状態3において、ユーザーの視点Vpから見た第2テスト画像Img1_T2を画像Img1_T2(Vp)として示している。また、図10では、状態1において、点P1から見た第2テスト画像Img1_T2を画像Img1_T2(P1)として示している。   FIG. 10 is a diagram schematically illustrating the three-dimensional space in the state 3. Specifically, FIG. 10 is a diagram schematically illustrating a state where the second test image Img1_T2 illustrated in FIG. 9 is projected on the inclined ceiling plane CL. In FIG. 10, in state 3, the second test image Img1_T2 viewed from the user's viewpoint Vp is shown as an image Img1_T2 (Vp). In FIG. 10, in state 1, the second test image Img1_T2 viewed from the point P1 is shown as an image Img1_T2 (P1).

図10から、状態3において、ユーザーの視点Vpから見た第2テスト画像Img1_T2(Vp)には、幾何的な歪みが発生しているが、点P1から見た第2テスト画像Img1_T2(P1)には、幾何的な歪みが発生していない(幾何的な歪みがほぼ発生していない)ことが分かる。   From FIG. 10, in state 3, the second test image Img1_T2 (Vp) viewed from the user's viewpoint Vp has a geometric distortion, but the second test image Img1_T2 (P1) viewed from the point P1. Shows that no geometric distortion has occurred (geometric distortion has hardly occurred).

投影システム1000において、上記のようにして補正処理が実行された後、第2回転処理が実行される。   In the projection system 1000, after the correction processing is performed as described above, the second rotation processing is performed.

(1.2.5:第2回転処理)
次に、第2回転処理について、説明する。
(1.2.5: Second rotation process)
Next, the second rotation processing will be described.

図10に示した状態3において、ユーザーは、コントローラ200を操作することで、傾斜天井平面CLに投影されている画像Img1_T2を、点Pcを中心として、図10に矢印Dir2で示す方向に回転させ、画像Img1_T2の横中心線L1hが、ユーザーの視点Vpから見て水平な直線に見えるようにする。   In the state 3 shown in FIG. 10, the user operates the controller 200 to rotate the image Img1_T2 projected on the inclined ceiling plane CL about the point Pc in the direction indicated by the arrow Dir2 in FIG. , The horizontal center line L1h of the image Img1_T2 is viewed as a horizontal straight line when viewed from the user's viewpoint Vp.

この第2回転処理について、具体的に説明する。   This second rotation processing will be specifically described.

テスト画像記憶部2から、第2テスト画像Img1_T2が、第1セレクタSEL1に出力される。そして、制御部は、第1セレクタSEL1の、図2に示す端子0を選択する選択信号sel1を生成し、第1セレクタSEL1に出力する。これにより、第1セレクタSEL1から、第2テスト画像Img1_T2が、画像信号D1として、第1切替器SW1に出力される。   From the test image storage unit 2, the second test image Img1_T2 is output to the first selector SEL1. Then, the control unit generates a selection signal sel1 for selecting the terminal 0 shown in FIG. 2 of the first selector SEL1, and outputs the selection signal sel1 to the first selector SEL1. As a result, the second test image Img1_T2 is output from the first selector SEL1 to the first switch SW1 as the image signal D1.

制御部は、第1切替器SW1の、図2に示す端子1を選択する切替信号sw1を生成し、第1切替器SW1に出力する。これにより、第1切替器SW1から、第2テスト画像Img1_T2が、画像信号D1として、補正部11に出力される。   The control unit generates a switching signal sw1 for selecting the terminal 1 shown in FIG. 2 of the first switch SW1, and outputs the signal to the first switch SW1. Thereby, the second test image Img1_T2 is output from the first switch SW1 to the correction unit 11 as the image signal D1.

補正部11は、画像D1に対して、状態3で実行した処理と同じ補正処理を実行する。そして、補正部11は、補正処理後の画像を画像D2として第2セレクタSEL2に出力する。   The correction unit 11 performs the same correction processing as that performed in the state 3 on the image D1. Then, the correction unit 11 outputs the image after the correction processing to the second selector SEL2 as the image D2.

制御部は、第2セレクタSEL2の、図2に示す端子0を選択する選択信号sel2を生成し、第2セレクタSEL2に出力する。これにより、第2セレクタSEL2から、第2テスト画像Img1_T2が、画像信号D3として第2回転処理部14に出力される。   The control unit generates a selection signal sel2 for selecting the terminal 0 shown in FIG. 2 of the second selector SEL2, and outputs the signal to the second selector SEL2. Accordingly, the second test image Img1_T2 is output from the second selector SEL2 to the second rotation processing unit 14 as the image signal D3.

ユーザーは、コントローラ200を操作し、プロジェクター装置100に第2回転処理を実行させる。例えば、コントローラ200は、第2回転処理を行うためのボタンを2つ有しており、第1ボタン(一方のボタン)を1回押下することで、第2テスト画像Img1_T2を、傾斜天井平面CL内において、図10の方向Dir2の左方向に所定の角度だけ回転させる処理を実行し、第2ボタン(他方のボタン)を1回押下することで、第2テスト画像Img1_T2が、傾斜天井平面CL内において、図10の方向Dir2の右方向に所定の角度だけ回転させる処理を実行することができる。   The user operates the controller 200 to cause the projector device 100 to execute the second rotation process. For example, the controller 200 has two buttons for performing the second rotation processing, and pressing the first button (one of the buttons) once causes the second test image Img1_T2 to be displayed on the inclined ceiling plane CL. In FIG. 10, a process of rotating a predetermined angle in the left direction of the direction Dir2 in FIG. 10 is performed, and the second button (the other button) is pressed once, so that the second test image Img1_T2 becomes the inclined ceiling plane CL. , A process of rotating by a predetermined angle to the right of the direction Dir2 in FIG. 10 can be executed.

ここでは、第1ボタンが押下された場合について説明する。   Here, a case where the first button is pressed will be described.

コントローラ200の第1ボタンが1回押下されると、ユーザーインターフェース23は、第1ボタンが1回押下されたこと示す信号を発生させる。コントローラ200の制御部22は、ユーザーインターフェース23が発生させた信号に基づいて、第1ボタンが1回押下されたこと示す信号を、第2インターフェース21を介して、プロジェクター装置100の第1インターフェースに送信する。   When the first button of the controller 200 is pressed once, the user interface 23 generates a signal indicating that the first button is pressed once. The control unit 22 of the controller 200 transmits a signal indicating that the first button has been pressed once to the first interface of the projector device 100 via the second interface 21 based on the signal generated by the user interface 23. Send.

なお、コントローラ200は、ユーザーが手に持って操作できるものであり、コントローラ200とプロジェクター装置100とは、例えば、無線通信により、信号の送受信を行う。   Note that the controller 200 can be held and operated by a user, and the controller 200 and the projector device 100 transmit and receive signals by wireless communication, for example.

例えば、ユーザーは、図10に示す状態において、コントローラ200を手に持って、傾斜天井平面CLに投影されている画像Img1_T2を見ながら、コントローラ200を操作し、傾斜天井平面CLに投影されている画像Img1_T2を回転させる。   For example, in the state shown in FIG. 10, the user operates the controller 200 while holding the controller 200 in his hand and viewing the image Img1_T2 projected on the inclined ceiling plane CL, and the user is projected on the inclined ceiling plane CL. The image Img1_T2 is rotated.

プロジェクター装置100の第1インターフェースは、コントローラ200の第2インターフェースから送信された信号を受信し、受信した信号を信号Sig1として第2切替器12に出力する。   The first interface of the projector device 100 receives a signal transmitted from the second interface of the controller 200 and outputs the received signal to the second switch 12 as a signal Sig1.

第2切替器12は、制御部により生成された切替信号sw2に基づいて、図2に示す端子Bを選択し、信号Sig1を第2回転処理部14に出力する。   The second switch 12 selects the terminal B shown in FIG. 2 based on the switching signal sw2 generated by the control unit, and outputs the signal Sig1 to the second rotation processing unit 14.

第2回転処理部14は、信号Sig1と、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとに基づいて、第2セレクタSEL2から出力される画像D3に対して第2回転処理を実行する。
なお、第2回転処理部14は、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとを用いずに、信号Sig1に基づいて、、補正部11から出力される画像D3に対して第2回転処理を実行するようにしてもよい。この場合、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとは、第2回転処理部14に入力されなくてもよい。
The second rotation processing unit 14 performs a second rotation on the image D3 output from the second selector SEL2 based on the signal Sig1, the three-dimensional shape data 3D_data, and information P_prj on the projection point of the projection unit 3. Execute the process.
Note that the second rotation processing unit 14 does not use the three-dimensional shape data 3D_data and the information P_prj on the projection point of the projection unit 3 but outputs the image D3 output from the correction unit 11 based on the signal Sig1. On the other hand, the second rotation process may be executed. In this case, the three-dimensional shape data 3D_data and the information P_prj on the projection point of the projection unit 3 need not be input to the second rotation processing unit 14.

具体的には、第2回転処理部14は、点P1から傾斜天井平面CLを見たときに、傾斜天井平面CL内において、点Pcを中心として、画像Img1_T2が、図10に示す矢印Dir2の反時計回りの方向に、信号Sig1により決定される所定の角度だけ回転した画像となるように、画像D3に対して変換処理(第2回転処理)を行う。そして、第2回転処理部14は、処理後の画像を、画像D31(画像信号D31)として、第3セレクタSEL3に出力する。   Specifically, when viewing the inclined ceiling plane CL from the point P1, the second rotation processing unit 14 displays the image Img1_T2 around the point Pc in the inclined ceiling plane CL, as indicated by the arrow Dir2 in FIG. A conversion process (second rotation process) is performed on the image D3 so that the image is rotated in the counterclockwise direction by a predetermined angle determined by the signal Sig1. Then, the second rotation processing unit 14 outputs the processed image to the third selector SEL3 as an image D31 (image signal D31).

第3セレクタSEL3は、制御部により生成された選択信号sel3に基づいて、図2に示す端子1を選択し、画像D31を画像D4として、第4セレクタSEL4に出力する。   The third selector SEL3 selects the terminal 1 shown in FIG. 2 based on the selection signal sel3 generated by the control unit, and outputs the image D31 as the image D4 to the fourth selector SEL4.

第4セレクタSEL4は、制御部により生成された選択信号sel4に基づいて、図2に示す端子1を選択し、画像D4を、画像D5として、第5セレクタSEL5に出力する。   The fourth selector SEL4 selects the terminal 1 shown in FIG. 2 based on the selection signal sel4 generated by the control unit, and outputs the image D4 as the image D5 to the fifth selector SEL5.

第5セレクタSEL5は、制御部により生成された選択信号sel5に基づいて、図2に示す端子1を選択し、画像D5(=画像D31)を、画像Doutとして、投影部3に出力する。   The fifth selector SEL5 selects the terminal 1 shown in FIG. 2 based on the selection signal sel5 generated by the control unit, and outputs an image D5 (= image D31) to the projection unit 3 as an image Dout.

投影部3は、第5セレクタSEL5からの画像Dout(=画像D31)を、図10に示す投影軸Ax1により、傾斜天井平面CLに投影する。これにより、点P1から傾斜天井平面CLを見たときに、画像Img1_T2は、点Pcを中心として、所定の角度だけ方向Dir2に回転した画像となる。   The projection unit 3 projects the image Dout (= image D31) from the fifth selector SEL5 onto the inclined ceiling plane CL with the projection axis Ax1 shown in FIG. Thus, when the inclined ceiling plane CL is viewed from the point P1, the image Img1_T2 is an image rotated about the point Pc by a predetermined angle in the direction Dir2.

上記操作を繰り返すことで、画像Img1_T2の横中心線L1hが、ユーザーの視点Vpから見て水平な直線に見えるようにする。この状態、つまり、画像Img1_T2の横中心線L1hと、ユーザーの両眼を結ぶ直線とが平行である状態を「状態4」とする。   By repeating the above operation, the horizontal center line L1h of the image Img1_T2 is made to appear as a horizontal straight line when viewed from the user's viewpoint Vp. This state, that is, the state in which the horizontal center line L1h of the image Img1_T2 and the straight line connecting both eyes of the user are parallel is referred to as "state 4."

図11は、状態4における3次元空間を模式的に示した図である。   FIG. 11 is a diagram schematically illustrating the three-dimensional space in the state 4.

図11から、状態4において、テスト画像Img1_T1(Vp)の横中心線L1hが、ユーザーの視点Vpから見て水平な直線に見えることが分かる。   From FIG. 11, it can be seen that in state 4, the horizontal center line L1h of the test image Img1_T1 (Vp) looks like a horizontal straight line when viewed from the user's viewpoint Vp.

そして、第2回転処理部14は、状態4において、横中心線L1hを含む直線を特定するためのデータを取得し、保持する。横中心線L1hを含む直線を特定するためのデータとしては、例えば、(1)当該直線を規定する方程式(直線方程式)のデータや(2)当該直線に含まれる異なる2点の座標を特定するためのデータ等がある。   Then, in the state 4, the second rotation processing unit 14 acquires and holds data for specifying a straight line including the horizontal center line L1h. As data for specifying a straight line including the horizontal center line L1h, for example, (1) data of an equation (linear equation) defining the straight line or (2) coordinates of two different points included in the straight line are specified. There is data etc. for

そして、第2回転処理部14は、横中心線L1hを含む直線を特定するためのデータを含む検出信号をDet2として、視点特定処理部15に出力する。   Then, the second rotation processing unit 14 outputs a detection signal including data for specifying a straight line including the horizontal center line L1h to the viewpoint specification processing unit 15 as Det2.

投影システム1000において、上記のようにして第2回転処理が実行された後、視点特定処理が実行される。   In the projection system 1000, after the second rotation processing is executed as described above, the viewpoint specifying processing is executed.

(1.2.6:視点特定処理)
次に、視点特定処理について、説明する。
(1.2.6: viewpoint identification processing)
Next, the viewpoint specifying process will be described.

図12は、視点特定処理を説明するための図である。具体的には、図12は、状態4において、傾斜天井平面CLに投影されているテスト画像Img1_T2(Img1_T2(Vp))と、状態2において、傾斜天井平面CLに投影されているテスト画像Img1_T1(Img1_T1(Vp))とを重畳して示した図である。   FIG. 12 is a diagram for explaining the viewpoint specifying process. Specifically, FIG. 12 shows a test image Img1_T2 (Img1_T2 (Vp)) projected on the inclined ceiling plane CL in the state 4 and a test image Img1_T1 (Img1_T1 (Img1_T2 (Vp)) projected on the inclined ceiling plane CL in the state 2 FIG. 2 is a diagram in which Img1_T1 (Vp)) is superimposed.

なお、図12に示した状態を、「状態4A」とする。   The state illustrated in FIG. 12 is referred to as “state 4A”.

また、図12では、視点の候補点を示す視点候補曲線Vp_cand_crvを図示している。   FIG. 12 illustrates a viewpoint candidate curve Vp_cand_crv indicating a viewpoint candidate point.

視点候補取得部151の交点算出部1511は、第1回転処理部13から出力される検出信号Det1から、第1直線のデータを取得し、状態4Aにおける縦中心線L1vを含む直線上(第1直線上)の点Paの座標データData(Pa)を取得する。   The intersection calculation unit 1511 of the viewpoint candidate acquisition unit 151 acquires the data of the first straight line from the detection signal Det1 output from the first rotation processing unit 13, and obtains the data on the straight line including the vertical center line L1v in the state 4A (first The coordinate data Data (Pa) of the point Pa on the straight line) is obtained.

また、交点算出部1511は、第2回転処理部14から出力される検出信号Det2から、第2直線のデータを取得し、状態4Aにおける横中心線L1hを含む直線上(第2直線上)の点Pbの座標データData(Pb)を取得する。   In addition, the intersection calculation unit 1511 acquires data of the second straight line from the detection signal Det2 output from the second rotation processing unit 14, and obtains data on a straight line (on the second straight line) including the horizontal center line L1h in the state 4A. The coordinate data Data (Pb) of the point Pb is obtained.

また、交点算出部1511は、第1直線と第2直線の交点Pcの座標データData(Pc)を取得する。例えば、交点算出部1511は、第1直線の直線方程式と、第2直線の直線方程式とを求め、求めた第1直線の直線方程式と、第2直線の直線方程式とから、算出により、第1直線と第2直線の交点Pcの座標データData(Pc)(=(cx,cy,cz))を取得する。   In addition, the intersection calculation unit 1511 obtains coordinate data Data (Pc) of the intersection Pc of the first straight line and the second straight line. For example, the intersection calculating unit 1511 obtains a straight line equation of the first straight line and a straight line equation of the second straight line, and calculates the first straight line equation and the straight line equation of the second straight line from the obtained straight line equation. The coordinate data Data (Pc) (= (cx, cy, cz)) of the intersection Pc of the straight line and the second straight line is obtained.

なお、交点算出部1511は、図5に示したx軸、y軸、z軸で規定されるxyz空間における点Pa、点Pb、点Pcの座標データを、以下のデータとして取得するものとする。
Data(Pa)=(ax,ay,az)
Data(Pb)=(bx,by,bz)
Data(Pc)=(cx,cy,cz)
交点算出部1511は、取得した点PaのデータData(Pa)と、取得した点PbのデータData(Pb)と、を係数算出部1512に出力する。
The intersection calculation unit 1511 acquires coordinate data of the points Pa, Pb, and Pc in the xyz space defined by the x-axis, the y-axis, and the z-axis illustrated in FIG. 5 as the following data. .
Data (Pa) = (ax, ay, az)
Data (Pb) = (bx, by, bz)
Data (Pc) = (cx, cy, cz)
The intersection calculation unit 1511 outputs the obtained data Data (Pa) of the point Pa and the obtained data Data (Pb) of the point Pb to the coefficient calculation unit 1512.

係数算出部1512は、点PaのデータData(Pa)と、点PbのデータData(Pb)とから、
A=−ax×by+ay×bx
B=−ax×bz+az×bx
C=−az×by+ay×bz
に相当する処理を実行し、係数A、B、Cを取得する。
The coefficient calculation unit 1512 calculates the data Data (Pa) of the point Pa and the data Data (Pb) of the point Pb from
A = −ax × by + ay × bx
B = −ax × bz + az × bx
C = -az × by + ay × bz
Is performed, and coefficients A, B, and C are obtained.

そして、係数算出部1512は、取得した係数A、B、Cについての情報(データ)を、変換行列取得部1513に出力する。   Then, the coefficient calculation unit 1512 outputs information (data) on the obtained coefficients A, B, and C to the transformation matrix acquisition unit 1513.

変換行列取得部1513は、係数A、B、Cと、点PaのデータData(Pa)とを用いて、以下の数式に相当する処理を実行することで、変換行列Rx、Ry、Rzを取得する。

Figure 0006624942
Figure 0006624942
Figure 0006624942
そして、変換行列取得部1513は、取得した変換行列Rx、Ry、Rzについてのデータを、変換行列合成部1514に出力する。 The transformation matrix acquisition unit 1513 acquires the transformation matrices Rx, Ry, and Rz by executing a process corresponding to the following equation using the coefficients A, B, and C and the data Pa (Pa) of the point Pa. I do.
Figure 0006624942
Figure 0006624942
Figure 0006624942
Then, the transformation matrix acquisition unit 1513 outputs the data on the acquired transformation matrices Rx, Ry, and Rz to the transformation matrix synthesis unit 1514.

変換行列合成部1514は、変換行列Rx、Ry、Rzから、
R=Rz・Ry・Rx
に相当する処理(行列の合成処理)を行い、合成行列Rを取得する。
The transformation matrix synthesizing unit 1514 calculates, from the transformation matrices Rx, Ry, Rz,
R = Rz ・ Ry ・ Rx
(Matrix combining process) to obtain a combined matrix R.

そして、変換行列合成部1514は、取得した合成行列Rについてのデータを、逆変換行列取得部1515と、変換部1516とに、出力する。   Then, transformation matrix combination section 1514 outputs the acquired data on combination matrix R to inverse transformation matrix acquisition section 1515 and conversion section 1516.

逆変換行列取得部1515は、合成行列Rから、逆変換行列R−1を取得し、取得した逆変換行列R−1についてのデータを視点候補点算出部1519に出力する。 The inverse transformation matrix acquisition unit 1515 acquires the inverse transformation matrix R- 1 from the synthesis matrix R, and outputs data on the acquired inverse transformation matrix R- 1 to the viewpoint candidate point calculation unit 1519.

変換部1516は、合成行列Rと、点PbのデータData(Pb)とを用いて、以下の数式に相当する処理を実行することで、点Pb’についてのデータ(座標データ)を取得する。

Figure 0006624942
そして、変換部1516は、取得した点Pb’についてのデータData(Pb’)(=(bx’,by’,bz’))を、係数取得部1517と、視点候補点算出部1519とに出力する。 The conversion unit 1516 obtains data (coordinate data) for the point Pb ′ by executing a process corresponding to the following equation using the composite matrix R and the data Data (Pb) of the point Pb.
Figure 0006624942
Then, the conversion unit 1516 outputs the data Data (Pb ′) (= (bx ′, by ′, bz ′)) for the acquired point Pb ′ to the coefficient acquisition unit 1517 and the viewpoint candidate point calculation unit 1519. I do.

角度取得部1518は、第1インターフェース6から出力される信号Sig1を入力し、信号Sig1に基づいて、角度θを取得する。角度取得部1518は、例えば、信号Sig1が入力された場合、信号Sig1の信号値に基づいて、角度θが、信号Sigが入力される前に設定されていた角度から、所定の角度だけ変化するように角度θを変化させる。   The angle acquisition unit 1518 receives the signal Sig1 output from the first interface 6, and acquires the angle θ based on the signal Sig1. For example, when the signal Sig1 is input, the angle acquisition unit 1518 changes the angle θ by a predetermined angle from the angle set before the signal Sig is input, based on the signal value of the signal Sig1. Is changed as follows.

そして、角度取得部1518は、取得した角度θについてのデータを、係数取得部1517と、視点候補点算出部1519とに出力する。   Then, the angle acquisition unit 1518 outputs the data on the acquired angle θ to the coefficient acquisition unit 1517 and the viewpoint candidate point calculation unit 1519.

係数取得部1517は、データData(Pb’)と、角度θと、に基づいて、係数A’を、以下の数式に相当する処理により取得する。

Figure 0006624942
そして、係数取得部1517は、取得した係数A’についてのデータを、視点候補点算出部1519に出力する。 The coefficient obtaining unit 1517 obtains a coefficient A ′ based on the data Data (Pb ′) and the angle θ by a process corresponding to the following equation.
Figure 0006624942
Then, the coefficient acquiring unit 1517 outputs data on the acquired coefficient A ′ to the viewpoint candidate point calculating unit 1519.

視点候補点算出部1519は、データData(Pc)と、角度θと、係数A’と、データData(Pb’)と、逆変換行列R−1とに基づいて、以下の数式に相当する処理を実行することで、視点候補点の座標データVp_cand(=(x,y,z))を取得する。
(1)by’>0のとき(−π/2<θ<0)

Figure 0006624942
(2)by’≦0のとき(0<θ<π/2)
Figure 0006624942
そして、視点候補点算出部1519は、上記処理により取得した視点候補点の座標データVp_cand(=(x,y,z))を投影画像取得部152に出力する。 Based on the data Data (Pc), the angle θ, the coefficient A ′, the data Data (Pb ′), and the inverse transformation matrix R- 1 , the viewpoint candidate point calculation unit 1519 performs a process corresponding to the following equation. Is executed, coordinate data Vp_cand (= (x, y, z)) of the viewpoint candidate point is obtained.
(1) When by '> 0 (−π / 2 <θ <0)
Figure 0006624942
(2) When by '≦ 0 (0 <θ <π / 2)
Figure 0006624942
Then, the viewpoint candidate point calculation unit 1519 outputs the coordinate data Vp_cand (= (x, y, z)) of the viewpoint candidate point acquired by the above processing to the projection image acquisition unit 152.

上記のようにして、投影システム1000では、視点特定処理が実行される。   As described above, in the projection system 1000, the viewpoint specifying process is executed.

図13に、テスト画像Img1の一例である第3テスト画像Img1_T3を示す。第3テスト画像Img1_T3は、視点特定処理に用いられる画像である。   FIG. 13 shows a third test image Img1_T3 which is an example of the test image Img1. The third test image Img1_T3 is an image used for the viewpoint specification processing.

図13に示すように、第3テスト画像Img1_T3は、長方形の画像である。そして、第3テスト画像Img1_T3は、図13に示すように、画像の横方向(水平方向)の中央において縦方向(垂直方向)に延びる縦中心線L1vaを有し、画像の上部に水平方向(横方向)に引かれた線L2haを有し、画像の中心点に円C1を有するパターンの画像である。また、第3テスト画像Img1_T3は、図13に示すように、画像の縦方向(垂直方向)の中央において横方向(水平方向)に延びる横中心線L1haを有している。   As shown in FIG. 13, the third test image Img1_T3 is a rectangular image. The third test image Img1_T3 has a vertical center line L1va extending in the vertical direction (vertical direction) at the center in the horizontal direction (horizontal direction) of the image, as shown in FIG. This is an image of a pattern having a line L2ha drawn in the horizontal direction) and having a circle C1 at the center of the image. Further, the third test image Img1_T3 has a horizontal center line L1ha extending in the horizontal direction (horizontal direction) at the center in the vertical direction (vertical direction) of the image, as shown in FIG.

図13に示す第3テスト画像Img1_T3は、線L1vaと線L2haとの交点が存在する部分が画像の上部である。   In the third test image Img1_T3 illustrated in FIG. 13, a portion where the intersection between the line L1va and the line L2ha exists is the upper part of the image.

さらに、第3テスト画像Img1_T3は、図13に示すように、白地の正方形のパターンである第1格子パターンと、黒地の正方形のパターンである第2格子パターンとが、画像上の水平方向、および、画像上の垂直方向において、交互に配置されることで形成される格子状パターンを有している。   Further, as shown in FIG. 13, the third test image Img1_T3 includes a first lattice pattern, which is a white square pattern, and a second lattice pattern, which is a black square pattern, in the horizontal direction on the image, and Has a lattice pattern formed by being alternately arranged in the vertical direction on the image.

なお、図13に示す第3テスト画像Img1_T3は、一例であり、視点特定処理に用いられる画像は、投影したときに、ユーザーにより、画像の歪を認識できる画像であれば、他の画像であってもよい。   Note that the third test image Img1_T3 illustrated in FIG. 13 is an example, and the image used for the viewpoint specification processing is another image as long as the image can be recognized by the user when projected. You may.

投影システム1000では、視点特定処理を実行する場合、第3テスト画像Img1_T3が、テスト画像記憶部2から、投影画像調整部1の第1セレクタSEL1に出力される。   In the projection system 1000, when performing the viewpoint identification processing, the third test image Img1_T3 is output from the test image storage unit 2 to the first selector SEL1 of the projection image adjustment unit 1.

そして、第1セレクタで端子0を選択し、第1切替器SW1で端子0を選択することで、第3テスト画像Img1_T3は、視点特定処理部15に入力される。   Then, the terminal 0 is selected by the first selector, and the terminal 0 is selected by the first switch SW1, so that the third test image Img1_T3 is input to the viewpoint specification processing unit 15.

視点特定処理部15の投影画像取得部152は、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとに基づいて、入力される第3テスト画像Img1_T3を、座標データVp_cand(=(x,y,z))により特定される視点候補点から見たときに、幾何的な歪みが発生しない画像に変換する。そして、投影画像取得部152は、変換した画像を画像D41(画像信号D41)として、第4セレクタSEL4に出力する。   The projection image acquisition unit 152 of the viewpoint specification processing unit 15 converts the input third test image Img1_T3 based on the three-dimensional shape data 3D_data and information P_prj on the projection point of the projection unit 3 into coordinate data Vp_cand (= When viewed from the viewpoint candidate point specified by (x, y, z)), the image is converted into an image in which geometric distortion does not occur. Then, the projection image acquisition unit 152 outputs the converted image to the fourth selector SEL4 as an image D41 (image signal D41).

そして、画像D41は、第5セレクタSEL5から投影部3に、画像Doutとして出力される。   Then, the image D41 is output from the fifth selector SEL5 to the projection unit 3 as an image Dout.

投影部3は、画像Dout(画像D41)を傾斜天井CLに投影する。   The projection unit 3 projects the image Dout (image D41) on the inclined ceiling CL.

ユーザーは、傾斜天井CLに投影されている第3テスト画像Img1_T3の歪度合いが小さくなるように、コントローラ200を操作する。   The user operates the controller 200 such that the degree of distortion of the third test image Img1_T3 projected on the inclined ceiling CL is reduced.

ユーザーのコントローラ200の操作に応じて、投影システム1000では、上記の視点特定処理が繰り返し実行される。   In accordance with the operation of the controller 200 by the user, the projection system 1000 repeatedly executes the above-described viewpoint specifying processing.

図12において、N回目(N:自然数)の視点特定処理により、特定された視点候補点をVp_cand(N)として示しており、N+1回目の視点特定処理により、特定された視点候補点をVp_cand(N+1)として示している。なお、点Pcと、ユーザーの視点Vpとを結ぶ直線上に、視点候補点Vp_cand(N+1)が存在するものとする。   In FIG. 12, the viewpoint candidate points specified by the Nth (N: natural number) viewpoint specification process are indicated as Vp_cand (N), and the viewpoint candidate points specified by the (N + 1) th viewpoint specification process are represented by Vp_cand (N). N + 1). It is assumed that a viewpoint candidate point Vp_cand (N + 1) exists on a straight line connecting the point Pc and the user's viewpoint Vp.

ユーザーがコントローラ200を操作し、N+1回目の視点特定処理が実行されることで、視点候補点がVp_cand(N+1)となり、ユーザーの視点Vpから見たときに、幾何的な歪みのない画像が、傾斜天井CLに投影される。   When the user operates the controller 200 to execute the (N + 1) th viewpoint specifying process, the viewpoint candidate point becomes Vp_cand (N + 1), and when viewed from the user's viewpoint Vp, an image without geometric distortion is obtained. It is projected on the inclined ceiling CL.

図14は、投影システム1000により、N+1回目の視点特定処理が実行され、視点候補点がVp_cand(N+1)に特定された場合において、第3テスト画像Img1_T3が傾斜天井CLに投影されているときの状態(この状態を「状態5」という)を示す図である。   FIG. 14 illustrates a case where the projection system 1000 performs the (N + 1) th viewpoint specifying process and specifies a viewpoint candidate point as Vp_cand (N + 1), and the third test image Img1_T3 is projected on the inclined ceiling CL. It is a figure which shows a state (this state is called "state 5").

図14から分かるように、点Pcとユーザーの視点Vpとを結ぶ直線上に、視点候補点Vp_cand(N+1)が存在するので、状態5において、ユーザーから見たときに、第3テスト画像Img1_T3は、幾何的な歪のない画像として認識される。 As can be seen from FIG. 14, since the viewpoint candidate point Vp_cand (N + 1) exists on the straight line connecting the point Pc and the user's viewpoint Vp, when viewed from the user in state 5, the third test image Img1_T3 is Is recognized as an image without geometric distortion.

以上のようにして、投影システム1000では、視点特定処理が実行され、ユーザーの視点Vpから見たときに幾何的な歪みのない画像(幾何的な歪みの低減された画像)を、傾斜天井平面CLに投影することができる。   As described above, in the projection system 1000, the viewpoint specifying process is executed, and an image without geometric distortion (an image with reduced geometric distortion) when viewed from the user's viewpoint Vp is converted into a tilted ceiling plane. CL can be projected.

ユーザーは、傾斜天井平面CLに投影されている画像の幾何的な歪みが十分低減されている状態(状態5)を確認し、プロジェクター装置100における調整処理(画像の幾何的な歪みを低減させるための調整処理)を終了させる。例えば、ユーザーは、コントローラ200を操作して、プロジェクター装置100における調整処理(画像の幾何的な歪みを低減させるための調整処理)を終了させる。   The user confirms that the geometric distortion of the image projected on the inclined ceiling plane CL is sufficiently reduced (state 5), and adjusts the image in the projector device 100 (to reduce the geometric distortion of the image). Adjustment process). For example, the user operates the controller 200 to end the adjustment processing (adjustment processing for reducing geometric distortion of an image) in the projector device 100.

プロジェクター装置100は、上記プロジェクター装置100における調整処理(画像の幾何的な歪みを低減させるための調整処理)を終了させるための信号を、コントローラ200から受信する。   The projector device 100 receives from the controller 200 a signal for ending the adjustment process (adjustment process for reducing geometric distortion of an image) in the projector device 100.

プロジェクター装置100は、コントローラ200から上記信号を受信した場合、現在の設定により、画像が傾斜天井CLに投影されるようにする。   When receiving the above signal from the controller 200, the projector device 100 causes the image to be projected on the inclined ceiling CL according to the current setting.

そして、プロジェクター装置100は、画像信号(あるいは、映像信号)Dinを表示(投影)するモードに切り替えられた場合、第1セレクタSEL1において、端子1が選択されるようにし、さらに、第1切替器SW1において、端子0が選択されるようにして、画像信号Dinを、視点特定処理部15に出力する。そして、視点特定処理部15では、ユーザーの視点Vp(点Vp_cand(N+1))から見たときに幾何的な歪の発生しない画像Dinを画像に変換し、変換した画像を、画像D41として、第4セレクタSEL4に出力する。   Then, when the mode is switched to the mode of displaying (projecting) the image signal (or video signal) Din, the projector device 100 causes the first selector SEL1 to select the terminal 1 and further sets the first switch In SW <b> 1, the image signal Din is output to the viewpoint specification processing unit 15 so that the terminal 0 is selected. Then, the viewpoint identification processing unit 15 converts the image Din in which no geometric distortion occurs when viewed from the user's viewpoint Vp (point Vp_cand (N + 1)) into an image, and sets the converted image as an image D41. 4 selector SEL4.

プロジェクター装置100は、第4セレクタSEL4において端子0が、第5セレクタにおいて端子1が、それぞれ、選択されるようにする。これにより、画像D41が画像Doutとして、投影部3に出力される。   The projector device 100 is configured to select the terminal 0 in the fourth selector SEL4 and the terminal 1 in the fifth selector, respectively. As a result, the image D41 is output to the projection unit 3 as the image Dout.

そして、プロジェクター装置100の投影部3より、画像Dout(画像D41)が、傾斜天井CLに投影される。   Then, the image Dout (image D41) is projected onto the inclined ceiling CL by the projection unit 3 of the projector device 100.

これにより、プロジェクター装置100に入力された画像Din(あるいは、映像Din)が、傾斜天井平面CLに投影された画像(映像)は、ユーザーの視点Vpから見たときに幾何的な歪みのない(低減された)画像(映像)となる。   Thereby, the image (video) in which the image Din (or video Din) input to the projector device 100 is projected on the inclined ceiling plane CL has no geometric distortion when viewed from the user's viewpoint Vp ( (Reduced) image (video).

以上のように、投影システム1000では、表示したときの上部が分かるテスト画像を傾斜天井平面CLに投影し、ユーザーがコントローラ200により、以下の(1)〜(3)の処理をプロジェクター装置100に実行させることで、傾斜天井平面CLに投影されている画像の幾何的な歪みをなくす(低減させる)ことができる。
(1)傾斜天井平面CL内で投影画像を、ユーザーから見たときに、第1テスト画像Img1_T1の縦中心線L1vが垂直に見えるように回転させる処理(第1回転処理)。
(2)傾斜天井平面CL内で投影画像を、ユーザーから見たときに、第2テスト画像Img1_T2の横中心線L1hが水平に見えるように回転させる処理(第2回転処理)。
(3)第1回転処理の完了後において、傾斜天井CLに投影されている第1テスト画像Img1_T1の縦中心線L1vを含む第1直線と、第2回転処理の完了後において、傾斜天井CLに投影されている第2テスト画像Img1_T2の横中心線L1hを含む第2直線と、に基づいて、視点候補点を特定し、特定した視点候補点から見たときに、幾何的な歪のない画像を生成し、当該画像を投影する処理(視点特定処理)。
As described above, the projection system 1000 projects the test image showing the upper part when displayed on the inclined ceiling plane CL, and the user performs the following processes (1) to (3) on the projector device 100 by the controller 200. The execution can eliminate (reduce) the geometric distortion of the image projected on the inclined ceiling plane CL.
(1) A process of rotating the projection image in the inclined ceiling plane CL so that the vertical center line L1v of the first test image Img1_T1 looks vertical when viewed from the user (first rotation process).
(2) A process of rotating the projected image in the inclined ceiling plane CL such that the horizontal center line L1h of the second test image Img1_T2 looks horizontal when viewed from the user (second rotation process).
(3) After the completion of the first rotation processing, the first straight line including the vertical center line L1v of the first test image Img1_T1 projected on the inclined ceiling CL and the inclined ceiling CL after the completion of the second rotation processing. A viewpoint candidate point is specified based on a second straight line including the horizontal center line L1h of the projected second test image Img1_T2, and an image without geometric distortion when viewed from the specified viewpoint candidate point. Is generated, and the image is projected (viewpoint specifying process).

したがって、投影システム1000では、撮影機能を有する機器を用いることなく、傾斜投影面(例えば、傾斜天井)に投影された画像の幾何的な歪みを、容易かつ適切に、なくす(低減させる)ことができる。   Therefore, in the projection system 1000, it is possible to easily and appropriately eliminate (reduce) geometric distortion of an image projected on an inclined projection surface (for example, an inclined ceiling) without using a device having a photographing function. it can.

<1.3:投影方法>
次に、投影システム1000で実行される投影方法について、説明する。
<1.3: Projection method>
Next, a projection method executed by the projection system 1000 will be described.

図15は、投影システム1000で実行される投影方法のフローチャートを示す図である。   FIG. 15 is a diagram illustrating a flowchart of the projection method executed by the projection system 1000.

図16は、投影システム1000で実行される投影方法の視点特定処理のフローチャートを示す図である。   FIG. 16 is a diagram illustrating a flowchart of the viewpoint identification processing of the projection method executed by the projection system 1000.

以下では、図15、図16のフローチャートを参照しながら、投影システム1000で実行される投影方法について、説明する。   Hereinafter, the projection method executed by the projection system 1000 will be described with reference to the flowcharts of FIGS.

(ステップS1):
ステップS1において、投影システム1000では、第1回転処理が実行される。
(Step S1):
In step S1, the projection system 1000 executes a first rotation process.

第1回転処理は、上記「(1.2.3:第1回転処理)」で説明した処理と同様の処理である。   The first rotation process is the same as the process described in “(1.2.3: First rotation process)”.

第1回転処理では、プロジェクター装置100により、例えば、図6に示す第1テスト画像Img1_T1が傾斜天井CLに投影される。   In the first rotation process, for example, the first test image Img1_T1 illustrated in FIG. 6 is projected onto the inclined ceiling CL by the projector device 100.

そして、ユーザーは、傾斜天井CLに投影されている第1テスト画像Img1_T1において、縦中心線L1vが垂直な直線に見えるようになるまで、コントローラ200を操作する。   Then, the user operates the controller 200 until the vertical center line L1v looks like a vertical straight line in the first test image Img1_T1 projected on the inclined ceiling CL.

(ステップS2):
ステップS2において、投影システム1000では、第2回転処理が実行される。
(Step S2):
In step S2, the projection system 1000 performs a second rotation process.

第2回転処理は、上記「(1.2.5:第2回転処理)」で説明した処理と同様の処理である。   The second rotation process is a process similar to the process described in “(1.2.5: Second rotation process)”.

第2回転処理では、プロジェクター装置100により、例えば、図9に示す第2テスト画像Img1_T2が傾斜天井CLに投影される。   In the second rotation process, for example, the second test image Img1_T2 illustrated in FIG. 9 is projected on the inclined ceiling CL by the projector device 100.

そして、ユーザーは、傾斜天井CLに投影されている第2テスト画像Img1_T2において、横中心線L1hが水平な直線に見えるようになるまで、コントローラ200を操作する。   Then, the user operates the controller 200 until the horizontal center line L1h looks like a horizontal straight line in the second test image Img1_T2 projected on the inclined ceiling CL.

(ステップS3):
ステップS3において、投影システム1000では、視点特定処理が実行される。
(Step S3):
In step S3, the projection system 1000 performs a viewpoint specifying process.

視点特定処理は、上記「(1.2.6:視点特定処理)」で説明した処理と同様の処理である。   The viewpoint specifying process is a process similar to the process described in “(1.2.6: viewpoint specifying process)”.

(ステップS301):
ステップS301において、視点候補取得部151の交点算出部1511は、第1回転処理部13から出力される検出信号Det1から、第1直線のデータを取得し、状態4Aにおける縦中心線L1vを含む直線上(第1直線上)の点Paの座標データData(Pa)(=(ax,ay,az))を取得する。
(Step S301):
In step S301, the intersection calculation unit 1511 of the viewpoint candidate acquisition unit 151 acquires the data of the first straight line from the detection signal Det1 output from the first rotation processing unit 13, and obtains the straight line including the vertical center line L1v in the state 4A. The coordinate data Data (Pa) (= (ax, ay, az)) of the upper (first straight line) point Pa is acquired.

また、交点算出部1511は、第2回転処理部14から出力される検出信号Det2から、第2直線のデータを取得し、状態4Aにおける横中心線L1hを含む直線上(第2直線上)の点Pbの座標データData(Pb)(=(bx,by,bz))を取得する。   In addition, the intersection calculation unit 1511 acquires data of the second straight line from the detection signal Det2 output from the second rotation processing unit 14, and obtains data on a straight line (on the second straight line) including the horizontal center line L1h in the state 4A. The coordinate data Data (Pb) (= (bx, by, bz)) of the point Pb is acquired.

(ステップS302):
ステップS302において、交点算出部1511は、第1直線と第2直線の交点Pcの座標データData(Pc)(=(cx,cy,cz))を取得する。例えば、交点算出部1511は、第1直線の直線方程式と、第2直線の直線方程式とを求め、求めた第1直線の直線方程式と、第2直線の直線方程式とから、算出により、第1直線と第2直線の交点Pcの座標データData(Pc)(=(cx,cy,cz))を取得する。
(Step S302):
In step S302, the intersection calculation unit 1511 acquires the coordinate data Data (Pc) (= (cx, cy, cz)) of the intersection Pc of the first straight line and the second straight line. For example, the intersection calculating unit 1511 obtains a straight line equation of the first straight line and a straight line equation of the second straight line, and calculates the first straight line equation and the straight line equation of the second straight line from the obtained straight line equation. The coordinate data Data (Pc) (= (cx, cy, cz)) of the intersection Pc of the straight line and the second straight line is obtained.

なお、交点算出部1511は、図5に示したx軸、y軸、z軸で規定されるxyz空間における点Pa、点Pb、点Pcの座標データを、以下のデータとして取得するものとする。
Data(Pa)=(ax,ay,az)
Data(Pb)=(bx,by,bz)
Data(Pc)=(cx,cy,cz)
(ステップS303):
ステップS303において、係数算出部1512は、点PaのデータData(Pa)と、点PbのデータData(Pb)とから、
A=−ax×by+ay×bx
B=−ax×bz+az×bx
C=−az×by+ay×bz
に相当する処理を実行し、係数A、B、Cを取得する。
The intersection calculation unit 1511 acquires coordinate data of the points Pa, Pb, and Pc in the xyz space defined by the x-axis, the y-axis, and the z-axis illustrated in FIG. 5 as the following data. .
Data (Pa) = (ax, ay, az)
Data (Pb) = (bx, by, bz)
Data (Pc) = (cx, cy, cz)
(Step S303):
In step S303, the coefficient calculation unit 1512 calculates the data Data (Pa) of the point Pa and the data Data (Pb) of the point Pb from
A = −ax × by + ay × bx
B = −ax × bz + az × bx
C = -az × by + ay × bz
Is performed, and coefficients A, B, and C are obtained.

(ステップS304):
ステップS304において、変換行列取得部1513は、係数A、B、Cと、点PaのデータData(Pa)とを用いて、以下の数式に相当する処理を実行することで、変換行列Rx、Ry、Rzを取得する。

Figure 0006624942
Figure 0006624942
Figure 0006624942
(ステップS305):
ステップS305において、変換行列合成部1514は、変換行列Rx、Ry、Rzから、
R=Rz・Ry・Rx
に相当する処理(行列の合成処理)を行い、合成行列Rを取得する。 (Step S304):
In step S304, the conversion matrix acquisition unit 1513 performs a process corresponding to the following equation using the coefficients A, B, and C and the data Data (Pa) of the point Pa, thereby obtaining the conversion matrices Rx and Ry. , Rz.
Figure 0006624942
Figure 0006624942
Figure 0006624942
(Step S305):
In step S305, the transformation matrix synthesizing unit 1514 uses the transformation matrices Rx, Ry, and Rz to calculate
R = Rz ・ Ry ・ Rx
(Matrix combining process) to obtain a combined matrix R.

(ステップS306):
ステップS306において、逆変換行列取得部1515は、合成行列Rから、逆変換行列R−1を取得する。
(Step S306):
In step S306, the inverse transformation matrix acquisition unit 1515 acquires the inverse transformation matrix R- 1 from the composite matrix R.

(ステップS307):
ステップS307において、変換部1516は、合成行列Rと、点PaのデータData(Pb)とを用いて、以下の数式に相当する処理を実行することで、点Pb’についてのデータ(座標データ)を取得する。

Figure 0006624942
(ステップS308):
ステップS308において、角度取得部1518は、第1インターフェース6から出力される信号Sig1を入力し、信号Sig1に基づいて、角度θを取得する。角度取得部1518は、例えば、信号Sig1が入力された場合、信号Sig1の信号値に基づいて、角度θが、信号Sigが入力される前に設定されていた角度から、所定の角度だけ変化するように角度θを変化させる。 (Step S307):
In step S307, the conversion unit 1516 performs a process corresponding to the following equation using the composite matrix R and the data Data (Pb) of the point Pa, thereby obtaining data (coordinate data) for the point Pb ′. To get.
Figure 0006624942
(Step S308):
In step S308, the angle acquisition unit 1518 receives the signal Sig1 output from the first interface 6, and acquires the angle θ based on the signal Sig1. For example, when the signal Sig1 is input, the angle acquisition unit 1518 changes the angle θ by a predetermined angle from the angle set before the signal Sig is input, based on the signal value of the signal Sig1. Is changed as follows.

係数取得部1517は、データData(Pb’)と、角度θと、に基づいて、係数A’を、以下の数式に相当する処理により取得する。

Figure 0006624942
(ステップS309):
ステップS309において、視点候補点算出部1519は、データData(Pc)と、角度θと、係数A’と、データData(Pb’)と、逆変換行列R−1とに基づいて、以下の数式に相当する処理を実行することで、視点候補点の座標データVp_cand(=(x,y,z))を取得する。
(1)by’>0のとき(−π/2<θ<0)
Figure 0006624942
(2)by’≦0のとき(0<θ<π/2)
Figure 0006624942
(ステップS310):
ステップS310において、投影画像取得部152は、3次元形状データ3D_dataと、投影部3の投影点についての情報P_prjとに基づいて、入力される第3テスト画像Img1_T3を、座標データVp_cand(=(x,y,z))により特定される視点候補点から見たときに、幾何的な歪みが発生しない画像に変換する。 The coefficient obtaining unit 1517 obtains a coefficient A ′ based on the data Data (Pb ′) and the angle θ by a process corresponding to the following equation.
Figure 0006624942
(Step S309):
In step S309, the viewpoint candidate point calculation unit 1519 calculates the following formula based on the data Data (Pc), the angle θ, the coefficient A ′, the data Data (Pb ′), and the inverse transformation matrix R −1. By executing the processing corresponding to the above, coordinate data Vp_cand (= (x, y, z)) of the viewpoint candidate point is obtained.
(1) When by '> 0 (−π / 2 <θ <0)
Figure 0006624942
(2) When by '≦ 0 (0 <θ <π / 2)
Figure 0006624942
(Step S310):
In step S310, the projection image acquisition unit 152 converts the input third test image Img1_T3 into coordinate data Vp_cand (= (x) based on the three-dimensional shape data 3D_data and the information P_prj about the projection points of the projection unit 3. , Y, z)), the image is converted into an image in which no geometric distortion occurs when viewed from the viewpoint candidate point specified by the viewpoint.

(ステップS311):
ステップS311において、投影部3は、ステップS310で取得された画像(画像Dout(画像D41))を傾斜天井CLに投影する。
(Step S311):
In step S311, the projection unit 3 projects the image (image Dout (image D41)) acquired in step S310 on the inclined ceiling CL.

(ステップS312):
ステップS312において、ユーザーは、傾斜天井CLに投影されている第3テスト画像Img1_T3の歪度合いがない(十分小さい)か否かを判断する。
(Step S312):
In step S312, the user determines whether or not the third test image Img1_T3 projected on the inclined ceiling CL has a degree of distortion (sufficiently small).

そして、傾斜天井CLに投影されている第3テスト画像Img1_T3の歪度合いが十分小さくないと判断された場合、処理を、ステップS301に戻す。一方、傾斜天井CLに投影されている第3テスト画像Img1_T3の歪度合いが十分小さいと判断された場合、処理を、終了させる(視点特定処理を完了させる)。   If it is determined that the degree of distortion of the third test image Img1_T3 projected on the inclined ceiling CL is not sufficiently small, the process returns to step S301. On the other hand, when it is determined that the degree of distortion of the third test image Img1_T3 projected on the inclined ceiling CL is sufficiently small, the processing ends (the viewpoint specifying processing is completed).

以上のように、投影システム1000で実行される投影方法では、表示したときの上部が分かるテスト画像を傾斜天井平面CLに投影し、ユーザーがコントローラ200により、以下の(1)〜(3)の処理をプロジェクター装置100に実行させることで、傾斜天井平面CLに投影されている画像の幾何的な歪みをなくす(低減させる)ことができる。
(1)傾斜天井平面CL内で投影画像を、ユーザーから見たときに、第1テスト画像Img1_T1の縦中心線L1vが垂直に見えるように回転させる処理(第1回転処理)。
(2)傾斜天井平面CL内で投影画像を、ユーザーから見たときに、第2テスト画像Img1_T2の横中心線L1hが水平に見えるように回転させる処理(第2回転処理)。
(3)第1回転処理の完了後において、傾斜天井CLに投影されている第1テスト画像Img1_T1の縦中心線L1vを含む第1直線と、第2回転処理の完了後において、傾斜天井CLに投影されている第2テスト画像Img1_T1の横中心線L1hを含む第2直線と、に基づいて、視点候補点を特定し、特定した視点候補点から見たときに、幾何的な歪のない画像を生成し、当該画像を投影する処理(視点特定処理)。
As described above, in the projection method executed by the projection system 1000, a test image that shows the upper part when displayed is projected on the inclined ceiling plane CL, and the user performs the following (1) to (3) using the controller 200. By causing the projector device 100 to execute the processing, it is possible to eliminate (reduce) the geometric distortion of the image projected on the inclined ceiling plane CL.
(1) A process of rotating the projection image in the inclined ceiling plane CL so that the vertical center line L1v of the first test image Img1_T1 looks vertical when viewed from the user (first rotation process).
(2) A process of rotating the projected image in the inclined ceiling plane CL such that the horizontal center line L1h of the second test image Img1_T2 looks horizontal when viewed from the user (second rotation process).
(3) After the completion of the first rotation processing, the first straight line including the vertical center line L1v of the first test image Img1_T1 projected on the inclined ceiling CL and the inclined ceiling CL after the completion of the second rotation processing. A viewpoint candidate point is specified based on a second straight line including the horizontal center line L1h of the projected second test image Img1_T1, and an image without geometric distortion when viewed from the specified viewpoint candidate point. Is generated, and the image is projected (viewpoint specifying process).

したがって、投影システム1000で実行される投影方法では、撮影機能を有する機器を用いることなく、傾斜投影面(例えば、傾斜天井)に投影された画像の幾何的な歪みを、容易かつ適切に、なくす(低減させる)ことができる。   Therefore, the projection method executed by the projection system 1000 easily and appropriately eliminates geometric distortion of an image projected on an inclined projection plane (for example, an inclined ceiling) without using an apparatus having a photographing function. (Reduce).

≪視点特定処理の原理≫
なお、ここで、上記視点特定処理の原理について、説明する。
≫Principle of viewpoint identification processing≫
Here, the principle of the viewpoint identification processing will be described.

3次元空間(xyz座標空間)内の異なる3点を、
A0=(ax0,ay0,az0)
B0=(bx0,by0,bz0)
C0=(cx0,cy0,cz0)
とし、ベクトルVec(C0,A0)(点C0から点A0へのベクトル)と、ベクトルVec(C0,B0)(点C0から点B0へのベクトル)とが直交して見える点をPxとする。
Three different points in a three-dimensional space (xyz coordinate space)
A0 = (ax0, ay0, az0)
B0 = (bx0, by0, bz0)
C0 = (cx0, cy0, cz0)
Let Px be a point at which the vector Vec (C0, A0) (vector from point C0 to point A0) and the vector Vec (C0, B0) (vector from point C0 to point B0) are orthogonal to each other.

そして、点Pxを特定することが解くべき問題(命題)である。   Identifying the point Px is a problem (proposition) to be solved.

この問題を解くために、以下の2つの処理を行えば良い。
(1)ある点P0(例えば、z軸上のある点(0,0,1))から見て、ベクトルVec(C0,A0)と、ベクトルVec(C0,B0)とが直交して見えるようになる幾何変換を求める。なお、ここでは、説明便宜のために、点P0を(0,0,1)として、以下説明する。
P0=GmtrCnv(Px)
Px=(x,y,z)
P0=(0,0,1)
GmtrCnv:幾何変換
(2)点P0に、(1)で求めた幾何変換の逆変換を施した点からは、ベクトルVec(C0,A0)と、ベクトルVec(C0,B0)とが直交して見えるはずである。したがって、
Px=GmtrCnv−1(P0)
GmtrCnv−1:幾何変換GmtrCnvの逆変換
に相当する処理を行うことで、ベクトルVec(C0,A0)(点C0から点A0へのベクトル)と、ベクトルVec(C0,B0)(点C0から点B0へのベクトル)とが直交して見える点Pxを求めることができる。なお、以下では、m0点からm1点へのベクトルをVec(m0,m1)と表記する。
To solve this problem, the following two processes may be performed.
(1) When viewed from a certain point P0 (for example, a certain point (0, 0, 1) on the z-axis), the vector Vec (C0, A0) and the vector Vec (C0, B0) appear to be orthogonal to each other. Find the geometric transformation that gives In addition, here, for convenience of explanation, the point P0 will be described as (0, 0, 1) below.
P0 = GmtrCnv (Px)
Px = (x, y, z)
P0 = (0,0,1)
GmtrCnv: geometric transformation (2) From the point at which point P0 is subjected to the inverse transformation of the geometric transformation obtained in (1), vector Vec (C0, A0) and vector Vec (C0, B0) are orthogonal to each other. You should see it. Therefore,
Px = GmtrCnv -1 (P0)
GmtrCnv -1 : A process corresponding to the inverse transformation of the geometric transformation GmtrCnv is performed to obtain a vector Vec (C0, A0) (vector from point C0 to point A0) and a vector Vec (C0, B0) (vector from point C0 to point (A vector to B0) can be obtained. In the following, a vector from the point m0 to the point m1 is referred to as Vec (m0, m1).

図17は、視点特定処理の原理を説明するための図である。   FIG. 17 is a diagram for explaining the principle of the viewpoint identification processing.

点A0、点B0、点C0は、異なる3点であれば、任意の点でよいが、説明便宜のために、点C0が原点(=(0,0,0))である場合について、以下説明する。つまり、図17(b)に示した場合を例に、以下説明する。つまり、
A0=(ax,ay,az)
B0=(bx,by,bz)
C0=(0,0,0)
である場合について、説明する。
The point A0, the point B0, and the point C0 may be any points as long as they are three different points. However, for convenience of explanation, a case where the point C0 is the origin (= (0, 0, 0)) will be described below. explain. That is, the case shown in FIG. 17B will be described below as an example. That is,
A0 = (ax, ay, az)
B0 = (bx, by, bz)
C0 = (0,0,0)
Is described.

ベクトルVec(C0,A0)がy軸に重なり、かつ、ベクトルVec(C0,B0)がxy平面上となるように、回転処理を実行する。なお、この回転処理は、x軸を中心とする回転処理、y軸を中心とする回転処理、z軸を中心とする回転処理により実現される。   The rotation processing is performed so that the vector Vec (C0, A0) overlaps the y-axis and the vector Vec (C0, B0) is on the xy plane. This rotation processing is realized by rotation processing about the x axis, rotation processing about the y axis, and rotation processing about the z axis.

そして、回転処理後の各点を、点A0’、点B0’、点C0’とすると、点A0’、点B0’、点C0’の座標は、以下のように表すことができる。
A0’=(ax’,ay’,az’)=(0,ay’,0)
B0’=(bx’,by’,bz’)=(bx’,by’,0)
上記回転処理を行う行列は、以下のように表すことができる。
R=Rx・Ry・Rz
なお、Rxは、x軸を中心とする回転処理を表す行列であり、Ryは、y軸を中心とする回転処理を表す行列であり、Rzは、z軸を中心とする回転処理を表す行列である。
If the points after the rotation processing are point A0 ', point B0', and point C0 ', the coordinates of point A0', point B0 ', and point C0' can be expressed as follows.
A0 ′ = (ax ′, ay ′, az ′) = (0, ay ′, 0)
B0 '= (bx', by ', bz') = (bx ', by', 0)
The matrix for performing the rotation process can be expressed as follows.
R = Rx ・ Ry ・ Rz
Note that Rx is a matrix representing rotation processing about the x axis, Ry is a matrix representing rotation processing about the y axis, and Rz is a matrix representing rotation processing about the z axis. It is.

図18は、上記処理を実行した後の点A0’、点B0’、点C0’(=点C0)を示す図である。   FIG. 18 is a diagram showing points A0 ', B0', and C0 '(= point C0) after executing the above processing.

次に、ベクトルVec(C0’,A0’)がyz平面上となり、かつ、ベクトルをVec(C0’,B0’)がxz平面上となるように、y軸を中心とする回転処理、z軸を中心とする回転処理を順に実行する。   Next, the vector Vec (C0 ′, A0 ′) is set on the yz plane, and the vector Vec (C0 ′, B0 ′) is set on the xz plane so that the vector is rotated about the y axis. Are sequentially executed.

上記回転処理後の各点を点A0’’、点B0’’、点C0’’とすると、点A0’’、点B0’’、点C0’’の座標は、以下のようになる。
A0’’=(ax’’,ay’’,az’’)=(0,ay’’,az’’)
B0’’=(bx’’,by’’,bz’’)=(bx’’,0,bz’’)
図19は、上記処理を実行した後の点A0’’、点B0’’、点C0’’(=点C0)を示す図である。
そして、上記回転処理を実行させる回転行列R’は、以下の通りである。

Figure 0006624942
なお、ρはx軸を中心とする回転処理の回転角度であり、θはy軸を中心とする回転処理の回転角度である。 Assuming that the points after the rotation processing are points A0 ″, B0 ″ and C0 ″, the coordinates of the points A0 ″, B0 ″ and C0 ″ are as follows.
A0 ″ = (ax ″, ay ″, az ″) = (0, ay ″, az ″)
B0 ″ = (bx ″, by ″, bz ″) = (bx ″, 0, bz ″)
FIG. 19 is a diagram illustrating points A0 ″, B0 ″, and C0 ″ (= point C0) after the above processing is performed.
Then, a rotation matrix R ′ for executing the rotation processing is as follows.
Figure 0006624942
Here, ρ is the rotation angle of the rotation processing about the x axis, and θ is the rotation angle of the rotation processing about the y axis.

そして、回転処理前後の座標関係から、回転行列R’は、以下のように求められる。

Figure 0006624942
ある点P0(上記では、P0=(0,0,1))に対して、上記幾何変換の逆変換を施した点(この点を点Vp(=(x,y,z))とする)から、ベクトルVec(C0,A0)と、ベクトルVec(C0,B0)とが直交して見えるはずである。 Then, from the coordinate relationship before and after the rotation processing, the rotation matrix R ′ is obtained as follows.
Figure 0006624942
A point obtained by subjecting a point P0 (in the above, P0 = (0, 0, 1)) to inverse transformation of the above geometric transformation (this point is referred to as a point Vp (= (x, y, z))) Therefore, the vector Vec (C0, A0) and the vector Vec (C0, B0) should appear orthogonal.

つまり、以下の数式が成立する。

Figure 0006624942

V’=(0,0,1)
図12(状態4A)における点Pcから点Paまでのベクトルを、上記のベクトルVec(C0,A0)とし、図12(状態4A)における点Pcから点Pbまでのベクトルを、上記のベクトルVec(C0,B0)とすることで、上記と同様にして、図12(状態4A)の点Pc、点Paを通る直線(第1直線)と、点Pc、点Pbを通る直線(第2直線)とが直交して見える点(視点候補点Vp)を算出することができる。 That is, the following formula is established.
Figure 0006624942

V '= (0,0,1)
The vector from the point Pc to the point Pa in FIG. 12 (state 4A) is the above vector Vec (C0, A0), and the vector from the point Pc to the point Pb in FIG. 12 (state 4A) is the vector Vec ( By setting C0, B0), similarly to the above, a straight line (first straight line) passing through the points Pc and Pa in FIG. 12 (state 4A) and a straight line (second straight line) passing through the points Pc and Pb Can be calculated (a viewpoint candidate point Vp).

以上の原理に基づいて、視点特定処理は実行される。   The viewpoint specifying process is executed based on the above principle.

[他の実施形態]
上記実施形態において、第1インターフェース、および/または、第2インターフェースは、無線通信用のインターフェースであってもよいし、有線通信用のインターフェースであってもよい。
[Other embodiments]
In the embodiment, the first interface and / or the second interface may be an interface for wireless communication or an interface for wired communication.

また、上記実施形態では、コントローラ200が2つのボタンである第1ボタンと第2ボタンを有しており、ユーザーが第1ボタン、または、第2ボタンを操作することで、第1回転処理、第2回転処理、台形補正処理が実行される場合について、説明したが、これに限定されることはない。例えば、コントローラ200は、第1回転処理用のボタンを2つ有しており、かつ、第2回転処理用のボタンを2つ有しており、かつ、視点特定処理用のボタンを2つ、別途、有していてもよい。また、コントローラ200は、ボタン以外のインターフェースを有していてもよい。例えば、コントローラ200がジョイスティックを有しており、ユーザーが当該ジョイスティックを操作することで、プロジェクター装置100に、第1回転処理、第2回転処理、視点特定処理を実行させるようにしてもよい。あるいは、コントローラ200が、タッチパネル機能付き表示パネルを有しており、表示パネル上にアイコンを表示させ、当該アイコンに、第1回転処理、第2回転処理、視点特定処理の実行機能を割り当て、当該アイコンをユーザーが操作することにより第1回転処理、第2回転処理、台形補正処理が実行されるようにしてもよい。   Further, in the above embodiment, the controller 200 has two buttons, a first button and a second button. When the user operates the first button or the second button, the first rotation processing, Although the case where the second rotation process and the trapezoidal correction process are executed has been described, the present invention is not limited to this. For example, the controller 200 has two buttons for the first rotation processing, has two buttons for the second rotation processing, and has two buttons for the viewpoint identification processing, You may have it separately. Further, the controller 200 may have an interface other than the buttons. For example, the controller 200 may have a joystick, and the user may operate the joystick to cause the projector device 100 to execute the first rotation processing, the second rotation processing, and the viewpoint identification processing. Alternatively, the controller 200 has a display panel with a touch panel function, displays an icon on the display panel, assigns an execution function of the first rotation processing, the second rotation processing, and the viewpoint identification processing to the icon, and The first rotation processing, the second rotation processing, and the trapezoid correction processing may be executed by the user operating the icon.

また、上記実施形態において、投影システムの投影面は、図5等に示した傾斜の平面の天井であるとして、説明したが、これに限定されることはなく、投影面は、床に対して(あるいは、ユーザーの視点に対して)、任意の方向、角度の傾斜であってもよい。この場合であっても、上記と同様の処理を行うことで、傾斜平面を投影面として、ユーザーの視点から見たときに、幾何的な歪みのない画像(幾何的な歪みの低減された画像)を投影することができる。   In the above embodiment, the projection surface of the projection system has been described as being the ceiling of the inclined plane shown in FIG. 5 and the like. However, the present invention is not limited to this. (Or with respect to the user's viewpoint), it may be inclined in any direction and angle. Even in this case, by performing the same processing as above, an image without geometric distortion (an image with reduced geometric distortion) when viewed from the user's viewpoint with the inclined plane as the projection plane ) Can be projected.

また、「水平」、「垂直」、「縦」、「横」、「平面」等の文言は、厳密な意味での、「水平」、「垂直」、「縦」、「横」等の場合のみを含むのではなく、「略水平」、「略垂直」、「略縦」、「略横」、「略平面」等を含む概念の文言である。また、「水平」、「垂直」、「縦」、「横」、「平面」等の文言は、設計誤差や測定誤差を許容する概念を含む文言である。   Words such as “horizontal”, “vertical”, “vertical”, “horizontal”, and “plane” are strictly meaning “horizontal”, “vertical”, “vertical”, “horizontal”, etc. The wording of the concept does not include only “substantially horizontal”, “substantially vertical”, “substantially vertical”, “substantially horizontal”, “substantially flat” and the like. Further, words such as “horizontal”, “vertical”, “vertical”, “horizontal”, and “plane” are words including a concept that allows a design error or a measurement error.

上記実施形態で説明した投影システム、プロジェクター装置、コントローラにおいて、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。   In the projection system, the projector device, and the controller described in the above embodiment, each block may be individually formed into one chip by a semiconductor device such as an LSI, or may be formed into one chip so as to include a part or the whole. good.

なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。   Here, the LSI is used, but it may be called an IC, a system LSI, a super LSI, or an ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。   Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

また、上記各実施形態の各機能ブロック(各機能部)の処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。例えば、図20に示すような構成により、上記各実施形態の各機能ブロック(各機能部)の処理の一部または全部が実行されるものであっても良い。   A part or all of the processing of each functional block (each functional unit) in each of the above embodiments may be realized by a program. Part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in a computer. Further, programs for performing the respective processes are stored in a storage device such as a hard disk and a ROM, and are executed by being read from the ROM or from the RAM. For example, a part or all of the processing of each functional block (each functional unit) of each of the above embodiments may be executed by a configuration as shown in FIG.

また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。   Further, each process of the above embodiment may be realized by hardware, or may be realized by software (including a case where it is realized together with an OS (Operating System), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware.

また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。   Further, the execution order of the processing method in the embodiment is not necessarily limited to the description of the embodiment, and the execution order can be changed without departing from the gist of the invention.

また、上記実施形態における調整処理(画像の幾何的な歪みを低減させるための調整処理)において、補正処理、第1回転処理、第2回転処理、および、視点特定処理の処理内容が決まれば、実際の投影時には、必ずしも、補正処理、第1回転処理、第2回転処理、および、視点特定処理を分けて実行する必要はなく、全ての変換を一括で実施する画像処理を実行するようにしてもよい。   In the adjustment processing (adjustment processing for reducing geometric distortion of an image) in the above embodiment, if the processing contents of the correction processing, the first rotation processing, the second rotation processing, and the viewpoint identification processing are determined, At the time of actual projection, it is not always necessary to separately execute the correction processing, the first rotation processing, the second rotation processing, and the viewpoint identification processing, and image processing for executing all conversions at once is performed. Is also good.

前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。   A computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention. Here, examples of the computer-readable recording medium include a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, large-capacity DVD, next-generation DVD, and semiconductor memory. .

上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。   The computer program is not limited to the one recorded on the recording medium, and may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.

また、文言「部」は、「サーキトリー(circuitry)」を含む概念であってもよい。サーキトリーは、ハードウェア、ソフトウェア、あるいは、ハードウェアおよびソフトウェアの混在により、その全部または一部が、実現されるものであってもよい。   In addition, the word “part” may be a concept including “circuitry”. The circuit may be realized in whole or in part by hardware, software, or a mixture of hardware and software.

なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。   The specific configuration of the present invention is not limited to the above embodiment, and various changes and modifications can be made without departing from the spirit of the invention.

1000 投影システム
100 プロジェクター装置
1 投影画像調整部
2 テスト画像記憶部
3 投影部
4 3次元形状測定部
5 3次元形状データ記憶部
6 第1インターフェース
1000 Projection system 100 Projector device 1 Projected image adjustment unit 2 Test image storage unit 3 Projection unit 4 3D shape measurement unit 5 3D shape data storage unit 6 First interface

Claims (9)

左眼視点と右眼視点とを含む平面に平行な平面であって、右眼角膜および左眼角膜の共通の接平面である前記平面に対して、傾斜した平面を投影面とし、ユーザーの視点から見たときに幾何学的な画像歪みが低減された状態となるように画像を投影する投影システムであって、
前記投影面に画像を投影する投影部であって、画像の垂直方向を規定する縦基準線を有する第1テスト画像を投影するとともに、画像の水平方向を規定する横基準線を有する第2テスト画像を投影する前記投影部と、
前記投影面の3次元形状を測定する3次元形状測定部と、
ユーザーの操作に基づく制御信号を生成するコントローラと、
(1A)前記3次元形状測定部により計測された3次元形状データに基づいて、前記投影部の投影軸と前記投影面との交点である投影中心点を通前記投影面の法線上の点である第1点から見たときに、幾何学的な画像歪みが低減された状態とるように、前記第1テスト画像に対して画像変換処理である補正処理を実行し、
(2A)前記制御信号に従い第1回転角度を決定し、前記第1点から前記投影面を見たときに、前記補正処理後の前記第1テスト画像の前記投影部による前記投影面への投影画像が前記投影中心点を中心として、前記第1回転角度だけ回転した画像となるように、前記補正処理後の前記第1テスト画像に対して画像変換処理である第1回転処理を実行し、
(1B)前記3次元形状測定部により計測された3次元形状データに基づいて、前記投影部の投影軸と前記投影面との交点である投影中心点を通前記投影面の法線上の点である第1点から見たときに、幾何学的な画像歪みが低減された状態とるように、前記第2テスト画像に対して画像変換処理である補正処理を実行し、
(2B)前記制御信号に従い第2回転角度を決定し、前記第1点から前記投影面を見たときに、前記補正処理後の前記第2テスト画像の前記投影部による前記投影面への投影画像が前記投影中心点を中心として、前記第2回転角度だけ回転した画像となるように、前記補正処理後の前記第2テスト画像に対して画像変換処理である第2回転処理を実行し、
(3)前記第1回転処理後の前記第1テスト画像の前記投影面上の前記縦基準線を含む直線である第1直線と、前記第2回転処理後の前記第2テスト画像の前記投影面上の前記縦基準線を含む直線である第2直線とに基づいて、前記第1直線と前記第2直線とが直交して見える視点候補点を決定し、決定した視点候補点である決定視点候補点から見たときに幾何学的な画像歪みが低減された状態とるように、前記投影面に投影される画像を変換する視点特定処理を実行する、投影画像調整部と、
を備え
前記投影画像調整部は、
前記第1回転処理を実行して、前記第1テスト画像の前記縦基準線に対応する、前記第1テスト画像の前記投影画像上の線が、ユーザーの視点から見たときに、垂直な直線となる状態である第1状態となった後、前記第2回転処理を実行し、
さらに、前記投影画像調整部は、
前記第2回転処理を実行することで、前記第2テスト画像の前記横基準線に対応する、前記第2テスト画像の前記投影画像上の線が、ユーザーの視点から見たときに、水平な直線となる状態である第2状態となった後、前記視点特定処理を実行し、
さらに、前記投影画像調整部は、
前記コントローラからの前記制御信号に従い、現時点よりも前に設定された前記決定視点候補点を、前記視点候補点に含まれる点であって、現時点よりも前に設定された前記決定視点候補点以外の点に変更することで、前記決定視点候補点を変更し、変更した前記決定視点候補点を用いて、前記視点特定処理を実行する、
投影システム。
A plane parallel to a plane including the left-eye viewpoint and the right-eye viewpoint, and a plane inclined with respect to the plane that is a common tangent plane of the right-eye cornea and the left-eye cornea is set as a projection plane, and the user's viewpoint A projection system for projecting an image so that when viewed from a geometric image distortion is reduced,
A projection unit for projecting an image on the projection plane, the projection unit projecting a first test image having a vertical reference line defining a vertical direction of the image, and a second test having a horizontal reference line defining a horizontal direction of the image. Said projection unit for projecting an image,
A three-dimensional shape measuring unit for measuring a three-dimensional shape of the projection plane;
A controller that generates a control signal based on a user operation;
(1A) on the basis of the three-dimensional shape three-dimensional shape data measured by the measuring unit, a point on the normal line of passing Ru said projection surface a projection center point which is the intersection between the projection plane and the projection axis of said projection portion when viewed from the first point is, so that such a state where the geometric image distortion is reduced, performs a correction process is an image conversion process on the first test image,
(2A) determining a first rotation angle in accordance with the control signal, and projecting the corrected first test image onto the projection surface by the projection unit when the projection surface is viewed from the first point; Performing a first rotation process as an image conversion process on the first test image after the correction process so that the image is an image rotated by the first rotation angle around the projection center point;
(1B) on the basis of the three-dimensional shape three-dimensional shape data measured by the measuring unit, a point on the normal line of passing Ru said projection surface a projection center point which is the intersection between the projection plane and the projection axis of said projection portion when viewed from the first point is, so that such a state where the geometric image distortion is reduced, performs a correction process is an image conversion process on the second test image,
(2B) When the second rotation angle is determined according to the control signal and the projection plane is viewed from the first point, projection of the second test image after the correction processing onto the projection plane by the projection unit. Performing a second rotation process as an image conversion process on the second test image after the correction process so that the image is an image rotated by the second rotation angle around the projection center point;
(3) a first straight line including the vertical reference line on the projection plane of the first test image after the first rotation process, and the projection of the second test image after the second rotation process; A viewpoint candidate point where the first straight line and the second straight line appear orthogonal to each other is determined based on a second straight line that is a straight line including the vertical reference line on a plane, and the determined viewpoint candidate point is determined. in so that such a state of geometrical image distortion is reduced when viewed from the perspective candidate points, to perform the viewpoint specific process of converting the image projected on the projection plane, a projection image adjustment unit,
Equipped with a,
The projection image adjustment unit,
A line on the projection image of the first test image corresponding to the vertical reference line of the first test image is a vertical straight line when viewed from a user's viewpoint by executing the first rotation process. After the first state is reached, the second rotation process is executed,
Further, the projection image adjustment unit includes:
By executing the second rotation process, a line on the projection image of the second test image corresponding to the horizontal reference line of the second test image is horizontal when viewed from a user's viewpoint. After the second state, which is a straight line state, the viewpoint specifying process is executed,
Further, the projection image adjustment unit includes:
According to the control signal from the controller, the determined viewpoint candidate point set before the current time, a point included in the viewpoint candidate point, other than the determined viewpoint candidate point set before the current time By changing to the point of, the determined viewpoint candidate point is changed, and using the changed determined viewpoint candidate point, the viewpoint specifying process is executed,
Projection system.
前記投影画像調整部は、
前記投影部の光軸をz軸とし、前記投影部の光軸を法線とする平面をxy平面とするようにx軸およびy軸を設定したxyz座標空間において、
前記第1回転処理後の前記第1テスト画像の前記投影面上の前記縦基準線を含む直線である第1直線上の点を点Paとし、点Paの座標を(ax,ay,az)とし、
前記第2回転処理後の前記第2テスト画像の前記投影面上の前記横基準線を含む直線である第2直線上の点を点Pbとし、点Pbの座標を(bx,by,bz)とし、
前記第1直線と前記第2直線との交点を点Pcとして算出し、算出した点Pcの座標を(cx,cy,cz)としたとき、
A=−ax×by+ay×bx
B=−ax×bz+az×bx
C=−az×by+ay×bz
に相当する処理を実行し、係数A、B、Cを取得し、
Figure 0006624942
Figure 0006624942
Figure 0006624942
により、回転行列Rx,Ry、Rzを取得し、
回転行列Rx,Ry、Rzの合成行列をR
R=Rz・Ry・Rx
に相当する処理を実行することで取得し、
前記回転行列の逆行列をR−1として取得し、
点Pbの座標(bx,by,bz)に対して、前記合成行列により変換した点を点Pb’として取得し、点Pb’の座標を(bx’,by’,bz’)として取得し、
前記コントローラからの前記制御信号に基づいて、角度θを決定し、
係数A’を
Figure 0006624942
により取得し、
前記視点候補点の座標(x,y,z)を、
Figure 0006624942
Figure 0006624942
Figure 0006624942
V’=(0,0,1)
により算出する、
請求項1に記載の投影システム。
The projection image adjustment unit,
In the xyz coordinate space in which the x-axis and the y-axis are set such that the optical axis of the projection unit is the z-axis and the plane whose normal is the optical axis of the projection unit is the xy plane,
A point on a first straight line that is a straight line including the vertical reference line on the projection plane of the first test image after the first rotation processing is a point Pa, and coordinates of the point Pa are (ax, ay, az). age,
A point on a second straight line including the horizontal reference line on the projection plane of the second test image after the second rotation processing is a point Pb, and coordinates of the point Pb are (bx, by, bz). age,
When the intersection of the first straight line and the second straight line is calculated as a point Pc, and the coordinates of the calculated point Pc are (cx, cy, cz),
A = −ax × by + ay × bx
B = −ax × bz + az × bx
C = -az × by + ay × bz
Is performed, and coefficients A, B, and C are obtained,
Figure 0006624942
Figure 0006624942
Figure 0006624942
To obtain the rotation matrices Rx, Ry, Rz,
The composite matrix of the rotation matrices Rx, Ry and Rz is R
R = Rz ・ Ry ・ Rx
Is obtained by executing the process corresponding to
Obtaining the inverse of the rotation matrix as R −1 ,
With respect to the coordinates (bx, by, bz) of the point Pb, a point converted by the synthesis matrix is obtained as a point Pb ′, and the coordinates of the point Pb ′ are obtained as (bx ′, by ′, bz ′);
Based on the control signal from the controller, determine the angle θ,
Coefficient A '
Figure 0006624942
Acquired by
The coordinates (x, y, z) of the viewpoint candidate point are
Figure 0006624942
Figure 0006624942
Figure 0006624942
V '= (0,0,1)
Calculated by
The projection system according to claim 1.
前記第1テスト画像は、表示画面に表示されている状態において、前記第1テスト画像の中心点を通る前記縦基準線を含む、
請求項1又は2に記載の投影システム。
The first test image, when displayed on a display screen, includes the vertical reference line passing through a center point of the first test image,
The projection system according to claim 1.
前記第2テスト画像は、表示画面に表示されている状態において、前記第2テスト画像の中心点を通る前記横基準線を含む、
請求項1又は2に記載の投影システム。
The second test image, when displayed on a display screen, includes the horizontal reference line passing through a center point of the second test image.
The projection system according to claim 1.
前記第1テスト画像は、
表示画面に表示されている状態において、画像上の上部を判別することができるパターンを含む画像である、
請求項1から4のいずれかに記載の投影システム。
The first test image is
In a state displayed on the display screen, is an image including a pattern that can determine the upper part of the image,
The projection system according to claim 1.
前記視点特定処理が実行される場合、
前記投影画像調整部は、
複数の正方形の格子パターンからなる格子状パターンを含む第3テスト画像に対して、前記視点特定処理を実行し、
前記投影部は、前記視点特定処理の実行後の前記第3テスト画像を前記投影面に投影する、
請求項1から5のいずれかに記載の投影システム。
When the viewpoint identification processing is performed,
The projection image adjustment unit,
Performing the viewpoint specifying process on a third test image including a grid pattern including a plurality of square grid patterns ;
The projection unit projects the third test image after the execution of the viewpoint identification processing on the projection plane ,
The projection system according to claim 1.
前記第3テスト画像は、
第1の模様を有する第1格子パターンと、第2の模様を有する第2格子パターンとが、幾何学的な歪みがない状態において、前記第3テスト画像上の第1方向、および、前記第3テスト画像上において前記第1方向と直交する第2方向において、交互に配置されることで形成される格子状パターンを含む画像である、
請求項6に記載の投影システム。
The third test image is
A first grating pattern having a first pattern, a second grating pattern having a second pattern, in the absence geometrical distortion, the first direction on the third test image, and the second 3 is an image including a grid pattern formed by being alternately arranged in a second direction orthogonal to the first direction on the test image,
The projection system according to claim 6.
請求項1から7のいずれかに記載の投影システムに用いられるプロジェクター装置であって、
前記投影部と、前記投影画像調整部とを備える、
プロジェクター装置。
A projector device used in the projection system according to any one of claims 1 to 7,
The projection unit, comprising the projection image adjustment unit,
Projector device.
ユーザーの操作に基づく制御信号を生成するコントローラを用いて実行される投影方法であって、左眼視点と右眼視点とを含む平面に平行な平面であって、右眼角膜および左眼角膜の共通の接平面である前記平面に対して、傾斜した平面を投影面とし、ユーザーの視点から見たときに幾何学的な画像歪みが低減された状態となるように画像を投影する投影方法をコンピュータで実行するためのプログラムであって、
前記投影面に画像を投影する投影ステップであって、画像の垂直方向を規定する縦基準線を有する第1テスト画像を投影するとともに、画像の水平方向を規定する横基準線を有する第2テスト画像を投影する前記投影ステップと、
前記投影面の3次元形状を測定する3次元形状測定ステップと、
と、
(1A)前記3次元形状測定ステップにより計測された3次元形状データに基づいて、前記投影ステップで画像を投影するための投影軸と前記投影面との交点である投影中心点を通前記投影面の法線上の点である第1点から見たときに、幾何学的な画像歪みが低減された状態とるように、前記第1テスト画像に対して画像変換処理である補正処理を実行し、
(2A)前記制御信号に従い第1回転角度を決定し、前記第1点から前記投影面を見たときに、前記補正処理後の前記第1テスト画像の前記投影ステップによる前記投影面への投影画像が前記投影中心点を中心として、前記第1回転角度だけ回転した画像となるように、前記補正処理後の前記第1テスト画像に対して画像変換処理である第1回転処理を実行し、
(1B)前記3次元形状測定ステップにより計測された3次元形状データに基づいて、前記投影ステップで画像を投影するための投影軸と前記投影面との交点である投影中心点を通前記投影面の法線上の点である第1点から見たときに、幾何学的な画像歪みが低減された状態とるように、前記第2テスト画像に対して画像変換処理である補正処理を実行し、
(2B)前記制御信号に従い第2回転角度を決定し、前記第1点から前記投影面を見たときに、前記補正処理後の前記第2テスト画像の前記投影ステップによる前記投影面への投影画像が前記投影中心点を中心として、前記第2回転角度だけ回転した画像となるように、前記補正処理後の前記第2テスト画像に対して画像変換処理である第2回転処理を実行し、
(3)前記第1回転処理後の前記第1テスト画像の前記投影面上の前記縦基準線を含む直線である第1直線と、前記第2回転処理後の前記第2テスト画像の前記投影面上の前記縦基準線を含む直線である第2直線とに基づいて、前記第1直線と前記第2直線とが直交して見える視点候補点を決定し、決定した視点候補点である決定視点候補点から見たときに幾何学的な画像歪みが低減された状態とるように、前記投影面に投影される画像を変換する視点特定処理を実行する、投影画像調整ステップと、
を備え
前記投影画像調整ステップでは、
前記第1回転処理を実行して、前記第1テスト画像の前記縦基準線に対応する、前記第1テスト画像の前記投影画像上の線が、ユーザーの視点から見たときに、垂直な直線となる状態である第1状態となった後、前記第2回転処理を実行し、
さらに、前記投影画像調整ステップでは、
前記第2回転処理を実行することで、前記第2テスト画像の前記横基準線に対応する、前記第2テスト画像の前記投影画像上の線が、ユーザーの視点から見たときに、水平な直線となる状態である第2状態となった後、前記視点特定処理を実行し、
さらに、前記投影画像調整ステップでは、
前記コントローラからの前記制御信号に従い、現時点よりも前に設定された前記決定視点候補点を、前記視点候補点に含まれる点であって、現時点よりも前に設定された前記決定視点候補点以外の点に変更することで、前記決定視点候補点を変更し、変更した前記決定視点候補点を用いて、前記視点特定処理を実行する、
投影方法をコンピュータで実行するためのプログラム。

A projection method executed using a controller that generates a control signal based on a user operation, a plane parallel to a plane including a left-eye viewpoint and a right-eye viewpoint, and a right-eye cornea and a left-eye cornea. A projection method for projecting an image such that an inclined plane is a projection plane with respect to the plane that is a common tangent plane, and a geometric image distortion is reduced when viewed from a user's viewpoint. A program to be executed on a computer,
A projecting step of projecting an image on the projection plane, wherein a first test image having a vertical reference line defining a vertical direction of the image is projected, and a second test having a horizontal reference line defining a horizontal direction of the image is performed. Said projecting step of projecting an image;
A three-dimensional shape measuring step of measuring a three-dimensional shape of the projection plane;
When,
(1A) the three-dimensional shape measurement based on the three-dimensional shape data measured by the step, the Ru through the projection center point which is the intersection of the projection and the projection axis for projecting the image in step with the projection plane the projection when viewed from the first point is a point on the normal line of the surface, and such so that the state in which the geometric image distortion is reduced, which is the image conversion process with respect to the first test image correction process Run,
(2A) determining a first rotation angle according to the control signal, and projecting the first test image after the correction processing onto the projection surface when the projection surface is viewed from the first point by the projection step; Performing a first rotation process as an image conversion process on the first test image after the correction process so that the image is an image rotated by the first rotation angle around the projection center point;
(1B) the three-dimensional shape measurement based on the three-dimensional shape data measured by the step, the Ru through the projection center point which is the intersection of the projection and the projection axis for projecting the image in step with the projection plane the projection when viewed from the first point is a point on the normal line of the surface, and such so that the state in which the geometric image distortion is reduced, which is the image conversion process on the second test image correction processing Run,
(2B) determining a second rotation angle according to the control signal, and projecting the second test image after the correction processing onto the projection surface in the projection step when the projection surface is viewed from the first point. Performing a second rotation process as an image conversion process on the second test image after the correction process so that the image is an image rotated by the second rotation angle around the projection center point;
(3) a first straight line including the vertical reference line on the projection plane of the first test image after the first rotation process, and the projection of the second test image after the second rotation process; A viewpoint candidate point where the first straight line and the second straight line appear orthogonal to each other is determined based on a second straight line that is a straight line including the vertical reference line on a plane, and the determined viewpoint candidate point is determined. in so that such a state of geometrical image distortion is reduced when viewed from the perspective candidate points, to perform the viewpoint specific process of converting the image projected on the projection plane, a projection image adjustment step,
Equipped with a,
In the projection image adjusting step,
A line on the projection image of the first test image corresponding to the vertical reference line of the first test image is a vertical straight line when viewed from a user's viewpoint by executing the first rotation process. After the first state is reached, the second rotation process is executed,
Further, in the projection image adjusting step,
By executing the second rotation process, a line on the projection image of the second test image corresponding to the horizontal reference line of the second test image is horizontal when viewed from a user's viewpoint. After the second state, which is a straight line state, the viewpoint specifying process is executed,
Further, in the projection image adjusting step,
According to the control signal from the controller, the determined viewpoint candidate point set before the current time, a point included in the viewpoint candidate point, other than the determined viewpoint candidate point set before the current time By changing to the point of, the determined viewpoint candidate point is changed, and using the changed determined viewpoint candidate point, the viewpoint specifying process is executed,
A program for executing the projection method on a computer.

JP2016007581A 2015-03-30 2016-01-19 Projection system, projector device, and program Active JP6624942B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016007581A JP6624942B2 (en) 2016-01-19 2016-01-19 Projection system, projector device, and program
EP16772050.7A EP3280136B1 (en) 2015-03-30 2016-03-01 Projection systems and projection methods
PCT/JP2016/056253 WO2016158166A1 (en) 2015-03-30 2016-03-01 Projection system, projector device, and program
US15/719,329 US9928580B2 (en) 2015-03-30 2017-09-28 Projection system, projector apparatus, and projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016007581A JP6624942B2 (en) 2016-01-19 2016-01-19 Projection system, projector device, and program

Publications (3)

Publication Number Publication Date
JP2017130732A JP2017130732A (en) 2017-07-27
JP2017130732A5 JP2017130732A5 (en) 2018-08-02
JP6624942B2 true JP6624942B2 (en) 2019-12-25

Family

ID=59396377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016007581A Active JP6624942B2 (en) 2015-03-30 2016-01-19 Projection system, projector device, and program

Country Status (1)

Country Link
JP (1) JP6624942B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6460088B2 (en) * 2016-12-14 2019-01-30 カシオ計算機株式会社 Projection apparatus, projection method, and program
US10871640B2 (en) * 2019-02-15 2020-12-22 Perkinelmer Cellular Technologies Germany Gmbh Methods and systems for automated imaging of three-dimensional objects

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4283632B2 (en) * 2003-10-16 2009-06-24 日本電信電話株式会社 Information presenting apparatus, information presenting system, information presenting method, and information presenting program
JP4710780B2 (en) * 2006-09-28 2011-06-29 日本ビクター株式会社 Image projection display device
JP5121673B2 (en) * 2007-11-06 2013-01-16 パナソニック株式会社 Image projection apparatus and image projection method
JP5783829B2 (en) * 2011-07-21 2015-09-24 三菱プレシジョン株式会社 Method for correcting image distortion, device for correcting image distortion, simulated visual field display device, and simulator for operation training
JP6172495B2 (en) * 2012-12-28 2017-08-02 株式会社リコー Calibration apparatus, apparatus, projector, three-dimensional scanner, calibration method, method, program, and storage medium

Also Published As

Publication number Publication date
JP2017130732A (en) 2017-07-27

Similar Documents

Publication Publication Date Title
WO2016158166A1 (en) Projection system, projector device, and program
JP5035372B2 (en) 3D modeling apparatus, 3D modeling method, and program
JP4012710B2 (en) Image input device
JP6636252B2 (en) Projection system, projector device, imaging device, and program
US6031941A (en) Three-dimensional model data forming apparatus
JP4481280B2 (en) Image processing apparatus and image processing method
WO2008150027A1 (en) Image processing device, image processing method, and image processing program
JP7258572B2 (en) Image display device and method
JP2011253376A (en) Image processing device, image processing method and program
US11962946B2 (en) Image processing apparatus, display system, image processing method, and medium
JP2016085380A (en) Controller, control method, and program
JP2002071315A (en) Projection planar measuring system
JP6624942B2 (en) Projection system, projector device, and program
JPWO2018167918A1 (en) Projector, mapping data creation method, program, and projection mapping system
JP2007033087A (en) Calibration device and method
JP2016072691A (en) Image processing system, control method of the same, and program
KR102176322B1 (en) Multi projector control system and method
JP6282157B2 (en) Shape recognition device
JP2016142991A (en) Image processing system, information processing device, image processing method and program
JP2022106868A (en) Imaging device and method for controlling imaging device
JP2017152998A (en) Projection system and program
JP6624799B2 (en) Projection system, projector device, and program
JP5785896B2 (en) 3D shape measuring device
JP2013153392A (en) Image processing apparatus and image processing method, and program
CN103299156B (en) The system and method creating 3 D image file

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191126

R150 Certificate of patent or registration of utility model

Ref document number: 6624942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250